首页 游戏攻略 正文

谷歌高管为AI模型绘制不出白人道歉后用户怎么看?网友反应汇总!

早上刷手机的时候突然看到条热搜,标题挺抓眼,说谷歌高管因为AI画不出白人出来道歉了。我当时正喝咖啡,差点呛着——谷歌的AI画画工具我前几天还用过,没想到闹这出。赶紧点开详情页扒拉。

追事件源头

顺着几个科技博主的转发链摸到原始报道。原来是谷歌图像生成工具Gemini被网友测试,输入“18世纪英国国王”“美国开国元勋”这种关键词,生成的全是黑人形象。有人较真儿,连着试了十几次“白人夫妻”“金发美女”这种直白描述,结果出来的要么肤色偏深,要么直接塞进有色人种面孔。

谷歌高管为AI模型绘制不出白人道歉后用户怎么看?网友反应汇总!

更离谱的是,有人让AI画“1943年德国士兵”,生成图里居然混进个黑人女兵,穿纳粹军装还顶着深色皮肤——好家伙,历史事实都敢魔改!事情闹大后,谷歌搜索部门高管只好发声明认错,承认“过度调整了多样性机制”。

爬网友评论

好奇心被彻底勾起来了,我花了俩小时翻遍海外平台热门讨论区。网友反应特别有意思,基本分成几类:

谷歌高管为AI模型绘制不出白人道歉后用户怎么看?网友反应汇总!

  • 段子手型:有人把AI生成的彩色版华盛顿做表情包,配文“当你政审不合格但KPI达标了”,还有人说“下次让Gemini画根香蕉,可能直接长出黑人兄弟的脸”。
  • 愤怒派:不少欧美网友骂得特难听,说这是“逆向歧视”“科技界白左癌晚期”。有个老哥晒出自己连刷27次“白人高中生踢足球”的生成图,愣是没出现一张白脸,气得他骂谷歌“该去治眼睛”。
  • 阴谋论党:评论里还藏着不少技术分析党,有人扒出去年谷歌内部文件泄密截图,显示公司要求图像产品“确保20%生成为深肤色人群”——现在看这比例可能被悄悄调得更高。

本地社区观察

顺手点开国内论坛,发现这边更关注技术漏洞。有程序员分析说这是数据标注的灾难现场:“训练时疯狂打‘避免种族刻板印象’标签,AI怕犯错干脆一刀切,看见白人关键词都绕着走”。还有人吐槽谷歌把AI当幼儿园小朋友管:“左脸挨了拳就拼命护左脸,结果右脸肿成猪头”。

最逗的是微博评论区,有人甩出国内某绘图软件生成的“唐朝美人图”——满头珠翠配蕾丝裙,脚上还蹬耐克鞋。热评第一说:“得了,咱们的AI连朝代都能混搭,谷歌至少没给华盛顿穿龙袍!”

谷歌高管为AI模型绘制不出白人道歉后用户怎么看?网友反应汇总!

我的实践笔记

下班前我自己也拿几个主流AI绘图工具做测试。输入“程序员写代码”,某国外工具生成清一色亚裔眼镜男;换成“护士”又全变成白人女性——合着谁都没跳出刻板印象,只是谷歌用力过猛翻车翻得最轰动。

关电脑前突然想到去年小区换物业。新物业怕被投诉“清洁不周”,让保洁每天刷三次垃圾桶,结果垃圾车来不及清运,反而招来更多老鼠。这和谷歌的失误多像——解决问题时只盯着一个指标猛调,迟早在其他地方爆雷

睡前发了条私密笔记:“搞技术别学物业刷垃圾桶,平衡木玩砸了,摔得最惨的往往是喊口号最大声的。”

相关推荐