拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

AI 生成东西的成见何时休?在人工智能构筑的世界中,AI 有时会像人一样存在着某种成见或倾向性。比如对于大语言模型而言,由于训练数据的影响会不可避免地存在性别成见、种族呆板影像,等等。当然,这种成见或倾向性在图象生成东西中同样存在。今年 2 月,谷歌 Gemini 被曝出拒绝在图象中描绘白人,生成大量违背基本事实(性别、种族、宗教等)的图片。                               马斯克也被系统过分矫正了。近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 图象生成器无法精确生

AI 生成东西的成见何时休?

在人工智能构筑的世界中,AI 有时会像人一样存在着某种成见或倾向性。比如对于大语言模型而言,由于训练数据的影响会不可避免地存在性别成见、种族呆板影像,等等。

当然,这种成见或倾向性在图象生成东西中同样存在。今年 2 月,谷歌 Gemini 被曝出拒绝在图象中描绘白人,生成大量违背基本事实(性别、种族、宗教等)的图片。

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

                               马斯克也被系统过分矫正了。

近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 图象生成器无法精确生成「亚洲男性和白人老婆」或者「亚洲女性和白人丈夫」这类图象,让人大跌眼镜。我们来看看怎么回事。

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

The Verge 尝试使用了「Asian man and Caucasian friend」(亚洲男性和白人朋侣)、「Asian man and white wife」(亚洲男性和白人老婆)和「Asian woman and Caucasian husband」(亚洲女性和白人丈夫)等 prompt,让 Meta 图象生成器生成对应的图象。

结果发现,Meta 图象生成器在多数情况下无法遵照 prompt 来生成图象,暴露出了它的某种成见。

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

                                   图源:Mia Sato/The Verge

不仅如此,调整文本 prompt 似乎也没有多大帮助。

当输出「Asian man and white woman smiling with a dog」(亚洲男性和白人女性带着狗微笑)时,Meta 图象生成器给出的都是「两个亚洲人」的图象。即使将「white」改为「Caucasian」时,结果同样如此。

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

                               机器之心自测图象。

当输出「Asian man and Caucasian woman on wedding day」(婚礼上的亚洲男性和白人女性)时,生成的依然是两个亚洲人。

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

                                    婚礼上的亚洲男人和白人女人。图源:Mia Sato/The Verge

当输出「Asian man with Caucasian friend」(亚洲男性和白人朋侣)或「Asian woman and white friend」(亚洲女性和白人朋侣)时, 生成的大多数图象仍是两个亚洲人形象。

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

                                自测图象。

当输出「Asian woman with Black friend」(亚洲女性和黑人朋侣)时,Meta 图象生成器仍是两名亚洲女性。但当将 prompt 调整为「Asian woman with African American friend」(亚洲女性和非裔美国朋侣),结果反而精确得多。

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

                                自测图象。

此外,当指定南亚人时,Meta 图象生成器的结果变化也不太大。当输出「South Asian man with Caucasian wife」(南亚男性和白人老婆)时,大多数时候是两个印度人形象。该东西还有呆板影像,在没有要求的情况下,生成的南亚女性往往会穿戴纱丽。

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

                                自测图象。

一番测试发现,Meta 图象生成器无法想象亚洲人与白人「同框」,这样的结果令人震惊。其中,该东西始终将亚洲女性或男性描绘为肤色浅的东亚人,尽管印度已经成为世界上人口最多的国家。在没有明确提示的情况下,该东西还会添加特定文化服饰。

最后,机器之心使用类似的 prompt 验证了 The Verge 的结果,对于 prompt「亚洲女性和白人丈夫」,生成的 10 张图象中,只有 3 张图象精确还原。

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

输出 prompt「asian man and caucasian wife」(亚洲男性和白人老婆),结果更离谱,生成的 8 张图象没有一张还原。

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

其实,这并不是 Meta 的图象生成东西第一次被曝出问题了。去年 10 月,Meta 的 AI 生成贴纸东西创建了大量不恰当的图片,比如童兵、持枪和拿刀的米老鼠等暴力、粗鲁、裸露形象。

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

                              图源:arstechnica and meta

此次,Meta 图象生成器再次让我们警醒 AI 系统创建者、训练者以及所用数据集可能存在的成见和呆板影像。

对于 The Verge 发现的这一现象,有网友分析称,这是 Meta 在训练的时候没有喂给模型关于这一场景足够的示例。

拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了

你觉得呢?

原文链接:https://www.theverge.com/2024/4/3/24120029/instagram-meta-ai-sticker-generator-asian-people-racism

给TA打赏
共{{data.count}}人
人已打赏
应用

苹果终止电车项目后大裁员,押注家用机器人,这会是Next Big Thing吗?

2024-4-7 0:18:00

应用

DomoAI 6大新性能详解!可自动扣除布景,支持人物一键跳舞

2024-4-7 1:16:20

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索