拒绝白人与亚洲人同框,Meta图象生成器的「歧视」,被人挖出来了
AI 生成东西的成见何时休?在人工智能构筑的世界中,AI 有时会像人一样存在着某种成见或倾向性。比如对于大语言模型而言,由于训练数据的影响会不可避免地存在性别成见、种族呆板影像,等等。当然,这种成见或倾向性在图象生成东西中同样存在。今年 2 月,谷歌 Gemini 被曝出拒绝在图象中描绘白人,生成大量违背基本事实(性别、种族、宗教等)的图片。 …- 7
- 0
谷歌 Gemini
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!