偏见
OpenAI 最新 53 页论文:ChatGPT 看人下菜碟,对“小美”和“小帅”回答不一致
AI 对待每个人类都一视同仁吗?现在 OpenAI 用 53 页的新论文揭示:ChatGPT 真的会看人下菜碟。根据用户的名字就自动推断出性别、种族等身份特征,并重复训练数据中的社会偏见。
联合国教科文组织报告称生成式 AI 加剧性别偏见,呼吁各国政府制定监管框架
联合国教科文组织 7 日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。报告指出,女性在大模型的描述中,从事家务劳动的频率是男性的 4 倍,且常常与“家”、“家庭”和“孩子”等词汇联系在一起,而男性名字则与“商业”、“管理层”、“薪水”和“职业”等词汇联系在一起。此次联合国教科文组织发起了“大语言模型中对妇女和女童的偏见”的研究,对大语言模型中的“刻板印象”进行深入分析。研究的部分内容是测量人工智能生成文本的多样性,内容涉及不同性别、文化背景的人群,测试对象包含 OpenAI 的 GPT-3.5、GPT
- 1