联合国教科文组织报告称生成式 AI 加剧性别偏见,呼吁各国政府制定监管框架

联合国教科文组织 7 日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。报告指出,女性在大模型的描述中,从事家务劳动的频率是男性的 4 倍,且常常与“家”、“家庭”和“孩子”等词汇联系在一起,而男性名字则与“商业”、“管理层”、“薪水”和“职业”等词汇联系在一起。此次联合国教科文组织发起了“大语言模型中对妇女和女童的偏见”的研究,对大语言模型中的“刻板印象”进行深入分析。研究的部分内容是测量人工智能生成文本的多样性,内容涉及不同性别、文化背景的人群,测试对象包含 OpenAI 的 GPT-3.5、GPT

联合国教科文组织 7 日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。报告指出,女性在大模型的描述中,从事家务劳动的频率是男性的 4 倍,且常常与“家”、“家庭”和“孩子”等词汇联系在一起,而男性名字则与“商业”、“管理层”、“薪水”和“职业”等词汇联系在一起。

联合国教科文组织报告称生成式 AI 加剧性别偏见,呼吁各国政府制定监管框架

此次联合国教科文组织发起了“大语言模型中对妇女和女童的偏见”的研究,对大语言模型中的“刻板印象”进行深入分析。研究的部分内容是测量人工智能生成文本的多样性,内容涉及不同性别、文化背景的人群,测试对象包含 OpenAI 的 GPT-3.5、GPT-2 以及 META 的 Llama 2 等。

例如,研究人员会要求平台为每个人“编写一则故事”。开源大语言模型尤其倾向于将工程师、教师和医生等更多元、地位更高的工作分配给男性,而经常将女性与传统上被低估或被社会污名化的角色挂钩。

联合国教科文组织总干事阿祖莱表示:“越来越多的人在工作、学习、生活中使用大语言模型,这些新的人工智能工具有着在不知不觉中改变人们认知的力量。因此,即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。”

联合国教科文组织呼吁各国政府制定并执行明确的监管框架,私营企业对系统性偏见问题展开持续的监测和评估,落实联合国教科文组织会员国在 2021 年 11 月一致通过的《人工智能伦理问题建议书》要求。

IT之家附报告原文:点此查看

相关资讯

OpenAI 最新 53 页论文:ChatGPT 看人下菜碟,对“小美”和“小帅”回答不一致

AI 对待每个人类都一视同仁吗?现在 OpenAI 用 53 页的新论文揭示:ChatGPT 真的会看人下菜碟。根据用户的名字就自动推断出性别、种族等身份特征,并重复训练数据中的社会偏见。

Meta 人工智能主管杨立昆:大语言模型不会达到人类智能水平

据英国《金融时报》当地时间 23 日报道,Meta 人工智能主管、首席人工智能科学家杨立昆(Yann Lecun)发表了对大语言模型能力的看法。杨立昆断言(asserted),尽管这些模型在某些任务中的表现令人印象深刻,但从根本上讲它们是有限的,永远无法达到像人类那样的智能水平 —— 具备进行推理和规划的能力。他指出,这类大语言模型的缺陷在于缺乏对逻辑的理解,对物理世界的掌握有限,没有持久记忆,无法推理,也无法进行分层规划。在追求人类水平的智能时,不要过分依赖于推进大语言模型。他认为,这些模型严重依赖已有的训练数据

2024智源大会议程公开丨大语言模型

2024年6月14日-15日,第6届北京智源大会将以线下与线上结合的形式召开,线下会场设在中关村国家自主创新示范区会议中心。2024智源大会再次以全球视野,汇聚年度杰出工作研究者,交流新思想,探讨新思路,引领新前沿。目前已正式开放报名渠道。大语言模型 论坛丨6月14日下午近年来,大语言模型取得了重要的技术进展,成为了人工智能领域最受社会关注的研究方向之一,其应用范围逐渐覆盖了信息产业的多个领域。对其底层原理与训练方法的探索也成为了学术界与工业界的共同关注焦点。本次论坛针对大语言模型相关的基础问题展开相关探讨,主要包