谷歌悄然删去人工智能团队网页中的 “多样性” 和 “公平性” 表述

近日,谷歌对其 “负责任的人工智能与人本技术(RAI-HCT)” 团队的官方网站进行了更新,令人关注的是,该网页上与 “多样性” 和 “公平性” 相关的表述被悄然删除。 之前,该网页使用了诸如 “边缘化社区”“多样化的”“代表性不足的群体” 以及 “公平性” 等词汇,来描述该团队在人工智能安全性、公平性和可解释性方面的工作。 经过此次更新,这些描述性的词汇被删去,取而代之的是一些更为模糊的词语,比如用 “所有的”“多样的” 和 “众多的” 来代替 “多样化的” 表述。

近日,谷歌对其 “负责任的人工智能与人本技术(RAI-HCT)” 团队的官方网站进行了更新,令人关注的是,该网页上与 “多样性” 和 “公平性” 相关的表述被悄然删除。之前,该网页使用了诸如 “边缘化社区”“多样化的”“代表性不足的群体” 以及 “公平性” 等词汇,来描述该团队在人工智能安全性、公平性和可解释性方面的工作。

经过此次更新,这些描述性的词汇被删去,取而代之的是一些更为模糊的词语,比如用 “所有的”“多样的” 和 “众多的” 来代替 “多样化的” 表述。谷歌方面对这一变化未作出及时回应,外界对这一举措的原因也充满猜测。

这一变化是由监督组织迈达斯项目首次发现的,早在此之前,谷歌就已从其初创企业创始人基金的资助网页上去掉了类似的表述。值得一提的是,谷歌在今年 2 月曾表示,将取消其多元化招聘目标,并对其多样性、公平性和包容性(DEI)项目进行审查。

这一现象并非谷歌一家公司的独特做法,近年来,多家大型科技公司纷纷撤回与 DEI 相关的倡议,特别是在特朗普政府将这些措施定性为 “非法” 后,相关措施受到了更大的关注。除了谷歌,亚马逊和 Meta 也相继撤回了与多样性和公平性相关的政策,而 OpenAI 最近也将其招聘实践网页中关于多样性和包容性的表述去除。然而,苹果公司则采取了与此相反的立场,抵制了要求终止其 DEI 项目的股东提案。

许多大型科技公司,包括谷歌在内,均与联邦机构签订了合同,这使得它们在多样性和公平性方面的策略调整引发了广泛讨论。谷歌此次调整网页内容的举动,反映了当前科技行业内对多样性和公平性议题的复杂态度。

划重点:

🌐 谷歌更新其人工智能团队网页,删除了 “多样性” 和 “公平性” 的相关表述。

🔍 这一变化引发外界关注,尚未收到谷歌的官方回应。

📉 多家科技公司如亚马逊和 Meta 也撤回了相关 DEI 政策,反映行业内的趋势变化。

相关资讯

AI发现超16万种新RNA病毒?阿里云、中山大学合作研究登Cell

编辑 | 萝卜皮人工智能(AI)已被用来揭示地球各个角落的多种基本生命体。阿里云、中山大学、悉尼大学等机构的合作团队开发了一种深度学习算法,称为 LucaProt,用于发现来自全球不同生态系统的 10,487 个宏转录组中高度分化的 RNA 依赖性 RNA 聚合酶 (RdRP) 序列。LucaProt 整合了序列和预测结构信息,从而能够准确检测 RdRP 序列。

ICLR2024 | Harvard FairSeg: 第一个研究分割算法公平性的大型医疗分割数据集

作者 | 田宇编辑 | 白菜叶近年来,人工智能模型的公平性问题受到了越来越多的关注,尤其是在医学领域,因为医学模型的公平性对人们的健康和生命至关重要。高质量的医学公平性数据集对促进公平学习研究非常必要。现有的医学公平性数据集都是针对分类任务的,而没有可用于医学分割的公平性数据集,但是医学分割与分类一样都是非常重要的医学 AI 任务,在某些场景分割甚至优于分类,因为它能够提供待临床医生评估的器官异常的详细空间信息。在最新的研究中,哈佛大学(Harvard University)的Harvard-Ophthalmolo

CVPR 2024|FairCLIP:首个多模态医疗视觉语言大模型公平性研究

作者 | 哈佛大学、纽约大学团队编辑 | ScienceAI公平性在深度学习中是一个关键问题,尤其是在医疗领域,这些模型影响着诊断和治疗决策。尽管在仅限视觉领域已对公平性进行了研究,但由于缺乏用于研究公平性的医疗视觉-语言(VL)数据集,医疗VL模型的公平性仍未被探索。为了弥补这一研究空白,我们介绍了第一个公平的视觉-语言医疗数据集(FairVLMed),它提供了详细的人口统计属性、真实标签和临床笔记,以便深入检查VL基础模型中的公平性。使用FairVLMed,我们对两个广泛使用的VL模型(CLIP和BLIP2)进