谷歌:只要有人工监督,客户即可在“高风险”领域使用其 AI 作出决策

根据该公司周二发布的《生成式 AI 禁止使用政策》更新版,客户可以在一定条件下使用谷歌的生成式 AI 作出可能对个人权利产生重大不利影响的“自动化决策”,例如在就业、住房、保险和社会福利等领域。
感谢谷歌通过更新使用政策的形式明确表示,只要有人工监督,客户可以在“高风险”领域(如医疗保健)使用其生成式人工智能工具来作出“自动决策”。

谷歌:只要有人工监督,客户即可在“高风险”领域使用其 AI 作出决策

根据该公司周二发布的《生成式 AI 禁止使用政策》更新版,客户可以在一定条件下使用谷歌的生成式 AI 作出可能对个人权利产生重大不利影响的“自动化决策”,例如在就业、住房、保险和社会福利等领域。这些决策只要在某种形式上有人类监督,就被允许实施。

谷歌:只要有人工监督,客户即可在“高风险”领域使用其 AI 作出决策

AI在线注:在人工智能领域,自动化决策是指 AI 系统基于事实或推断数据作出的决策。例如,AI 可能会根据申请人的数据作出是否批准贷款的决定,或者筛选求职者。

谷歌之前的条款草案表示,涉及生成式 AI 的高风险自动化决策应当全面禁止。但谷歌向外媒 TechCrunch 透露,其生成式 AI “实际上从未禁止”过高风险领域的自动化决策,前提是有人工监督

谷歌发言人在接受采访时表示:“人工监督要求一直存在,适用于所有高风险领域。”他补充说:“我们只是对条款进行了重新分类,并更清楚地列举了一些具体例子,目的是让用户更加明了。”

针对那些影响个人的自动化决策,监管机构对 AI 的潜在偏见表示关切。例如,研究显示,用于审批信用和抵押贷款申请的 AI 系统可能会加剧历史上存在的歧视问题。

报道称,因为自动决策系统可能会影响到个体,监管机构对此类人工智能系统的潜在偏见问题表示关注。研究表明,用于信用和抵押贷款审批的人工智能系统可能会加剧历史上的歧视问题。

相关资讯

AI 回答物理学问题,MIT 开发自动绘制材料相图机器学习框架

编辑 | X当水结冰时,它会从液相转变为固相,密度和体积等特性会发生巨大变化。水中的相变很常见,但新型材料或复杂物理系统中的相变是一个重要的研究领域。绘制相图通常需要大量的人类直觉和理解。如何量化未知系统中的相变通常是不清楚的,尤其是在数据稀缺的情况下。麻省理工学院和瑞士巴塞尔大学的研究人员,将生成式人工智能模型应用于这个问题,开发了一种新的机器学习框架,可以自动绘制新的物理系统的相图,几乎不需要人类监督。研究人员基于物理的机器学习方法,比依赖理论专业知识的费力的手动技术更有效。而且不需要大量的标记训练数据集。例如

腾讯大模型 App 元宝发布 2.0 版本:基于新一代大模型混元 Turbo,内置 AI 搜索

元宝2.0将融入腾讯文档、电脑管家、搜狗输入法等生态产品。例如,在腾讯元宝中使用“AI写作”生成文章后,点击“去腾讯文档编辑”即可无缝衔接到腾讯文档编辑环节,再使用AI文档助手优化调整。

2024 生成式 AI 市场报告:企业支出增长率超 600%,安全性和 ROI 成关键决策点

最近,Menlo Ventures 针对拥有 50 名以上员工的公司的 600 名企业 IT 决策者进行调查,发布了一份名为《2024 年生成式 AI 现状》的企业市场报告。 2024 年,生成式 AI 市场的整体支出飙升至 138 亿美元,相比 2023 年的 23 亿美元增长了 6 倍以上,体现出企业对 AI 工具的强大信心和需求。 报告显示,72% 的 IT 决策者计划在未来更广泛地采用生成式 AI 工具,进一步释放 AI 在商业生产力提升中的潜力。