谷歌 AI 原则生变:删除“不用于武器”的承诺

谷歌本周从其网站上删除了不开发用于武器或监控的人工智能的承诺。这一变化最初由彭博社发现。该公司似乎更新了其公开的人工智能原则页面,删除了上周还存在的名为“我们不会追求的应用”的部分。

谷歌本周从其网站上删除了不开发用于武器或监控的人工智能的承诺。这一变化最初由彭博社发现。该公司似乎更新了其公开的人工智能原则页面,删除了上周还存在的名为“我们不会追求的应用”的部分。

谷歌 AI 原则生变:删除“不用于武器”的承诺

当被要求发表评论时,谷歌向 TechCrunch 指出了一篇关于“负责任人工智能”的新博客文章,文章指出:“我们相信,秉持这些价值观的公司、政府和组织应该携手合作,共同开发能够保护人类、促进全球增长并支持国家安全的人工智能。”

谷歌更新后的人工智能原则指出,公司将继续努力“减少意外或有害的结果,并避免不公平的偏见”,同时确保其人工智能的发展符合“广泛接受的国际法和人权原则”。

AI在线注意到,近年来,谷歌与美国和以色列军方签订的云服务合同引发了公司内部员工的抗议。谷歌一直坚称其人工智能技术不会被用于伤害人类。然而,美国国防部人工智能负责人最近向 TechCrunch 透露,一些公司的人工智能模型正在加速美国军方的“杀伤链”流程。

相关资讯

调查:超72% 的企业选择 AI 工具时最看重易用性

根据最近的一项 CIO 报告,企业在人工智能(AI)领域的投资高达2.5亿美元,尽管在证明投资回报率(ROI)方面面临挑战。 商业领袖们正努力提高生产力,但新技术的集成往往需要重构现有应用、更新流程并激励员工学习,以适应现代商业环境。 QuickBlox 首席执行官 Nate MacLeitch 对136位高管进行了调查,以揭示 AI 采用的现实情况,探讨领导者的首要任务、主要担忧以及他们在2025年寻找可信工具的信息来源。

2024 年 AI 十大故事,透视技术变革与未来挑战

编辑 | 20492024 年,人工智能技术持续改变着我们的生活和工作方式。 IEEE Spectrum 精选了年度最具影响力的 10 个 AI 故事,从技术突破到社会影响,全方位展现了 AI 发展的现状与挑战。 这些故事不仅反映了生成式 AI 的革命性进展,也揭示了其存在的局限与争议。

AI“短板”暴露:研究发现 GPT-4 Turbo 回答高级历史题准确率仅 46%

这项研究由奥地利复杂科学研究所(CSH)的团队主导,旨在测试三大顶尖大型语言模型(LLMs)——OpenAI 的 GPT-4、Meta 的 Llama 和谷歌的 Gemini—— 在历史问题上的表现。研究团队开发了一个名为“Hist-LLM”的基准测试工具,其根据 Seshat 全球历史数据库来测试答案的正确性,Seshat 全球历史数据库是一个以古埃及智慧女神命名的庞大历史知识数据库。 研究结果于上月在知名 AI 会议 NeurIPS 上公布,结果显示,即使是表现最佳的 GPT-4 Turbo 模型,其准确率也仅为 46%,并不比随机猜测高多少。