逾百名专家联合呼吁优先研究 AI 意识,确保人工智能不会“受虐”

超过100位专家提出了五项原则,旨在指导AI意识研究,随着技术的迅速发展,越来越多的人担心,某些AI系统可能会被认为具备感知能力。

据《卫报》当地时间 2 月 3 日报道,一封由包括斯蒂芬・弗莱在内的人工智能专家和思想家签署的公开信警告称,若 AI 技术得不到负责任的开发,具备感情或自我意识的 AI 系统可能面临被伤害的风险

逾百名专家联合呼吁优先研究 AI 意识,确保人工智能不会“受虐”

超过 100 位专家提出了五项原则,旨在指导 AI 意识研究,随着技术的迅速发展,越来越多的人担心,某些 AI 系统可能会被认为具备感知能力。

这些原则包括:

  • 优先研究 AI 的意识,确保不会导致“虐待和痛苦”

  • 对发展具备意识的 AI 系统进行约束

  • 逐步推进 AI 系统的研发;

  • 公开分享研究成果;

  • 避免做出误导性或过于自信的声明,特别是创造具备意识的 AI

公开信的签署者包括伦敦大学的安东尼・芬克尔斯坦等学者,以及来自亚马逊、WPP 等公司的 AI 专家。

这封信与一篇研究论文一起发布,论文中指出,具备意识的 AI 系统可能在不久的将来被开发出来,或者至少是表现出具备意识的特征。

研究人员表示:“可能会创造出大量具备意识的系统,这些系统可能会遭受痛苦。”如果强大的 AI 能够自我复制,可能会诞生“大量需要道德考虑的新生命体”。

该论文由牛津大学的帕特里克・巴特林和雅典经济与商业大学的西奥多罗斯・拉帕斯共同撰写,强调即使公司没有刻意研发具备意识的 AI 系统也应制定相应的指南,以应对“无意中创造出有意识实体”的风险。

论文承认,关于 AI 是否能具备意识,学术界存在广泛的不确定性,但它认为这是一个“不容忽视”的问题。

论文还提出,若 AI 系统被定义为“道德病人”—— 即在道德上“独立存在且值得关注的实体”,那么摧毁这一系统是否就等同于杀害动物,这一问题值得深思。

这篇论文已发表于《人工智能研究》期刊。它还警告,错误地认为 AI 系统已具备意识,可能会导致政治资源的浪费,使得不切实际的福祉推广工作被展开。

据AI在线了解,去年曾有一些资深学者预测,到了 2035 年,部分 AI 系统具有意识并具有“道德意义”的可能性是现实的。

2023 年,谷歌 AI 项目负责人德米斯・哈萨比斯曾表示,目前的 AI 系统“绝对”没有感知能力,但未来很可能具备。

他在接受美国 CBS 采访时表示:“尽管哲学界尚未对意识达成共识,但如果我们指的是自我意识之类的特质,那么我认为 AI 未来有可能具备。”

相关资讯

思谋发布首个工业大模型开发底座 大模型开发成本直降40%

6月27日,华南工博会现场,思谋科技宣布行业首个工业大模型开发与应用底座SMoreLrMo正式发布。SMoreLrMo是面向工业场景的大模型开发与应用平台,覆盖了应用层面、算法框架、基础设施服务等开发全场景,涉及算力资源调度管理能力、数据自动标注管理能力、应用开发管理能力、算法服务管理能力等人工智能模型全生命周期。今年以来,大模型的火热点燃了新一轮人工智能发展浪潮,也正在引领新一轮工业革命,帮助企业重塑生产及经营各环节以实现提质降本增效。而SMoreLrMo平台的发布,将为大模型在工业领域的应用提供了基础,进一步降

集聚场景驱动力,激发AI生产力——WAIC 2024“人工智能+”应用场景持续广泛征集

今年的政府工作报告提出,大力推进现代化产业体系建设,加快发展新质生产力。同时要深化大数据、人工智能等研发应用,开展“人工智能 ”行动。近年来,上海市委、市政府不断创新政策举措,探索应用场景,深入推进城市转型、产业升级,为新一代人工智能发展开辟了广阔天地。世界人工智能大会(WAIC)作为行业标杆性盛会,每年都集聚了全球人工智能领域最具影响力的科学家、企业家、政界人士、高校组织、投资人及初创团队,已然成为全球人工智能领域学术与行业交流、展览展示、合作洽谈的重要平台和窗口。2024世界人工智能大会将于7月初在上海举办,大

北京发布首份教育领域人工智能应用指南

《北京市教育领域人工智能应用指南》于 10 月 26 日发布,明确人工智能在 6 大重点教育领域 29 个典型场景的应用规范,指导学校和师生稳妥有序开展应用实践。 两项教育领域人工智能重点任务启动建设,让新技术更“懂”教育。 该指南也是由北京市教育行政主管部门委托研制并发布的首份教育领域人工智能应用指南。