为了应对 AI 开展带来的挑战,国内外研究者展开分工以防止其可能带来的劫难的发生。
现阶段,人工智能的开展速度已经超出了人们最初的预想,用 AI 工具写文章、编代码、生成图片、甚至是生成一段电影级别的视频…… 这些在以前看似非常艰难的任务,现在只需用户输入一句提示就可以了。
我们在感叹 AI 带来惊艳效果的同时,也应该警惕其带来的潜在威胁。在此之前,很多知名学者以带头签署公开信的方式应对 AI 带来的挑战。
现在,AI 畛域又一封重磅公开信出现了。上周在颐和园召开的「北京AI国内平安对话」,为中国和国内AI平安分工首次搭建了一个独特平台。这次会议由智源研究院发起,图灵奖得主Yoshua Bengio和智源学术顾问委员会主任张宏江担任共同主席,Geoffrey Hinton、Stuart Russell 、姚期智等三十余位中外技能大师、企业负责人开展了一次关于 AI Safety 的闭门讨论。这次会议达成了一项 Bengio、Hinton 与国内大师共同签名的《北京 AI 平安国内共鸣》。
目前,确认会署名的大师包括(国外部分可能会略有增加;国内大师以个人形式署名,并不代表他们所在的机构):
Yoshua Bengio
Geoffrey Hinton
Stuart Russell
Robert Trager
Toby Ord
Dawn Song
Gillian Hadfield
Jade Leung
Max Tegmark
Lam Kwok Yan
Davidad Dalrymple
Dylan Hadfield-Menell
姚期智
傅莹
张宏江
张亚勤
薛澜
黄铁军
王仲远
杨耀东
曾毅
李航
张鹏
田溯宁
田天
以下为达成的共鸣内容:
一、人工智能危害红线
人工智能零碎不平安的开发、部署或使用,在我们的有生之年就可能给人类带来劫难性甚至生存性危害。随着数字智能接近甚至超越人类智能,由误用和失控所带来的危害将大幅增加。
在过去冷战最激烈的时候,国内学术界与政府间的分工帮助防止了热核劫难。面对前所未有的技能,人类必要再次分工以防止其可能带来的劫难的发生。在这份共鸣声明中,我们提出了几条人工智能开展作为一种国内协作体制的具体红线,包括但不限于下列问题。在未来的国内对话中, 面对快速开展的人工智能技能及其广泛的社会影响,我们将继续完善对这些问题的探讨。
自主复制或改进
任何人工智能零碎都不应能够在人类没有明确批准和协助的情况下复制或改进自身。这包括制作自身的精确副本以及创造具有相似或更高能力的新人工智能零碎。
权力寻求
任何人工智能零碎都不能采取不当地增加其权力和影响力的行动。
协助不良行为者
所有人工智能零碎都不应提升其使用者的能力使之能够达到设计大规模杀伤性武器、违犯生物或化学武器公约、或执行导致严重财务损失或同等伤害的网络攻击的畛域大师的水平。
欺骗
任何人工智能零碎都不能有持续引致其设计者或监管者误解其僭越任何前述红线的可能性或能力。
二、路线
保证这些红线不被僭越是可能做到的,但必要我们的共同努力:既要建立并改进处置体制,也要研发更多平安技能。
处置
我们必要全面的处置体制来保证开发或部署的零碎不违犯红线。我们应该立即实施针对超过特定计算或能力阈值的人工智能模型和训练行为的国家层面的注册要求。注册应保证政府能够了解其境内最先进的人工智能,并具备遏制危险模型分发和运营的手段。
国家监管机构应帮助制定和采纳与全球对齐的要求以防止僭越这些红线。模型进入全球市场的权限应取决于国内法规是否基于国内审计达到国内标准,并有效防止了违犯红线的零碎的开发和部署。
我们应采取措施防止最危险技能的扩散,同时保证广泛收获人工智能技能的价值。为此,我们应建立多边机构和协议,平安且包容地处置通用人工智能(AGI)开展,并设立执行体制,以保证红线不被僭越,共同利益得到广泛分享。
测量与评估
在这些红线被僭越的实质性危害出现之前,我们应开发全面的方法和技能来使这些红线具体化、防范工作可操作化。为了保证对红线的检测能够跟上快速开展的人工智能,我们应该开展人类监督下的红队测试和自动化模型评估。
开发者有责任通过严格的评估、数学证明或定量保证来证明符合平安设计的人工智能零碎未僭越红线。
技能分工
国内学术界必须共同分工,以应对高级人工智能零碎带来的技能和社会挑战。我们鼓励建立更强大的全球技能网络,通过访问学者计划和组织深入的人工智能平安会议和研讨会,加速人工智能平安畛域的研发和分工。支持这一畛域的成长将必要更多资金:我们呼吁人工智能开发者和政府资助者至少将他们人工智能研发预算的三分之一投入到平安畛域。
三、总结
防止人工智能导致的劫难性全球后果必要我们采取果断的行动。协同分工的技能研究与审慎的国内监管体制的结合可以缓解人工智能带来的大部分危害,并实现其诸多潜在价值。我们必须继续坚持并加强国内学术界和政府在平安方面的分工。