这封联名信的名单还在陆续革新中。
近几日,关于如何监督 AI 的计议越来越热烈,各位大佬们意见非常不统一。
比如图灵奖三巨子 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 就出现了两种看法。Hinton、Bengio 为一队,他们强烈呼吁加强对 AI 的禁锢,否则可能引发「AI 灭绝人类」的危急。LeCun 与他们的看法并不相同,他认为 AI 强禁锢必将带来巨子垄断,结果是只有少数公司控制 AI 的研发。
为了表达自己的想法,很多人以签署联名信的方式来传达看法,就拿刚刚过去的几天来说,Bengio、Hinton 等再发联名信《在快速发展的时代管理人工智能危急》,呼吁在开发 AI 零碎之前,研究者应该采取紧急治理措施。
与此同时,近日一封名为《人工智能保险平安和盛开的联合声明》的公开信正在社交媒体发酵。
公开信链接:https://open.mozilla.org/letter/
截至目前,深度学习三巨子之一的 LeCun、斯坦福大学计算机科学系老师吴恩达等 370 多人已经在这封公开信上签名。名单还在陆续革新中。
LeCun 表示,「盛开、晶莹和广泛的考察使软件平台更保险平安、更可靠。这封来自 Mozilla 基金会的公开信,我也签了名,它为盛开的人工智能平台和零碎提供了理由。」
以下为公开信内容:
我们正处于人工智能治理的关键时刻。为了减轻人工智能零碎当前和未来的危害,我们必要拥抱盛开、晶莹和广泛的考察。这必要成为全球优先事项。
的确,公开可用的模型存在危急和漏洞 —— 人工智能模型可能被恶意行为者滥用或被装备不足的开发人员部署。然而,我们一次又一次地看到,各种专有技术都是如此 —— 增加公众考察和审查使技术更保险平安,而不是更危险。对基础人工智能模型进行严格和专有的控制是保护我们免受大规模伤害的唯一途径,这种想法往好了说是天真,往坏了说就是危险。
此外,人类发展的历史告诉我们,迅速采取错误的禁锢可能会导致权力集中,从而损害竞争和创新。盛开模型可以为公开辩论提供信息并改进策略制定。如果我们的目标是保险平安、保障和问责,那么盛开和晶莹就是实现这一目标的重要因素。
我们正处于一场关于人工智能时代「盛开」含义的动态计议之中。这场重要的辩论不应该放慢脚步。相反,它应该加快速度,鼓励我们尝试、学习和开发新的方式,在人工智能保险平安竞赛中利用盛开性。
我们必要为开源与盛开构建一系列方式,这些方式可以作为以下方面的基石:
1. 通过独立研究、协作和知识共享,加速了解人工智能能力的危急和危害。
2. 通过帮助禁锢机构采用工具来监控大规模人工智能零碎,加强公众监督和问责。
3. 降低新玩家的进入门槛,专注于创建负责任的人工智能。
作为这封公开信的签署人,我们是一个多元化的群体,包括科学家、策略制定者、工程师、活动家、企业家、教育工作者和记者等等。我们代表关于如何管理和发布开源人工智能的不同看法。然而,我们强烈同意一件事:盛开、负责任和晶莹的方式对于确保我们在人工智能时代的保险平安至关重要。
在人工智能保险平安方面,盛开是解药,而不是毒药。
签名者:
Arthur Mensch,法国初创公司 MistralAI 联合创始人兼首席执行官
吴恩达,DeepLearning.AI 创始人,Landing AI 创始人兼首席执行官,斯坦福大学计算机科学系老师
Yann Lecun,图灵奖得主,Meta 首席 AI 科学家
Julien Chaumond,Hugging Face CTO
Brian Behlendorf,Apache 创始成员,OpenSSF 首席技术官
Eric Von Hippel,美国经济学家,MIT 斯隆管理学院老师
……
目前,这封仅仅出现数天的公开信在陆续发酵,在国外 AI 社区已经引起了极大的关注与计议,大家可以陆续关注名单革新。
如果你同意这封联名信的看法,也可以提交自己的信息签名。
对 AI 进行强禁锢,到底是弊大于利,还是利大于弊,还必要时间给出答案。