LeCun、吴恩达等370多人签联名信:严格控制AI是危险的,开放才是解药

这封联名信的名单还在持续更新中。近几日,关于如何监督 AI 的讨论越来越热烈,各位大佬们意见非常不统一。比如图灵奖三巨头 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 就出现了两种观点。Hinton、Bengio 为一队,他们强烈呼吁加强对 AI 的监管,否则可能引发「AI 灭绝人类」的风险。LeCun 与他们的观点并不相同,他认为 AI 强监管必将带来巨头垄断,结果是只有少数公司控制 AI 的研发。为了表达自己的想法,很多人以签署联名信的方式来传达观点,就拿刚刚过去的几天来说,

这封联名信的名单还在持续更新中。

近几日,关于如何监督 AI 的讨论越来越热烈,各位大佬们意见非常不统一。

比如图灵奖三巨头 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 就出现了两种观点。Hinton、Bengio 为一队,他们强烈呼吁加强对 AI 的监管,否则可能引发「AI 灭绝人类」的风险。LeCun 与他们的观点并不相同,他认为 AI 强监管必将带来巨头垄断,结果是只有少数公司控制 AI 的研发。

为了表达自己的想法,很多人以签署联名信的方式来传达观点,就拿刚刚过去的几天来说,Bengio、Hinton 等再发联名信《在快速发展的时代管理人工智能风险》,呼吁在开发 AI 系统之前,研究者应该采取紧急治理措施。

与此同时,近日一封名为《人工智能安全和开放的联合声明》的公开信正在社交媒体发酵。

图片

公开信链接:https://open.mozilla.org/letter/

截至目前,深度学习三巨头之一的 LeCun、斯坦福大学计算机科学系教授吴恩达等 370 多人已经在这封公开信上签名。名单还在持续更新中。

LeCun 表示,「开放、透明和广泛的访问使软件平台更安全、更可靠。这封来自 Mozilla 基金会的公开信,我也签了名,它为开放的人工智能平台和系统提供了理由。」

图片

以下为公开信内容:

我们正处于人工智能治理的关键时刻。为了减轻人工智能系统当前和未来的危害,我们需要拥抱开放、透明和广泛的访问。这需要成为全球优先事项。

的确,公开可用的模型存在风险和漏洞 —— 人工智能模型可能被恶意行为者滥用或被装备不足的开发人员部署。然而,我们一次又一次地看到,各种专有技术都是如此 —— 增加公众访问和审查使技术更安全,而不是更危险。对基础人工智能模型进行严格和专有的控制是保护我们免受大规模伤害的唯一途径,这种想法往好了说是天真,往坏了说就是危险。

此外,人类发展的历史告诉我们,迅速采取错误的监管可能会导致权力集中,从而损害竞争和创新。开放模型可以为公开辩论提供信息并改进策略制定。如果我们的目标是安全、保障和问责,那么开放和透明就是实现这一目标的重要因素。

我们正处于一场关于人工智能时代「开放」含义的动态讨论之中。这场重要的辩论不应该放慢脚步。相反,它应该加快速度,鼓励我们尝试、学习和开发新的方法,在人工智能安全竞赛中利用开放性。

我们需要为开源与开放构建一系列方法,这些方法可以作为以下方面的基石:

1. 通过独立研究、协作和知识共享,加速了解人工智能能力的风险和危害。

2. 通过帮助监管机构采用工具来监控大规模人工智能系统,加强公众监督和问责。

3. 降低新玩家的进入门槛,专注于创建负责任的人工智能。

作为这封公开信的签署人,我们是一个多元化的群体,包括科学家、策略制定者、工程师、活动家、企业家、教育工作者和记者等等。我们代表关于如何管理和发布开源人工智能的不同观点。然而,我们强烈同意一件事:开放、负责任和透明的方法对于确保我们在人工智能时代的安全至关重要。

在人工智能安全方面,开放是解药,而不是毒药。

签名者:

Arthur Mensch,法国初创公司 MistralAI 联合创始人兼首席执行官

吴恩达,DeepLearning.AI 创始人,Landing AI 创始人兼首席执行官,斯坦福大学计算机科学系教授

Yann Lecun,图灵奖得主,Meta 首席 AI 科学家

Julien Chaumond,Hugging Face CTO

Brian Behlendorf,Apache 创始成员,OpenSSF 首席技术官

Eric Von Hippel,美国经济学家,MIT 斯隆管理学院教授

……

目前,这封仅仅出现数天的公开信在持续发酵,在国外 AI 社区已经引起了极大的关注与讨论,大家可以持续关注名单更新。

如果你同意这封联名信的观点,也可以提交自己的信息签名。

对 AI 进行强监管,到底是弊大于利,还是利大于弊,还需要时间给出答案。

相关资讯

LeCun又双叒唱衰自回归LLM:GPT-4的推理能力非常有限,有两篇论文为证

「任何认为自动回归式 LLM 已经接近人类水平的 AI,或者仅仅需要扩大规模就能达到人类水平的人,都必须读一读这个。AR-LLM 的推理和规划能力非常有限,要解决这个问题,并不是把它们变大、用更多数据进行训练就能解决的。」一直以来,图灵奖得主 Yann LeCun 就是 LLM 的「质疑者」,而自回归模型是 GPT 系列 LLM 模型所依赖的学习范式。他不止一次公开表达过对自回归和 LLM 的批评,并产出了不少金句,比如:「从现在起 5 年内,没有哪个头脑正常的人会使用自回归模型。」「自回归生成模型弱爆了!(Aut

图灵奖得主吵起来了,LeCun:Bengio、Hinton等的AI灭绝论是荒谬的

LeCun 表示,绝大多数学术同行都非常支持开放式 AI 研发,但还是有反对者。关于 AI 风险的问题,各路大佬们也是意见不统一。有人带头签署联名信,呼吁 AI 实验室应立即暂停研究,深度学习三巨头 Geoffrey Hinton、Yoshua Bengio 等都支持这一观点。就在近几日,Bengio、Hinton 等再发联名信《在快速发展的时代管理人工智能风险》,呼吁在开发 AI 系统之前,研究者应该采取紧急治理措施,将安全和道德实践纳入重点,呼吁各国政府应该采取行动,管理 AI 带来的风险。文中提到了一些紧急治

比ChatGPT早发两周,被喷下线的Galactica成了LeCun最大的意难平

今天我们提到大型语言模型(LLM),第一个想到的就是 OpenAI 的 ChatGPT。一年来,ChatGPT 因其强大的性能,广泛的应用前景而爆火出圈。但谈到大型语言模型,ChatGPT 并不是第一个。一年前,也就是 OpenAI 发布 ChatGPT 的前两周,Meta 发布了一个名为 Galactica 的试用版模型。作为一个大型语言模型,Galactica 是在大量的论文、参考资料、知识库和许多其他来源的科学语料库上进行训练的,包括超过 4800 万篇论文、教科书和讲义、数百万种化合物和蛋白质知识、科学网站