LeCun 默示,绝大多数学术同行都异常支援凋谢式 AI 研发,但还是有反对者。
关于 AI 危急的问题,各路大佬们也是意见不统一。有人带头签署联名信,呐喊 AI 实验室应立即暂停研究,深度学习三巨头 Geoffrey Hinton、Yoshua Bengio 等都支援这一观点。
就在近几日,Bengio、Hinton 等再发联名信《在快速倒退的时代管理人工智能危急》,呐喊在开发 AI 体系之前,研究者应该采取危机治理措施,将保险平安和道德实践纳入重点,呐喊各国政府应该采取行动,管理 AI 带来的危急。
文中提到了一些危机治理措施,例如,让国家机构也参与进来,从而防止人们对 AI 的滥用。为了实现有效的羁系,政府需要全面了解人工智能的倒退。羁系机构应采取一系列措施,如模型注册、对举报人举行有效保护以及对模型开发和超级计算机使用的监控等。羁系机构还需要在部署之前访问先进的人工智能体系,以评估其危险功能。
不仅如此,时间再往前一点,今年五月,美国非营利组织人工智能保险平安中心发表了一份声明,警告人工智能应被视为与流行病一样存在灭绝人类的危急,支援该声明的人同样包括 Hinton、Bengio 等人。
今年 5 月,为了畅所欲言地谈论人工智能带来的危急,Hinton 还辞去了在谷歌的工作。在一次纽约时报的采访中,他默示:「大多数人觉得这(AI 危害)还很遥远。我过去也觉得这还很遥远,可能是 30 到 50 年甚至更长的时间。但显然,我现在不这么想了。」
可以预见,在 Hinton 等 AI 大佬眼里,管理 AI 带来的危急是一项异常危机的事情。
然而,作为深度学习三巨头之一的 Yann LeCun,对 AI 倒退持有异常乐观的态度。对于签署关于 AI 危急的联名信,他基本上都是持反对态度,觉得人工智能的倒退远未构成对人类的威胁。
刚刚, LeCun 在与 Max Tegmark 的交流中,对他的一些关于 AI 危急的问题给出了回答。
Max Tegmark是针对 LeCun 对文章《‘This is his climate change’: The experts helping Rishi Sunak seal his legacy》的看法举行提问的,文章觉得 Hinton、Bengio 等人发表联名信的行为使人们转变了对 AI 的看法,从一开始将 AI 视为辅助助手,转变为将 AI 视为潜在威胁。文章接着默示,近几个月来,观察家们在英国发现了越来越多的关于 AI 会造成世界末日的氛围。今年三月,英国政府公布了一份白皮书,承诺不会扼杀 AI 领域的创新。然而仅仅两个月后,英国就开始谈论对 AI 设置护栏,并敦促美国接受其全球人工智能规则计划。
文章地址:https://www.telegraph.co.uk/business/2023/09/23/artificial-intelligence-safety-summit-sunak-ai-experts/
LeCun 对这篇文章的反应是这样的,他不希望英国对 AI 存在宿命论危急的担忧传播给其他国家。
之后,就有了我们前面提到的 LeCun 与 Max Tegmark 的交流,以下是 LeCun 全部的回答:
「Altman、Hassabis 以及 Amodei 正在举行大规模的企业游说。他们正尝试对 AI 产业举行羁系。而你、Geoff,还有 Yoshua 正在给那些游说禁止凋谢 AI 研究的人提供『弹药』。
如果你们的恐惧宣传活动取得成功,将不可避免地造成你我都觉得是灾难的结果:少数公司将操纵 AI。
绝大多数学术同行都异常支援凋谢式 AI 研发。很少有人相信你所鼓吹的末日场景。你、Yoshua、Geoff 和 Stuart 是唯一的例外。
和许多人一样,我异常支援凋谢式 AI 平台,因为我相信各种力量的结合:人们的创造力、民主、市场力量和产品法规。我也知道,生产保险平安且受我们操纵的 AI 体系是可能的。我已经为此提出了具体建议。这一切都将促使人们做正确的事。
你写得好像 AI 是凭空产生的,它是我们无法操纵的自然现象。但事实并非如此。它之所以取得进步,是因为你我所认识的每一个人。我们和他们都有能力打造『正确的事物』。要求对研发(相对于产品部署)举行羁系,其实暗含了这样的假设:这些人和他们所服务的组织都是无能、鲁莽、自我毁灭或者邪恶的。但事实并非如此。
我已经提出了很多论据来证明你所害怕的末日场景是荒谬的。在此我就不再赘述了。但主要的一点是,如果强大的 AI 体系是由目标(包括护栏)驱动的,那么它们就会是保险平安可控的,因为他们设定了这些护栏和目标。(目前的自回归 LLM 并不是由目标驱动的,所以我们不要从自回归 LLM 的弱点来推断)。
关于开源这件事,你的活动所产生的效果将与你所追求的完全相反。在未来,AI 体系将成为人类所有知识和文化的宝库,我们需要的是开源和免费的平台,以便每个人都能为之做出贡献。凋谢是让 AI 平台反映人类全部知识和文化的唯一途径。这就要求对这些平台的贡献是众包的,类似于维基百科。除非平台是凋谢的,否则这样做是行不通的。
如果凋谢源代码的 AI 平台被羁系,那么另一种情况将一定发生,那就是少数公司将操纵 AI 平台,进而操纵人们的全部数字依赖。这对民主意味着什么?这对文化多样性意味着什么?这是让我彻夜难眠的原因。」
在 LeCun 长推文的下方,也有许多人「声援」他的观点。
蒙特利尔大学计算机科学与运筹学系教授 Irina Rish,也是 Mila – Quebec AI 研究所的核心成员。她默示或许支援开源 AI 的研究人员们不应该再沉默了,应该引领新兴 AI 的倒退。
网友也在评论区中默示,这样的评论是重要的,也是人们所需要的。
网友默示,一开始,讨论保险平安问题可以丰富大家对未来科技的想象,但是耸人听闻的科幻小说不应当导致垄断政策的出现。
播客主持人 Lex Fridman 对这场辩论有更多的期待。
关于 AI 危急的问题讨论也将影响着 AI 的未来倒退。当一个观点抢占风头时,人们会盲目跟从。只有两方能够不断地举行理性探讨,才能够真正地看清 AI 的「真面目」。