像羁系核武器一样羁系AI,OpenAI高层发文探讨「超等智能」羁系

前段时间,一向衣着休闲的 OpenAI 首席执行官 Sam Altman 以西装革履的形式出现在了公众面前,出席一个主题为「AI 羁系:人工智能规则(Oversight of AI: Rules for Artificial Intelligence)」的听证会。和他一起作证的还有长期批评人工智能的 Gary Marcus 以及 IBM 首席隐私和信任官 Christina Montgomery。

像羁系核武器一样羁系AI,OpenAI高层发文探讨「超等智能」羁系

这次听证会是一系列听证会中的第一次,国会议员们希望更多地了解人工智能的潜伏利弊,并最终为其「制定规则」,避免重蹈「羁系社交媒体为时已晚」的覆辙。

听证会上,Altman 基本上同意议员们的观点,即有必要对他的公司以及谷歌和微软等公司正在开发的日益弱小的人工智能手艺举行羁系。不过,在对话早期阶段,他们和立法者都不能说,这种羁系应当是什么样子。

如今,听证会已经过去一周,OpenAI 高层又以书面的形式阐述了他们对羁系的看法。在一篇题为「Governance of superintelligence」的博客中,Altman 等人写道,「现在是一个开始思索超等智能(superintelligence)羁系的良好时机 —— 将来的 AI 体系将比 AGI 都要弱小」

像羁系核武器一样羁系AI,OpenAI高层发文探讨「超等智能」羁系

Altman 等人认为,将来十年内,AI 体系有望超过专家水平,在大多数领域展现出与当今最大企业相当的生产才智。然而,超等智能手艺带来的潜伏利益和危急将比过去任何其他手艺更加巨大。为了实现更加繁荣的将来,我们必须管理好超等智能的危急,并保证其与社会的顺利融合。

像羁系核武器一样羁系AI,OpenAI高层发文探讨「超等智能」羁系

为了实现这一目标,Altman 等人指出,我们有很多事情可做。首先,我们需求在领先的开发勉力之间举行调和,保证超等智能的发展危险可控。此外,我们还需求建立近似于国际原子能机构的国际机构来监视超等智能的研究和应用,保证其符合危险规范,并限制其布署和危险级别。此外,我们需求致力于研发使超等智能危险可控的手艺才智。

但 Altman 等人也提醒说,尽管要减轻当今 AI 手艺的危急,但不应将近似的羁系机制应用于低于重要才智阈值的模型。

不过,这里的阈值如何定义也是一个令人头疼的成绩。

像羁系核武器一样羁系AI,OpenAI高层发文探讨「超等智能」羁系

以下是博客原文:

超等智能的治理

考虑到我们当前所看到的情况,可以想象在接下来的十年内,人工智能体系在大多数领域将超过专家水平,并且能够执行与今天最大的企业相当的生产活动。

从潜伏的优势和劣势来看,超等智能将比人类过去所面对的其他手艺更为弱小。我们可以拥有一个更加繁荣的将来,但我们必须管理危急才能实现这一目标。鉴于存在灭绝性危急的可能性,我们不能仅仅是被动应对。在具备这种特性的手艺中,核能、合成生物学都是常用的例子。

我们必须减轻今天的人工智能手艺危急,但超等智能将需求特殊的处理和调和。

起点

对于我们来说,有许多理念能够帮助我们更好地把握这一发展方向。在这里,我们初步提出了我们对其中三个成绩的思索。

首先,我们需求在主要发展勉力之间举行一定程度的调和,以保证超等智能的发展以一种既能保证危险,又能有助于将这些体系与社会举行顺利整合的方式举行。这可以通过多种方式实施;全球各主要政府可以设立一个项目,让许多当前的勉力成为其中的一部分,或者我们可以达成共识(在像下文提到的那种新组织的支持下),将前沿人工智能才智每年的增长速度限制在一定速率内。

当然,个别公司应当被要求以极高的规范行事,履行责任。

其次,我们可能最终需求近似国际原子能机构(IAEA)的机构来羁系超等智能方面的工作;任何超过一定才智(或计算资源等)门槛的勉力都需求受到国际机构的监视,该机构可以检查体系、要求举行审计、测试产品是否符合危险规范,对布署程度和危险级别举行限制等等。追踪计算资源和能源的使用情况可以在很大程度上帮助我们实现这一想法。

第一步,公司可以自愿同意开始实施该机构某一天可能要求的要素;第二步,各个国家可以实施。重要的是,这样的机构应当专注于降低灭绝性危急,而不是解决应当由各个国家决定的成绩,比如定义人工智能应当允许说些什么。

第三步,我们需求具备使超等智能体系危险的手艺才智。这是一个开放的研究成绩,我们和其他人都在付出很多勉力来解决这个成绩。

羁系范围

我们认为,允许公司和开源项目开发低于重要才智阈值的模型是很重要的,他们不需求我们在这里描述的那种羁系(包括繁琐的许可证或审计等机制)。

当前的体系将为世界创造巨大的价值,尽管它们确实存在危急,但这些危急的水平似乎与其他互联网手艺相当,并且社会的应对方式似乎是适当的。

相比之下,我们所关注的体系将拥有超越目前任何手艺的力量,我们应当小心,不要通过将近似的规范应用于远远低于这一水平的手艺来削弱对它们的关注。

公众意见及潜力

然而,对于最弱小的体系的治理以及它们的布署决策,必须举行严格的公众监视。我们认为,全世界的人们应当民主地决定 AI 体系的范围和默认设置。我们尚不清楚如何设计这样的机制,但我们计划对它的发展举行试验。我们仍然认为,在这些广泛的范围内,个体用户应当对所使用的 AI 的行为有很大的控制权。

考虑到危急和困难,为什么要构建这项手艺是一个值得思索的成绩。

在 OpenAI,我们有两个基本出发点。首先,我们相信超等智能将带来一个比我们今天所能想象的世界更美好的将来(我们已经在教育、创造性工作和个人生产力等领域看到了早期的例子)。世界面临着许多需求我们更多帮助才能解决的成绩;这项手艺可以改善我们的社会,每个人使用这些新工具的创造才智肯定会让我们大吃一惊。经济增长和生活质量的提高将令人震惊。

原文链接:https://openai.com/blog/governance-of-superintelligence

给TA打赏
共{{data.count}}人
人已打赏
AI

首个基于交互式网页搜寻的华文问答开源框架,清华、人大、腾讯联合发布WebCPM

2023-5-22 15:25:00

AI

Meta用《圣经》训练超多谈话模型:辨别1107种、辨认4017种谈话

2023-5-23 15:05:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索