Altman 基本上同意议员们的观点,即有必要对他的公司以及google和微软等公司正在开发的日益强大的人工智能技巧进行羁系。不过,在对话早期阶段,他们和立法者都不能说,这种羁系应当是什么样子。
撰文 | Sia
如果为蓬勃发展的人工智能行业找一个代言人,当下非 OpenAI CEO Sam Altman 莫属。本周二, Sam Altman 又被新技巧余波送到了美国国会——在美国参议院司法委员会隐衷、技巧和法律小组委员会会议上作证,会议的主题是「AI 羁系:人工智能条例(Oversight of AI: Rules for Artificial Intelligence)」。这是 Altman 首次在国会亮相。在长达三个小时的听证会上,这位看起来像男孩的 CEO 脱下套头衫和牛仔裤,换上了蓝色西装和领带。和他一起出庭作证的还有长期批评人工智能的 Gary Marcus 以及 IBM 首席隐衷和信任官 Christina Montgomery。
近年来,以科技行业高管为主题的国会听证会的基调可以用敌对、剑拔弩张来形容。不过在周二的听证会上,国会山的议员们似乎并不想对 Altman 进行粗暴的质询,Altman 也基本上同意议员们的观点,即有必要对他的公司以及google和微软等公司正在开发的日益强大的人工智能技巧进行羁系。不过,在对话早期阶段,他们和立法者都不能说这种羁系应当是什么样子。国会针对新技巧的羁系反射弧,向来比较长。如今 ChatGPT 问世仅过去半年就将负责人招致国会山,讨论羁系,足见其对新技巧的不安。几个月来,大大小小的公司都在竞相将越来越通用的人工智能推向市场,向其投入了无穷无尽的数据和数十亿美元。一些批评者担心这项技巧会加剧社会祸害,其中包括偏见和错误信息,而另一些人则警告说,人工智能可能会终结人类本身。
Christina Montgomery 在听证会上承认,人工智能给各行各业的工人带来了明显的风险,包括那些以前被觉得不受自动化影响的人。「我觉得重要的是要理解并将 GPT4 视为一个对象,而不是一个生物,」Altman 对此有不同看法。这样的模型「擅长完成任务,而不是事情」,「因此会让人们的事情更轻松,而不会完全取代它们。」 他的公司的技巧可能会摧毁一些事情,但也会创造新的事情,「政府要弄清楚我们想要如何减轻这种影响」,这一点很重要。知名的人工智能怀疑论者 Gary Marcus 对 Altman 提出了一些棘手的问题和评论。「人类已经退居二线」,因为企业竞相开发更复杂的人工智能模型,而很少考虑潜在的危险。他指出,OpenAI 在开发系统时使用的数据也不透明。「我觉得,如果这项技巧出了问题,它可能会出很大的问题。我们想要直言不讳,」Altman 承认,「我们希望与政府合作,防止这种情况发生。」有意思的是,一些媒体盛赞这是一个令人振奋的承认,也有观点觉得这可能是硅谷具有欺骗性表演的一次突破。Marcus 对 Altman 关于新事情将取代那些被人工智能淘汰的事情的预测暗示怀疑。「我们在这里有前所未有的机会,但也面临着企业不负责任、广泛部署、缺乏足够羁系和内在不可靠性的完美风暴。」他说。为了呼应 Marcus 的想法,Altman 觉得美国应当考虑开发 AI 模型的许可和测试要求。他提议成立一个机构,为大规模人工智能模型的开发发放许可证,制订安全法规,并在向公众发布人工智能模型之前通过测试。当然,需要独立专家对模型的各个指标进行独立评估。当被问及哪些 AI 需要申请许可时,他举例说,一个可以说服或操纵个人信仰的模型应当面临「很高的门槛」。「我们相信,到目前为止,我们部署的对象带来的好处远远大于风险,但确保它们的安全对我们的事情至关重要。」Altman 还觉得企业应当有权暗示,他们不希望自己的数据被用于人工智能培训,这也是国会正在讨论的一个想法。然而,Altman 又说网络上的公共资源,人人皆可得之(fair game)。Altman还暗示,他「不会说永远拒绝广告,但更喜欢基于订阅的模式。」
据《纽约时报》报道,国会立法机构的不安并没有蔓延到 Altman 身上,他在小组委员会的成员中有一群友好的听众。参议院负责隐衷、技巧和法律的小组委员会成员感谢 Altman 与他们私下会面,并同意出席听证会。新泽西州民主党人Cory Booker 多次直呼 Altman 的名字。报纸还援引参加晚宴和会议人士的话,Altman 在周一晚上与数十名众议院议员共进晚餐时谈到了他的公司的技巧,并在听证会前私下会见了一些参议员。「细节决定成败。」Altman 对羁系的建议还不够深入,应当包括限制人工智能在警务和生物数据方面的应用,政策研究中心AI Now Institute 董事总经理 Sarah Myers West 在接受《纽约时报》采访时暗示,「对方也没有表现出任何放慢 OpenAI ChatGPT 对象开发速度的迹象。」「看到那些迅速将造成这些祸害的系统用于商业用途的人对祸害暗示担忧的姿态,真是太讽刺了。」她对记者暗示。
目前尚不清楚立法者将如何回应羁系人工智能的号令。过去几十年,政策制订者一直顺从帕洛阿尔托和山景城的承诺。但随着越来越多的证据表明,对数字技巧的依赖会带来严重的社会、文化和经济负面影响,双方都表现出愿意——出于不同的原因——来羁系技巧。这次听证会是一系列听证会中的第一次,国会议员们希望更多地了解人工智能的潜在利弊,并最终为其「制订条例」,避免重蹈「羁系社交媒体为时已晚」的覆辙。现在,他们仍有时间确保人工智能不会产生同样的社会弊病,比如对美国大选的严重干扰。小组委员会成员建议成立一个独立机构来监督人工智能;强制公司披露其模型如何事情以及使用的数据集的条例;以及防止微软和google等公司垄断新兴市场的反垄断规定。在听证会上,一些议员仍然表现出华盛顿和硅谷在技巧知识方面的差距。比如,南卡罗来纳州共和党人Lindsey Graham 多次询问证人,针对 Facebook 和google等在线平台的言论责任保护是否也适用于人工智能。Altman 平静而镇定地多次区分人工智能和社交媒体。「我们需要共同努力,找到一种全新的方法,」他说。Christina Montgomery 也在听证会上号令,国会应当谨慎对待任何将不同类型的人工智能混为一谈的宽泛条例。应当制订一项类似于欧洲拟议法规的人工智能法律,其中概述了不同级别的风险。她号令制订侧重于具体用途的条例,而不是羁系技巧本身。「从本质上讲,人工智能只是一种对象,对象可以用于不同的目的,」她说,并补充说,国会应当「对人工智能采取精确的羁系方法」。
她敦促国会将羁系重点放在可能造成最大社会祸害的领域。
参考链接:
https://www.reuters.com/technology/openai-chief-goes-before-us-congress-propose-licenses-building-ai-2023-05-16/https://www.nytimes.com/2023/05/16/technology/openai-altman-artificial-intelligence-regulation.html
阅读 2011