AI 能够是我们未能与外星野蛮取得联系的「大过滤器」

编辑 | X人工智能(AI)在过去几年中以惊人的速率进展。一些科学家现在正着眼于超级人工智能(Artificial Superintelligence,ASI)的进展,这是一种不仅超越人类智能,而且不受人类学习速率限制的 AI。但如果这个里程碑不单单是一项了不起的成就呢?如果它也代表了所有野蛮进展的一个巨大瓶颈,一个如此具有挑战性的瓶颈,以至于阻碍了它们的长期生存,该怎么办?AI 是否会成为宇宙的「大过滤器」——一个难以克服的门槛,阻止大多数生命退化成太空野蛮?这个概念或许可以解释为什么搜寻地外野蛮计划(SETI)

AI 能够是我们未能与外星野蛮取得联系的「大过滤器」

编辑 | X

人工智能(AI)在过去几年中以惊人的速率进展。一些科学家现在正着眼于超级人工智能(Artificial Superintelligence,ASI)的进展,这是一种不仅超越人类智能,而且不受人类学习速率限制的 AI。

但如果这个里程碑不单单是一项了不起的成就呢?如果它也代表了所有野蛮进展的一个巨大瓶颈,一个如此具有挑战性的瓶颈,以至于阻碍了它们的长期生存,该怎么办?

AI 是否会成为宇宙的「大过滤器」——一个难以克服的门槛,阻止大多数生命退化成太空野蛮?

这个概念或许可以解释为什么搜寻地外野蛮计划(SETI)尚未发现银河系其他地方先进技术野蛮的迹象。

英国曼彻斯特大学天文学和天体物理学教授 Michael A. Garrett 在《Acta Astronautica》上发表题为《Is artificial intelligence the great filter that makes advanced technical civilisations rare in the universe?》的观点文章。

AI 能够是我们未能与外星野蛮取得联系的「大过滤器」

论文链接:https://doi.org/10.1016/j.actaastro.2024.03.052

AI 是否会成为宇宙的「大过滤器」

大过滤假说最终是费米悖论的解决方案。这就提出了一个问题,为什么在一个广阔而古老、足以容纳数十亿个潜在宜居行星的宇宙中,我们没有发现任何外星野蛮的迹象。

大过滤假设解释,野蛮的退化时间表中存在难以克服的障碍,阻止它们进展成为太空实体。因此,人类可探测到的地外生命极其罕见。

AI 能够是我们未能与外星野蛮取得联系的「大过滤器」

ASI 的出现可以成为这样一个过滤器。AI 的快速进展能够会招致 ASI,它能够与野蛮进展的关键阶段相交——从单行星物种向多行星物种的转变。

这就是许多野蛮能够会陷入困境的地方,AI 的进步速率远远快于我们控制它,或可持续探索和居住太阳系的威力。

AI(尤其是 ASI)的挑战在于其自决性、自我放大性和改进性。它具有增强自身威力的潜力,其速率超过了我们在没有 AI 的情况下的退化时间表。

出现严重错误的能够性是巨大的,招致生物野蛮和 AI 野蛮在有机会成为多行星之前就崩溃。例如,如果各国越来越依赖并将势力让给相互竞争的自决 AI 体系,那么军事威力就能够被用来以前所未有的规模进行杀戮和破坏。这能够会招致我们整个野蛮的毁灭,包括 AI 体系本身。

在这种情况下,估量科技野蛮的典型寿命(typical longevity)能够不到 100 年。这大约是从能够在恒星之间接收和广播信号(1960 年)到估量在地球上出现 ASI(2040 年)之间的时间。与数十亿年的宇宙时间尺度相比,这个时间短得惊人。

这一估量,当插入德雷克(Drake)方程的乐观版本时——该方程试图估量银河系中活跃的、可交流的外星野蛮的数量——解释,在任何给定时间,那里只有少数智慧野蛮。此外,像我们一样,它们相对温和的技术活动能够使它们很难被发现。

警钟

这项研究不单单是一个潜在厄运的启示故事。它敲响了人类的警钟,要求人类建立强有力的羁系框架来指导 AI(包括军事体系)的进展。

这不单单是为了防止 AI 在地球上被恶意使用;它还涉及确保 AI 的退化与我们物种的长期生存保持一致。这解释我们需要投入更多资源,尽快成为一个多行星社会——这一目标自阿波罗计划的鼎盛时期以来一直处于休眠状态,但最近因私营公司的进步而重新点燃。

正如历史学家尤瓦尔·诺亚·赫拉利(Yuval Noah Harari)指出的那样,历史上没有任何东西能让我们为将无意识的超级智能实体引入地球所带来的影响做好准备。最近,AI 自决决策的影响招致该领域的知名领导人呼吁暂停 AI 的进展,直到引入负责任的控制和羁系形式。

但即使每个国家都同意遵守严格的规则和羁系,流氓组织也很难被遏制。

AI 能够是我们未能与外星野蛮取得联系的「大过滤器」

自决 AI 在军事防御体系中的集成必须成为特别值得关注的领域。已经有证据解释,人类将自愿放弃重要的势力给威力日益增强的体系,因为它们可以在没有人为干预的情况下更快、更有效地执行有用的任务。

这意味着我们已经危险地接近自决武器超越道德界限并规避国际法的悬崖。在这样的世界中,为了获得战术优势而将势力交给 AI 体系能够会无意中引发一系列迅速升级、极具破坏性的事件。一眨眼的功夫,我们星球的集体智慧就能够被消灭。

人类正处于其技术轨迹的关键时刻。我们现在的行动可以决定我们是否成为一个持久的星际野蛮,或者屈服于我们自己的创造物带来的挑战。

使用 SETI 作为我们审视未来进展的镜头,为关于 AI 未来的讨论增加了一个新的维度。我们所有人都有责任确保,当我们伸手摘星时,我们这样做不是为了其他野蛮的启示,而是作为希望的灯塔——一个学会与 AI 一起繁荣进展的物种。

参考内容:https://phys.org/news/2024-05-ai-blame-failure-contact-alien.html

给TA打赏
共{{data.count}}人
人已打赏
理论

效率高、成本低,从单一构造到平均分散,微软AI份子猜测框架登Nature子刊

2024-5-14 14:11:00

理论

狂奔一年后的向量数据库,何去何从?|对话 MyScaleDB

2024-5-14 16:29:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索