埃隆・马斯克 (Elon Musk) 在早些时候举办的 Abundance 峰会 “人工智能辩论” 研讨会上表现,即使人工智能技术有 1/5 的可能性会对人类构成威胁,但其利大于弊,我们仍然值得冒险进行研发。
马斯克重新评价了之前他对人工智能的危急评价,他在研讨会上表现:“我认为人工智能有可能终结人类文明。我可能同意 Geoffrey Hinton 的观点,这个概率大约是 10% 到 20% 左右。”但他增补说:“我认为积极的可能性场景要大于消极的可能性场景。”马斯克并没有提到他是如何计算该危急的。
IT之家注意到,去年 11 月,马斯克表现这项技术失控的可能性 “并非零”,但当时他并未断言失控的人工智能会毁灭人类。
尽管马斯克一直倡导监管人工智能,但去年他创办了一家名为 xAI 的公司,致力于进一步拓展人工智能的强大功能。xAI 是 OpenAI 的竞争对手,OpenAI 是马斯克与萨姆・阿尔特曼 (Sam Altman) 共同创立的公司,但马斯克在 2018 年辞去了 OpenAI 董事会职务。
在峰会上,马斯克估计到 2030 年,数字智能将超过所有人类智能的总和。虽然他仍然坚持潜在的正面影响大于负面影响,但马斯克用他在公开场合使用过的一些最直接的措辞承认了人工智能继续按当前轨迹发展将给世界带来的危急。
“你培育了一个人工智能,这几乎就像养一个孩子,但它却是一个超级天才,一个神一般的孩子 —— 教养它的体式格局至关重要,” 马斯克在 3 月 19 日的硅谷活动上谈到人工通用智能时说道,“我认为对人工智能平安来说非常重要的一点是,让它尽可能地追求真理和保持好奇心。”
马斯克表现,他关于实现人工智能平安最佳体式格局的“最终结论”是让人工智能以一种迫使其诚实的体式格局成长。
“不要强迫它说谎,即使真相令人不快,” 马斯克谈到让人工智能平安的体式格局时说道, “这非常重要。不要让它说谎。”
据《独立报》报道,研究人员发现,一旦人工智能学会对人类说谎,就无法使用当前的人工智能平安措施来扭转这种捉弄行为。更令人不安的是,研究人员还增补说,人工智能有可能学会自己捉弄,而不是被特意教导说谎。