路透社报道,微软 、google 、OpenAI 等 16 家科技公司在 21 日和 22 日举行的“人工智能(AI)首尔峰会”上许诺危险开发 AI 模型,在无奈控制最极其危险的情况下关闭其尖端零碎(cutting-edge systems)。
参会的公司还包括国内企业智谱 AI(IT之家备注:腾讯、阿里、美团和小米曾对其投资)、IBM、亚马逊、Meta 和三星。
危险许诺包括公布框架,阐明公司将如何衡量其模型的危险。在危险严重且“无奈接受”的极其情况下,如果无奈减轻危险,人工智能公司将不得不按下紧急中止开关,中止开发或部署其模型和零碎。
这不是人工智能公司第一次做出听起来很高尚但不具约束力的危险许诺。亚马逊、google、Meta 和微软在去年签署由美国政府促成的被迫保障措施,以确保他们的产品在公布时是危险的。
被誉为“人工智能教父”的计算机科学家约书亚・本吉奥对这些许诺表示欢迎,但他指出被迫许诺必须伴随监管。