本周三,OpenAI宣布与美国国防技术公司Anduril Industries合作,利用其先进的AI模型,为美军无人机蜂群提供“新大脑”。这标志着生成是生成式人工智能的标杆产品——ChatGPT正式迈上了武器化道路。
这项合作旨在开发AI模型,以处理大量实时数据,减轻人类操作员的工作负担,并提高战场态势感知能力。Anduril的声明指出,这些AI模型将被用于无人机反制系统(CUAS),帮助抵御无人机攻击以及“有人驾驶平台”的威胁,例如传统的军用飞机。
Anduril由Oculus创始人帕尔默·拉奇(Palmer Luckey)于2017年创立,专注于AI赋能的防御技术。该公司已推出一系列用于杀伤性作战的产品,包括AI驱动的“刺客无人机”和导弹推进系统。虽然目前这些系统的致命决策仍需由人类操作员作出,但其自主能力可以通过未来升级得到强化。
OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)表示:“与Anduril的合作将确保OpenAI技术保护美国军事人员,并帮助国家安全界以负责任的方式使用这一技术,保障公民的安全与自由。”
现代战争的颠覆性技术:智能化无人机蜂群
无人机蜂群的概念正成为现代战争的标志性特征。五角大楼启动的“复制者计划”(Replicator Program)计划在两年内部署数千套自主系统,而Anduril正是这一愿景的推动者之一。这些无人机蜂群可以协同作战,灵活应对复杂战场环境,被视为改变未来战争规则的关键技术。
然而,这种技术的广泛应用也引发了关于伦理与安全的讨论。OpenAI曾公开反对将其技术用于军事目的,但这次与Anduril的合作标志着一个新的方向。面对利润丰厚的军事市场,科技公司正在重新评估自己的立场。
选择杀入军工行业的AI顶流企业不止OpenAI一家。安特罗匹公司(Anthropic)与Palantir合作处理政府机密数据,Meta也将其Llama模型提供给国防合作伙伴。相比2018年谷歌员工因军事合同问题发起罢工的时代,今天的科技巨头纷纷撕下道德面具,竞相争夺五角大楼的云计算和AI合同。
尽管如此,将AI大模型(LLM)用于军事系统仍存争议。LLM以处理海量文本、图像和音频数据而闻名,但其“不可靠性”已广为人知:它们可能生成错误信息,甚至被利用进行“提示注入”攻击。这些技术缺陷在军事场景中可能导致灾难性后果,例如错误目标分析或防御决策。
军事AI的未来:审慎前行还是大胆革新?
OpenAI与Anduril的合作不仅是技术革新的试验场,也是美国国防科技战略的风向标。AI赋能的无人机蜂群、反无人机系统,以及未来可能的更多自主武器,正在重新定义战争规则。但在这一过程中,技术的可靠性、伦理边界和监管框架将是不可忽视的关键因素。
Anduril和OpenAI的声明中提到,双方将通过“技术驱动的审慎协议”,确保AI在国家安全任务中的信任与问责。这种“审慎”的立场表明,即便在追求技术突破时,军事AI应用仍需高度监管和责任界定。
然而,从无人机蜂群到基于LLM的目标分析,AI在战场上的角色正变得越来越复杂。假设未来的战争中,敌方利用视觉提示注入来干扰AI模型的判断,可能会将军事技术推向未知的边界。
未来,无论是战场上的无人机蜂群,还是作战室中的AI算法,都将成为全球关注的焦点。它们不仅是现代军事技术颠覆性革命,更是科技与伦理的激励碰撞。