最近,OpenAI 在其官方网站上发布了一项新政策,表明未来的某些人工智能模型将需要组织进行身份验证才能访问。这一名为 “已验证组织” 的验证流程,旨在为开发者解锁 OpenAI 平台上最先进的模型和功能,提升 AI 技术的安全性与可控性。
根据该政策,组织需要提供由 OpenAI API 支持的国家或地区政府颁发的身份证件,以完成身份验证。需要注意的是,每90天内,一个身份证件只能验证一个组织,而并非所有的组织都有资格进行这一验证。OpenAI 在声明中表示:“我们在 OpenAI 认真履行责任,确保人工智能的广泛可及性和安全使用。” 同时,该公司也意识到,少数开发者可能会恶意利用其 API,违反使用政策。因此,引入身份验证程序旨在减少不安全的 AI 使用,继续向广大的开发者社区提供先进的技术。
随着 OpenAI 产品的复杂性和强大程度的提升,这一新的验证流程被认为是为了增强其产品安全性而采取的必要措施。公司已发布多项报告,详细说明了其如何检测和减少模型的恶意使用,包括近期针对某些来自朝鲜团体的调查。此外,这一政策也可能是为了防止知识产权被盗窃。彭博社的报道称,OpenAI 正在调查一个与中国人工智能实验室 DeepSeek 有关的组织,该组织可能在2024年底通过其 API 窃取了大量数据用于训练模型,这显然违反了 OpenAI 的相关条款。值得一提的是,OpenAI 在去年夏天已经暂停了中国大陆以及香港、澳门用户对其服务的访问。
这一系列措施的推出,标志着 OpenAI 在促进 AI 技术健康发展的同时,进一步强化了对其技术使用的监管,确保开发者在合法合规的前提下,能够更好地利用这些前沿技术。