随着人工智能的使用、创新和监管混乱超过了已批准的标准,IT领导者只能开发内部方法来降低人工智能风险,依靠框架、工具和他们的同事来正确使用人工智能。
随着越来越多的人工智能项目从概念验证转向生产,首席信息官将承担额外的压力,制定人工智能治理政策,以保护企业和他们的工作。
观察人士表示,美国政府和欧盟以及顶级市场研究人员并不缺乏人工智能治理框架,但毫无疑问,随着新一代人工智能创新超过正式标准,首席信息官们将需要在2025年制定和完善内部人工智能治理政策,并在这一过程中争取整个高管层的参与,以确保他们不是一个人。
在这方面,管辖权的不平衡正在发挥作用。
IDC研究主管Grace Trinidad表示:“根据2024年2月的一项调查,在负责任的人工智能政策制定和行为准则制定方面,美国组织与欧洲组织不相上下,但在建立多学科/跨部门治理委员会方面落后于欧洲组织,这是欧盟人工智能法案的建议。”她敦促首席信息官们不要单独承担人工智能治理。
例如,IDC建议将NIST人工智能风险管理框架作为合适的标准,以帮助首席信息官在内部开发人工智能治理,以及欧盟人工智能ACT条款,Trinidad说,他在一篇报告中引用了人工智能治理某些方面的最佳实践。
Trinidad指出,首席信息官们承认,有无数种方法可以实施人工智能治理,其中大多数已经开始实施至少一些项目,尽管并非所有项目都已到位。
为此,Ciena首席数字信息官CraigWilliams表示,这家网络公司成立了人工智能工作组,以解决治理方面的挑战。
Williams说,“我不认为未来人工智能的治理会由单一实体或政府自己拥有——这太具有挑战性了。然而,企业需要建立自己的治理流程,以确保端到端的问责制。我们认识到人工智能系统需要透明、公平和问责制。因此,我们已经竭尽全力确保在治理过程本身中涉及到正确的利益相关者。”
专家和IT领导者说,跨职能的努力是关键。
Williams说:“治理实际上就是相互倾听和学习,因为我们都关心结果,但同样重要的是,我们如何达到结果本身。一旦你跨过了那座桥,就可以迅速转向人工智能工具和实际项目本身,这要容易得多。”
随着人工智能创新的蓬勃发展,TruStone金融信用合作社也在努力建立一个全面的人工智能治理计划。
TruStone执行副总裁兼首席技术官GaryJeter说:“每周都有新的生成式人工智能平台和能力出现。当我们发现它们时,我们会阻止访问,直到我们能够彻底评估我们控制的有效性。”他指出,作为一个例子,他最初决定阻止b谷歌的NotebookLM访问,以评估其安全性。
与许多企业一样,TruStone在全公司范围内部署了一个名为TruAssist的政策和程序生成人工智能平台。
Jeter说:“所有大约560名团队成员都在使用这个人工智能工具快速访问500多项政策和程序,大大节省了时间,并增加了巨大的价值。我们在2023年11月启动了价值证明试点,并在2024年2月之前向所有团队成员推广。这非常快,我们学到了很多。我们正在采取一种更保守的方法,将生成式人工智能用于面向成员的应用程序,但我们正在取得进展。”
人工智能治理框架和平台
旅行者是另一家大型企业,该公司的执行副总裁兼首席技术和运营官MojganLeFebvre表示,该公司已经制定了一段时间的人工智能治理战略。
LeFebvre表示:“作为旅行者管理框架不断发展和成熟的一部分,我们还建立了一个负责任的人工智能框架,该框架规定了指导我们开发和使用人工智能、高级分析和建模的基本原则。这一框架的目标是帮助确保我们以负责任和道德的方式行事,与我们业务和文化核心的负责任的商业价值观保持一致。”
观察人士指出,人工智能治理不仅要保护企业免受数据泄露或知识产权盗窃,还要使成本与预算保持一致。
GAIInsights首席执行官兼首席分析师PaulBaier表示,“IT领导者应该非常务实、谨慎而缓慢地推出新一代人工智能应用,因为高管和IT部门仍在学习如何管理概率企业应用的风险,而且随着使用的增加,实际成本也会上升。”
Baier说,“另一个增加人工智能风险和成本的因素是大多数组织中大量的‘影子IT’,因为员工使用个人账户使用ChatGPT等工具来处理公司数据。”
根据Gartner的说法,组织可以通过实施人工智能治理平台来处理人工智能的使用,该技术被确定为2025年的第二大战略趋势,预测到2028年,实施人工智能治理平台的组织将比没有此类系统的组织少经历40%的人工智能相关道德事件。
Gartner声称,“人工智能治理平台的好处包括创建、管理和执行确保负责任地使用人工智能的政策,解释人工智能系统的工作方式,模拟生命周期管理,并提供透明度以建立信任和问责制。”
将面临什么样的挑战?Gartner表示:“人工智能指导方针因地区和行业而异,因此很难建立一致的做法。”
未来的挑战
观察人士表示,首席信息官还需要调整能够适应未来变化的人工智能治理框架,特别是在人工智能(ACI)出现的情况下。
孟菲斯浸信会纪念医疗保健公司首席信息官TomBarnett表示:“我们正在评估哪种人工智能使用政策最适合我们目前的需求,这种模式可以在我们前进和学习未知知识的过程中提供灵活性。”
这将导致一个巨大的未知,特别是考虑到人工智能在过去两年的进展。使问题复杂化的不仅是正在出现的人工智能法规的复杂拼凑,还有商业模式和市场本身的变化。
当ChatGPT在两年前首次亮相时,OpenAI的创始人表示,对生成式人工智能的适当管理是该公司成为非营利组织的一个关键原因。从那以后,除了两位创始人外,所有创始人都离开了,OpenAI正在努力将其核心业务重组为一家营利性公司,不再受非营利性董事会的控制。
Gartner负责云、边缘和人工智能基础设施技术和服务的副总裁SidNag表示,自2021年以来,NIST的人工智能安全研究所联盟和负责任的人工智能中心在人工智能治理方面取得了进展,但没有批准的监管标准来指导首席信息官,他们面临越来越大的压力,要从实验中退出,并从对生成式人工智能平台和工具的重大投资中赚钱。
他强调,没有一个单一的文件能够涵盖所有方面的风险,也没有明确的权力来强制使用生成式人工智能,而人工智能每天都在进步。他表示:“人工智能就像一列失控的火车,每个人都在试图从中赚钱。”
尽管如此,很难找到一位首席信息官或高管对人工智能治理不屑一顾。大大小小的企业都很清楚,生成式人工智能如果落入坏人之手,可能会带来灾难。
医疗设备租赁公司USMed-Equip的首席信息官Antonio Marin表示,人工智能使他的公司得以快速增长,但在治理方面,所有人都在全力以赴。
Marin表示:“我们正在将人工智能治理作为数据和网络安全治理的一部分。当POC从沙箱投入生产时,风险会飙升。在某些情况下,我们的高管层将人工智能视为一些流程问题的解决方案。他们将人工智能视为获得市场份额或降低运营成本的机会,同时保持高客户体验质量和卓越运营。”
TruStone的Jeter预计,监管将在适当的时候成为法律和监管要求。Jeter说:“我把审查员和内部/外部审计员视为合作伙伴,我们的价值观是一致的。因此,我没有任何担忧。”