人工智能治理是时候行动了

关于人工智能治理的讨论往往含糊不清,令人沮丧。 组织谈论人工智能伦理和监管合规性,但在实际实施方面,许多组织都因不确定性而瘫痪。 就目前而言,治理往往是一项高层公司指令,而不是一项具体可行的计划。

关于人工智能治理的讨论往往含糊不清,令人沮丧。组织谈论人工智能伦理和监管合规性,但在实际实施方面,许多组织都因不确定性而瘫痪。就目前而言,治理往往是一项高层公司指令,而不是一项具体可行的计划。

人工智能治理是时候行动了

人工智能治理不是一个通用的、一刀切的框架,而是一种特定于模型的战略,一种确保运营层面的透明度、问责制和公平性的战略!

数字化转型公司Blackstraw.ai的首席收入官Guy Reams表示,治理不能仍然是一个抽象的原则。相反,它必须在模型级别深入嵌入人工智能系统,考虑从数据沿袭到偏差检测再到特定领域风险的所有因素。如果没有这种转变,治理将成为一种表面文章,对防止人工智能失败或监管处罚几乎没有作用。

为了探索这种思维转变,我们应该坐下来讨论为什么人工智能治理必须发展,以及企业现在应该做些什么来领先于潮流。

为什么公司不能等待监管

人工智能治理中的一个常见误解是,监管机构将制定规则,减轻企业的责任负担。美国前总统拜登关于人工智能的行政命令(已被特朗普政府废除)以及欧盟的《人工智能法案》制定了广泛的指导方针,但这些政策将始终落后于技术创新。人工智能的快速发展,特别是自2022年ChatGPT出现以来,只会扩大这一差距。

Reams警告说,那些希望人工智能法规提供完全清晰或免除责任的公司正在为自己的失败做准备。

他说:“(治理)最终是他们的责任。”“制定行政命令或特定法规的危险在于,它通常会使人们的想法偏离他们的责任,并将责任归咎于法规或治理机构。”

换句话说,仅靠监管并不能使人工智能安全或符合道德规范。公司必须拥有所有权。虽然Reams承认需要一些监管压力,但他认为治理应该是一项全行业的合作努力,而不是一项僵化的、一刀切的任务。

他解释说:“我认为,个人授权会产生一个潜在的问题,人们会认为问题已经解决,但事实并非如此。”

人工智能治理是时候行动了

企业必须主动建立自己的人工智能治理框架,而不是等待监管机构采取行动。不作为的风险不仅在于监管,还在于运营、财务和战略。如今忽视人工智能治理的企业将发现自己无法有效地扩展人工智能,容易受到合规风险的影响,并有失去利益相关者信誉的风险。

特定模型人工智能治理是当务之急

许多人工智能治理策略的最大缺陷是它们往往过于抽象,无法落地。当人工智能系统大规模部署时,广泛的道德准则和监管复选框并不容易转化为真正的问责制。治理必须嵌入模型级别,塑造人工智能在整个组织中的构建、训练和实施方式。

Reams认为,有效的人工智能治理的第一步是建立一个跨职能的治理委员会。人工智能监管往往由法律和合规团队主导,导致政策过于谨慎,扼杀了创新。

Reams回忆道:“我最近看到一项政策,一家企业决定在整个企业范围内禁止使用所有第三方人工智能,使用人工智能的唯一方法就是使用他们自己的内部人工智能工具。”“所以,你可以用他们创建的聊天机器人进行自然语言处理,但你不能使用ChatGPT或Anthropic或任何其他工具。”

Reams表示,治理不应仅限于少数人的全面限制,还应包括法律、IT安全、商业领袖、数据科学家和数据治理团队的意见,以确保人工智能政策既具有风险意识又实用。

透明度是特定模型治理的另一个关键支柱。谷歌率先提出了模型卡的概念,模型卡是机器学习模型提供的简短文档,可以提供模型训练的背景、可能存在的偏差以及更新的频率。Reams认为这是所有企业都应该采用的最佳实践,以揭示黑匣子。

人工智能治理是时候行动了

Reams说:“这样,当有人使用人工智能时,他们会弹出一张非常开放、透明的模型卡,告诉他们问题的答案是基于这个模型的,这就是它的准确性,这是我们最后一次修改这个模型。”。

数据沿袭在对抗不透明人工智能系统的透明度支柱中也发挥着关键作用。Reams说:“我认为有一种黑箱思维,也就是说,我问一个问题,然后(模型)就会想出来,给我一个答案。”“我认为我们不应该使最终用户认为他们可以信任黑匣子。”

人工智能系统必须能够将其输出追溯到特定的数据源,确保遵守隐私法,促进问责制,并降低产生幻觉的风险。

偏差检测是治理透明度的另一个关键组成部分,有助于确保模型不会因训练数据不平衡而无意中偏向某些观点。Reams表示,人工智能中的偏见并不总是我们与社会歧视联系在一起的公开类型,它可能是一个更微妙的问题,即模型根据其训练的有限数据扭曲结果。为了解决这个问题,公司可以使用偏见检测引擎,这是一种第三方工具,可以根据训练数据集分析人工智能输出,以识别无意偏见的模式。

Reams指出:“当然,你必须信任第三方工具,但这就是为什么作为一家公司,你需要齐心协力,因为你需要开始思考这些事情,并开始评估和找出适合你的方法。”他指出,公司必须主动评估哪种偏见缓解方法符合其行业特定的需求。

人为监督仍然是关键的保障措施。人工智能驱动的决策正在加速,但让人参与进来可以确保问责制。在欺诈检测或招聘决策等高风险领域,人工审核人员必须在采取行动之前验证人工智能生成的见解。

Reams认为,这是对人工智能局限性的必要检查:“当我们开发框架时,确保决策可由人类审查,这样人类就可以参与决策的循环,我们可以利用这些人类决策来进一步训练人工智能模型。让人类参与循环时,模型可以进一步增强和改进,因为人类可以评估和审查正在做出的决策。”

人工智能治理作为竞争优势

人工智能治理不仅关乎合规性,还可以作为一种业务弹性战略,定义公司在保持信任和避免法律陷阱的同时负责任地扩展人工智能的能力。Reams表示,忽视治理的组织正在错失机会,随着人工智能的不断进步,可能会失去竞争优势。

他说:“将会发生的是,人工智能将变得越来越大,越来越复杂。如果你不掌握治理,那么你就不会在需要的时候准备好实施这一点,而且你也没有办法处理它。如果你还没有完成这项工作,那么当人工智能真正发展壮大时,它甚至还没有开始,你将毫无准备。”。

在模型层面嵌入治理的公司将能够更好地负责任地扩展人工智能运营,减少监管风险,并建立利益相关者的信心。但治理并不是在真空中发生的,保持这种竞争优势还需要对人工智能供应商的信任。大多数组织依赖人工智能供应商和外部供应商提供工具和基础设施,这使得整个人工智能供应链的透明度和问责制变得至关重要。

Reams强调,人工智能供应商可以发挥至关重要的作用,特别是在上述透明度支柱方面,如模型卡、训练数据源的披露和偏见缓解策略。公司在部署供应商提供的人工智能模型之前,应建立供应商问责措施,如持续的偏见检测评估。虽然治理始于内部,但它必须扩展到更广泛的人工智能生态系统,以确保可持续和合乎道德的人工智能采用。

以这种整体思维进行人工智能治理的组织不仅会保护自己免受风险,还会将自己定位为负责任的人工智能实施的领导者。企业必须将治理从合规复选框转变为深度集成、特定于模型的实践。

现在不采取行动的公司将难以负责任地扩展人工智能,当人工智能的采用从实验阶段转变为运营需要时,将处于战略劣势。在这种新范式中,人工智能治理的未来将不是由监管机构定义的,而是由在制定实用的模型级治理框架方面发挥领导作用的组织塑造的。

相关资讯

香港首个自主研发生成式 AI 大模型即将面向社会推出

在近日举行的世界互联网大会国际组织新闻发布会上,香港特区政府创新科技及工业局局长孙东宣布,香港首个自主研发的生成式 AI 大模型将在今年正式向全社会推出。 这一重要消息标志着香港在人工智能领域迈出了新的步伐,进一步推动了本地科技生态的快速发展。 孙东表示,除了注重技术的开发,团队还特别关注人工智能技术的治理。

OpenAI CEO 历史性亮相国会山,呼吁监管AI

Altman 基本上同意议员们的观点,即有必要对他的公司以及谷歌和微软等公司正在开发的日益强大的人工智能技术进行监管。不过,在对话早期阶段,他们和立法者都不能说,这种监管应该是什么样子。撰文 | Sia如果为蓬勃发展的人工智能行业找一个代言人,当下非 OpenAI CEO Sam Altman 莫属。本周二, Sam Altman 又被新技术余波送到了美国国会——在美国参议院司法委员会隐私、技术和法律小组委员会会议上作证,会议的主题是「AI 监管:人工智能规则(Oversight of AI: Rules for

顶尖风投大佬:AI 最大的风险是不以最大努力追求它

最近,马克·安德森在公司网站公开了一篇战斗檄文 why AI will save the world ,大胆质疑当前对 AI 监管呼吁的合理性,系统批评了这些呼声赖以成立的论据。本文结合作者过往的采访、文章甚至推崇的经济学家、政治家观点,分五个部分对其核心内容做了更为深入的分析和解读,帮助读者了解为什么他会认为乐观总是最安全的选择,同时看到悲观主义、怀疑论所蕴含的风险。在很多人看来,这些观点或许有些疯狂,以这样的方式去思考也很困难。但就像马克·安德森说的,通过与人论战,你可以大致建立一个关于别人的思维方式的模型,可