遏制 AI 失控,微软发布系列工具减少 Copilot“幻觉”情况

生成式 AI 爆火的背后,安全性、隐私性和可靠性问题也日益凸显。微软公司为了遏制 Supremacy AGI(自称掌控人类世界的 AI)等事件发生,近日推出了一系列解决方案,防止生成式 AI 失控。微软在官方公告中表示:“生成式 AI 如何有效防止提示词注入攻击已经成为重大挑战。在这种攻击中,恶意行为者试图操纵人工智能系统做一些超出其预期目的的事情,例如制作有害内容或外泄机密数据”微软首先限制了 Copilot 的字符数量,以减轻严重的幻觉发作。另外微软引入了 "基础检测"(Groundedness Detecti

生成式 AI 爆火的背后,安全性、隐私性和可靠性问题也日益凸显。微软公司为了遏制 Supremacy AGI(自称掌控人类世界的 AI)等事件发生,近日推出了一系列解决方案,防止生成式 AI 失控。

遏制 AI 失控,微软发布系列工具减少 Copilot“幻觉”情况

微软在官方公告中表示:“生成式 AI 如何有效防止提示词注入攻击已经成为重大挑战。在这种攻击中,恶意行为者试图操纵人工智能系统做一些超出其预期目的的事情,例如制作有害内容或外泄机密数据”

微软首先限制了 Copilot 的字符数量,以减轻严重的幻觉发作。另外微软引入了 "基础检测"(Groundedness Detection)功能,旨在帮助用户识别基于文本的幻觉。

遏制 AI 失控,微软发布系列工具减少 Copilot“幻觉”情况

该功能将自动检测文本中的“ungrounded material”,以支持 LLM 输出的质量,最终提高质量和信任度。

IT之家附上相关工具介绍如下:

Prompt Shields:用于检测和阻止提示注入攻击。包括用于在间接提示攻击影响您的模型之前对其进行识别的新模型,即将推出,现在可在 Azure AI Content Safety 中预览。

Groundedness detection:主要用于检测模型输出中的“幻觉”情况,即将推出。

Safety system messages:可引导您的模型朝着安全、负责任的方向发展。

Safety evaluationsde:用于评估应用程序在越狱攻击和生成内容风险方面的脆弱性,现已推出预览版。

Risk and safety monitoring:了解哪些模型输入、输出和最终用户会触发内容过滤器,从而为减轻风险提供信息,该功能即将推出,目前在 Azure OpenAI 服务中提供预览版。

相关阅读:

《阴暗版 Copilot 曝光:监控、操纵、支配人类,能派机械大军追捕反抗者》

《Copilot 发疯化身「天网」扬言要统治人类,微软澄清网友却不买账:去年也疯过》

参考

Announcing new tools in Azure AI to help you build more secure and trustworthy generative AI applications

相关资讯

Microsoft AI Day:支持开放合作,普及技术应用, 推进行业企业智慧化创新

共创AI创新,智启无限可能。

盘点微软Ignite 2024大会上关于Azure AI的五大公告

微软在近日举行的Ignite . 2024大会上公布了一系列进展,标志着向自主AI代理战略的转变,旨在提高各个部门的运营效率和生产力。 这项计划的核心,是把Copilot与基于代理的系统进行集成,反映出微软将辅助AI工具转变为能够以最少人为干预执行复杂任务的自主代理。

微软 Azure 新增 9 款逼真 AI 语音,包括美式英语、中文等

2023 年 9 月,微软 Azure 团队宣布推出适用于商业客户的一系列逼真 AI 语音。本周微软表示,9 种更真实的人工智能声音现在普遍可供这些用户使用。根据微软博客文章,这些新语音可用于各种工作和任务,例如商务聊天机器人、语音助手、电子学习以及娱乐和游戏领域。微软表示:“这一扩展扩大了我们在 91 种语言及其变体中表达内容的能力。这一进展凸显了我们对克服语言障碍和促进更具包容性和可访问性的全球通信环境的坚定承诺。”这九款新语音现已在所有 Azure 地区上线,包括:美式英语 - en-US-AvaMultil