解释性

MAIA 新系统亮相:洞悉 AI 模型内在机制,审查其安全性

麻省理工学院计算机科学与人工智能实验室的研究人员开发了一种名为“MAIA”的多模式自动化可解释性代理系统,该系统可以使用视觉语言模型来自动执行各种神经网络可解释性任务。麻省理工学院(MIT)计算机科学与人工智能实验室(CSAIL)最新研发了名为 MAIA 系统,可以使用视觉语言模型来自动执行各种神经网络可解释性任务。MAIA 的全称是 Multimodal Automated Interpretability Agent,直译过来为“多模态自动可解释性代理”,主要利用视觉语言模型,自动执行各种神经网络可解释性任务,

国科大&首师大合作综述,「白盒」张量网络:增强量子机器学习的可解释性和效率

编辑 | 紫罗深度机器学习在 AI 的各个领域取得了显著的成功,但同时实现高可解释性和高效率仍然是一个严峻的挑战。张量网络(Tensor Network,TN)是一种源自量子力学的成熟数学工具,在开发高效的「白盒」机器学习方案方面显示出了其独特的优势。近日,首都师范大学的冉仕举和中国科学院大学的苏刚从量子力学中汲取灵感,综述了一种基于 TN 的创新方法,为协调深度机器学习的可解释性和效率这一长期挑战提供了一个有前景的解决方案。一方面,TN ML 的可解释性可以通过基于量子信息和多体物理的坚实理论基础来实现。另一方面

AI可解释性及其在蚂蚁安全领域的应用简介

可解释性相关算法作为蚂蚁集团提出的“可信AI”技术架构的重要组成部分,已大量应用于蚂蚁集团安全风控的风险识别、欺诈举报审理等场景,取得了一些阶段性的成果。本系列文章,我们将以风控领域具体应用为例,尤其关注领域专家经验和机器学习方法的交互结合,介绍蚂蚁集团特征可解释、图可解释、逻辑可解释等算法方案的探索和落地。专家点评:沈超 西安交通大学教授、网络空间安全学院副院长AI可解释性是可信AI的重要组成部分,已成为人工智能领域的研究热点。可解释性有助于用户理解系统的决策逻辑并建立信任,从而进一步加快AI技术在领域中的可信应
  • 1