联邦学习

大模型时代下的私有数据安全与利用

一、大模型时代下的数据安全与利用问题众所周知,大模型是当前研究的热点之一,且已成为当前发展的主流趋势。 我们团队最近的研究方向从传统的联邦学习转变为探索这一范式在大模型时代的新拓展,即基于知识迁移的联邦学习。 我们认为在大模型时代,这种新的联邦学习模式非常适用。

模型被投毒攻击,如今有了新的安全手段,还被AI顶刊接收

在深度学习时代,联邦学习(FL)提供了一种分布式的协作学习的方法,允许多机构数据所有者或客户在不泄漏数据隐私的情况下协作训练机器学习模型。然而,大多数现有的 FL 方法依赖于集中式服务器进行全局模型聚合,从而导致单点故障。这使得系统在与不诚实的客户打交道时容易受到恶意攻击。本文中,FLock 系统采用了点对点投票机制和奖励与削减机制,这些机制由链上智能合约提供支持,以检测和阻止恶意行为。FLock 理论和实证分析都证明了所提出方法的有效性,表明该框架对于恶意客户端行为具有鲁棒性。现今,机器学习(ML),更具体地说,

FATE 2.0版本重磅发布:实现异构联邦学习系统互联互通

打破“计算孤岛”、联通“技术孤岛”,推动异构平台之间的互联互通,是隐私计算技术下一阶段的重要发展方向。国家数据局印发的《“数据要素×”三年行动计划(2024—2026年)》提出:“打造安全可信流通环境,深化隐私计算、联邦学习等技术应用,增强数据利用可信、可控、可计量能力,促进数据合规高效流通使用。”[1]中国信通院评论文章曾指出:“隐私计算有望成为支撑数据流通产业的基础设施,解决不同产品之间的技术壁垒,实现隐私计算跨平台间的互联互通已成为产业内的迫切需求。” [2]
  • 1