数据隐私
破解大模型隐私防线,华科清华联手实现微调数据90%精准识别
微调大模型的数据隐私可能泄露? 最近华科和清华的研究团队联合提出了一种成员推理攻击方法,能够有效地利用大模型强大的生成能力,通过自校正机制来检测给定文本是否属于大模型的微调数据集。 NeurIPS24论文 《Membership inference attacks against fine-tuned large language models via self-prompt calibration》,提出了一种基于自校正概率波动的成员推理攻击算法SPV-MIA,首次在微调大模型场景下将攻击准确度提高至90%以上。
2024年人工智能的发展趋势
回顾2024年的人工智能领域,我们可以观察到一系列显著的趋势,特别是人工智能助手的广泛应用、人工智能代理的兴起,以及企业在选择人工智能解决方案时所面临的挑战与考量。 以下是对行业专家Derek Topp关于这些趋势的深入解读。 一、人工智能助手的快速发展在2024年,我们见证了无数供应商竞相发布新产品,旨在创建、部署和维护基于通用人工智能(GenAI)的代理。
- 1