GenAI

Gartner预测到2027年,跨境GenAI滥用引起的AI数据泄露比例将达到40%

Gartner预测,到2027年,跨境生成式人工智能(GenAI)引起的AI相关数据泄露比例将超过40%。 GenAI在终端用户中的普及速度已超过了数据治理和安全措施的发展速度,而支持这些技术所需的集中算力引发了对数据本地化的担忧。 Gartner研究副总裁Joerg .

2025年前,商业领袖必须规避GenAI的五大陷阱

在科技浪潮的推动下,一项新的研究揭示了一个震撼的事实:67%的商业领袖坚信,GenAI将在未来两年内为他们的企业带来翻天覆地的变革,然而,在这场技术革命的狂欢中,潜在的陷阱也如影随形,一旦失足,后果可能不堪设想——从名誉扫地到巨额罚款,乃至最致命的客户信任流失。 那么,如何在这场变革中稳健前行,避免踏入雷区?以下,我将为您剖析企业和商业领袖在接下来几年里可能遭遇的五大常见误区,并为您规划出一条避坑之路。 人工监督的缺失:GenAI是把双刃剑GenAI的强大与变革力无可置疑,但其不完美之处同样不容忽视。

Meta首席AI科学家认为当前GenAI和LLM将很快过时

Meta首席人工智能科学家Yann LeCun表示,目前的生成式人工智能(GenAI)和大型语言模型(LLM)范式可能很快就会过时。 他认为,这些系统需要新的突破来理解物理世界并与之互动。 LeCun在达沃斯世界经济论坛上谈到GenAI系统时表示:“没有人会再使用它们,至少不会将其作为人工智能系统的核心组件。

微软:生成式AI可导致人类认知能力下降

AI正在掀起一场“工作革命”,根据Anthropic公司近日发布的AI经济指数报告,在软件开发(37.2%)、艺术文化创作(10.3%)等知识密集型领域,57%的交互呈现"人机协作"特征。 但是,在“AI大大增强工作效率”的同时,是否也会对人类知识工作者产生负面影响? 近日,微软与卡耐基梅隆大学的一项研究发现,生成式人工智能可导致知识工作者的认知和批判思维能力下降。

企业AI数据泄露风险加剧:CISO如何应对?

企业员工正以惊人的速度通过未授权和已授权的GenAI应用泄露敏感企业数据。 堵住这些泄露至关重要,以降低风险暴露。 员工通过GenAI泄露数据正成为企业的噩梦。

红队必看:生成式AI安全的八大实战教训

随着ChatGPT和DeepSeek应用的野火燎原,生成式AI(GenAI)安全威胁已从理论风险迅速演变为迫在眉睫的全球性威胁。 微软AI红队(AIRT)近日分享了其过去六年中对100余个生成式AI产品进行的深度红队测试,覆盖文本、图像、视频多模态模型及Copilot等集成系统。 这些实战经验揭示了AI系统在安全与伦理上的共性漏洞,也颠覆了传统攻防思维。

2025年CIO应将AI投资押注于何处

回望2024年,我们或许会发现,这是大型语言模型(LLM)成为主流的一年,每个企业级SaaS都增加了协作助手或虚拟助手功能,许多企业也首次尝到了代理式AI的滋味。 CIO们获得了可观的预算,用于利用GenAI提高生产力、节约成本并增强竞争优势。 据沃顿商学院的AI报告显示,2024年企业对GenAI的投资相比2023年增长了2.3倍,但预测未来两到五年的增幅将有所降低。

企业如何平衡GenAI采用的成本与机遇

GenAI正在重塑企业的运营方式,为提高效率、简化运营、革新客户服务和增强决策能力提供了前所未有的机遇,然而,伴随着其带来的巨大回报承诺的,还有巨大的成本,以及往往并不明确的投资回报率。 对于负责管理IT预算同时推动技术创新的CIO而言,平衡GenAI的成本与收益至关重要。 本文将探讨采用GenAI所面临的与成本相关的障碍,包括高昂的实施费用、低效的成本管理以及基础设施需求。

2025年的十大网络安全预测

人工智能在2025年仍将是一个热门话题,但不要错过其他趋势,包括初始访问代理的增长、首席信息安全官(vCISO)的崛起、技术合理化等等。 每年这个时候,行业专家和分析师都会关注明年的网络安全趋势、预测和挑战。 专家预测,到2024年,生成式人工智能(GenAI)和大型语言模型将会增加,勒索软件攻击和第三方供应链挑战也将持续。

AI红队:构建安全AI只是梦想

负责微软100多个GenAI产品红队测试的团队得出结论,构建安全可靠的AI系统的工作永远不会完成。 本周发表的一篇论文中,包括微软Azure首席技术官Mark Russinovich在内的作者们描述了团队的一些工作,并提出了八项建议,旨在“使红队测试工作与现实世界的风险相一致”。 论文的主要作者、微软AI红队(AIRT)研究员Blake Bullwinkel和他的25位合著者在论文中写道:“随着GenAI系统在越来越多领域的应用,AI红队测试已成为评估这些技术安全性和可靠性的核心实践。

2025年企业扩展GenAI管道:自建与外部采购策略探索

在平衡雄心与实用性方面,扩大生成式工具的采用规模一直是一项挑战,而2025年,这一挑战比以往任何时候都要严峻。 争相采用大型语言模型(LLM)的企业正面临新的现实:扩展规模不仅仅是部署更大的模型或投资前沿工具——而且要以能够转变业务运营、增强团队能力和优化成本的方式整合AI。 成功不仅仅取决于技术,它还需要文化和运营上的转变,使AI能力与业务目标相契合。

恶意行为者运用GenAI:尚未达到预期,但需警惕

网络威胁联盟 (CTA) 的最新报告得出结论,GenAI帮助降低了恶意行为者的入门门槛,并提高了他们的效率,即更快地创建令人信服的深度伪造内容、发起网络钓鱼攻击和投资诈骗。 不过,就目前而言,它并没有让攻击者变得“更聪明”,也没有彻底改变网络威胁。 恶意行为者如何使用GenAI该报告基于 CTA 成员可获得的数据和实证案例研究,解释了攻击者目前使用GenAI的几个方面:创建深度伪造视频和欺骗性图像、克隆特定声音的录音、编写高度逼真的电子邮件、信息和网站内容辅助创建恶意软件(但无法在没有额外人为输入和调整的情况下创建恶意软件)优化命令和控制操作(例如,用于管理僵尸网络)传播错误信息和虚假信息(例如,以推动网络阴谋论、影响选举活动)创建由AI控制的虚假社交媒体账户网络(机器人农场)分析人员发现,“虽然AI创新无疑具有强大功能,但到目前为止,它们只是逐步提升了对手的能力,并没有创造出全新的威胁。

企业软件是否已告别“太贵”时代?

在不太遥远的未来,GenAI将使企业软件领域以往无法实现或成本过高的功能成为可能。 GenAI,尤其是大型语言模型(LLM),正在改变公司开发和交付软件的方式。 从聊天机器人和简单自动化工具开始的这一进程,正在发展成为功能更为强大的AI系统——这些系统与软件架构深度融合,并影响从后端流程到用户界面的方方面面。

2025年美妆行业如何规模化应用GenAI

美不再取决于观察者的眼光,而是掌握在GenAI提示者的指尖。 仅根据其对美妆行业的影响,GenAI就可能为全球经济贡献90亿至100亿美元,而早期行动者已经开始测试这项技术,但考虑到GenAI创新的速度,扩大这些实验规模将是一项挑战。 一旦美妆行业的领导者成功大规模部署GenAI,落后者与领导者之间的差距只会越来越大。

Meta最新研究:利用GenAI洞悉用户意图

Meta——Facebook、Instagram、WhatsApp、Threads等公司的母公司——运营着世界上最大的推荐系统之一。 在最近发布的两篇论文中,Meta的研究人员揭示了如何利用生成模型来更好地理解和响应用户意图。 通过将推荐视为一个生成问题,可以采用新的方法来解决它,这些方法在内容上更丰富,效率也高于传统方法。

2025年的GenAI:试验阶段结束,实战阶段开启

随着企业减少试验并转向实现商业价值,专注于数量更少、更具针对性的用例,GenAI的试验阶段或许已经结束。 根据NTT DATA最近的一项调查,近九成的高级决策者表示,他们对GenAI试点感到疲劳,正在将投资转向能够提升业务绩效的项目。 NTT DATA北美地区首席数据和AI官Andrew Wells表示,企业仍将继续尝试新的GenAI试点,但一种更具针对性的方法,即专注于其业务特定的用例,正日益成为IT领导者AI战略的核心。

九大商业GenAI用例

迄今为止,在企业中,高级聊天机器人、数字助手和编码助手似乎是GenAI应用的一些优势领域。 2022年11月ChatGPT的发布引发了一场GenAI淘金热,各家公司争相采用这项技术并展示创新。 当今企业中根深蒂固的许多AI应用案例使用的是更旧、更成熟的AI形式,如机器学习,或者并没有利用AI的“生成式”能力来生成文本、图片和其他数据。

对2025年AI领域的12个预测

今年,我们见证了AI从试点项目迈向实际生产用例。 到2025年,AI将扩展至全面、企业级范围的部署。 GenAI的采用速度比当今任何其他技术都要快,且应用更加广泛,许多公司已经看到了投资回报,并正在扩大用例以实现广泛应用。