资讯列表

AI 无处不在:谷歌将为 Chrome 浏览器增强保护模式引入人工智能

消息源 Leopeva64 于 11 月 3 日在 X 平台发文称,AI 现在已是“无处不在”,Chrome 浏览器安全浏览模式中的“增强保护”将由 AI 驱动,谷歌已在 Chrome Canary 版本中更新了该模式的描述。 ▲ AI在线注:左图为稳定版,右图为 Canary 版谷歌在设置页面更新了这项功能的说明。 现在的描述写道:“实时 AI 驱动的防护,基于您的浏览数据传输至 Google,保护您免受危险网站、下载和扩展的威胁。

消息称马斯克正与英伟达就 xAI 投资事宜进行谈判

据 New York Post 报道,知情人士称,芯片巨头英伟达正在与埃隆・马斯克就对 xAI 的潜在投资进行谈判。 图源:xAIxAI 是马斯克创立的人工智能公司,其开发的大语言模型 Grok 目前已部署在社交媒体平台 X 上。 虽然 Grok 的推出时间晚于 OpenAI 的 ChatGPT 等竞争对手,但其增长和发展速度非常快。

谷歌推出安全分析 AI 工具 Big Sleep,实战告捷抓出 SQLite 堆栈缓冲区下溢漏洞

谷歌于 10 月 31 日公布了一项基于 AI 的漏洞分析工具 Big Sleep,该工具号称能够模仿人类安全专家“系统性地发现和分析安全漏洞”。 谷歌声称,研究人员已利用该工具发现了 SQLite 的一项堆栈缓冲区下溢漏洞,而这一漏洞实际上用现有的分析工具均无法发现,因此谷歌认为这一工具有较高的实用性。 ▲ 图源谷歌(下同)据介绍,谷歌 Big Sleep 分析工具源于谷歌 Project Zero 团队今年 6 月发布的 Naptime 项目,该项目旨在评估大语言模型(LLM)在安全漏洞研究中的潜力。

三年前的AI设计芯片造假?谷歌深陷学术不端丑闻,吹哨人被开除并已起诉

2021 年,谷歌在 Nature 发表了一篇颇具争议的论文《A graph placement methodology for fast chip design》。 (作者包括 Jeff Dean 和 Quoc V. Le 等著名研究者),其中提出了一种基于强化学习的芯片设计方法。

机器狗“职业”再加一:2024 杭州马拉松首次启用四足机器人配速员

据央视新闻报道,2024 杭州马拉松 11 月 3 日上午 7 时开跑,此次赛会使用了四足机器人作为官方配速员,配速约为 9 分 24 秒,奔跑速度最高可达 6 米 / 秒。 其配备了“半马收尾”配速员气球,以稳定的配速给跑者提供科学的跑步节奏。 另外据浙江电视台报道,机器人配速员的投用在国际马拉松历史上尚属首次,体型较大的担任半马赛事的关门兔,较小的则将担任欢乐跑的“陪跑兔”。

深入理解多重共线性:基本原理、影响、检验与修正策略

在数据科学和机器学习领域,构建可靠且稳健的模型是进行准确预测和获得有价值见解的关键。 然而当模型中的变量开始呈现出高度相关性时,就会出现一个常见但容易被忽视的问题 —— 多重共线性。 多重共线性是指两个或多个预测变量之间存在强相关性,导致模型难以区分它们对目标变量的贡献。

谷歌内部项目:大模型 AI 智能体发现了代码漏洞

开源数据库引擎 SQLite 有 bug,还是智能体检测出来的! 通常,软件开发团队会在软件发布之前发现软件中的漏洞,让攻击者没有破坏的余地。 模糊测试 (Fuzzing)是一种常见的软件测试方法,其核心思想是将自动或半自动生成的随机数据输入到一个程序中,并监视程序异常。

英伟达团队机器训练新方法!仅5次演示让机器生成1000个新demo,李飞飞高徒与徒孙联手出品

人类只需要演示五次,就能让机器人学会一项复杂技能。 英伟达实验室,提出了机器人训练数据缺乏问题的新解决方案——DexMimicGen。 五次演示之后,DexMimicGen就可以直接模仿出1000个新的demo。

解决真实GitHub Issue能力登顶,字节豆包MarsCode团队分享背后工程实践,踩过的坑也分享了

解决真实GitHub Issue的基准测试,字节家的豆包MarsCode Agent悄悄登顶了。 SWE-Bench,一个由普林斯顿大学提出的极具挑战性的Benchmark,近期受到工业界、学术界和创业团队的广泛关注。 在其子集SWE-Bench Lite排行榜上,豆包MarsCode Agent近期冲上第一。

基于PyTorch的大语言模型微调指南:Torchtune完整教程与代码示例

近年来,大型语言模型(Large Language Models, LLMs)在自然语言处理(Natural Language Processing, NLP)领域取得了显著进展。 这些模型通过在大规模文本数据上进行预训练,能够习得语言的基本特征和语义,从而在各种NLP任务上取得了突破性的表现。 为了将预训练的LLM应用于特定领域或任务,通常需要在领域特定的数据集上对模型进行微调(Fine-tuning)。

开源视频生成天花板?最强搅局者Mochi 1免费直出电影级特效

AI视频生成赛道最强搅局者,来了! 何谓搅局? 下面这些是模型直出的效果,开源免费送给你!

Jim Fan全华人团队HOVER问世,1.5M小模型让机器人获「潜意识」!

1.5M参数模型就可以控制人形机器人的身体? ! 英伟达高级科学家Jim Fan表示,并不是每个基础模型都需要规模庞大。

使用 SHAP 使机器学习模型变的可解释!!

SHAP 是一种解释机器学习模型预测结果的方法,它基于博弈论中的 Shapley 值理论。 它通过计算每个特征对模型输出的贡献度,帮助我们理解模型的决策过程。 SHAP 适用于各种类型的机器学习模型,使得黑盒模型(如深度神经网络、随机森林等)的预测更加透明、可解释。

字节跳动内测 AI 模型分享社区“炉米 Lumi”,据称集成 LLM 分享 / 搭建 / 训练等功能

字节跳动悄悄推出了一个名为“炉米 Lumi”的 AI 模型分享社区,相关平台据称集成了模型分享、Workflow 搭建以及 LoRA 训练等多种功能,用户可以上传自己开发的 AI 模型,并在社区中与其他人分享,平台还支持用户搭建 AI 工作流程。 不过AI在线注意到,该平台目前还处于内部测试阶段,目前主流搜索引擎均未收录相关网站,但可以通过“artistrylab.net”网页地址直接访问,但尝试扫码登录便提示无访问权限。 目前,字节跳动尚未官宣相关平台,AI在线将关注后续情况进行报道。

慢思考准确率反降30%!普林斯顿揭示思维链某些任务上失效的秘密

OpenAI o1彻底带火慢思考和思维链(CoT)方法,但CoT在某些任务上反而会降低模型表现。 比如给生造的词分类任务,GPT-4在zero-shot提示下的准确率高达94%,换成CoT的准确率却断崖式下跌到64.4%。 内置CoT的o1-preview准确率更是只有57.7%。

创新能力超越AI Scientist,上海AI Lab「AI 科研团队」VirSci来了

编辑 | ScienceAI由上海人工智能实验室提出的 VirSci(Virtual Scientists)系统是一个基于大语言模型(LLM)的多智能体协作平台,专注于模拟科学家团队的合作过程,从而加速科研创新。 不同于以往的单智能体系统,VirSci 通过使用真实科学家的数据来模拟科学团队的多人协作,不仅可以通过团队成员的合作讨论来生成更具创新性和影响力的科研想法,还展现出作为「科学学」(Scienceof Science)研究工具的巨大潜力。 该研究以「Two Heads Are Better Than One: A Multi-Agent System Has the Potential to Improve Scientific Idea Generation」为题,于 2024 年 10 月 12 日发布在 arXiv  预印平台。

UCLA、MIT数学家推翻39年经典数学猜想!AI证明卡在99.99%,人类最终证伪

又一个看似坚固无比的数学理论,被证伪了! 最近,UCLA和MIT的研究者证伪了概率论中众所周知的假设——「上下铺猜想」。 上下铺猜想(Bunkbed Conjecture)也称为双层床猜想,是渗透理论中的一个陈述,该领域处理的是在图的边随机删除后存在的路径和簇。

十种数据预处理中的数据泄露模式解析:识别与避免策略

在机器学习教学实践中,我们常会遇到这样一个问题:"模型表现非常出色,准确率超过90%!但当将其提交到隐藏数据集进行测试时,效果却大打折扣。 问题出在哪里?"这种情况几乎总是与数据泄露有关。 当测试数据在数据准备阶段无意中泄露(渗透)到训练数据时,就会发生数据泄露。