资讯列表

三年前的AI设计芯片造假?谷歌深陷学术不端丑闻,吹哨人被开除并已起诉

2021 年,谷歌在 Nature 发表了一篇颇具争议的论文《A graph placement methodology for fast chip design》。 (作者包括 Jeff Dean 和 Quoc V. Le 等著名研究者),其中提出了一种基于强化学习的芯片设计方法。

机器狗“职业”再加一:2024 杭州马拉松首次启用四足机器人配速员

据央视新闻报道,2024 杭州马拉松 11 月 3 日上午 7 时开跑,此次赛会使用了四足机器人作为官方配速员,配速约为 9 分 24 秒,奔跑速度最高可达 6 米 / 秒。 其配备了“半马收尾”配速员气球,以稳定的配速给跑者提供科学的跑步节奏。 另外据浙江电视台报道,机器人配速员的投用在国际马拉松历史上尚属首次,体型较大的担任半马赛事的关门兔,较小的则将担任欢乐跑的“陪跑兔”。

深入理解多重共线性:基本原理、影响、检验与修正策略

在数据科学和机器学习领域,构建可靠且稳健的模型是进行准确预测和获得有价值见解的关键。 然而当模型中的变量开始呈现出高度相关性时,就会出现一个常见但容易被忽视的问题 —— 多重共线性。 多重共线性是指两个或多个预测变量之间存在强相关性,导致模型难以区分它们对目标变量的贡献。

谷歌内部项目:大模型 AI 智能体发现了代码漏洞

开源数据库引擎 SQLite 有 bug,还是智能体检测出来的! 通常,软件开发团队会在软件发布之前发现软件中的漏洞,让攻击者没有破坏的余地。 模糊测试 (Fuzzing)是一种常见的软件测试方法,其核心思想是将自动或半自动生成的随机数据输入到一个程序中,并监视程序异常。

英伟达团队机器训练新方法!仅5次演示让机器生成1000个新demo,李飞飞高徒与徒孙联手出品

人类只需要演示五次,就能让机器人学会一项复杂技能。 英伟达实验室,提出了机器人训练数据缺乏问题的新解决方案——DexMimicGen。 五次演示之后,DexMimicGen就可以直接模仿出1000个新的demo。

解决真实GitHub Issue能力登顶,字节豆包MarsCode团队分享背后工程实践,踩过的坑也分享了

解决真实GitHub Issue的基准测试,字节家的豆包MarsCode Agent悄悄登顶了。 SWE-Bench,一个由普林斯顿大学提出的极具挑战性的Benchmark,近期受到工业界、学术界和创业团队的广泛关注。 在其子集SWE-Bench Lite排行榜上,豆包MarsCode Agent近期冲上第一。

基于PyTorch的大语言模型微调指南:Torchtune完整教程与代码示例

近年来,大型语言模型(Large Language Models, LLMs)在自然语言处理(Natural Language Processing, NLP)领域取得了显著进展。 这些模型通过在大规模文本数据上进行预训练,能够习得语言的基本特征和语义,从而在各种NLP任务上取得了突破性的表现。 为了将预训练的LLM应用于特定领域或任务,通常需要在领域特定的数据集上对模型进行微调(Fine-tuning)。

开源视频生成天花板?最强搅局者Mochi 1免费直出电影级特效

AI视频生成赛道最强搅局者,来了! 何谓搅局? 下面这些是模型直出的效果,开源免费送给你!

Jim Fan全华人团队HOVER问世,1.5M小模型让机器人获「潜意识」!

1.5M参数模型就可以控制人形机器人的身体? ! 英伟达高级科学家Jim Fan表示,并不是每个基础模型都需要规模庞大。

使用 SHAP 使机器学习模型变的可解释!!

SHAP 是一种解释机器学习模型预测结果的方法,它基于博弈论中的 Shapley 值理论。 它通过计算每个特征对模型输出的贡献度,帮助我们理解模型的决策过程。 SHAP 适用于各种类型的机器学习模型,使得黑盒模型(如深度神经网络、随机森林等)的预测更加透明、可解释。

字节跳动内测 AI 模型分享社区“炉米 Lumi”,据称集成 LLM 分享 / 搭建 / 训练等功能

字节跳动悄悄推出了一个名为“炉米 Lumi”的 AI 模型分享社区,相关平台据称集成了模型分享、Workflow 搭建以及 LoRA 训练等多种功能,用户可以上传自己开发的 AI 模型,并在社区中与其他人分享,平台还支持用户搭建 AI 工作流程。 不过AI在线注意到,该平台目前还处于内部测试阶段,目前主流搜索引擎均未收录相关网站,但可以通过“artistrylab.net”网页地址直接访问,但尝试扫码登录便提示无访问权限。 目前,字节跳动尚未官宣相关平台,AI在线将关注后续情况进行报道。

慢思考准确率反降30%!普林斯顿揭示思维链某些任务上失效的秘密

OpenAI o1彻底带火慢思考和思维链(CoT)方法,但CoT在某些任务上反而会降低模型表现。 比如给生造的词分类任务,GPT-4在zero-shot提示下的准确率高达94%,换成CoT的准确率却断崖式下跌到64.4%。 内置CoT的o1-preview准确率更是只有57.7%。

创新能力超越AI Scientist,上海AI Lab「AI 科研团队」VirSci来了

编辑 | ScienceAI由上海人工智能实验室提出的 VirSci(Virtual Scientists)系统是一个基于大语言模型(LLM)的多智能体协作平台,专注于模拟科学家团队的合作过程,从而加速科研创新。 不同于以往的单智能体系统,VirSci 通过使用真实科学家的数据来模拟科学团队的多人协作,不仅可以通过团队成员的合作讨论来生成更具创新性和影响力的科研想法,还展现出作为「科学学」(Scienceof Science)研究工具的巨大潜力。 该研究以「Two Heads Are Better Than One: A Multi-Agent System Has the Potential to Improve Scientific Idea Generation」为题,于 2024 年 10 月 12 日发布在 arXiv  预印平台。

UCLA、MIT数学家推翻39年经典数学猜想!AI证明卡在99.99%,人类最终证伪

又一个看似坚固无比的数学理论,被证伪了! 最近,UCLA和MIT的研究者证伪了概率论中众所周知的假设——「上下铺猜想」。 上下铺猜想(Bunkbed Conjecture)也称为双层床猜想,是渗透理论中的一个陈述,该领域处理的是在图的边随机删除后存在的路径和簇。

十种数据预处理中的数据泄露模式解析:识别与避免策略

在机器学习教学实践中,我们常会遇到这样一个问题:"模型表现非常出色,准确率超过90%!但当将其提交到隐藏数据集进行测试时,效果却大打折扣。 问题出在哪里?"这种情况几乎总是与数据泄露有关。 当测试数据在数据准备阶段无意中泄露(渗透)到训练数据时,就会发生数据泄露。

Gartner认为企业必须探索的十大战略科技趋势

分析机构Gartner提出了2025年企业“需要探索”的十大战略技术趋势,其中一些趋势涉及人工智能,还有一些涉及数据管理和存储领域。 Gartner杰出的副总裁Gene Alvarez表示:“今年的十大战略技术趋势涉及人工智能的必要性和风险、计算的新前沿以及人机协同,”“跟踪这些趋势将有助于 IT 领导者以负责任并合乎道德的创新塑造组织的未来。 ”2025年最重要的战略技术趋势是:人工智能代理(Agentic AI)——人工智能代理系统可自主规划并采取行动,以实现用户定义的目标。

大语言模型时代,提示词才是王道:堪比专业翻译软件的提示词

先给大家看看最终效果:商人罗伯特·洛卡西奥,开了个名叫EqualAI的非营利组织,专门应对人工智能开发中那些看不见、摸不着的无意识偏见。 这名字听起来倒是光鲜,然而,他却在《Fast Company》上发了一篇文章,讲的是什么“提示工程”的局限。 事情的由头不过是一个普普通通的提示语:“写篇750字的文章,说说人工智能怎么成了品牌的‘数字门面’,要写得像《Fast Company》的文章那样。

OpenAI安全大佬,华人科学家翁荔B站首秀!人类如何培养出下一代聪明且安全的AI技术

出品 | 51CTO技术栈(微信号:blog51cto)B站真的啥也能学到! 11月B站的哔哩哔哩超级科学晚活动,竟然请来了OpenAI的研究副总裁(安全)——翁荔! 她是OpenAI的华人科学家,也是ChatGPT的贡献者之一。