资讯列表
我国科学家利用人工智能加速葡萄育种,效率提高 400%
AI在线从中国农科院基因组所官方微信公众号获悉,今日《自然・遗传学(Nature Genetics)》在线发表了中国农业科学院深圳农业基因组研究所(岭南现代农业科学与技术广东省实验室深圳分中心)周永锋团队利用人工智能进行葡萄育种的最新研究成果。 该研究将大幅缩短葡萄育种周期,且对葡萄农艺性状的预测准确度高达 85%。 相比传统方法,育种效率可提高 400%。
微软在英国启动生成式 AI 加速器计划,与英伟达、GitHub 联手帮助初创公司成长
北京时间今日,微软宣布推出生成式 AI 加速器计划,该计划旨在培育英国最杰出的 AI 初创企业,并助力其未来取得成功。 该计划与英伟达以及微软旗下的开发平台 GitHub 合作,为希望构建、推广和扩展生成式 AI 产品与服务的公司提供资源、机会。 其运行时间为 2025 年 1 月至 3 月初,官方称专为已获得种子资金并寻求进一步发展的英国 AI 初创企业量身定制。
戴尔在深圳成立 AI 智能解决方案中心,提供服务器、以太网等软硬件基础设施
感谢据界面新闻报道,戴尔科技集团今日宣布在深圳成立 AI 智能解决方案中心。 新中心提供服务器、以太网与交换机等一系列软硬件基础设施。 AI在线注意到,戴尔全球资深副总裁吴冬梅表示,AI 智能解决方案中心将立足深圳,面向大湾区,未来进一步覆盖至大中华区,以为 AI 应用落地提供支持。
AI 无处不在:谷歌将为 Chrome 浏览器增强保护模式引入人工智能
消息源 Leopeva64 于 11 月 3 日在 X 平台发文称,AI 现在已是“无处不在”,Chrome 浏览器安全浏览模式中的“增强保护”将由 AI 驱动,谷歌已在 Chrome Canary 版本中更新了该模式的描述。 ▲ AI在线注:左图为稳定版,右图为 Canary 版谷歌在设置页面更新了这项功能的说明。 现在的描述写道:“实时 AI 驱动的防护,基于您的浏览数据传输至 Google,保护您免受危险网站、下载和扩展的威胁。
消息称马斯克正与英伟达就 xAI 投资事宜进行谈判
据 New York Post 报道,知情人士称,芯片巨头英伟达正在与埃隆・马斯克就对 xAI 的潜在投资进行谈判。 图源:xAIxAI 是马斯克创立的人工智能公司,其开发的大语言模型 Grok 目前已部署在社交媒体平台 X 上。 虽然 Grok 的推出时间晚于 OpenAI 的 ChatGPT 等竞争对手,但其增长和发展速度非常快。
谷歌推出安全分析 AI 工具 Big Sleep,实战告捷抓出 SQLite 堆栈缓冲区下溢漏洞
谷歌于 10 月 31 日公布了一项基于 AI 的漏洞分析工具 Big Sleep,该工具号称能够模仿人类安全专家“系统性地发现和分析安全漏洞”。 谷歌声称,研究人员已利用该工具发现了 SQLite 的一项堆栈缓冲区下溢漏洞,而这一漏洞实际上用现有的分析工具均无法发现,因此谷歌认为这一工具有较高的实用性。 ▲ 图源谷歌(下同)据介绍,谷歌 Big Sleep 分析工具源于谷歌 Project Zero 团队今年 6 月发布的 Naptime 项目,该项目旨在评估大语言模型(LLM)在安全漏洞研究中的潜力。
三年前的AI设计芯片造假?谷歌深陷学术不端丑闻,吹哨人被开除并已起诉
2021 年,谷歌在 Nature 发表了一篇颇具争议的论文《A graph placement methodology for fast chip design》。 (作者包括 Jeff Dean 和 Quoc V. Le 等著名研究者),其中提出了一种基于强化学习的芯片设计方法。
机器狗“职业”再加一:2024 杭州马拉松首次启用四足机器人配速员
据央视新闻报道,2024 杭州马拉松 11 月 3 日上午 7 时开跑,此次赛会使用了四足机器人作为官方配速员,配速约为 9 分 24 秒,奔跑速度最高可达 6 米 / 秒。 其配备了“半马收尾”配速员气球,以稳定的配速给跑者提供科学的跑步节奏。 另外据浙江电视台报道,机器人配速员的投用在国际马拉松历史上尚属首次,体型较大的担任半马赛事的关门兔,较小的则将担任欢乐跑的“陪跑兔”。
深入理解多重共线性:基本原理、影响、检验与修正策略
在数据科学和机器学习领域,构建可靠且稳健的模型是进行准确预测和获得有价值见解的关键。 然而当模型中的变量开始呈现出高度相关性时,就会出现一个常见但容易被忽视的问题 —— 多重共线性。 多重共线性是指两个或多个预测变量之间存在强相关性,导致模型难以区分它们对目标变量的贡献。
谷歌内部项目:大模型 AI 智能体发现了代码漏洞
开源数据库引擎 SQLite 有 bug,还是智能体检测出来的! 通常,软件开发团队会在软件发布之前发现软件中的漏洞,让攻击者没有破坏的余地。 模糊测试 (Fuzzing)是一种常见的软件测试方法,其核心思想是将自动或半自动生成的随机数据输入到一个程序中,并监视程序异常。
英伟达团队机器训练新方法!仅5次演示让机器生成1000个新demo,李飞飞高徒与徒孙联手出品
人类只需要演示五次,就能让机器人学会一项复杂技能。 英伟达实验室,提出了机器人训练数据缺乏问题的新解决方案——DexMimicGen。 五次演示之后,DexMimicGen就可以直接模仿出1000个新的demo。
解决真实GitHub Issue能力登顶,字节豆包MarsCode团队分享背后工程实践,踩过的坑也分享了
解决真实GitHub Issue的基准测试,字节家的豆包MarsCode Agent悄悄登顶了。 SWE-Bench,一个由普林斯顿大学提出的极具挑战性的Benchmark,近期受到工业界、学术界和创业团队的广泛关注。 在其子集SWE-Bench Lite排行榜上,豆包MarsCode Agent近期冲上第一。
基于PyTorch的大语言模型微调指南:Torchtune完整教程与代码示例
近年来,大型语言模型(Large Language Models, LLMs)在自然语言处理(Natural Language Processing, NLP)领域取得了显著进展。 这些模型通过在大规模文本数据上进行预训练,能够习得语言的基本特征和语义,从而在各种NLP任务上取得了突破性的表现。 为了将预训练的LLM应用于特定领域或任务,通常需要在领域特定的数据集上对模型进行微调(Fine-tuning)。
开源视频生成天花板?最强搅局者Mochi 1免费直出电影级特效
AI视频生成赛道最强搅局者,来了! 何谓搅局? 下面这些是模型直出的效果,开源免费送给你!
Jim Fan全华人团队HOVER问世,1.5M小模型让机器人获「潜意识」!
1.5M参数模型就可以控制人形机器人的身体? ! 英伟达高级科学家Jim Fan表示,并不是每个基础模型都需要规模庞大。
使用 SHAP 使机器学习模型变的可解释!!
SHAP 是一种解释机器学习模型预测结果的方法,它基于博弈论中的 Shapley 值理论。 它通过计算每个特征对模型输出的贡献度,帮助我们理解模型的决策过程。 SHAP 适用于各种类型的机器学习模型,使得黑盒模型(如深度神经网络、随机森林等)的预测更加透明、可解释。
字节跳动内测 AI 模型分享社区“炉米 Lumi”,据称集成 LLM 分享 / 搭建 / 训练等功能
字节跳动悄悄推出了一个名为“炉米 Lumi”的 AI 模型分享社区,相关平台据称集成了模型分享、Workflow 搭建以及 LoRA 训练等多种功能,用户可以上传自己开发的 AI 模型,并在社区中与其他人分享,平台还支持用户搭建 AI 工作流程。 不过AI在线注意到,该平台目前还处于内部测试阶段,目前主流搜索引擎均未收录相关网站,但可以通过“artistrylab.net”网页地址直接访问,但尝试扫码登录便提示无访问权限。 目前,字节跳动尚未官宣相关平台,AI在线将关注后续情况进行报道。
慢思考准确率反降30%!普林斯顿揭示思维链某些任务上失效的秘密
OpenAI o1彻底带火慢思考和思维链(CoT)方法,但CoT在某些任务上反而会降低模型表现。 比如给生造的词分类任务,GPT-4在zero-shot提示下的准确率高达94%,换成CoT的准确率却断崖式下跌到64.4%。 内置CoT的o1-preview准确率更是只有57.7%。