Claude 3.5两小时暴虐50多名专家,编程10倍速飙升!但8小时曝出惊人短板
AI智能体离自主研发,还有多远? Nature期刊的一篇研究曾证明了,GPT-4能自主设计并开展化学实验,还能阅读文档学习如何使用实验室设备。 另有Transformer作者之一研发的「世界首个AI科学家」,一口气肝出10篇论文,完全不用人类插手。- 970
- 0
收敛速度最高8倍,准确率提升超30%!华科发布MoE Jetpack框架 | NeurIPS 2024
混合专家模型(MoE, Mixture of Experts)是一种通过动态激活网络的部分结构来提升计算效率的架构,可以在保持相对稳定的计算成本的前提下大幅增加参数量,从而有效提升模型性能。 这一特性使得MoE能够兼顾模型的规模与效率,已广泛应用于各种大规模任务。 然而,MoE模型通常需要在大型数据集上预训练以获得理想性能,导致其对时间和计算资源的需求极高,这也限制了其在深度学习社区中的普及性。- 971
- 0
Grok 3证明黎曼猜想,训练遭灾难性事件?数学家称不夸张,两年内AI将解出千禧年难题
黎曼猜想,竟被Grok 3「证明」了? 为此,xAI暂停了Grok 3的训练来验证它的证明,如果结果是正确的,将会完全终止模型的训练。 xAI工程师Hieu Pham在社交媒体的最新「爆料」,成为AI圈最火爆的话题。- 970
- 0
过程奖励模型PRM成版本答案!谷歌DeepMind全自动标注逐步骤奖励PAV,准确率提升8%
在提升大型语言模型(LLM)在数学推理方面的能力时,一个常用的方法是训练一个奖励模型(reward model)或验证器(verifier),也可以利用强化学习在测试阶段(test-time)对所有解决方案进行重排序。 通常情况下,验证器的预测是整个推理过程的结果,即结果奖励模型(ORM,outcome reward models),但这种奖励信号过于稀疏,模型难以从中学习,并且搜索过程的效率也不…- 970
- 0
Ilya认错,Scaling Law崩了?自曝SSI秘密技术路线取代OpenAI
昨天,The Information爆料,传统的大模型Scaling Law已经撞墙,OpenAI下一代旗舰Orion遭遇瓶颈。 就在刚刚,路透社也发文表示,由于当前方法受到限制,OpenAI和其他公司正在寻求通向更智能AI的新途径。 有趣的是,昨天拱火的The Information,今天又急忙发出一篇文章来灭火。- 968
- 0
多模态模型免微调接入互联网,即插即用新框架,效果超闭源商用方案
一个5月份完成训练的大模型,无法对《黑神话·悟空》游戏内容相关问题给出准确回答。 这是大模型的老毛病了。 因为《黑神话》8月才上市,训练数据里没有它的相关知识。- 969
- 0
免训练加速DiT!Meta提出自适应缓存新方法,视频生成快2.6倍
现在,视频生成模型无需训练即可加速了? ! Meta提出了一种新方法AdaCache,能够加速DiT模型,而且是无需额外训练的那种(即插即用)。- 970
- 0
英伟达团队机器训练新方法!仅5次演示让机器生成1000个新demo,李飞飞高徒与徒孙联手出品
人类只需要演示五次,就能让机器人学会一项复杂技能。 英伟达实验室,提出了机器人训练数据缺乏问题的新解决方案——DexMimicGen。 五次演示之后,DexMimicGen就可以直接模仿出1000个新的demo。- 970
- 0
UCLA、MIT数学家推翻39年经典数学猜想!AI证明卡在99.99%,人类最终证伪
又一个看似坚固无比的数学理论,被证伪了! 最近,UCLA和MIT的研究者证伪了概率论中众所周知的假设——「上下铺猜想」。 上下铺猜想(Bunkbed Conjecture)也称为双层床猜想,是渗透理论中的一个陈述,该领域处理的是在图的边随机删除后存在的路径和簇。- 970
- 0
提升 1.5~20 倍吞吐量,字节豆包大模型团队与香港大学发布并开源全新 RLHF 框架
字节跳动豆包大模型团队与香港大学公开联合研究成果 —— HybridFlow。 官方宣称,HybridFlow(开源项目名:veRL)是一个灵活且高效的大模型 RL 训练框架,兼容多种训练和推理框架,支持灵活的模型部署和多种 RL 算法实现。 该框架采用混合编程模型,融合单控制器(Single-Controller)的灵活性和多控制器(Multi-Controller)的高效性,可更好实现和执行多…- 8
- 0
英伟达新 nGPT 架构撬动 AI 未来:超球面学习提效,训练模型时间可缩短至 1/20
科技媒体 dataconomy 昨日(10 月 21 日)发布博文,报道称英伟达在训练 AI 模型方面取得重大突破,发布了最新的 Normalized Transformer(nGPT)新架构,保持模型的稳定性和准确性的前提下,可以将训练 AI 时间缩短至 1/4 或者 1/20。nGPT 架构提升效率的秘诀在于“超球面学习”(Hyperspherical learning)这个概念。传统的变换器…- 6
- 0
端到端优化所有能力,字节跳动提出强化学习LLM Agent框架AGILE
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]- 14
- 0
中国电信 AI 研究院完成首个全国产化万卡万参大模型训练,TeleChat2-115B 对外开源
“中国电信人工智能研究院”官方公众号今天宣布,中国电信人工智能研究院(AI在线注:下文称 TeleAI)成功完成国内首个基于全国产化万卡集群训练的万亿参数大模型,并正式对外开源首个基于全国产化万卡集群和国产深度学习框架训练的千亿参数大模型 —— 星辰语义大模型 TeleChat2-115B。官方表示,这项科研成果标志着国产大模型训练真正实现全国产化替代,正式进入全国产自主创新、安全可控的新阶段。T…- 18
- 0
微软亚洲研究院与上海市精神卫生中心展开联合研究,借助多模态大模型为认知障碍患者带来全新训练方法
据微软亚洲研究院官方披露,该研究院与上海市精神卫生中心携手展开联合研究,基于微软 Azure OpenAI 服务中的多模态大模型,开发了利用多种模态数据(如语音、文字、图片、音乐等信息)的个性化认知训练框架,为认知障碍患者的认知训练带来了新的可能。▲ 图源微软亚洲研究院公众号AI在线从微软亚洲研究院获悉,综合上海市精神卫生中心专家的建议与患者的需求,微软亚洲研究院的研究员们从易用性、界面友好性、功…- 4
- 0
原子、分子、复合物级性质预测均最佳,清华分子预训练框架登Nature子刊
编辑 | KXAI 已广泛用于药物发现和材料设计中的分子筛选。当前的自监督分子预训练方法往往忽略了分子的基本化学特性和物理原理。为了解决这个问题,来自清华大学的研究人员提出了一种称为分数去噪(Fractional denoising,Frad)的分子预训练框架,以学习有效的分子表示。通过这种方式,噪声变得可自定义,允许纳入化学先验,从而大大改善分子分布建模。实验表明,Frad 始终优于现有方法,在…- 10
- 0
训大模型为啥这么贵?专家:一半以上算力被浪费了
人工智能时代,大模型的发展带来了智能算力需求的大爆发。据估算,自 2012 年以来,AI 模型训练算力需求每 3~4 个月就翻一番,每年训练 AI 模型所需算力增长幅度高达 10 倍。同时,OpenAI 曾在 2020 年提出 Scaling law 定律。该定律指出,大模型的最终性能与计算量、模型参数量及训练数据量的大小密切相关。换言之,若要提升大模型的能力,就需要不断增加模型参数和训练数据量,…- 27
- 0
全球最大商业图库 Getty Images 推出免费高画质照片 AI 训练集:含 3750 张照片、分 15 项类别
以提供新闻、体育和娱乐照片授权闻名的全球最大的商业图库 Getty Images 上周宣布推出高画质照片样本训练数据集,供开发者开发和训练 AI 模型使用。AI在线获悉,该样本数据集包含 3,750 张照片,分为商业、教育、医疗健康、运动与健身、物品与物体、插图、图标等 15 个类别。数据集提供多种主题的高质量视觉内容,可用于训练机器学习和 AI 模型,开发多种应用场景。▲ 相关图片选集目前,这一…- 54
- 0
美国加州通过人工智能训练数据透明度法案,要求企业披露 AI 模型数据来源
今日,美国加州立法机构通过了一项颇具争议的法案 —— 人工智能训练数据透明度法案,该法案将提交给州长加文・纽瑟姆,但其尚未对此法案表态。图源 Pexels该法案旨在要求人工智能公司在开发和训练模型时,对其使用的数据集进行更加透明的披露。AI在线注意到,这项由议员雅克・欧文提出的法案(AB 2013)原本适用范围更广,但在 8 月 20 日范围缩小至仅适用于生成式人工智能,即能生成文本、图像和类似内…- 10
- 0
摩尔线程开源音频理解大模型 MooER:基于国产全功能 GPU 训练和推理
摩尔线程开源了音频理解大模型 —MooER(摩耳),是业界首个基于国产全功能 GPU 进行训练和推理的大型开源语音模型。基于摩尔线程夸娥(KUAE)智算平台,MooER 大模型用 38 小时完成了 5000 小时音频数据和伪标签的训练。MooER 不仅支持中文和英文的语音识别,还具备中译英的语音翻译能力。在 Covost2 中译英测试集中,MooER-5K 取得了 25.2 的 BLEU 分数,接…- 16
- 0
明确了:文本数据中加点代码,训练出的大模型更强、更通用
代码知识原来这么重要。如今说起大语言模型(LLM),写代码能力恐怕是「君子六艺」必不可少的一项。在预训练数据集中包含代码,即使对于并非专门为代码设计的大模型来说,也已是必不可少的事。虽然从业者们普遍认为代码数据在通用 LLM 的性能中起着至关重要的作用,但分析代码对非代码任务的精确影响的工作却非常有限。在最近由 Cohere 等机构提交的一项工作中,研究者系统地研究了代码数据对通用大模型性能的影响…- 36
- 0
Nature 曝惊人内幕:论文被天价卖出喂 AI,作者 0 收入
Nature 的一篇文章透露:你发过的 paper,很可能已经被拿去训练模型了!有的出版商靠卖数据,已经狂赚 2300 万美元。然而辛辛苦苦码论文的作者们,却拿不到一分钱,这合理吗?全球数据告急,怎么办?论文来凑!最近,Nature 的一篇文章向我们揭露了这样一个事实:连科研论文,都被薅去训 AI 了……据悉,很多学术出版商,已经向科技公司授权访问自家的论文,用来训练 AI 模型。一篇论文从酝酿 …- 14
- 0
最强 AI 程序员 Genie 砸饭碗:84 秒跑通代码,像人一样思考,团队仅 5 人
继 Devin 之后,又一个 AI 软件工程师被刷屏了 —— 它叫 Genie,号称目前地表最强,已经可以像人一样思考和行动了!那么这个“地表最强”,到底强到什么程度?先来看下评测分数。在权威榜单 SWE-Bench 中,Genie 以解决了 30.07% 问题的成绩夺得榜首。(SWE-Bench 是一个用来评估大模型解决现实中软件问题的基准。)而这个成绩可谓是遥遥领先第二名 19.27%,解锁了…- 6
- 0
消息称马斯克 X 平台同意不使用部分欧盟用户数据来训练 AI
感谢路透社今天(8 月 9 日)报道,马斯克旗下的 X 平台同意不使用部分欧盟用户数据,来训练其 AI 聊天机器人。爱尔兰一家法院周四表示,社交媒体平台 X 同意在欧盟用户选择撤销同意之前,暂时不使用从他们那里收集的个人数据来训练其 AI 系统。爱尔兰数据保护委员会本周寻求一项命令,要求暂停或限制 X 公司,不得处理用户数据来开发、训练或改进其人工智能系统。AI在线曾于 7 月报道,X 用户发现他…- 5
- 0
马斯克 X 平台因抓取用户数据训练 AI 在爱尔兰被起诉
感谢爱尔兰数据保护委员会(DPC)向高等法院提起诉讼,指控马斯克旗下的 X 平台擅用用户数据,用于训练 Grok AI 模型等增强型搜索工具。DPC 已委托 Remy Farrell SC 律师事务所提交诉讼,指控 Twitter International Unlimited Company 公司没有遵守 GDPR 规定的义务,使用用户数据训练 Grok。DPC 表示 X 平台虽然已提供了退出等…- 7
- 0
训练
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!