资讯列表
AI 卷翻科研:DeepMind 36 页报告称全球实验室被「AI 科学家」指数级接管
OpenAI 科学家 Jason Wei 预测,未来一年内,AI 重点将从推广大众需求转为促进科学发展,无独有偶,DeepMind 刚刚发布的 36 页报告也揭示出:全球实验室 AI 使用正在指数级增长,AI for Science 真正的黄金时代即将来临。
一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等
开源绝对是AI如今发展迅猛的助推剂,而其中的一股重要力量就是来自MetaMeta在人工智能开源界可谓是硕果颇丰,从大模型LLama到图像分割模型Segment Anything,覆盖了各种模态、各种场景,甚至在AI以外的学科,如医学等科学研究进展也都从Meta的开源模型中受益。 最近,Meta发布了一系列新的开源工作,还对已有的开源工作进行了升级迭代,包括 SAM 2.1、句子表征的细化等,开源社区将再迎来一场狂欢! Segment Anything Model 2.1SAM2模型开源以来,总下载量已经超过70万次,在线可用的演示程序也已帮助用户在图像和视频数据中分割了数十万个物体,并且在跨学科(包括医学图像、气象学等研究)中产生了巨大的影响。
不是RNN的锅!清华团队深入分析长上下文建模中的状态崩溃,Mamba作者点赞
与Transformer相比,RNN模型的一大优势是应对长序列的能力。 比如Mamba,内部状态大小始终保持不变,计算随序列长度线性增长,吃得多,消化快。 理论虽如此,但实际情况却是,目前的这些RNN模型在长上下文中的有效性并不能令人满意。
AI卷翻科研!DeepMind 36页报告:全球实验室被「AI科学家」指数级接管
过去两年,AI主打用户增长,成功实现了大众化普及。 毕竟,拉新才是商业王道。 然而,如今AI日常的应用已经快卷到天花板了。
LLM应用开发者新利好:再也不用写集成代码了!
编辑 | 言征进入今年以来,如何磕破头也要挤进大LLM应用的赛道成为了每一位开发者的心事。 但上车LLM应用的人都知道,基于大模型做开发,远没有外界所说的“调接口”那么简单,开发人的痛,没人懂。 比如,光定制代码就能把你搞到没脾气。
自主智能体提前实现了?!大佬自研Python工具包,让大模型成为生产级水准,免费可用!智能体可自主反馈,人类只需批准即可
编辑 | 言征出品 | 51CTO技术栈(微信号:blog51cto)2025年,都知道智能体会爆发,然而,即将爆发的智能体会长成什么样子? 它不再只是一个“对话界面”那么简单,也不再将是“给你一项任务,去完成吧”的人类主动发起的各种工具调用(滚动聊天界面),而是一个真正意义上的自发发起任务,自动执行,但会在关键环节提醒人类进行批准确认的高级智能。 图片这一点不再是空穴来风,已经有玩家开始入场做尝试了,就在刚刚,一个名为Humanlayer的产品在圈内走红,它能让AI代理联系人类,让AI真得像得力助手一样,只需要批准确认就行。
1行代码改进大模型训练,Llama训练速度提升至1.47倍,全华人团队出品
只要改一行代码,就能让大模型训练效率提升至1.47倍。 拥有得州大学奥斯汀分校背景四名华人学者,提出了大模型训练优化器Cautious Optimizers。 在提速的同时,Cautious能够保证训练效果不出现损失,而且语言和视觉模型都适用。
清华量子计算成果登顶刊,首次发现噪声影响量子优势,来自丘成桐数学中心团队
量子计算领域首次发现! 噪声会造成量子优势突然消亡。 这是来自清华大学丘成桐数学科学中心助理教授魏朝晖团队的最新研究成果,刚刚登上Science子刊。
遗憾不?原来百度2017年就研究过Scaling Law,连Anthropic CEO灵感都来自百度
在追求 AGI 的道路上,Scaling Law 是绕不开的一环。 如果 Scaling Law 撞到了天花板,扩大模型规模,增加算力不能大幅提升模型的能力,那么就需要探索新的架构创新、算法优化或跨领域的技术突破。 作为一个学术概念,Scaling Law 为人所熟知,通常归功于 OpenAI 在 2020 年发的这篇论文:论文标题:Scaling Laws for Neural Language Models论文链接:、数据量、计算资源增加而指数提升。
AI造芯Nature论文遭围攻,谷歌发文硬刚学术抹黑!Jeff Dean怒怼:你们连模型都没训
登上了Nature的「超人」芯片设计系统AlphaChip,却多次遭到质疑。 而且不是简单说说而已,做实验、写论文,还有一篇作为invited paper发在ISPD 2023。 AlphaFold都拿诺奖了,AlphaChip还搁这辟谣呢?
将偏好学习引入模型训练,北大李戈团队新框架,可显著提升代码准确性与执行效率
代码模型SFT对齐后,缺少进一步偏好学习的问题有解了。 北大李戈教授团队与字节合作,在模型训练过程中引入偏好学习,提出了一个全新的代码生成优化框架——CodeDPO。 在部分模型上,相比于单独使用SFT,CodeDPO能够将模型的HumanEval得分再多提升10个百分点,最高增幅接近1/3。
Hugging Face 发布 SmolVLM 开源 AI 模型:20 亿参数,用于端侧推理,体积小、速度快
Hugging Face 平台昨日(11 月 26 日)发布博文,宣布推出 SmolVLM AI 视觉语言模型(VLM),仅有 20 亿参数,凭借其极低的内存占用在同类模型中脱颖而出。
HuggingFace工程师亲授:如何在Transformer中实现最好的位置编码
在 Transformer 模型中,位置编码(Positional Encoding) 被用来表示输入序列中的单词位置。 与隐式包含顺序信息的 RNN 和 CNN 不同,Transformer 的架构中没有内置处理序列顺序的机制,需要通过位置编码显式地为模型提供序列中单词的位置信息,以更好地学习序列关系。 位置编码通常通过数学函数生成,目的是为每个位置生成一个独特的向量。
国产大模型首发中文逻辑推理,「天工大模型4.0」o1版来了
没想到,技术发展得竟然这么快。 最近,人们已经开始畅想 AI 时代后的生活了。 上周末,摩根大通 CEO 杰米・戴蒙(Jamie Dimon)表示,由于人工智能技术,未来几代人每周可以只工作三天半,活到一百岁。
跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本
在当今多模态领域,CLIP 模型凭借其卓越的视觉与文本对齐能力,推动了视觉基础模型的发展。 CLIP 通过对大规模图文对的对比学习,将视觉与语言信号嵌入到同一特征空间中,受到了广泛应用。 然而,CLIP 的文本处理能力被广为诟病,难以充分理解长文本和复杂的知识表达。
创意无限:谷歌推出 GenChess,可 AI 定制国际象棋棋子
谷歌 DeepMind 团队于 11 月 25 日发布博文,为迎接 2024 年国际象棋世界冠军赛(11 月 25 日至 12 月 13 日),推出了名为 GenChess 的全新 AI 工具,让用户自由定制国际象棋棋子。
Uber“零工经济”扩展至数据标注,已对 Niantic 等外部客户提供服务
Uber 本月在多国同独立承包商签约,通过承包商派发来自其 Scaled Solotions 服务的付费人工数据标注任务。
从灯塔到弃子:波士顿动力为何被追随者反超
李子柒复出,川普正当任,仿佛回到了 2018 年自己还不是毒妇的时候。 2018 年,李子柒凭借视频在 YouTube 涨粉百万,一举成名。 同年,有个机器人也抓住 YouTube 的东风火了一把。