大语言模型
Google 发布 Gemini 2.5:迄今为止最智能的“思考”AI模型
2025 年 3 月 25 日,谷歌正式推出了其最新一代大语言模型Gemini 2.5,这一消息迅速在科技界引发热议。 作为谷歌AI技术的一次重大升级,Gemini 2. 5 被誉为公司迄今为止"最智能的模型",以其卓越的推理能力和多模态特性,标志着人工智能发展的又一里程碑。
通付盾AI Agent信任系统建设宣言:从AI到IA,得Agent者得天下
深耕行业十四年,知浪潮将至,当相向而行。 本文旨在结合企业思考,探讨AI新时代下的技术与应用趋势,对内秉初心以率众,对外纳灼见而求臻。 技术分水岭:算力、算法和数据的能效博弈随着大模型的快速更迭,人类已经走上了通往人工超级智能(ASI)的快车道。
报道称阿里云启动近年来最大规模 AI 人才校园招聘
据科创板日报报道,阿里云在全球范围内开展项大规模的 AI 人才校园招聘活动。 这次招聘规模被认为是近年来最大的一次,主要面向全球顶尖高校,如清华大学、北京大学、浙江大学、麻省理工学院和斯坦福大学等,旨在寻找在人工智能领域具备潜力的人才。 此次招聘涵盖了多个技术领域,包括大语言模型、多模态理解与生成、模型应用以及 AI 基础设施等。
RAG(七)Chain-of-Note:笔记链让检索增强型语言模型更强大!
现有的检索增强型语言模型(Retrieval-Augmented Language Models, RALMs)在处理外部知识时存在一定的局限性。 这些模型有时会因为检索到不相关或不可靠的信息而产生误导性的回答,或者在面对检索信息和模型内在知识的干扰时,无法正确选择使用哪一种知识。 此外,在检索信息不足或完全不存在的情况下,标准的RALMs可能会尝试生成一个答案,即使它们并不具备足够的信息来准确作答。
蚂蚁集团推出两款 MoE 大模型,用国产芯片训练成本显著降低
据证券时报报道,近日,蚂蚁集团 Ling 团队在预印版 Arxiv 平台发表技术成果论文《每一个 FLOP 都至关重要:无需高级 GPU 即可扩展 3000 亿参数混合专家 LING 大模型》,宣布推出两款不同规模的 MoE (混合专家)大语言模型 —— 百灵轻量版(Ling-Lite)与百灵增强版(Ling-Plus),并提出一系列创新方法,实现在低性能硬件上高效训练大模型,显著降低成本。
"瀚海智语"大模型正式发布,助力中国海洋领域智能化
国家自然资源部近日宣布,国家海洋环境预报中心联合海洋出版社有限公司和三六零数字安全科技集团有限公司成功开发并发布了海洋垂直领域大语言模型——"瀚海智语"(英文名称OceanDS)。 该模型以360智脑13B和Deepseek-R1-70B大模型为基座,专注于海洋领域应用,已顺利通过专家评审并正式发布。 "瀚海智语"的问世标志着中国在海洋领域人工智能技术应用方面迈出了重要一步,将为海洋行业的智慧化转型提供强有力的技术支撑。
图灵奖得主杨立昆:大语言模型发展已接近瓶颈,AI 仅靠文本训练无法实现人类级智能
杨立昆表示,“真正的 AI”需要理解物理世界,拥有持久的记忆,支持推理和规划。
RAG(六)大语言模型应用中的分块策略详解
1、分块在不同应用场景的作用语义搜索在语义搜索中,索引一组文档,每个文档包含特定主题的有价值信息。 通过应用有效的分块策略,可以确保搜索结果准确捕捉用户查询的核心。 分块的大小和方式直接影响搜索结果的准确性和相关性:分块过小:可能会丢失上下文信息,导致搜索结果无法准确理解用户查询的意图。
LLM核心损失函数深度剖析——KL散度与交叉熵损失
在深度学习和机器学习领域,损失函数是模型优化的核心工具之一。 它不仅决定了模型的训练方向,还直接影响模型的性能和泛化能力。 随着大语言模型(LLM)的兴起,对损失函数的理解和应用变得更加重要。
实战攻略:使用KubeMQ简化多LLM集成流程
译者 | 核子可乐审校 | 重楼将多个大语言模型集成至应用程序当中往往是项艰巨的挑战,各类不同API及通信协议的协同处理,以及如何确保请求路由的复杂性难题往往令人望而生畏。 好在可以使用消息代理与路由机制更优雅地解决此类问题,在解决痛点的同时实现多个关键优势。 本文将向大家介绍具体操作步骤。
RAG(四)Adaptive Retrieval --语言模型的信任边界,参数与非参数记忆的有效性研究
大语言模型(LMs)在许多自然语言处理任务上表现优异,但它们在记忆和回忆不太常见或不流行的事实知识方面存在明显的局限性。 并且,当涉及到长尾实体(即那些在网络上讨论较少、出现频率较低的实体)的问题时,LMs 的性能显著下降,并且增加模型规模并不能有效地解决这一问题。 此外,LMs 对于自身知识边界的认识有限,有时会产生幻觉,即生成看似合理但实际上错误的信息。
OpenAI重磅剧透:GPT-5“很快推出”,CPO预测年内AI代码自动化将达99%!
近日,OpenAI 首席产品官(CPO)Kevin Weil 在一次备受关注的访谈中透露了多个重磅消息,引发业界广泛关注。 最引人瞩目的是关于备受期待的 GPT-5以及 AI 代码自动化进程的预测。 对于 GPT-5的发布时间,Kevin Weil 虽然没有给出具体日期,但他明确表示:“我不会给你具体时间,但 GPT-5会很快出现。
LLM词元:开发者实现AI高效开发的入门指南
译者 | 布加迪审校 | 重楼大语言模型(LLM)已彻底改变了机器理解和生成人类语言的方式,幕后支持从聊天机器人到内容生成器的各种应用。 其出色功能背后是每个开发人员都应该理解的一个基本概念:词元。 这个基本单元直接影响使用LLM时的模型性能和成本。
百万成本揭秘LLM训练黄金法则,阶跃星辰推出全领域适用的超参数优化工具
在人工智能的激烈竞争中,一场耗资百万美元的大规模实验正悄然改变着大语言模型的训练方式。 阶跃星辰研究团队日前发布重磅研究成果,他们通过耗费近100万NVIDIA H800GPU小时的算力,从零开始训练了3,700个不同规模的模型,累计训练了惊人的100万亿个token,揭示出一条被称为"Step Law"的普适性缩放规律,为大语言模型的高效训练提供了全新指南。 这项研究不仅仅是对超参数优化的探索,更是第一个全面考察模型最优超参在不同形状、稀疏度和数据分布下稳定性的工作。