AI在线 AI在线

资讯列表

DeepSeek“防弹衣”来了,模型内生安全加固方案,拒绝杀敌一千自损八百|上海AI Lab

最新研究显示,以超强推理爆红的DeepSeek-R1模型竟藏隐形危险——即便最终拒绝回答,其思考过程仍可能泄露有害内容。 现有防御技术深陷两难:要么防不住攻击,要么让模型变成”惊弓之鸟”,连正常问题都拒绝回答。 上海交大与上海AI Lab联合推出安全防御方案——X-Boundary,试图破解两难局面。
3/13/2025 1:10:00 PM
量子位

自动调整推理链长度,SCoT来了!为激发推理能力研究还提出了一个新架构

不怕推理模型简单问题过度思考了,能动态调整CoT的新推理范式SCoT来了! SCoT,即自结构化推理链(Self-structured Chain of Thought )。 它通过将推理过程分解为最小语义原子步骤,能动态生成适配不同复杂度问题的CoT结构,解决了现有方法在推理多样性和效率上的不足。
3/13/2025 1:00:00 PM
量子位

“谷歌版DeepSeek”接入机器人,思维链解锁折纸系鞋带技能,推理模型代入物理世界

谷歌把推理大模型带入物理世界,机器人可以一边思考一边动作了!成功解锁折纸、系鞋带这种精细技能。 灵活性方面也拉满,能及时根据环境变化改变计划,根本不怕人类捣乱。 还可以适应机械臂、人形机器人等不同身体形态。
3/13/2025 12:44:56 PM
量子位

DeepSeek玩家能提前拿苹果新品!只要15万元,在家跑满血版R1

号称地表最强的M3 Ultra,本地跑满血版DeepSeek R1,效果到底如何? 其实,有些DeepSeek玩家们已经提前拿到手做过实测了。 例如这位Alex老哥就是其中之一:他提前拿到了两台搭载M3 Ultra的Mac Studio,配置是这样的:M3 Ultra(32 核中央处理器、80 核图形处理器和 32 核神经网络引擎)512G统一内存1TB固态硬盘具体来说,Alex老哥用配备Thunderbolt 5互连技术(传输速率为 80Gbps)的EXO Labs设备,来运行完整的DeepSeek R1模型(671B、8-bit)。
3/13/2025 12:41:37 PM
量子位

11B模型拿下开源视频生成新SOTA!仅用224张GPU训练,训练成本省10倍

224张GPU,训出开源视频生成新SOTA! Open-Sora 2.0正式发布。 11B参数规模,性能可直追HunyuanVideo和Step-Video(30B)。
3/13/2025 12:39:22 PM
量子位

RAG(三)GraphRAG进阶:GraphReader-- 基于图的Agent,让大模型“读懂”长文本

上一篇论文介绍了GraphRAG,今天来看一篇算是其进阶版的方法--GraphReader。 对于其研究动机,简单来说,LLMs具有强大的规划和反思能力,但在解决复杂任务时,如函数调用或知识图谱问答(KGQA),以及面对需要多次推理步骤的问题时,仍然面临困难。 特别是当涉及到长文本或多文档的处理时,现有的方法往往难以充分利用这些模型的能力来捕捉全局信息,并有效地进行决策。
3/13/2025 12:24:34 PM
Glodma

大型语言模型是否解决了搜索问题?

译者 | 李睿审校 | 重楼尽管LLM在内容生成方面表现出色,但需要采用语义分块和向量嵌入等技术来解决复杂数据环境中的搜索问题。 大型语言模型(LLM)的涌现推动了信息检索和人机交互的范式转变。 这些模型在大量的文本语料库上进行训练,并针对预测语言任务进行了优化,在响应查询、总结文本内容和生成上下文相关信息方面展现出了显著成效。
3/13/2025 12:09:27 PM
李睿

阿里正式推出AI旗舰应用,新夸克发布“AI超级框”

3月13日,阿里巴巴宣布推出AI旗舰应用——新夸克。 新夸克基于阿里通义领先的推理及多模态大模型,全面升级为一个无边界的“AI超级框”,为2亿用户带来全新体验。 阿里巴巴表示,未来通义系列模型的最新成果都将第一时间接入夸克。
3/13/2025 11:52:00 AM
新闻助手

潞晨科技推全新开源视频模型Open-Sora 2.0 训练流程全开源

还在为动辄百万美金的视频生成模型望而却步?还在感叹AI视频创作只是巨头的游戏?今天,开源社区用实力告诉你: “No!” 一款名为 Open-Sora2.0的全新开源模型横空出世,彻底颠覆了视频生成的“氪金”规则。 难以置信的是,这款性能直逼商业级水准的110亿参数大模型,竟然只花费了区区20万美元(224张GPU)就训练成功! 要知道,那些动辄耗资数百万美元的闭源模型,在 Open-Sora2.0面前,性价比简直弱爆了!Open-Sora2.0的发布,无疑是视频生成领域的一场“平民革命”。
3/13/2025 11:43:00 AM
AI在线

CMU 团队推出元强化微调:提升大语言模型推理能力的新范式

在人工智能领域,大语言模型(LLM)正在不断进化,最近,卡内基梅隆大学(CMU)与 HuggingFace 的研究者们共同提出了一种名为 “元强化微调”(Meta Reinforcement Fine-Tuning,简称 MRT)的新方法。 这一方法旨在优化大语言模型在测试时的计算效率,尤其是在解决复杂推理问题时,表现尤为突出。 研究表明,现有的大语言模型在推理过程中常常消耗过多的计算资源,而 MRT 的目标是让模型在给定的计算预算内,实现更高效的答案发现。
3/13/2025 11:37:00 AM
AI在线

阿里巴巴推出新夸克,打造 “AI 超级框” 一站式服务平台

今日,阿里巴巴重磅发布AI旗舰应用新夸克。 这款基于阿里通义大模型的产品,升级为“AI超级框”,为2亿用户带来全新AI体验。 与普通对话式AI不同,新夸克将多种AI能力集成于“AI超级框”。
3/13/2025 11:32:00 AM
AI在线

RAGFlow自动化脚本套件:自定义解析+回答质量评估+参数自动调优

最近 MCP(大模型上下文协议)比较火,花了点时间研究了下和 RAG 的协作架构,后续整理出心得后再发出。 言归正传,之前文章里详细介绍了 RAGFlow 的 Python api 用法,今天结合几篇法律法规文档来给大家做个简单演示,抛砖引玉。 这篇主要介绍三个脚本示例,分别是:数据处理与系统配置,系统测试,参数优化脚本。
3/13/2025 11:29:03 AM
韦东东

阿里巴巴推出AI旗舰应用“新夸克” 全面升级为“AI超级框”

3月13日,阿里巴巴正式推出其AI旗舰应用——新夸克。 这款全新升级的夸克基于阿里通义领先的推理及多模态大模型,打造了一个无边界的“AI超级框”,为用户带来全新的AI体验。 新夸克的创新之处在于将AI对话、深度思考、深度搜索、深度研究和深度执行等功能整合到一个极简的“AI超级框”中,一站式满足用户多样化的需求。
3/13/2025 11:29:00 AM
AI在线

长链推理表象下,大模型精细表征张冠李戴的本质

近些年,大模型的发展可谓是繁花似锦、烈火烹油。 从 2018 年 OpenAI 公司提出了 GPT-1 开始,到 2022 年底的 GPT-3,再到现在国内外大模型的「百模争锋」,DeepSeek 异军突起,各类大模型应用层出不穷。 然而,无论在学术界还是在工业界,目前对大模型应用的评测都是单纯在模型输出层面判断结果的准确性,而没有从大模型内在精细决策逻辑的角度来分析模型的可靠性。
3/13/2025 11:18:14 AM
张拳石、陈鹭

LynxAI获数百万人民币天使轮投资

近日,杭州斗兽场数字智能技术公司(LynxAI)获跨境电商大卖数百万人民币天使轮投资,华君出海资本跟投并担任独家财务顾问。 本轮融资资金将主要用于产品创新模型的训练、研发团队扩张以及标准化产品打造。 据介绍,LynxAI是一家为跨境电商企业提供Agentic AI产品平台的企业,成立于 2023 年。
3/13/2025 11:14:00 AM
AI在线

20万美元商业级视频生成大模型Open-Sora 2.0来了,权重、推理代码及训练流程全开源!

今天,视频生成领域迎来开源革命! Open-Sora 2.0—— 全新开源的 SOTA(State-of-the-Art)视频生成模型正式发布,仅用 20 万美元(224 张 GPU)成功训练出商业级 11B 参数视频生成大模型,性能直追 HunyuanVideo 和 30B 参数的 Step-Video。 权威评测 VBench 及用户偏好测试均证实其卓越表现,在多项关键指标上媲美动辄数百万美元训练成本的闭源模型。
3/13/2025 11:13:00 AM
机器之心

YOLOe问世,实时观察一切,统一开放物体检测和分割

它能像人眼一样,在文本、视觉输入和无提示范式等不同机制下进行检测和分割。 自 2015 年由华盛顿大学的 Joseph Redmon 研究团队提出 YOLO(You Only Look Once)以来,这项突破性的目标检测技术就像为机器装上了「闪电之眼」,凭借单次推理的实时性能刷新了计算机视觉的认知边界。 传统的 YOLO 系列如同我们人工效准的精密仪器,其识别能力被严格框定在预定义的类别目录之中,每个检测框的背后,都需要工程师手动输入认知词典。
3/13/2025 11:11:04 AM
机器之心

超越DeepSeek-R1关键RL算法GRPO,CMU「元强化微调」新范式登场

大语言模型(LLM)在推理领域的最新成果表明了通过扩展测试时计算来提高推理能力的潜力,比如 OpenAI 的 o1 系列。 通常来说,这些方法在训练模型时可以产生比典型正确解决方案更长的轨迹,并包含了试图实现某些「算法」的 token:例如反思前一个答案、规划或实现某种形式的线性搜索。 这些方法包括显式地微调预训练 LLM 以适应算法行为,例如对搜索数据进行监督微调(SFT)或针对 0/1 正确性奖励运行结果奖励(outcome-reward,OR)RL。
3/13/2025 11:07:30 AM
机器之心