AI在线 AI在线

理论

使用vLLM部署工具加速QWQ,推理速度比ollama更快、并发更高

与传统的HuggingFace Transformers相比,vLLM的吞吐量高达24倍,且无需改变模型架构,它采用创新的PagedAttention算法,优化了注意力键和值的管理,从而提升了推理速度,并且其能够有效地利用多核CPU和GPU资源,显著提升LLM的推理速度。 相比于ollama,vllm输出的速度更快,支持的并发更高,目前也没有遇到安全问题,稳定性非常好,更适合作为服务器的接口服务来部署。 但相应的,vllm会把服务器的GPU显存都占满,使得机器无法再部署其他服务,同时ollama部署更加的简单,也是因为这个原因ollama在最近部署deepseek的热潮中被提到的更多一些,因此个人使用可能ollama更合适。
4/9/2025 10:47:02 AM
贝塔街的万事

英伟达253B开源新王登场,Llama 4三天变陪衬!直逼DeepSeek-R1成推理天花板

Llama 4诞生不过3天,反手就被超越了。 刚刚,英伟达官宣开源「超大杯」Llama Nemotron推理模型,共有253B参数,基于Llama-3.1-405B微调而来。 在多项基准测试中,Llama Nemotron一举击败了两款Llama 4模型。
4/9/2025 10:40:32 AM
新智元

Llama 4五大疑点曝光,逐层扒皮!全球AI进步停滞,NYU教授称Scaling彻底结束

令人失望的Llama 4,只是前奏而已。 接下来我们恐将看到——全球局势的改变,将彻底阻止AI进步! 最近,一位AI CEO做出长视频,逐级对Llama 4身上的六大疑点进行了扒皮。
4/9/2025 10:11:57 AM
新智元

20人创业神话,老黄数亿刀收购!AI大牛贾扬清、白俊杰被曝入职英伟达

靴子落地,创立两年的Lepton AI被英伟达收入囊中! 据The Information报道,英伟达斥资数亿美元,完成了对AI大牛贾扬清创企Lepton AI的收购。 目前,Lepton AI的联创贾扬清(下图左)和白俊杰(下图右),均已入职英伟达。
4/9/2025 9:51:43 AM
新智元

Coze工作流×DeepSeek二创引擎!抖音/小红书/公众号链接秒变飞书表格,日省8小时

前言在短视频与图文内容井喷的今天,创作者面临信息过载、二创合规性困境及多平台适配壁垒。 跨平台爆款内容分散于不同生态,人工搬运低效且素材利用率不足20%。 直接搬运面临限流风险,而人工改写效率低下,难以平衡原创度与爆款基因。
4/9/2025 9:50:00 AM
后端小肥肠

UI-R1 | 仅136张截图,vivo开源DeepSeek R1式强化学习,提升GUI智能体动作预测

基于规则的强化学习(RL/RFT)已成为替代 SFT 的高效方案,仅需少量样本即可提升模型在特定任务中的表现。 该方法通过预定义奖励函数规避人工标注成本,如 DeepSeek-R1 在数学求解中的成功应用,以及多模态领域在图像定位等任务上的性能突破(通常使用 IOU 作为规则 reward)。 vivo 与香港中文大学的研究团队受到 DeepSeek-R1 的启发,首次将基于规则的强化学习(RL)应用到了 GUI 智能体领域。
4/9/2025 9:41:43 AM
机器之心

AI危险检测再进化!三层级解析长视频异常,各种时序粒度均有明显优势 | CVPR HighLight

多模态视频异常理解任务,又有新突破! “异常理解”是指在视频监控、自动驾驶等场景中,利用模型发现视频中的异常内容,从而预判危险,以便及时做出决策。 来自华中科大等机构的研究人员,提出了新的视频异常理解模型Holmes-VAU,以及相关数据集。
4/9/2025 9:25:00 AM
量子位

"是我创造了第一个LLM"!Kaggle前首席科学家一句话引发AI学术圈考古行动

论如何在技术圈争论中一句话噎到对方:哥们,是我创造了第一个大语言模型。 发言者Jeremy Howard为澳大利亚昆士兰大学名誉教授、曾任Kaggle创始总裁和首席科学家,现answer.ai与fast.ai创始人,。 事情的起因是有人质疑他最近的项目llms.txt在帮助大模型爬取互联网信息上并没太大作用,从而引发了这段争论,迅速引起众人围观。
4/9/2025 9:23:00 AM
量子位

MySQL遇到AI:字节跳动开源 MySQL 虚拟索引 VIDEX

虚拟索引技术(virtual index,也称为 hypothetical index)在数据库系统的查询优化、索引推荐等场景中扮演着关键角色。 简单来说,虚拟索引可以理解为数据库的'沙盘推演'系统——无需真实构建索引,仅基于统计信息即可精准模拟不同索引方案对查询计划的优化效果。 由于虚拟索引的创建/删除代价极低,使用者可以大量创建和删除索引、反复推演,确定最有效的索引方案。
4/9/2025 9:20:00 AM
字节跳动开源

首个AI科学家发论文进ICLR!得分6/7/6,从选题到实验全程零人工,连GitHub代码库都是AI写的

嚯! 完全由AI生成的论文,通过顶会ICLR评审? !
4/9/2025 9:12:28 AM
量子位

生图加入CoT,性能提升80%!微软港中文打造天才画手

AI绘画火爆的当下,大家都有过这样的体验:满心欢喜地输入一段描述,满心期待着生成超酷炫的图像,结果AI给出的作品却差强人意,不是没get到重点,就是细节各种「翻车」。 今天要介绍的ImageGen-CoT技术,就像是给AI绘画开了「外挂」,让它变得超智能,创作更轻松! 来自微软和港中文的华人研究者提出了ImageGen-CoT,用思维链(CoT)推理提升文本到图像上下文学习能力。
4/9/2025 9:10:00 AM
新智元

GPT-4o图像生成架构被“破解”了?自回归主干+扩散解码器,还有4o图像生成全面测评基准

GPT-4o图像生成架构被“破解”了! 最近一阵,“万物皆可吉卜力”让GPT-4o的图像生成功能一炮而红,人们随之好奇:4o图像生成的架构底层逻辑到底是什么? GPT-4o究竟强在哪?
4/9/2025 9:08:34 AM

知识图谱驱动!港大LightRAG终结企业碎片化检索,效率飙升200%

1、前言当前的检索增强生成(RAG)技术在实际应用中面临若干挑战。 传统的RAG采用基于向量的扁平化数据表示,难以有效建模实体之间的复杂语义关系,导致在处理复杂领域知识时检索精度不足。 此外,传统RAG在多实体关联推理中容易出现逻辑断层,且全量更新机制使得知识库的维护成本随数据规模指数增长。
4/9/2025 9:00:00 AM
后端小肥肠

三个LLM顶一个OpenAI?2亿条性能记录加持,路由n个「小」模型逆袭

当前大模型研究面临三大困境:算力垄断(顶尖成果集中于大厂)、成本壁垒(单次训练成本高,可能需要数千GPU小时)以及技术路径单一化(过度依赖单一模型的规模扩展)。 为突破这些限制,路由LLM(Routing LLM)范式应运而生——通过智能调度实现多个开源小模型的协同增效,以「组合创新」替代「规模竞赛」。 代码:: : level的MoE(Mixture-of-Experts),传统MoE通过在模型内部扩展专家网络(如稀疏激活的FFN层)提升性能,而路由LLM将完整LLM视为独立「专家」,通过预训练Router动态分配任务输入。
4/9/2025 9:00:00 AM
新智元

当 C# 遇上 ChatGPT:自动生成高质量单元测试代码实践

在软件开发的漫长旅程中,单元测试是确保代码质量的关键防线。 传统上,开发人员需要耗费大量时间和精力手动编写单元测试代码,这不仅考验开发者对业务逻辑的理解,还要求熟悉各种测试框架和技巧。 随着人工智能技术的飞速发展,ChatGPT等大型语言模型的出现为这一繁琐工作带来了新的解决方案。
4/9/2025 8:55:00 AM
conan

Git诞生20周年!大佬Linus十天写出的项目,彻底变革全球软件开发

转眼间Git诞生20周年了! 为了给Git庆生,如今鲜少公开露面的Linus罕见接受采访,更多幕后故事被更进一步展开。 2005年4月7日,Linux之父Linus Torvalds,提交了Git的首个版本。
4/9/2025 8:50:00 AM
量子位

一文彻底搞懂 MCP:AI 大模型的标准化工具箱

MCP 最近在 AI 领域 引发了 广泛关注,特别是在 海外各大社区 中,大家热烈讨论,热度相当高。 我打开了 Google Trends[1],这是一个专门用于查看全球热点趋势的网站。 图片输入关键词后,可以查看其热度变化。
4/9/2025 8:25:20 AM
程序员NEO

使用人工智能幻觉评估图像真实感​

译者 | 朱先忠审校 | 重楼引言最近,俄罗斯的一项新研究提出了通过一种非常规方法来检测不切实际的人工智能生成的图像。 这种方法的主要思想是:不是通过提高大型视觉语言模型(LVLM)的准确性,而是通过有意利用它们产生幻觉的倾向。 这种新方法使用LVLM提取有关图像的多个“原子事实”,然后应用自然语言推理(NLI)系统地衡量这些陈述之间的矛盾,从而有效地将模型的缺陷转化为检测违背常识的图像的诊断工具。
4/9/2025 8:23:49 AM
朱先忠