AI

你的提示词根本只是在浪费算力,让deepseek达到最佳效果的三大原则

最近几周自学deepseek原理 应用 实践,一些成果,和大家分享。 与deepseek这类AI对话,为了达到最佳效果,提示词应当遵循哪三大原则? 清晰性;结构化;细节化;为什么?

被DeepSeek带火的知识蒸馏,开山之作曾被NeurIPS拒收,Hinton坐镇都没用

DeepSeek带火知识蒸馏,原作者现身爆料:原来一开始就不受待见。 称得上是“蒸馏圣经”、由Hinton、Oriol Vinyals、Jeff Dean三位大佬合写的《Distilling the Knowledge in a Neural Network》,当年被NeurIPS 2014拒收。 如何评价这篇论文的含金量?

Andrej Karpathy 最新视频盛赞 DeepSeek:R1 正在发现人类思考的逻辑并进行复现

继近日斯坦福李飞飞、Percy Liang 等人推出 S1 后,李飞飞的学生、OpenAI 早期成员与前特斯拉 AI 总监也录制了一期最新长达 3 小时的长视频上传到 YouTube,深入浅出地从神经网络的起源、GPT-2、ChatGPT 到最近 DeepSeek-R1 介绍了 AI 大模型的系列进化:视频链接:,视频讲解十分通俗易懂,即使没有技术背景的观众也能轻松理解! 尤其是在视频的第 2 个小时开始,他对最近爆火的 DeepSeek-R1 论文进行了深入介绍,并直言 DeepSeek R1 在性能方面与 OpenAI 的模型不相上下,它的出现推动了 RL 技术的发展。 除了盛赞 DeepSeek-R1 的技术创新外,Andrej Karpathy 还对纯 RL 的学习能力给予了高度评价,但又指出 RL 非常非常擅长发现一种方法来“欺骗”模型,阻碍了 RLHF 成为专业技术的步伐。

Meta 深陷盗版泥潭,邮件曝光 81.7 TB AI 训练数据黑幕

科技媒体 Ars Technica 今天(2 月 7 日)发布博文,报道称 Meta 公司再次因其 AI 模型训练数据来源,而陷入法律纠纷。

《麻省理工科技评论》点评中国AI“四剑客”,每家都媲美DeepSeek

春节期间,DeepSeek 一跃成为全球瞩目的焦点。 它以仅约十分之一的超低训练成本,成功推出了性能与OpenAI o1近乎相当的开源模型,对全球科技领域带来巨大冲击,先后引发美国科技股的大幅下跌,以及硅谷科技巨头和各国政要的纷纷回应,如今全球各大芯片厂商和智算云服务厂商更是积极响应、跟进适配。 半个月来,DeepSeek相关话题热度居高不下,热搜频频,已成为全球科技、经济乃至政治领域的重要话题。

架构创新×模型创新!清微智能全面适配DeepSeek模型推理和训练

随着大模型技术向多场景渗透,算力需求呈现「大规模、高弹性、低成本」三重挑战。 清微智能基于全球领先的可重构计算架构(CGRA)推出可重构算力芯片RPU(Reconfigurable Processing Unit),实现单机高效运行千亿级参数模型推理和训练,以动态硬件重构、全栈优化及高能效比,重新定义国产AI芯片的性价比标杆。 新年伊始,DeepSeek的惊艳亮相,不仅在科技圈掀起巨浪,其影响还涉及到经济、社会、政策等多个维度,相关企业迅速跟进。

DeepSeek 用的 GRPO 占用大量内存?有人给出了些破解方法

自 DeepSeek-R1 发布以来,群组相对策略优化(GRPO)因其有效性和易于训练而成为大型语言模型强化学习的热门话题。 R1 论文展示了如何使用 GRPO 从遵循 LLM(DeepSeek-v3)的基本指令转变为推理模型(DeepSeek-R1)。 GRPO 是一种在线学习算法(online learning algorithm),它通过使用训练过程中由训练模型自身生成的数据来进行迭代改进。

DeepSeek 爆红引发业界“狂欢”,第三方厂商嗅到商机跟风售卖 AI 网课 / 外设获利颇丰

国产 AI 公司深度求索开发的 AI 大模型 DeepSeek 在网络上成为爆款,作为一款开源、免费的大模型,尽管深度求索公司本身还未实现盈利,但目前已有大量其他厂商嗅到商机,打着“DeepSeek”旗号开始跟风“挣钱”。

DeepSeek R1 集成难题完美解决:Deepseek4j 已开源

一、为什么需要 deepseek4j? 1.1 现有框架的局限性思维链内容丢失:R1 最核心的推理过程完全被忽略响应模式不兼容:无法处理"思考在前、结论在后"的输出模式参数限制:temperature、top_p 等关键参数设置失效流式处理不完善:用户体验欠佳虽然笔者上篇博客介绍了如何使用 WebFlux 直接调用 DeepSeek API,但这种方式存在一些问题:开发成本高:直接调用 API 或改造现有框架需要处理大量细节,包括请求构建、响应解析、错误处理等。 一不做二不休,为了彻底解决这些问题,笔者基于 OpenAI4J[1] 项目的优秀架构,打造了一个专门面向 DeepSeek 的开箱即用方案 DeepSeek4J[2]增强支持 DeepSeek 独有的思维链和账单特性增加 Project Reactor 的全面响应式支持提供集成 Spring Boot Starter,提供自动配置 二、核心特性 ✨ 完整保留思维链能力、账单🚀 响应式流式处理🛠 简单优雅的 API 设计📦 开箱即用的 Spring Boot 集成,同时支持 2.x / 3.x💡 内置调试页面🔍 详细的请求响应日志🔧 灵活的代理配置⚡️ 响应式编程支持 三、快速开始 3.1 添加依赖复制3.2 配置参数复制3.3 基础使用复制3.4 进阶配置复制

夜深时分,与AI亲人们重逢

AI好好用报道编辑:Sia「远去者去了远方 愿他都安心。 」王菲在春晚演唱《世界赠予我的》时,那最后双手合十、泪洒舞台的瞬间,让人为之动容。 背后是对离世至亲的深深怀念。

​OpenAI 宣布将在欧洲存储客户数据,响应当地数据保护需求

近日,人工智能开发公司 OpenAI 宣布,将允许一些欧洲客户在欧洲联盟内存储和处理与其聊天机器人互动的数据,而不是将数据存储在美国或其他地区。 这一举措凸显了欧盟监管对大型数字平台及人工智能开发者在数据使用方面的深远影响。 图源备注:图片由AI生成,图片授权服务商Midjourney根据 OpenAI 的声明,支付费用让员工或学生使用聊天机器人的公司和教育机构,将可以选择将数据存储在欧洲。

DeepSeek开源Janus-Pro-7B:多模态AI模型性能超越DALL-E 3 和 Stable Diffusion 3!

中国人工智能公司 DeepSeek 的 R1“推理”人工智能已经引起了广泛关注,位居应用商店排行榜首位并改变了股市。 随后DeepSeek又宣布开源新一代多模态模型Janus-Pro-7B,该模型在图像生成、视觉问答等任务中全面超越 OpenAI 的 DALL-E 3 和 Stable Diffusion 3,并以“理解-生成双路径”架构和极简部署方案引发AI社区轰动。 性能表现:小模型吊打行业巨头Janus-Pro-7B虽仅有70亿参数(约为GPT-4的1/25),却在关键测试中碾压对手:文生图质量:在GenEval测试中以80%准确率击败DALL-E 3(67%)和Stable Diffusion 3(74%)复杂指令理解:在DPG-Bench测试中达84.19%准确率,能精准生成如“山脚下有蓝色湖泊的雪山”等复杂场景多模态问答:视觉问答准确率超越GPT-4V,MMBench测试得分79.2分接近专业分析模型技术突破:像“双面神”分工协作传统模型让同一套视觉编码器既理解图片又生成图片,如同让厨师同时设计菜单和炒菜。

DeepSeek开源多模态模型Janus-Pro的ComfyUI使用教程,文中附模型和工作流下载

今天给大家介绍DeepSeek发布的Janus-Pro模型的ComfyUI实践教程,包含ComfyUI安装,模型下载,工作流下载等,欢迎大家一起交流学习,也欢迎添加公众号小助手加入读者交流群,一起探索AIGC好玩的应用。 Janus Pro 是 DeepSeek 于 2025年1月27日开源的多模态模型,同时具有图像理解和生成的能力。

轨迹预测新基准!清华开源Ultra-AV:统一自动驾驶纵向轨迹数据集

摘要自动驾驶车辆在交通运输领域展现出巨大潜力,而理解其纵向驾驶行为是实现安全高效自动驾驶的关键。 现有的开源AV轨迹数据集在数据精炼、可靠性和完整性方面存在不足,从而限制了有效的性能度量分析和模型开发。 本研究针对这些挑战,构建了一个(Ultra-AV),用于分析自动驾驶汽车的微观纵向驾驶行为。

OpenAI联创Schulman闪电跳槽!从Anthropic转投Murati新公司

跑去隔壁Anthropic的OpenAI联创John Schulman,又又又跳槽了。 《财富》爆料,Schulman新的去向,是加入原OpenAI首席技术官Mira Murati的新创业公司。 此时距离他转投Anthropic,仅仅不到半年。

谷歌 Google Photos 照片应用将为 Magic Editor“AI 修图”功能引入 SynthID 隐藏水印特性

谷歌此前为其 Google Photos 照片应用引入了一项基于 AI 的 Magic Editor 修图功能,允许用户在受支持的设备中使用提示词对照片中的细节进行修改。

OpenAI突然公开o3思维链!网友:让我们谢谢DeepSeek

刚刚,OpenAI把o3-mini的推理思维链公开了。 从今日起,免费用户和付费用户都可以看到模型的思维过程,OpenAI终于Open一回。 图片评论区网友纷纷:让我们谢谢DeepSeek。

817样本激发7倍推理性能:上交大「少即是多」定律挑战RL Scaling范式

在追求人工智能极限的道路上,"更大即更强" 似乎已成为共识。 特别是在数学推理这一被视为 AI 终极挑战的领域,业界普遍认为需要海量数据和复杂的强化学习才能获得突破。 然而,来自上海交通大学的最新研究却给出了一个令人震惊的答案:仅需 817 条精心设计的样本,就能让模型在数学竞赛级别的题目上超越当前许多最先进模型。