算法
一个算法让LLM创新能力暴增,原来是AI学会了进化
如果你让当今的 LLM 给你生成一个创意时钟设计,使用提示词「a creative time display」,它可能会给出这样的结果:或许我们能在其中看到一些创新点,但整体来说这些设计并无特别出彩之处,依然还在预期之内。 但近日的一项研究成果却可以让 LLM 设计出下面这些让人眼前一亮的时钟,而使用的提示词却和上面的一样:这是怎么做到的呢? 简而言之:一种基于 LLM 的进化算法。
通俗讲解DeepSeek中的GRPO:强化学习里的神奇算法
在人工智能快速发展的时代,强化学习是其中的关键技术,它让机器能够像人一样,在不断尝试中学习怎么做是最好的。 今天要讲的 GRPO(Group Relative Policy Optimization),也就是群体相对策略优化算法,是强化学习里非常厉害的存在。 接下来,就带大家走进deepseek(Paper Review: DeepSeek-R1——强化学习驱动的大语言模型推理能力提升) GRPO 的奇妙世界,看看它到底是怎么回事。
问同一个问题 DeepSeek-r1 / Grok-3 / Gemini 2.0 / ChatGPT 的结果出乎意料...
最近在写 TS ,希望实现一个类似 .gitignore 的功能,已有代码如下:复制在 JS 层面使用正则匹配,显然不是什么好方案。 于是整理代码和报错信息,找了四个免费的模型,问问思路。 先说结论:DeepSeek-r1 思考了 298 秒,我一度以为其陷入了死循环,但最后其在第一轮给出的方案,被 Grok-3 、 Gemini 2.0 、 ChatGPT 统统认可是最优方案之一。
算法系列之搜索算法-深度优先搜索DFS
随着每年"金三银四"招聘季的到来,许多求职者开始积极备战面试。 在众多面试环节中,机试往往是不可或缺的一环,而算法能力更是机试考核的重点。 为此,我们特别推出算法系列文章,帮助大家系统复习算法知识。
LeCun力荐!进化算法淘汰77%低质数据:RIP方法让模型性能狂飙60%
在LLM的开发中,推动模型进步的主要驱动力是精心挑选高质量的训练示例。 虽然Scaling Law的确能实现「力大砖飞」,但仅仅增加数据量并不能保证模型性能的提升,数据的质量才是关键。 低质量的数据可能会引入噪声,影响模型的训练效果。
10美元成功复现DeepSeek顿悟时刻,3B模型爆发超强推理!微软论文反驳涌现
复刻DeepSeek的神话,还在继续。 之前,UC伯克利的博士只用30美元,就复刻了DeepSeek中的顿悟时刻,震惊圈内。 这一次,来自荷兰阿姆斯特丹的研究人员Raz,再次打破纪录,把复刻成本降到了史上最低——只要10美元,就能复现DeepSeek顿悟时刻!
终于把卷积神经网络算法搞懂了!!!
大家好,我是小寒今天给大家分享一个强大的算法模型,卷积神经网络算法卷积神经网络算法(CNN)是一种专门用于处理具有网格结构数据(如图像)的深度学习模型,广泛应用于图像分类、目标检测、语义分割等任务。 CNN 的核心思想是通过模拟生物视觉皮层处理视觉信息的方式,能够自动从图像中提取特征,从而进行分类、检测等任务。 卷积神经网络的基本组成CNN 主要包括卷积层、池化层和全连接层。
简单示例提升DeepSeek-R1美国数学邀请赛AIME分数:以步骤为粒度对齐上下文学习与推理
仅需简单提示,满血版DeepSeek-R1美国数学邀请赛AIME分数再提高。 上海交大、港中文、上海AI实验室等带来最新成果BoostStep对齐推理和上下文学习粒度,大幅提升上下文学习性能,突破少样本学习上限。 图片大语言模型使用多步推理解决复杂数学问题,即先将复杂问题分解为多个步骤并逐步进行推理。
老友记搬沙发难题终结,60年数学谜题破解!119页论文惊人证明:有最优解
臭名昭著的「搬沙发」难题,已经困扰了数学家们60年。 《老友记》经典的一幕,就是Ross找人帮忙搬新沙发时,无论如何也无法使沙发顺利通过拐角。 Ross大喊「Pivot!
免手术AI读心术新突破!Meta脑机接口研究惊呆网友:能边睡边玩手机发帖了??
新年伊始,Meta脑机接口研究传来新进展——语言模型加持下,无需动脑部手术,脑机接口实现了当前非侵入式方式(MEG)最准确的结果。 简单来说,仅利用AI模型Brain2Qwerty,他们实现了对脑电图(EEG)或脑磁图(MEG)电信号的高度解析。 具体效果如何呢?
本科生推翻姚期智40年前猜想!CS顶会论文刷新哈希表传统认知
因为证明了弱化版的「孪生素数猜想」,当年58岁的张益唐一鸣惊人,蜚声全球。 据说,在证明发表之前,相关领域的顶尖数学家,召开了研讨会,讨论后失望的认为:目前的技术无法进一步推动「孪生素数猜想」取得实质性进展。 而当时,几乎在学术界「透明」的张益唐,甚至都不知道研讨会何时何地召开过。
不蒸馏R1也能超越DeepSeek,上海 AI Lab 用RL突破数学推理极限
仅通过强化学习,就能超越DeepSeek! 上海AI Lab提出了基于结果奖励的强化学习新范式——从Qwen2.5-32B-Base模型出发,仅通过微调和基于结果反馈的强化学习,在不蒸馏超大模型如DeepSeek-R1的情况下,就能超越DeepSeek-R1-Distill-Qwen32B和OpenAI-O1系列的超强数学推理性能。 团队发现,当前大模型数学推理任务面临”三重门”困局:稀疏奖励困境:最终答案对错的二元反馈,使复杂推理的优化变得困难局部正确陷阱:长思维链中部分正确步骤反而可能误导模型学习规模依赖魔咒:传统蒸馏方法迫使研究者陷入”参数规模军备竞赛”因此,研究团队重新审视了当前基于结果奖励的强化学习算法,经过严格的理论推导与证明,重新设计了一个新的结果奖励强化学习算法,并在这个过程中得出了三点重要结论:对于正样本:在二元反馈环境下,通过最佳轨迹采样(BoN)的行为克隆即可学习最优策略对于负样本:需要使用奖励重塑来维护策略优化目标的一致性对于长序列:不同的序列部分对结果的贡献不同,因此需要更细粒度的奖励分配函数,这个函数可以通过结果奖励习得通俗来说,就是通过对正确样本模仿学习,错误样本偏好学习,关键步骤重点学习,无需依赖超大规模的模型(例如DeepSeek-R1)进行蒸馏,仅通过强化学习即可达到惊人的效果。
英伟达黑科技登场!RTX神经纹理压缩,显存用量狂减96%
在显卡技术不断迭代的当下,NVIDIA再次凭借其前沿创新,吸引了全球科技爱好者的目光。 RTX神经纹理压缩(NTC)技术在beta测试演示中的表现,堪称惊艳。 它成功地将3D应用中的内存纹理占用大幅降低,最高降幅可达96%,为图形处理领域带来了全新的变革可能。
近端策略优化(PPO)算法的理论基础与PyTorch代码详解
近端策略优化(Proximal Policy Optimization, PPO)算法作为一种高效的策略优化方法,在深度强化学习领域获得了广泛应用。 特别是在大语言模型(LLM)的人类反馈强化学习(RLHF)过程中,PPO扮演着核心角色。 本文将深入探讨PPO的基本原理和实现细节。
CoAT: 基于蒙特卡洛树搜索和关联记忆的大模型推理能力优化框架
研究者提出了一种新的关联思维链(Chain-of-Associated-Thoughts, CoAT)方法,该方法通过整合蒙特卡洛树搜索(Monte Carlo Tree Search, MCTS)和关联记忆机制来提升大语言模型(LLMs)的推理能力。 区别于传统的单步推理方法,CoAT致力于增强LLM的结构化推理能力和自适应优化能力,实现动态知识整合。
检测&OCC双SOTA!Doracamom实现首个LV多模态融合的统一多任务感知算法框架~
写在前面&笔者的个人理解自动驾驶技术是现代交通革命的前沿,备受关注。 自动驾驶系统通常包括环境感知、轨迹预测和规划控制等组件,以实现自动驾驶功能。 准确的 3D 感知是自动驾驶系统的基础,主要侧重于 3D目标检测和语义占用预测任务。
知乎互动反作弊实践
一、知乎反作弊简介知乎是中文互联网知名的可信赖的问答社区,为用户提供了丰富的内容创作与消费功能,致力于让人们更好的分享知识、经验和见解,找到自己的解答。 作为UGC(用户生成内容)社区,知乎面临一系列风险,反作弊团队目前针对垃圾信息、刷粉、刷赞、账户盗用以及流量攻击等问题进行识别与治理,覆盖业务场景多,面临诸多挑战。 二、互动反作弊的意义与挑战今天主要分享的是我们在刷粉、刷赞等互动反作弊方面的实战经验。
如何优化测试时计算?解决「元强化学习」问题
优化大模型的测试时计算是提升模型部署效率和节省计算资源的关键一环。 前段时间,黄仁勋在 CES 2025 的演讲中把测试时 Scaling 形容为大模型发展的三条曲线之一。 如何优化测试时计算成为业界关注的重要课题。