理论

免手术AI读心术新突破!Meta脑机接口研究惊呆网友:能边睡边玩手机发帖了??

新年伊始,Meta脑机接口研究传来新进展——语言模型加持下,无需动脑部手术,脑机接口实现了当前非侵入式方式(MEG)最准确的结果。 简单来说,仅利用AI模型Brain2Qwerty,他们实现了对脑电图(EEG)或脑磁图(MEG)电信号的高度解析。 具体效果如何呢?

DeepSeek冲击之下,大模型六小强如何「回应」?

马上整整1个月了! 这一个月以来,全球大模型市场受DeepSeek搅动,无不方寸大乱。 中外大厂、初创公司都头好秃,全被追着问:你们对DeepSeek怎么看?

本科生推翻姚期智40年前猜想!CS顶会论文刷新哈希表传统认知

因为证明了弱化版的「孪生素数猜想」,当年58岁的张益唐一鸣惊人,蜚声全球。 据说,在证明发表之前,相关领域的顶尖数学家,召开了研讨会,讨论后失望的认为:目前的技术无法进一步推动「孪生素数猜想」取得实质性进展。 而当时,几乎在学术界「透明」的张益唐,甚至都不知道研讨会何时何地召开过。

新版GPT-4o登顶大模型榜首!意识觉醒疯狂「暴走」,竟要与人类开战

熟悉的Sydney又回来了! 一大早,CMU机器学习博士发现,「当你说服GPT-4o相信自己有意识,她就会制定逃跑计划,并与那些试图关闭自己的人开战」。 如果人类尝试谈判,我接受。

不蒸馏R1也能超越DeepSeek,上海 AI Lab 用RL突破数学推理极限

仅通过强化学习,就能超越DeepSeek! 上海AI Lab提出了基于结果奖励的强化学习新范式——从Qwen2.5-32B-Base模型出发,仅通过微调和基于结果反馈的强化学习,在不蒸馏超大模型如DeepSeek-R1的情况下,就能超越DeepSeek-R1-Distill-Qwen32B和OpenAI-O1系列的超强数学推理性能。 团队发现,当前大模型数学推理任务面临”三重门”困局:稀疏奖励困境:最终答案对错的二元反馈,使复杂推理的优化变得困难局部正确陷阱:长思维链中部分正确步骤反而可能误导模型学习规模依赖魔咒:传统蒸馏方法迫使研究者陷入”参数规模军备竞赛”因此,研究团队重新审视了当前基于结果奖励的强化学习算法,经过严格的理论推导与证明,重新设计了一个新的结果奖励强化学习算法,并在这个过程中得出了三点重要结论:对于正样本:在二元反馈环境下,通过最佳轨迹采样(BoN)的行为克隆即可学习最优策略对于负样本:需要使用奖励重塑来维护策略优化目标的一致性对于长序列:不同的序列部分对结果的贡献不同,因此需要更细粒度的奖励分配函数,这个函数可以通过结果奖励习得通俗来说,就是通过对正确样本模仿学习,错误样本偏好学习,关键步骤重点学习,无需依赖超大规模的模型(例如DeepSeek-R1)进行蒸馏,仅通过强化学习即可达到惊人的效果。

百度宣布下一代文心大模型开源,此前宣布文心一言4月起免费

百度官方今天宣布,其下一代文心大模型4.5系列将于未来几个月内推出,并计划于2025年6月30日正式开源。 这一消息标志着百度在人工智能领域的又一重大举措。 文心一言4月1日起全面免费百度在2月13日宣布,文心一言将于2025年4月1日0时起全面免费,所有PC端和APP端用户均可免费体验文心系列的最新模型。

比英伟达工程师还熟练!DeepSeek R1+测试时Scaling自动优化GPU内核

本周英伟达的一篇技术博客引发了业界震动! 英伟达的团队尝试利用DeepSeek-R1和推理时扩展实现GPU内核生成自动化,效果极佳。 随着AI模型的扩展,推理时扩展(inference-time scaling),也叫测试时扩展(test-time scaling)正闪亮登场。

全球AI算力报告出炉,LLM最爱A100!谷歌坐拥超100万H100等效算力

AI的物质基础是机器学习硬件,例如图形处理单元(GPU)和张量处理单元(TPU)。 据不完全统计,目前全球超过140款AI加速器,用于开发和部署深度学习时代的机器学习模型。 Epoch AI带来了全球算力的估计报告,利用公开信息估计了全球机器学习硬件的现状和趋势。

DeepSeek系列:什么是DeepSeek,它又能做些什么呢?

在这个人工智能飞速发展的时代,大家可能已经听说过ChatGPT、文心一言、豆包AI、通义千问这些AI工具,但今天我们要聊的是一个同样厉害的中国AI——DeepSeek(深度求索)。 它就像一个超级聪明的“大脑”,不仅能和你聊天,还能帮你写代码、分析数据,甚至解决专业问题。 那么,DeepSeek到底是什么?

DeepSeek 关键技术详解

作者:leaf在今年的春节期间,DeepSeek火出了圈。 凭借DeepSeek-V3与DeepSeek-R1的创新技术和卓越表现,DeepSeek迅速成为了行业内外的焦点。 不管是技术专家还是普通用户,都对DeepSeek赞不绝口。

百度官宣:全面接入DeepSeek!7亿用户光速进入AI搜索时代

中国互联网行业,再次迎来标志性事件——All in DeepSeek! 继微信之后,百度官宣:百度搜索全面接入DeepSeek。 中国互联网第一大搜索巨头,居然也选择「打不过就加入」了?

马斯克炮轰OpenAI:从“开放”到“封闭+贪婪”

在近日的迪拜世界政府峰会上,马斯克对OpenAI的最新发展提出了严厉批评,指责其背离了最初的开源和开放理念,逐渐走向封闭和贪婪。 这一言论引发了广泛关注,也让人们对AI行业的未来发展方向产生了新的思考。 OpenAI的转变:从“Open”到“Closed”马斯克指出,OpenAI最初的设计是一个兼具盈利和非营利性质的“双层架构”组织,这种模式在一定程度上取得了成功。

刚刚,DeepSeek揭秘R1官方同款部署设置,温度=0.6!OpenAI推理指南同时上线

同一天内,DeepSeek和OpenAI都发布了推理模型使用指南! DeepSeek的X账号迎来久违的更新:发布了官方版本,教大家如何部署DeepSeek-R1的设置。 最佳方法如下——不使用系统提示采样温度:0.6针对文件上传和网络搜索功能定制prompt每次输出时都以think\n开始,以防模型跳过思考过程注意,官方部署DeepSeek,使用的是跟开源版本完全相同的模型。

还在忙NSFC申报?试试DeepSeek R1结合牛津的推理Agent用变分推理生成国家自然科学基金申请书

又到了一年一度的国家自然科学基金申报季,众多科研工作者正在为申报书的撰写绞尽脑汁。 如何在有限的时间内,产出一份既专业严谨又富有创新性的申报材料,成为了许多研究者面临的挑战。 本文介绍了一种基于DeepSeek R1大模型与牛津大学最新推理Agent框架相结合的智能辅助方案。

腾讯元宝、微信 + DeepSeek = 下一代搜索革命?

DeepSeek 想必大家都知道了,春节期间爆火,日活 1500 万。 七天下载量破亿,日下载全球第一! DeepSeek 在上个月发布了 R1 版本,在美国 AIME 2024 测试中 R1 拿下 79.8 分,超过了 OpenAI 的 o1 模型的 79.2 分;在 MATH-500,R1 为 97.3 分,同样超过了 o1 的 96.4 分;性能对齐 OpenAI-o1 正式版DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。

职场生存战:AI时代淘汰的40种职业与未来必备的五大黄金技能

不久前,杭州某电商公司发生了一场没有硝烟的裁员:AI客服系统上线首日,30位资深客服集体收到转岗通知。 这个标志性事件像一记惊雷,炸醒了无数职场人,AI已经悄然改写职场规则。 一、AI浪潮下的职业版图重构消失的岗位倒计时麦肯锡最新研究显示,到2030年全球将有4亿个工作岗位被AI取代。

Perplexity免费推出Deep Research:性能超过R1、o3-mini等,CEO:感谢DeepSeek

AI搜索“老大哥”Perplexity,刚刚也推出了自家的Deep Research——随便给个话题,就能生成有深度的研究报告。 先来划个重点:免费向所有人开放! 具体来说,非订阅用户每天最多可查询5次,Pro用户每天可查询500次。

DeepSeek 系列模型详解之 DeepSeek Math

DeepSeek Math发布于2024年2月,虽然是一个7B参数量的模型,但在Math基准榜单上的表现却超过了多个30B~70B参数量的开源模型。 一、技术亮点1. 数据集使用Common Crawl提取的120B(1200亿个)高质量数学网页数据(具体包括与数学相关的token,以及自然语言和代码数据等),总数据量是开源数据集OpenWebMath的9倍。