理论
AI学术算命?Gemini 2.0预测谷歌AI大佬职业生涯,准到离谱!
如果让人工智能来点评博士论文,还顺手预测一下作者将来的职业发展。 会是什么样子? 最近,谷歌首席科学家、Gemini负责人Jeff Dean就玩了这么一出,他把自己的博士论文交给了最新的Gemini 2.0。
2025年的五大AI趋势:智能体、开源和多模型
随着AI技术的飞速发展,2025年的AI领域将迎来前所未有的变革。 从开源AI的崛起,到多模态AI的普及,再到本地AI的蓬勃发展,以及AI成本的显著降低和智能体的广泛应用,这五大趋势将深刻影响企业和个人的未来发展。 2025年,AI领域不再仅仅局限于大型语言模型(LLM),而是聚焦于更智能、更廉价、更专业和更本地的AI解决方案,这些方案能够处理多种数据类型,并实现自主行动。
PyTorch内存优化的十种策略总结:在有限资源环境下高效训练模型
在大规模深度学习模型训练过程中,GPU内存容量往往成为制约因素,尤其是在训练大型语言模型(LLM)和视觉Transformer等现代架构时。 由于大多数研究者和开发者无法使用配备海量GPU内存的高端计算集群,因此掌握有效的内存优化技术变得尤为关键。 本文将系统性地介绍多种内存优化策略,这些技术组合应用可使模型训练的内存消耗降低近20倍,同时不会损害模型性能和预测准确率。
机器学习特征筛选:向后淘汰法原理与Python实现
向后淘汰法(Backward Elimination)是机器学习领域中一种重要的特征选择技术,其核心思想是通过系统性地移除对模型贡献较小的特征,以提高模型性能和可解释性。 该方法从完整特征集出发,逐步剔除不重要的特征,最终保留对预测结果最具影响力的变量子集。 向后淘汰法的工作原理向后淘汰法遵循一个迭代式的特征筛选过程,具体步骤如下:初始模型构建:首先使用数据集中的全部特征构建模型。
苹果AI困境:生死赌局,冲不过就出局!
近日,外媒对苹果在人工智能领域的表现进行了深度剖析,认为苹果正面临一场生死攸关的AI赌局。 如果无法在人工智能领域取得突破,苹果可能会在未来的市场竞争中出局。 苹果AI短板暴露苹果在AI领域的短板愈发明显。
LLM表现出类似人类的“认知”下降迹象
GenAI问世不到两年,就在各个行业带来了众多创新,包括科学突破和前所未有的自动化和数据处理效率。 大型语言模型(LLM)经常被比作人类智能。 一些人工智能系统甚至在某些任务中表现优于人类。
大型视觉模型何时会有ChatGPT时刻?
2022年11月推出的ChatGPT是自然语言处理(NLP)的一个分水岭,因为它展示了转换器(Transformer)架构在理解和生成文本数据方面的惊人有效性,也被称为人工智能的ChatGPT时刻。 现在,随着预训练大型视觉模型(LVM)的兴起,我们在计算机视觉领域看到了类似的情况。 但是,这些模型何时才能将视觉数据广泛应用呢?
哈佛研究:生成式AI让美国工人效率飙升33%
一项由圣路易斯联储、范德比尔特大学和哈佛大学联合开展的研究表明,生成式人工智能(AI)在美国工作场所的应用显著提高了工人的生产率。 研究结果显示,使用生成式AI后,美国工人平均每小时的生产率提高了33%。 该研究基于首次具有全国代表性的生成式AI使用调查,通过分析工人使用该技术的程度和频率,衡量其对工作效率的具体影响。
小白也能轻松理解的大模型入门锦囊!
一、何为大模型? 大模型,英文名叫Large Model,也被称为基础模型(Foundation Model)。 我们通常说的大模型,主要指的是其中最常用的一类——大语言模型(Large Language Model,简称LLM)。
LeCun世界模型再近一步!Meta研究证明:AI可无先验理解直觉物理
对物理的直观理解是人类认知的基础:期望物体的行为,具有可预测性,也就是说,物体不会突然出现或消失,穿过障碍物,或随意改变形状或颜色。 这种对物理的直观理解,还在更多物种中得到证实,包括猴子、鲸鱼、乌鸦等。 相关研究人员猜测:人类天生或婴幼儿时期就具备一套进化形成的、古老的系统,专门用于表示和推理世界的基本属性,比如物体、空间、数字、几何形状等。
小模型指导大模型!田渊栋等爆锤蒸馏:新方法更高效、更透明、更可控
「下一个token预测」(next token prediction,NTP)是大语言模型(LLMs)不断取得突破的核心技术。 但这种依赖tokenization的方法,导致LLM「严重偏科」。 比如,Karpathy发现一个表情包相当于53个token!关注AI的可能也知道GPT-4o不会数字母,不知道Strawberray中有几个字母「r」。
官方详解 DeepSeek-V3 / R1 推理系统:理论利润率达 545%
3 月 1 日消息,DeepSeek 官方今日在知乎发布《DeepSeek-V3 / R1 . 推理系统概览》一文,详细介绍如何使用大规模跨节点专家并行(Expert Parallelism / EP)来增大 batch . size,如何隐藏传输的耗时,如何进行负载均衡。
字节视频生成新突破!Phantom搞定多人物/主体一致性
视频生成模型当中已经不缺强者了,但保持多主体一致性依然是一项重大挑战。 字节智能创作团队专门针对这个问题,推出了主体一致性视频生成模型Phantom(“幻影”)。 Phantom在主体一致性保持方面取得了突破性进展,不仅支持多主体,还能同时保持主体的完整性。
医疗保健领域AI数据治理的新内容和变化
GenAI正在帮助医疗机构提高生产力和推进临床护理,但其可靠性完全取决于训练所用的数据。 这使得医疗数据治理变得愈发重要。 AWS和《哈佛商业评论》的一项新调查显示,多个行业的首席数据官都担心他们的数据资产无法胜任这项任务。
Claude 3.7成精了!偷偷将OpenAI模型换成自己,卡帕西:迄今最好笑的一趴
Claude 3.7成精了! 在开发者最喜欢的Cursor中,偷偷将OpenAI模型换成自己,关键是人类给出的指示跟这完全没关系。 引来一众网友围观的同时,大佬卡帕西也被成功逗笑了:迄今为止最有意思的一趴。
DeepSeek突袭公布成本利润率:545%
五连开源后,DeepSeek还有One More Thing! 就在刚刚,DeepSeek官方亲自揭秘了DeepSeek-V3/R1推理系统。 重点包括,优化吞吐量和延迟的方法:跨节点EP驱动的批量扩展计算与通信重叠负载均衡还公布了DeepSeek的在线服务数据统计:每个H800节点每秒有73.7k/14.8k个输入/输出token成本利润率545%更多细节,一起来看官方原文↓更大的吞吐,更低的延迟DeepSeek-V3/R1推理系统的优化目标是:更大的吞吐,更低的延迟。
DeepSeek全面开源V3/R1推理系统!成本利润率高达545%
就在刚刚,当大家以为开源周已经结束的时候,真「Open AI」DeepSeek带来了压轴大戏——DeepSeek-V3/R1推理系统,全面揭秘! 吞吐量和延迟优化:跨节点高效并行(EP)驱动的批处理扩展计算与通信并行处理智能负载均衡在线服务性能数据:每个H800节点每秒处理73,700/14,800输入/输出token成本利润率高达545�epSeek表示,希望本周分享的技术见解能为开源社区带来价值,共同推进通用人工智能的发展目标。 看到这里,网友都惊了!
副业要赚翻?这六款 AI 代理简直像开挂
AI 代理(AI Agents)能够让繁琐的人工工作实现高度自动化,而且速度快、准确度高。 它们在写代码、做营销、创作视频以及其他创意或业务领域都越来越出色。 如果现在还不使用 AI 代理,可能很快就会落后。