神经网络
MIT惊人神作:AI独立提出哈密顿物理!0先验知识,一天破译人类百年理论
充满想象力的MIT大牛团队,又有新作了! 大佬Max Tegmark、Ziming Liu等人在一项新研究中发现,AI能够在没有任何先验知识的情况下,能够完全独立地提出哈密顿物理量。 论文地址:,这里的AI是LNN,而非LLM。
4/16/2025 3:28:01 PM
新智元
人类一生所学不过4GB,加州理工顶刊新研究引热议
24小时不间断学习且不遗忘,一辈子也只有4GB的“知识储量”? 科学家们最新研究,计算出了人类学习积累上限,就这么多~~(甚至还不如一块U盘能装)。 这是来自Cell旗下神经科学顶刊Neuron上的一项工作,它提出了一个发人深省的悖论:人类信息处理速度仅为每秒10bit,而我们的感官系统却能以每秒10亿bit的速率收集数据。
4/14/2025 9:10:00 AM
量子位
算法不重要,AI的下一个范式突破,「解锁」新数据源才是关键
众所周知,人工智能在过去十五年里取得了令人难以置信的进步,尤其是在最近五年。 回顾一下人工智能的「四大发明」吧:深度神经网络→Transformer 语言模型→RLHF→推理,基本概括了 AI 领域发生的一切。 我们有了深度神经网络(主要是图像识别系统),然后是文本分类器,然后是聊天机器人,现在我们又有了推理模型。
4/12/2025 3:57:00 PM
机器之心
解码衰老时钟:深度学习揭示大脑衰老速度与认知功能衰退的关联
编辑 | 2049人脑的衰老速度与认知衰退、神经退行性疾病风险密切相关。 然而,传统脑龄(Brain Age,BA)模型仅能反映从出生到检测时间点的累积衰老效应,无法捕捉近期或动态的衰老速率。 这一问题在阿尔茨海默病(AD)等神经退行性病变的早期预警中尤为突出。
3/26/2025 2:11:00 PM
ScienceAI
驯服AI,更懂物理!何恺明团队提出全新DHN「去噪哈密顿网络」
近日,何恺明团队提出了去噪哈密顿网络(Denoising Hamiltonian Network,DHN),就像给物理知识开了挂。 传统的机器学习方法虽然能处理一些简单的物理关系,但面对复杂的物理系统时,却显得力不从心。 来自MIT、斯坦福、西北大学等的研究者将哈密顿力学算子推广到神经网络中,不仅能捕捉非局部时间关系,还能通过去噪机制减轻数值积分误差。
3/17/2025 8:20:00 AM
新智元
AI界的“火眼金睛”!Finer-CAM让AI理解图像更精准,分类更清晰
人工智能在图像识别领域那是卷得飞起,分类猫猫狗狗早就Out啦,现在流行的是“连连看”Plus版,比如一眼认出这是哪一年的哪个型号的跑车,或者这只鸟的眉毛是不是比隔壁老王的粗那么一丢丢。 可问题来了,神经网络它“聪明”是聪明,但让它说清楚“我凭啥说这是这个?”的时候,就有点像学渣被问解题思路,支支吾吾半天憋不出个所以然。 传统的Class Activation Map(CAM)就像是给神经网络脑袋上戴了个发光圈,告诉你“嗯,它主要看这块儿了”,但具体看啥?为啥看这儿?遇到“双胞胎”级别的细微差别,它就直接懵圈了,指着一堆相似的地方说“大概…是这儿吧…也许…”。
3/10/2025 11:02:00 AM
AI在线
模型训练前置处理之数据预处理
在神经网络技术中,有几个比较重要的环节,其中就有神经网络模型的设计;但在此之前还有一个很重要的功能就是数据集的整理;一个高质量的数据集高性能神经网络模型的基础。 但怎么才能打造一个合格的数据集,以及怎么打造一个合格的数据集? 而这就是神经网络模型的数据处理部分。
3/7/2025 8:00:00 AM
AI探索时代
神经网络技术栈介绍:PyTorch,Transformer,NLP,CV,Embedding
学习了一段时间神经网络技术之后发现对很多东西理解还不够深刻,所以今天就来梳理一下神经网络的技术栈,深入了解一下不同的工具在神经网络中所处的位置,以及其扮演的角色。 先说一句废话,神经网络仅仅只是神经网络,它不涉及具体的任务,只是一个神经网络模型;神经网络要解决实际问题就需要和不同的任务领域相结合。 神经网络技术栈要了解或者说要学习神经网络,首先要从两个方面去入手——技术原理和应用场景。
3/5/2025 2:00:00 PM
AI探索时代
经网络的每一层都是干嘛的?这才是神经网络结构的核心
组成一个神经网络从技术上来说主要有以下几个部分:数据集神经网络结构损失函数优化函数反向传播而不同神经网络模型之间最主要的区别就是神经网络结构的异同,当然最相似的地方也是神经网络结构。 原因就在于神经网络结构是由多个神经网络层所组成的;而使用不同的层就实现了不同功能的神经网络模型。 神经网络的层一个神经网络是由多种神经网络层所组成的,而每个神经网络层实现不同的功能;然后由此组成神经网络模型。
3/5/2025 8:00:00 AM
AI探索时代
小白也能轻松理解的大模型入门锦囊!
一、何为大模型? 大模型,英文名叫Large Model,也被称为基础模型(Foundation Model)。 我们通常说的大模型,主要指的是其中最常用的一类——大语言模型(Large Language Model,简称LLM)。
3/3/2025 10:00:00 AM
小喵学AI
神经网络技术的核心:反向传播算法(BP算法)
在前面的文章中介绍训练一个模型,其主要区别就在于神经网络模型的架构;但可能很多人并不知道神经网络模型的核心算法就是——反向传播算法,也被叫做BP算法。 可能很多人都听说过反向传播算法,但可能很多人都没意识到反向传播算法对神经网络的重要性;可以说现在的神经网络模型就建立在反向传播算法之上,没有反向传播算法就没有神经网络的存在。 反向传播(BP)算法了解过人工智能发展史的人应该都知道,人工智能技术并不是最近才出现的新技术;在世界上第一台计算机出现之后的十年,人工智能的概念就已经被提出来了,但人工智能技术的发展却是最近几年才爆火的。
3/3/2025 8:10:00 AM
AI探索时代
不同神经网络之间的区别,仅仅只是网络结构的不同,明白了这个你才能知道应该怎么学习神经网络
在学习神经网络技术的过程中,会有多种不同的神经网络架构;如常见的RNN,CNN等;因此,我们很多人都会被这些乱七八糟的神经网络架构给迷惑住,即想学习神经网络又不知道应该怎么入手;面对各种各样的网络模型,也不知道应该去学习哪种。 但是,我们从问题的最本质出发,不同的神经网络唯一的区别就是网络结构的不同;之所以有多种神经网络模型的原因就在于不同的网络架构能够完成不同的任务。 比如,RNN适合文本处理,机器翻译;CNN适合图像处理等。
2/28/2025 10:02:34 AM
AI探索时代
怎么实现一个神经网络?神经网络的组成结构
对学习神经网络技术的人来说,自己设计一个神经网络模型是很多人都想做的事情;也是神经网络技术学习过程中必不可少的一个环节;但是很多人又不知道应该怎么下手。 所以今天就介绍一下怎么设计一个神经网络模型。 实现一个神经网络很多人认为神经网络复杂的原因是因为没有了解过神经网络的组成结构;因此,就很难弄清楚神经网络模型中每个环节的作用,所以我们就先从神经网络的结构入手。
2/25/2025 2:13:31 PM
AI探索时代
模型训练之数据集操作:矩阵变换
对神经网络技术有所了解的人应该都知道,要想训练一个高性能的神经网络模型,除了神经网络本身的设计之外,还一个非常重要的前提就是数据集的质量问题;因此,打造一个高质量的数据集就是一个必不可少的过程。 但具体怎么才能开发一个合格的数据集,这时就离不开对数据集的各种操作;而由于在神经网络中,数据的主要载体是多维数组,也就是矩阵;因此一般情况下,数据集的数据格式也会以矩阵的形式存在。 而学会对矩阵的操作就是一个必不可少的技能之一;下面我们就以MINST数据集为例,来简单介绍一下对数据集的操作过程。
2/24/2025 8:40:00 AM
AI探索时代
断交OpenAI后,人形机器人独角兽首秀:一个神经网络控制整个上身,能听懂人话可抓万物
与OpenAI断交之后,Figure首个成果出炉:Helix,一个端到端通用控制模型,它能让机器人像人一样感知、理解和行动。 只需自然语言提示,机器人就能拿起任何东西,哪怕是从没见过的东西,比如这个活泼的小仙人掌。 从官方放出的演示中可以看到,它在接收到人类的提示后,就会按照指令逐一拿起桌上的物品放进冰箱。
2/21/2025 6:05:54 AM
ImageNet-D 详解:严格评估神经网络的鲁棒性
神经网络在零样本图像分类中取得了惊人的成就,但它们真的能“看”得有多好呢? 现有的用于评估这些模型鲁棒性的数据集仅限于网络上的图像或通过耗时且资源密集的手动收集创建的图像。 这使得系统评估这些模型在面对未见数据和真实世界条件(包括背景、纹理和材质的变化)时的泛化能力变得困难。
2/20/2025 2:44:06 PM
二旺
再谈什么是神经网络,透过现象看本质
面对着网络上各种各样关于神经网络的内容,很多想学习神经网络的人都无从下手,包括作者自己;面对各种乱七八糟的概念,名词,很多人都被这些东西蒙住了眼睛。 所以,今天我们就抛开各种高大上的概念,从本质出发来学习什么网络;我们今天不讨论CNN,RNN,Transformer,LSTM等各种神经网络架构;只讨论什么是神经网络。 神经网络对神经网络有过了解的人应该都知道,神经网络就是仿生学的一种实现,使用的是数学模型模拟人类的大脑神经系统;具体的可以看一下上一篇文章——从一个简单的神经网络模型开始。
2/20/2025 8:10:00 AM
AI探索时代
Transformer 的三大优化技术!!
Transformer 是一种基于自注意力(Self-Attention)机制的深度学习模型,最早由 Vaswani 等人在 2017 年的论文《Attention Is All You Need》中提出。 与传统的循环神经网络(RNN)和长短期记忆网络(LSTM)不同,Transformer 丢弃了递归计算结构,而是通过自注意力机制并行处理输入序列,从而大大提高了计算效率。 Transformer 广泛用于自然语言处理(NLP)和计算机视觉(CV)领域,如机器翻译、文本生成、文本分类、目标检测等。
2/20/2025 12:28:59 AM
程序员小寒
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
DeepSeek
AI绘画
数据
机器人
谷歌
模型
大模型
Midjourney
智能
用户
学习
开源
GPT
微软
Meta
AI创作
图像
技术
论文
Stable Diffusion
马斯克
Gemini
算法
蛋白质
生成式
芯片
代码
英伟达
腾讯
神经网络
计算
研究
Sora
AI for Science
3D
Anthropic
AI设计
机器学习
GPU
开发者
场景
华为
预测
伟达
Transformer
百度
苹果
深度学习
AI视频
模态
人形机器人
xAI
驾驶
字节跳动
文本
搜索
大语言模型
Claude
Copilot
具身智能
神器推荐
LLaMA
算力
安全
应用
视频生成
科技
视觉
亚马逊
干货合集
2024
AGI
特斯拉
训练
大型语言模型