神经元
解密神经元活动变异性:艾伦研究所与清华揭示大脑状态如何动态调节神经编码
编辑 | 2049神经元对相同刺激的反应为什么会表现出显著差异? 这种变异性是否仅仅是「噪声」? 传统研究往往假设神经活动变异性是静态的,但真实大脑状态在秒级尺度内快速切换,导致编码效率的动态波动。
3/28/2025 2:02:00 PM
ScienceAI
神经形态计算:从实验室原型到产业变革的前夜
编辑 | matrix数十年来,科研人员一直致力于构建类脑计算机硬件,但这一领域尚未迎来真正的突破性进展。 如今,领先的研究者认为,构建首个能解决实际问题的规模化神经形态设备的时机已然成熟。 从仿生启发的潜力到技术深层的差异近年来推动人工智能进步的神经网络技术,虽从大脑中获得灵感,但其算法和硬件与生物神经元存在本质差异。
3/27/2025 12:01:00 PM
ScienceAI
深度图解神经网络架构技术
译者 | 朱先忠审校 | 重楼在本文中,我们将全面了解神经网络,这是几乎所有尖端人工智能系统的基础技术。 我们将首先探索人类大脑中的神经元,然后探索它们如何形成人工智能神经网络的基本灵感。 然后,我们将探索反向传播,即用于训练神经网络执行酷炫操作的算法。
2/25/2025 10:50:11 AM
朱先忠
用LLaVA解读数万神经元,大模型竟然自己打开了多模态智能黑盒
AIxiv专栏是AI在线发布学术、技术内容的栏目。 过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。 如果您有优秀的工作想要分享,欢迎投稿或者联系报道。
12/7/2024 4:59:00 PM
机器之心
MIT首次证明运动能促进神经元生长,网友:催我运动的理由+1
催我运动的理由又多了一个! MIT研究团队首次证明:运动可以促进神经元生长,从而让大脑更灵活更聪明。 而且促进的方式不止一种。
12/4/2024 8:50:00 AM
量子位
中科院联合清华北大构建新型类脑网络,构筑 AI 和神经科学的桥梁
据“中国科学院自动化研究所”消息,该所李国齐、徐波研究团队联合清华大学、北京大学等借鉴大脑神经元复杂动力学特性,提出了“基于内生复杂性”的类脑神经元模型构建方法,改善了传统模型通过向外拓展规模带来的计算资源消耗问题,为有效利用神经科学发展人工智能提供了示例。相关研究论文今日在线发表于《自然・计算科学》(Nature Computational Science)。AI在线附研究主要内容:据介绍,本研究首先展示了脉冲神经网络神经元 LIF(Leaky Integrate and Fire)模型和 HH(Hodgkin-
8/16/2024 9:02:35 PM
浩渺
清华类脑计算模型登Nature子刊,受大脑启发的人工树突网络,实现高能效AI
编辑 | KX5 月 30 日,清华大学类脑计算研究中心施路平团队,研发出全球首款类脑互补视觉芯片「天眸芯」,研究成果登上 Nature 封面。近日,该团队推出一种新的神经形态计算架构,即类脑神经计算模型 「Dendristor」。「Dendristor」旨在复制突触的组织(即神经元之间的连接)和树突的树状结构(即从神经元体延伸出来的突起)。这种创新的树突网络模拟了树突状结构及其固有的时空处理特性,为未来人工智能提供了高能效的视觉感知能力。类脑形态树突网络计算模型的开发由清华大学跨学科团队清华大学脑与智能实验室(T
7/12/2024 2:43:00 PM
ScienceAI
手机流畅运行 470 亿大模型:上交大发布 LLM 手机推理框架 PowerInfer-2,提速 29 倍
苹果一出手,在手机等移动设备上部署大模型不可避免地成为行业关注焦点。然而,目前在移动设备上运行的模型相对较小(苹果的是 3B,谷歌的是 2B),并且消耗大量内存,这在很大程度上限制了其应用场景。即使是苹果,目前也需要与 OpenAI 合作,通过将云端 GPT-4o 大模型嵌入到操作系统中来提供能力更强的服务。这样一来,苹果的混合方案引起了非常多关于数据隐私的讨论和争议,甚至马斯克都下场讨论。如果苹果在操作系统层面集成 OpenAI,那么苹果设备将被禁止在我的公司使用。这是不可接受的安全违规行为。既然终端侧本地部署大
6/12/2024 12:06:00 PM
汪淼
十年磨一「图」,谷歌震撼发布纳米级人脑图谱!AI 加持人类大脑研究
【新智元导读】就在今天,人们被这张 1 立方毫米的纳米级人脑皮层图震撼到了。谷歌的十年神经科学成果 —— 人脑图谱,也登上了 Science。其中,科学家们发现了此前从未发现的细胞,和全新的连接模式。人类大脑皮层,可以以纳米级分辨率建模了!谷歌研究的连接组学团队,已经成立十年了。作为纪念,就在今天,团队放出了这张 1.4PB 的人脑连接组图。就是在这张图中,谷歌的科学家发现了此前从未发现的特征细胞。图中包含 57k 个细胞,和 150M 个突触。1 立方毫米的大脑,以惊人的细节被绘制出来。这张图带给人的冲击力,实在
5/10/2024 8:20:46 PM
清源
绘制最全最大人脑图,AI结合显微镜,谷歌、哈佛10年研究,登Science
编辑 | 紫罗一立方毫米的脑组织听起来可能并不多。但这个小方块包含 57,000 个细胞、230 毫米的血管和 1.5 亿个突触,总计 1,400 TB 的数据,哈佛大学和谷歌的研究人员刚刚完成了一项巨大的成就。研究人员共同创建了迄今为止最大的突触分辨率、3D 重建的人类大脑片段,以生动的细节展示了一块大约半米粒大小的人类颞叶皮层中的每个细胞及其神经连接网络。这是哈佛大学与谷歌科学家近 10 年合作的最新成果,谷歌将 Lichtman 的电子显微镜成像与 AI 算法相结合,对哺乳动物大脑极其复杂的线路进行颜色编码和
5/10/2024 2:01:00 PM
ScienceAI
聚类精度超96%,机器学习新算法可实现更高脑机接口性能
编辑 | 萝卜皮使用多个电极记录神经元活动已被广泛用于了解大脑的功能机制。增加电极数量使科学家能够解码更多种类的功能。然而,由于硬件资源有限和不可避免的热组织损伤,处理大量多通道电生理数据仍然具有挑战性。在这里,韩国大邱庆北科学技术院(DGIST,Daegu Gyeongbuk Institute of Science & Technology)的研究团队提出了基于机器学习(ML)的高频神经元尖峰从二次采样的低频信号重建。受到图像处理中高频恢复和超分辨率之间等效性的启发,研究人员将 Transformer ML 模
2/1/2024 11:46:00 AM
ScienceAI
4090成A100平替?上交大推出推理引擎PowerInfer,token生成速率只比A100低18%
机器之心报道机器之心编辑部PowerInfer 使得在消费级硬件上运行 AI 更加高效。上海交大团队,刚刚推出超强 CPU/GPU LLM 高速推理引擎 PowerInfer。项目地址::?在运行 Falcon (ReLU)-40B-FP16 的单个 RTX 4090 (24G) 上,PowerInfer 对比 llama.cpp 实现了 11 倍加速!PowerInfer 和 llama.cpp 都在相同的硬件上运行,并充分利用了 RTX 4090 上的 VRAM。在单个 NVIDIA RTX 4090 GPU
12/20/2023 6:01:00 PM
机器之心
网络规模、训练学习速度提升,清华团队在大规模光电智能计算方向取得进展
编辑 | 紫罗随着大模型等人工智能技术的突破与发展,算法复杂度剧增,对传统计算芯片带来了算力和功耗的双重挑战。近年来,以光计算为基础、通过光电融合的方式构建光电神经网络的计算处理方法已经成为国际热点研究问题,有望实现计算性能的颠覆性提升。然而,光电神经网络的前向数学模型由对光场的精准物理建模得到,计算复杂度高、参数冗余度大;其学习机制沿用人工神经网络常用的梯度下降算法,面向大规模光电神经网络时优化速度慢、资源消耗高、收敛效果差。因此,现有学习架构仅能支撑小规模光电神经网络的训练,其网络容量和特征捕获能力不足以有效处
11/27/2023 11:56:00 AM
ScienceAI
谷歌科学家 Nature 评论:人工智能如何更好地理解大脑
编译 | 绿萝2023 年 11 月 7 日,Google Research 高级研究科学家,Google 团队连接组学负责人 Viren Jain,在《Nature》发表了题为《人工智能如何更好地理解大脑》(How AI could lead to a better understanding of the brain)的评论文章。论文链接:?这是数学家、理论家和实验学家长期以来一直在问的一个问题——无论是出于创造人工智能 (AI) 的愿望,还是因为只有当数学或计算机能够重现其行为时,才能理解像大脑这样的复杂系统
11/9/2023 5:03:00 PM
ScienceAI
13万个注释神经元,5300万个突触,普林斯顿大学等发布首个完整「成年果蝇」大脑连接组
这将进一步推动科学家们探索在 3D 环境中对果蝇大脑进行精确的计算机模拟。
7/3/2023 2:39:00 PM
机器之心
Nature子刊:科学家在类脑芯片上实现类似LSTM的功能,能效高1000倍
格拉茨技术大学的计算机科学家在 Nature 子刊上发表的一篇论文表明,他们找到了一种在神经形态芯片上模拟 LSTM 的方案,可以让类脑神经形态芯片上的 AI 算法能效提高约 1000 倍。随着智能手机的普及,手机游戏也越来越受欢迎。但视频游戏等程序会大量耗电耗能。与 GPU 等标准硬件相比,基于 spike 的神经形态芯片有望实现更节能的深度神经网络(DNN)。但这需要我们理解如何在基于 event 的稀疏触发机制(sparse firing regime)中模拟 DNN,否则神经形态芯片的节能优势就会丧失。比如
5/21/2022 4:43:00 PM
机器之心
迈向模仿人脑的光电芯片:对一位热衷于改进 SNN 的 NIST 研究人员的采访
cIEEE Spectrum 最近与美国国家标准与技术研究院(NIST)的物理学家 Jeffrey Shainline 进行了交谈,他的工作可能会对这个问题有所启发。Shainline 正在研究一种可以为高级形式的人工智能提供支持的计算方法——所谓的脉冲神经网络(spiking neural networks,SNN),与现在广泛部署的人工神经网络相比,它更接近地模仿大脑的工作方式。今天,主流的模式是使用在数字计算机上运行的软件来创建具有多层神经元的人工神经网络。这些「深度」人工神经网络已被证明非常成功,但它们需要
4/24/2022 10:59:00 AM
ScienceAI
资讯热榜
上海AI实验室开源InternVL3系列多模态大型语言模型
Haisnap横空出世,小白用户也能轻松打造AI应用
「交交」媲美GPT-4o!上海交大推出口语对话情感大模型,首个纯学术界自研!
kimi开源视觉语言模型 Kimi-VL 与 Kimi-VL-Thinking,多项基准超越 GPT-4o
韩国初创公司 RLWRLD 获 1480 万美元融资,致力于机器人基础模型开发
击败DeepSeek-R1!豆包新推理模型仅用前者参数量1/3!还将开源两个基准,瞄准通用推理能力!
谷歌 Gemini AI 新功能 Circle Screen 曝光:圈选截屏特定区域,实现精准搜索
ChatGPT重大更新,能翻出所有历史对话,网友被AI聊破防了
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
DeepSeek
AI绘画
数据
机器人
谷歌
模型
大模型
Midjourney
智能
用户
学习
开源
GPT
微软
Meta
AI创作
图像
技术
论文
Stable Diffusion
马斯克
Gemini
算法
蛋白质
生成式
芯片
代码
英伟达
神经网络
腾讯
计算
研究
Sora
AI for Science
3D
Anthropic
AI设计
机器学习
GPU
开发者
场景
华为
预测
伟达
Transformer
百度
深度学习
苹果
AI视频
模态
人形机器人
驾驶
xAI
文本
搜索
字节跳动
大语言模型
Copilot
Claude
具身智能
神器推荐
LLaMA
算力
安全
应用
视频生成
科技
视觉
亚马逊
干货合集
2024
AGI
特斯拉
DeepMind
训练