神经元

用LLaVA解读数万神经元,大模型竟然自己打开了多模态智能黑盒

AIxiv专栏是AI在线发布学术、技术内容的栏目。 过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。 如果您有优秀的工作想要分享,欢迎投稿或者联系报道。

MIT首次证明运动能促进神经元生长,网友:催我运动的理由+1

催我运动的理由又多了一个! MIT研究团队首次证明:运动可以促进神经元生长,从而让大脑更灵活更聪明。 而且促进的方式不止一种。

中科院联合清华北大构建新型类脑网络,构筑 AI 和神经科学的桥梁

据“中国科学院自动化研究所”消息,该所李国齐、徐波研究团队联合清华大学、北京大学等借鉴大脑神经元复杂动力学特性,提出了“基于内生复杂性”的类脑神经元模型构建方法,改善了传统模型通过向外拓展规模带来的计算资源消耗问题,为有效利用神经科学发展人工智能提供了示例。相关研究论文今日在线发表于《自然・计算科学》(Nature Computational Science)。AI在线附研究主要内容:据介绍,本研究首先展示了脉冲神经网络神经元 LIF(Leaky Integrate and Fire)模型和 HH(Hodgkin-

清华类脑计算模型登Nature子刊,受大脑启发的人工树突网络,实现高能效AI

编辑 | KX5 月 30 日,清华大学类脑计算研究中心施路平团队,研发出全球首款类脑互补视觉芯片「天眸芯」,研究成果登上 Nature 封面。近日,该团队推出一种新的神经形态计算架构,即类脑神经计算模型 「Dendristor」。「Dendristor」旨在复制突触的组织(即神经元之间的连接)和树突的树状结构(即从神经元体延伸出来的突起)。这种创新的树突网络模拟了树突状结构及其固有的时空处理特性,为未来人工智能提供了高能效的视觉感知能力。类脑形态树突网络计算模型的开发由清华大学跨学科团队清华大学脑与智能实验室(T

手机流畅运行 470 亿大模型:上交大发布 LLM 手机推理框架 PowerInfer-2,提速 29 倍

苹果一出手,在手机等移动设备上部署大模型不可避免地成为行业关注焦点。然而,目前在移动设备上运行的模型相对较小(苹果的是 3B,谷歌的是 2B),并且消耗大量内存,这在很大程度上限制了其应用场景。即使是苹果,目前也需要与 OpenAI 合作,通过将云端 GPT-4o 大模型嵌入到操作系统中来提供能力更强的服务。这样一来,苹果的混合方案引起了非常多关于数据隐私的讨论和争议,甚至马斯克都下场讨论。如果苹果在操作系统层面集成 OpenAI,那么苹果设备将被禁止在我的公司使用。这是不可接受的安全违规行为。既然终端侧本地部署大

十年磨一「图」,谷歌震撼发布纳米级人脑图谱!AI 加持人类大脑研究

【新智元导读】就在今天,人们被这张 1 立方毫米的纳米级人脑皮层图震撼到了。谷歌的十年神经科学成果 —— 人脑图谱,也登上了 Science。其中,科学家们发现了此前从未发现的细胞,和全新的连接模式。人类大脑皮层,可以以纳米级分辨率建模了!谷歌研究的连接组学团队,已经成立十年了。作为纪念,就在今天,团队放出了这张 1.4PB 的人脑连接组图。就是在这张图中,谷歌的科学家发现了此前从未发现的特征细胞。图中包含 57k 个细胞,和 150M 个突触。1 立方毫米的大脑,以惊人的细节被绘制出来。这张图带给人的冲击力,实在

绘制最全最大人脑图,AI结合显微镜,谷歌、哈佛10年研究,登Science

编辑 | 紫罗一立方毫米的脑组织听起来可能并不多。但这个小方块包含 57,000 个细胞、230 毫米的血管和 1.5 亿个突触,总计 1,400 TB 的数据,哈佛大学和谷歌的研究人员刚刚完成了一项巨大的成就。研究人员共同创建了迄今为止最大的突触分辨率、3D 重建的人类大脑片段,以生动的细节展示了一块大约半米粒大小的人类颞叶皮层中的每个细胞及其神经连接网络。这是哈佛大学与谷歌科学家近 10 年合作的最新成果,谷歌将 Lichtman 的电子显微镜成像与 AI 算法相结合,对哺乳动物大脑极其复杂的线路进行颜色编码和

聚类精度超96%,机器学习新算法可实现更高脑机接口性能

编辑 | 萝卜皮使用多个电极记录神经元活动已被广泛用于了解大脑的功能机制。增加电极数量使科学家能够解码更多种类的功能。然而,由于硬件资源有限和不可避免的热组织损伤,处理大量多通道电生理数据仍然具有挑战性。在这里,韩国大邱庆北科学技术院(DGIST,Daegu Gyeongbuk Institute of Science & Technology)的研究团队提出了基于机器学习(ML)的高频神经元尖峰从二次采样的低频信号重建。受到图像处理中高频恢复和超分辨率之间等效性的启发,研究人员将 Transformer ML 模

4090成A100平替?上交大推出推理引擎PowerInfer,token生成速率只比A100低18%

机器之心报道机器之心编辑部PowerInfer 使得在消费级硬件上运行 AI 更加高效。上海交大团队,刚刚推出超强 CPU/GPU LLM 高速推理引擎 PowerInfer。项目地址::?在运行 Falcon (ReLU)-40B-FP16 的单个 RTX 4090 (24G) 上,PowerInfer 对比 llama.cpp 实现了 11 倍加速!PowerInfer 和 llama.cpp 都在相同的硬件上运行,并充分利用了 RTX 4090 上的 VRAM。在单个 NVIDIA RTX 4090 GPU

网络规模、训练学习速度提升,清华团队在大规模光电智能计算方向取得进展

编辑 | 紫罗随着大模型等人工智能技术的突破与发展,算法复杂度剧增,对传统计算芯片带来了算力和功耗的双重挑战。近年来,以光计算为基础、通过光电融合的方式构建光电神经网络的计算处理方法已经成为国际热点研究问题,有望实现计算性能的颠覆性提升。然而,光电神经网络的前向数学模型由对光场的精准物理建模得到,计算复杂度高、参数冗余度大;其学习机制沿用人工神经网络常用的梯度下降算法,面向大规模光电神经网络时优化速度慢、资源消耗高、收敛效果差。因此,现有学习架构仅能支撑小规模光电神经网络的训练,其网络容量和特征捕获能力不足以有效处

谷歌科学家 Nature 评论:人工智能如何更好地理解大脑

编译 | 绿萝2023 年 11 月 7 日,Google Research 高级研究科学家,Google 团队连接组学负责人 Viren Jain,在《Nature》发表了题为《人工智能如何更好地理解大脑》(How AI could lead to a better understanding of the brain)的评论文章。论文链接:?这是数学家、理论家和实验学家长期以来一直在问的一个问题——无论是出于创造人工智能 (AI) 的愿望,还是因为只有当数学或计算机能够重现其行为时,才能理解像大脑这样的复杂系统

13万个注释神经元,5300万个突触,普林斯顿大学等发布首个完整「成年果蝇」大脑连接组

这将进一步推动科学家们探索在 3D 环境中对果蝇大脑进行精确的计算机模拟。

Nature子刊:科学家在类脑芯片上实现类似LSTM的功能,能效高1000倍

格拉茨技术大学的计算机科学家在 Nature 子刊上发表的一篇论文表明,他们找到了一种在神经形态芯片上模拟 LSTM 的方案,可以让类脑神经形态芯片上的 AI 算法能效提高约 1000 倍。随着智能手机的普及,手机游戏也越来越受欢迎。但视频游戏等程序会大量耗电耗能。与 GPU 等标准硬件相比,基于 spike 的神经形态芯片有望实现更节能的深度神经网络(DNN)。但这需要我们理解如何在基于 event 的稀疏触发机制(sparse firing regime)中模拟 DNN,否则神经形态芯片的节能优势就会丧失。比如

迈向模仿人脑的光电芯片:对一位热衷于改进 SNN 的 NIST 研究人员的采访

cIEEE Spectrum 最近与美国国家标准与技术研究院(NIST)的物理学家 Jeffrey Shainline 进行了交谈,他的工作可能会对这个问题有所启发。Shainline 正在研究一种可以为高级形式的人工智能提供支持的计算方法——所谓的脉冲神经网络(spiking neural networks,SNN),与现在广泛部署的人工神经网络相比,它更接近地模仿大脑的工作方式。今天,主流的模式是使用在数字计算机上运行的软件来创建具有多层神经元的人工神经网络。这些「深度」人工神经网络已被证明非常成功,但它们需要

在理解通用近似定理之前,你可能都不会理解神经网络

通用近似定理很好地解释了为什么神经网络能工作以及为什么它们经常不起作用。

WAIC 2021 | SynSense时识科技首席科学家 Giacomo Indiveri:低功耗人工智能计算系统中的类脑策略

在 WAIC 2021 AI 开发者论坛上,苏黎世大学与苏黎世联邦理工学院终身教授、苏黎世神经信息研究所 INI 所长、SynSense 时识科技联合创始人 & 首席科学家 Giacomo Indiveri 带来主题为《低功耗人工智能计算系统中的类脑策略》的线上主旨演讲。以下为 Giacomo Indiveri 在 WAIC 2021 AI 开发者论坛上的演讲内容,机器之心进行了不改变原意的编辑、整理:大家好,我是 Giacomo Indiveri,来自苏黎世大学及苏黎世联邦理工神经信息研究所,很高兴有机会在这里跟
  • 1