用LLaVA解读数万神经元,大模型竟然自己打开了多模态智能黑盒
AIxiv专栏是AI在线发布学术、技术内容的栏目。 过去数年,AI在线AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。 如果您有优秀的工作想要分享,欢迎投稿或者联系报道。- 975
- 0
中科院联合清华北大构建新型类脑网络,构筑 AI 和神经科学的桥梁
据“中国科学院自动化研究所”消息,该所李国齐、徐波研究团队联合清华大学、北京大学等借鉴大脑神经元复杂动力学特性,提出了“基于内生复杂性”的类脑神经元模型构建方法,改善了传统模型通过向外拓展规模带来的计算资源消耗问题,为有效利用神经科学发展人工智能提供了示例。相关研究论文今日在线发表于《自然・计算科学》(Nature Computational Science)。AI在线附研究主要内容:据介绍,本研…- 10
- 0
清华类脑计算模型登Nature子刊,受大脑启发的人工树突网络,实现高能效AI
编辑 | KX5 月 30 日,清华大学类脑计算研究中心施路平团队,研发出全球首款类脑互补视觉芯片「天眸芯」,研究成果登上 Nature 封面。近日,该团队推出一种新的神经形态计算架构,即类脑神经计算模型 「Dendristor」。「Dendristor」旨在复制突触的组织(即神经元之间的连接)和树突的树状结构(即从神经元体延伸出来的突起)。这种创新的树突网络模拟了树突状结构及其固有的时空处理特性…- 20
- 0
手机流畅运行 470 亿大模型:上交大发布 LLM 手机推理框架 PowerInfer-2,提速 29 倍
苹果一出手,在手机等移动设备上部署大模型不可避免地成为行业关注焦点。然而,目前在移动设备上运行的模型相对较小(苹果的是 3B,谷歌的是 2B),并且消耗大量内存,这在很大程度上限制了其应用场景。即使是苹果,目前也需要与 OpenAI 合作,通过将云端 GPT-4o 大模型嵌入到操作系统中来提供能力更强的服务。这样一来,苹果的混合方案引起了非常多关于数据隐私的讨论和争议,甚至马斯克都下场讨论。如果苹…- 7
- 0
十年磨一「图」,google震撼发布纳米级人脑图谱!AI 加持人类大脑研讨
【新智元导读】就在今天,人们被这张 1 立方毫米的纳米级人脑皮层图震撼到了。google的十年神经科学成果 —— 人脑图谱,也登上了 Science。其中,科学家们发明了此前从未发明的细胞,和全新的连贯模式。人类大脑皮层,可以以纳米级分辨率建模了!google研讨的连贯组学团队,已经成立十年了。作为纪念,就在今天,团队放出了这张 1.4PB 的人脑连贯组图。就是在这张图中,google的科学家发明…- 6
- 0
绘制最全最大人脑图,AI结合显微镜,google、哈佛10年研讨,登Science
编辑 | 紫罗一立方毫米的脑组织听起来可能并不多。但这个小方块包含 57,000 个细胞、230 毫米的血管和 1.5 亿个突触,总计 1,400 TB 的数据,哈佛大学和google的研讨职员刚刚完成了一项巨大的成就。研讨职员共同创建了迄今为止最大的突触分辨率、3D 重修的人类大脑片段,以生动的细节展示了一块大约半米粒大小的人类颞叶皮层中的每个细胞及其神经毗连网络。这是哈佛大学与google科学…- 8
- 0
聚类精度超96%,机器学习新算法可兑现更高脑机接口性能
编辑 | 萝卜皮使用多个电极纪录神经元活动已被广泛用于了解大脑的功效机制。增加电极数量使科学家能够解码更多种类的功效。然而,由于硬件资源有限和不可避免的热组织损伤,处理大量多通道电生理数据仍然具有挑战性。在这里,韩国大邱庆北科学技巧院(DGIST,Daegu Gyeongbuk Institute of Science & Technology)的钻研团队提出了鉴于机器学习(ML)的高频神…- 6
- 0
4090成A100平替?上交大推出推理引擎PowerInfer,token生成速率只比A100低18%
呆板之心报道呆板之心编辑部PowerInfer 使得在消费级硬件上运转 AI 更加高效。上海交大团队,刚刚推出超强 CPU/GPU LLM 高速推理引擎 PowerInfer。项目地址::?在运转 Falcon (ReLU)-40B-FP16 的单个 RTX 4090 (24G) 上,PowerInfer 对比 llama.cpp 实现了 11 倍加速!PowerInfer 和 llama.cpp…- 39
- 0
搜集规模、训练进修速度提升,清华团队在大规模光电智能估计方向取得进展
编辑 | 紫罗随着大模型等人为智能技术的突破与发展,算法复杂度剧增,对传统估计芯片带来了算力和功耗的双重挑战。近年来,以光估计为基础、通过光电融合的方式构建光电神经搜集的估计处理方法已经成为国际热点钻研问题,有望完成估计性能的颠覆性提升。然而,光电神经搜集的前向数学模型由对光场的精准物理建模得到,估计复杂度高、参数冗余度大;其进修机制沿用人为神经搜集常用的梯度下降算法,面向大规模光电神经搜集时优化…- 7
- 0
谷歌科学家 Nature 评论:人工智能如何更好地理解大脑
编译 | 绿萝2023 年 11 月 7 日,Google Research 高级研讨科学家,Google 团队衔接组学负责人 Viren Jain,在《Nature》发表了题为《人工智能如何更好地理解大脑》(How AI could lead to a better understanding of the brain)的评论文章。论文链接:?这是数学家、理论家和实验学家长期以来一直在问的一个问…- 15
- 0
Nature子刊:科学家在类脑芯片上实现类似LSTM的功能,能效高1000倍
格拉茨技术大学的计算机科学家在 Nature 子刊上发表的一篇论文表明,他们找到了一种在神经形状芯片上模仿 LSTM 的方案,可以让类脑神经形状芯片上的 AI 算法能效提高约 1000 倍。随着智能手机的普及,手机游戏也越来越受欢迎。但视频游戏等程序会大量耗电耗能。与 GPU 等标准硬件相比,基于 spike 的神经形状芯片有望实现更节能的深度神经收集(DNN)。但这需要我们理解如何在基于 eve…- 10
- 0
迈向模仿人脑的光电芯片:对一位热衷于改进 SNN 的 NIST 研讨人员的采访
cIEEE Spectrum 近来与美国国家标准与技术研讨院(NIST)的物理学家 Jeffrey Shainline 举行了交谈,他的工作可能会对这个问题有所启发。Shainline 在研讨一种可以为高级形式的人工智能提供支持的计算方法——所谓的脉冲神经网络(spiking neural networks,SNN),与现在广泛部署的人工神经网络相比,它更接近地模仿大脑的工作方式。今天,主流的模式…- 8
- 0
WAIC 2021 | SynSense时识科技首席科学家 Giacomo Indiveri:低功耗人工智能算计体系中的类脑策略
在 WAIC 2021 AI 开发者论坛上,苏黎世大学与苏黎世联邦理工学院终身教授、苏黎世神经信息研究所 INI 所长、SynSense 时识科技联合创始人 & 首席科学家 Giacomo Indiveri 带来主题为《低功耗人工智能算计体系中的类脑策略》的线上主旨演讲。以下为 Giacomo Indiveri 在 WAIC 2021 AI 开发者论坛上的演讲内容,机器之心从事了不改变原意…- 7
- 0
神经元
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!