计算
LLM带来了「编程末日」?哥本哈根大学CS教授:别做梦了!
LLM的发展会把编程淘汰吗? 哥本哈根大学计算机教授Hans Hüttel表示:永远不会。 文章地址:,尤其是大语言模型在文本生成等方面的能力,令人印象深刻。
迈向Z级计算:Cloud4Science范式加速科学发现进程
编辑 | X_X传统超级计算机作为科学计算的核心支柱,在推动技术进步方面发挥了不可替代的作用,但随着科学智能时代下需求的多样化和复杂化,其扩展性和能效的局限逐渐显现。 针对这一挑战,微软亚洲研究院的研究员提出了 Cloud4Science 的新范式,以云计算、人工智能和高性能计算技术的深度融合为核心,重新定义科学计算的架构,加速科学智能的研究进展。 在此框架下,研究员们已对关键科学计算算法如 Stencil、FFT、SpMV 等进行了优化,并成功开发了一系列创新算法,为科学家利用云计算及人工智能平台进行科学计算和研究开辟了新的途径。
Anthropic联创:Scaling Law没崩,但推理成天价!有了TTT,25年AI更加速
Scaling Law要撞墙了? Anthropic联创Jack Clark反驳了这一说法:绝非如此! 在他看来,目前的AI发展还远远没到极限,「所有告诉你AI进展正在放缓,或者Scaling Law正在撞墙的人,都是错误的。
首个科学计算基座大模型BBT-Neutron开源!突破大科学装置数据分析瓶颈
高能物理是探索宇宙基本组成与规律的前沿科学领域,研究粒子在极高能量下的相互作用,是揭示宇宙起源、暗物质与暗能量等未解之谜的重要手段。 高能物理实验(如粒子对撞实验、暗物质与暗能量实验等)产生的数据量极为庞大且复杂,传统的数据分析方法在处理海量数据和复杂物理结构时,面临计算瓶颈。 近期,arXiv上更新了一篇名为《Scaling Particle Collision Data Analysis 》的论文。
AI for Science 是科学的未来,NVIDIA 正加速它的到来
ScienceAI原创作者:萝卜皮近年来人工智能(AI)等新兴技术的突破,正在逐渐改变科学研究的模式。 今年诺贝尔物理奖与化学奖均颁发给了 AI 以及计算相关领域的科学家,足见科学界对「AI for Science」这一研究新范式的肯定。 尽管如此,AI 科研领域所面临的困难依旧严峻。
苹果为其 AI 构筑“云处理安全堡垒”:公开指南和研究环境,漏洞悬赏最高 100 万美元
科技媒体 MacRumors 昨日(10 月 24 日)发布博文,报道称苹果公司最新推出了“私有云计算”(Private Cloud Compute)的云智能系统,确保 Apple Intelligence 在云端处理数据时构筑安全的请求环境。 苹果公司承诺安全和隐私研究人员可以验证“私有云计算”中的端到端安全和隐私承诺,并向安全研究人员公开“私有云计算”虚拟研究环境(VRE)及其他材料。 苹果公司发布了一份“私有云计算”安全指南,详细介绍了“私有云计算”的所有组成部分及其如何运作以提供云端人工智能处理的隐私保护。
我国无锡超算“太湖之光 A+”项目亮相:算力密度国内最高,单个机柜达 40P
以“聚智向新算领未来”为主题的 2024 中国算力大会 9 月 27 日至 29 日在河南郑州举行。会上,中国算力领域“年度重大成果”发布,共有 8 项突破性意义的成果上榜,其中包括国家超级计算无锡中心的“太湖之光 A ”项目。据介绍,太湖之光 A 基于异构众核架构的国产智算加速卡,自研业内最高密度一体化服务器机柜方案,单个机柜算力达到 40P 国产智能算力。算力密度国内最高,采用集中式供电,单机柜功耗达 100KW。国家超级计算无锡中心表示:“太湖之光 A 的高密设计是 HPC AI 领域的重要标杆案例,
阿里 CEO 吴泳铭:AI 算力需求渗透率超 50%,最大的想象力不在手机屏幕
感谢今日举办的 2024 云栖大会开幕式上,阿里巴巴集团董事兼 CEO、阿里云智能集团董事长兼 CEO 吴泳铭表示,“在新增的算力市场和算力需求中,超过 50% 以上的需求现在都由 AI 驱动产生,AI 算力的需求渗透已经超过 50%,已经占据主导地位,未来这一趋势还会持续地扩大。”“AI 计算正在加速演进,成为整个计算体系的主导,无论是端侧的计算还是云端的计算,这都是一个非常明显的趋势,生成式 AI 对数字世界和物理世界的重构,将带来计算架构的根本性变化。”吴泳铭表示,“过去几十年 CPU 主导的计算体系,正在加
中国科学院开发出基于语义记忆的动态神经网络:相比静态最高减少 48.1% 计算量
中国科学院微电子研究所等将人工神经网络与大脑的动态可重构性相结合,开发出基于语义记忆的动态神经网络。▲ 基于语义记忆的脑启发动态神经网络硬件软件协同设计大脑神经网络具有复杂的语义记忆和动态连接性,可将不断变化的输入与庞大记忆中的经验联系起来,高效执行复杂多变的任务。目前,人工智能系统广泛应用的神经网络模型多是静态的。随着数据量不断增长,它在传统数字计算系统中产生大量能耗和时间开销,难以适应外界环境的变化。与静态网络相比,语义记忆动态神经网络能够根据计算资源权衡识别准确性和计算效率,可在资源受限设备或分布式计算环境中
手机跑大模型提速 4-5 倍:微软亚研院开源新技术 T-MAC,有 CPU 就行
有 CPU 就能跑大模型,性能甚至超过 NPU / GPU!没错,为了优化模型端侧部署,微软亚洲研究院提出了一种新技术 —— T-MAC。这项技术主打性价比,不仅能让端侧模型跑得更快,而且资源消耗量更少。咋做到的??在 CPU 上高效部署低比特大语言模型一般来说,要想在手机、PC、树莓派等端侧设备上使用大语言模型,我们需要解决存储和计算问题。常见的方法是模型量化,即将模型的参数量化到较低的比特数,比如 4 比特、3 比特甚至更低,这样模型所需的存储空间和计算资源就会减少。不过这也意味着,在执行推理时,需要进行混合精
苹芯科技推出两款 PIMCHIP 系列 AI 芯片,探索推动存算一体技术落地
苹芯科技昨日(8 月 8 日)在北京举办“存算于芯智启未来”活动,推出了 PIMCHIP-S300 和 PIMCHIP-N300 两款 AI 芯片。PIMCHIP-S300官方介绍称该 AI 芯片是多模态智慧感知决策芯片,具备高能效、小面积、低功耗、低成本等特点。该芯片搭载基于 SRAM 的存算一体计算加速单元,计算核心能效比高达 27TOPS / W,让计算在存储器内部发生,有效减少计算过程中的数据搬运,核心计算单元的能效提升几十上百倍。AI在线从报道中获悉,PiMCHIP-S300 搭载轻量级 MCU 处理器,
WAIC 2024 已落幕:大模型再无新玩家,AGI 下半场是计算与应用
导语:「十八金刚」暗示的,其实是巨大的技术想象力与迫切的 AI 生产力。 作者:马蕊蕾编辑:陈彩娴WAIC 论坛最后一天下午,启明创投主管合伙人周志峰在世博中心红厅分享了一组数据:经统计,仅 2023 年,一级市场中 AI 投资金额就达到了 224 亿美元,超过了前 10 年投资累计总和。 其中,超过三分之二的资金投向从事基础设施或模型开发的企业。
Nature子刊综述:储层计算未来的新机遇和挑战,华为联合复旦等发布
储层计算可能发挥重要作用的应用领域。编辑 | 紫罗尽管深度学习在处理信息方面取得了巨大成功,但其依赖于训练大型神经网络模型,限制了其在常见应用中的部署。因此,人们对开发能快速推理和快速适应的小型轻量级模型的需求日益增长。作为当前深度学习范式的替代方向,神经形态计算研究引起了人们的极大兴趣,其主要关注开发新型计算系统,这些系统的能耗只有当前基于晶体管的计算机的一小部分。在神经形态计算中,一个重要的模型家族是储层计算(RC),储层计算起源于 21 世纪初,它在过去的二十年中取得了重大进展。为了释放储层计算的全部功能,为
兼具精度与效率,微软基于AI的新电子结构计算框架登Nature子刊
编辑 | ScienceAI编者按:为了使电子结构方法突破当前广泛应用的密度泛函理论(KSDFT)所能求解的分子体系规模,微软研究院科学智能中心的研究员们基于人工智能技术和无轨道密度泛函理论(OFDFT)开发了一种新的电子结构计算框架M-OFDFT。这一框架不仅保持了与KSDFT相当的计算精度,而且在计算效率上实现了显著提升,并展现了优异的外推性能,为分子科学研究中诸多计算方法的基础——电子结构方法开辟了新的思路。相关研究成果已在国际知名学术期刊《自然-计算科学》(Nature Computational Scie
全球首个隐私计算一体机国际标准发布,中国企业主导
近日,IEEE 标准协会(IEEE-SA)正式发布并推行了由我国企业主导的全球首个隐私计算一体机国际标准《隐私计算一体机技术要求》(IEEE 3156-2023)。IEEE-SA是权威国际标准制定机构,该标准的成功发布意味着中国的隐私计算技术与应用探索受到国际高度认可,可为全球提供参考方案。(图:IEEE标准协会官网发布“隐私计算一体机技术要求”国际标准)隐私计算一体机作为隐私计算产业落地的重要技术探索,通过软硬件结合方式构建从硬件、固件、操作系统到应用软件的一站式隐私保护计算解决方案,提供了开箱即用、安全可证、隐
腾讯发布2024数字科技前沿应用趋势,涉及多模态大模型、具身智能、Agent等
1月24日,腾讯发布《2024数字科技前沿应用趋势》报告,预测了数字科技未来发展趋势和应用前景。“过去一年,我们见证了数字科技的加速度。眺望未来2-3年的科技趋势,我们正驶向一个由连接衍生交互、由计算催生智能的时代。”腾讯集团副总裁、腾讯研究院院长司晓说。《2024数字科技前沿应用趋势》报告中提出:高性能计算、量子计算、云计算和边缘计算这“四大计算”融汇贯通,正催生全新的计算范式;通用人工智能渐行渐近,大模型走向多模态,AI智能体(Agent)有望成为下一代平台, AI治理将引领我们踏上更智慧、更安全的未来。此外,
量子计算经典课:专家团带你读量子计算「圣经」,五小时详解六大核心知识点
随着近年来量子计算的火热,关注科技革命的人们对这一激动人心的领域充满憧憬。但量子技术领域的高速进展与学科交叉特性使得初学者感到无从下手,也不容易对其主要技术和结论有综合性的系统认知。提起量子计算入门,绕不过去的一本书一定是Michael A.Nielsen 和Isaac L.Chuang 共著的《量子计算与量子信息》。《量子计算与量子信息》是该领域的经典著作之一,也是量子信息及物理领域被引用次数高的图书之一,被全球许多高校选用作为量子计算课程的教材,也被称之为量子计算「圣经」。本次上线机器之心机动组的《量子计算与量
CNCC2023举行发布会,学界、业界将一起在沈阳碰撞出「数字火花」
2023中国计算机大会(CNCC2023)新闻发布会在北京举行。