资讯列表

网络规模、训练学习速度提升,清华团队在大规模光电智能计算方向取得进展

编辑 | 紫罗随着大模型等人工智能技术的突破与发展,算法复杂度剧增,对传统计算芯片带来了算力和功耗的双重挑战。近年来,以光计算为基础、通过光电融合的方式构建光电神经网络的计算处理方法已经成为国际热点研究问题,有望实现计算性能的颠覆性提升。然而,光电神经网络的前向数学模型由对光场的精准物理建模得到,计算复杂度高、参数冗余度大;其学习机制沿用人工神经网络常用的梯度下降算法,面向大规模光电神经网络时优化速度慢、资源消耗高、收敛效果差。因此,现有学习架构仅能支撑小规模光电神经网络的训练,其网络容量和特征捕获能力不足以有效处

国内首个企业知识大模型发布,中关村科金提供可负担大模型服务

11月23日,在由中关村科金与中国信息通信研究院人工智能研究中心、人工智能关键技术和应用评测工业和信息化部重点实验室联合主办的“重构未来 产业智能跃迁”2023大模型产业前沿论坛上,中关村科金正式发布了国内首个企业知识大模型、AgentGraph应用开发平台,以及“超级员工”系列AIGC应用,为企业提供开箱即用、系统无缝衔接、成本可负担的专属领域大模型服务。站在大模型重构未来的新起点上,中关村科金将从底层模型到上层应用,对现有产品进行全面大模型改造和升级。国内首个!企业知识大模型助力业务价值创新增长中关村科金技术副

材质界的ImageNet,大规模6维材质实拍数据库OpenSVBRDF发布|SIGGRAPH Asia

在计算图形学领域,材质外观刻画了真实物体与光线之间的复杂物理交互,通常可表达为随空间位置变化的双向反射分布函数(Spatially-Varying Bidirectional Reflectance Distribution Function,缩写为 SVBRDF)。它是视觉计算中不可或缺的组成部分,在文化遗产、电子商务、电子游戏和视觉特效等领域中有着广泛的应用。在过去的二十年里,特别是深度学习流行后,学术界与工业界对高精度、多样化数字材质外观的需求不断增加。但由于技术上的挑战,采集大型数据库仍然十分困难,目前公开

全网大讨论:引爆OpenAI全员乱斗的Q*到底是什么?

强大到能威胁人类,所以不得不把自家 CEO 开了?本周三,OpenAI 的「宫斗」随着山姆・奥特曼回归 CEO 大位而告于段落,不过此次事件的余波还在震撼着关心 AI 的每一个人。我们都想知道,是什么让 OpenAI 前董事会不计任何代价也要开除奥特曼的。最近几天,互联网上有关 Q* 的讨论前所未有的热闹。据 The Information 本周四报道,由 OpenAI 首席科学家 Ilya Sutskever 领导的团队在今年早些时候取得了技术突破,使得他们能够构建一个名为 Q*(音同 Q star)的新模型。Q

人类考92分的题,GPT-4只能考15分:测试一升级,大模型全都现原形了

AutoGPT 的得分也凉凉。GPT-4 自诞生以来一直是位「优等生」,在各种考试(基准)中都能得高分。但现在,它在一份新的测试中只拿到了 15 分,而人类能拿 92。这套名叫「GAIA」的测试题由来自 Meta-FAIR、Meta-GenAI、HuggingFace 和 AutoGPT 的团队制作,提出了一些需要一系列基本能力才能解决的问题,如推理、多模态处理、网页浏览和一般工具使用能力。这些问题对人类来说非常简单,但对大多数高级 AI 来说却极具挑战性。如果里面的问题都能解决,通关的模型将成为 AI 研究的重要

外媒:英伟达特供芯片H20推迟至明年一季度发布

AI 芯片发货再次出现了问题。英伟达最新的特供芯片,跳票了。本周五,路透社援引两位知情人士的消息称,英伟达已告知中国客户,将推迟其为遵守美国出口规则而设计的新型人工智能芯片的推出时间,直至明年第一季度。消息人士称,此次推迟发布的芯片是 H20,即最近专门为中国市场设计的三款芯片中性能最强的一款。意外的跳票可能会使英伟达在对抗本土竞争对手时,保持市场份额的努力再次受到影响。两周前,有关英伟达特供芯片的消息引起了人们的注意。据多家媒体报道,在 A800 和 H800 GPU 无法进口后,这家 AI 芯片巨头专门开发了一

小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器

我们都知道,大语言模型(LLM)能够以一种无需模型微调的方式从少量示例中学习,这种方式被称为「上下文学习」(In-context Learning)。这种上下文学习现象目前只能在大模型上观察到。比如 GPT-4、Llama 等大模型在非常多的领域中都表现出了杰出的性能,但还是有很多场景受限于资源或者实时性要求较高,无法使用大模型。那么,常规大小的模型是否具备这种能力呢?为了探索小模型的上下文学习能力,字节和华东师大的研究团队在场景文本识别任务上进行了研究。目前,在实际应用场景中,场景文本识别面临着多种挑战:不同的场

视频生成新突破:PixelDance,轻松呈现复杂动作与炫酷特效

AI 生成的视频终于能动了。最近,除了大语言模型继续持续刷屏,视频生成技术也取得了重大进展,多家公司相继发布了新模型。首先,作为最早探索视频生成领域的领头羊之一,Runway 升级了其 Gen-2 模型,带来了电影级别的高清晰度,令人瞩目,并称视频生成的一致性得到了重大改进。但是,这种一致性的提升似乎是以牺牲视频动态性为代价的。从 Gen-2 的官方宣传视频中可以看出,尽管集合了多个短片段,但每个片段的动态性相对较弱,难以捕捉到人物、动物或物体的清晰动作和运动。近期,Meta 也发布了视频生成模型 Emu Vide

留给谷歌的时间不多了:18年老员工辞职炮轰领导层

屠龙者终成恶龙?在互联网公司中,谷歌毫无疑问是成功者和方向的引领者,它所作出的诸多创新 —— 不论是技术上的还是管理方式上的,经常会是整个科技领域津津乐道的话题。以至于这让我们经常忽略到,谷歌已经是一个拥有十四万员工,成立 25 年的大公司了。最近,在谷歌待过 18 年后辞职的资深员工 Ian Hickson 发出了一篇博客,在 Hacker News 上引起了人们的广泛关注。有评论写道:当你是个新来者、颠覆者时,重点就是要与众不同;而一旦你获得了市场主导的地位,一切就不再是原来的样子了…… 这里最令人忍俊不禁的是

OpenAI内斗时,Karpathy在录视频:《大型语言模型入门》上线

赶紧学习起来吧!OpenAI 的风波暂时告一段落,员工也忙着「干活了」。年初回归 OpenAI 的 Andrej Karpathy 最近做了一场关于大型语言模型(LLM)的 30 分钟入门讲座,但该讲座当时没录制。因此,他基于这场讲座重新录制了一个长达 1 小时的视频,希望让更多人看到和学习。视频的主题为《大型语言模型入门》,涵盖了 LLM 的推理、训练、微调以及新出现的 LLM 操作系统和 LLM 安全。视频主打「非技术性」,偏科普,所以更加容易理解。                               

Meta对Transformer架构下手了:新注意力机制更懂推理

作者表示,这种全新注意力机制(Sytem 2 Attention)或许你也需要呢。大型语言模型(LLM)很强已经是一个不争的事实,但它们有时仍然容易犯一些简单的错误,表现出较弱的推理能力。举个例子,LLM 可能会因不相关的上下文或者输入提示中固有的偏好或意见做出错误的判断。后一种情况表现出的问题被叫做「阿谀奉承」,即模型与输入保持一致。有没有方法来缓解这类问题呢?有些学者试图通过添加更多监督训练数据或通过强化学习策略来解决,但这些无法从根本上解决问题。近日 Meta 研究者在论文《System 2 Attentio

能总结经验、持续进化,上交把智能体优化参数的成本打下来了

大模型的出现引发了智能体设计的革命性变革,在 ChatGPT 及其插件系统问世后,对大模型智能体的设计和开发吸引了极大的关注。帮助完成预订、下单等任务,协助编写文案,自主从网络上搜索最新的知识与新闻等等,这种通用、强大的智能助理,让大模型强大的语义理解、推理能力将之变成了可能。                                OpenAI 首届开发者大会上,Sam Altman 展示了 ChatGPT 作为智能助理的可能性。为了提升大模型智能体交互的性能和可靠性,目前学界已经提出了多种基于不同提示语技

南开&山大&北理工团队开发trRosettaRNA:利用Transformer网络自动预测RNA 3D结构

编辑 | 萝卜皮RNA 3D 结构预测是一个长期存在的挑战。受最近蛋白质结构预测领域突破的启发,南开大学、山东大学以及北京理工大学的研究团队开发了 trRosettaRNA,这是一种基于深度学习的自动化 RNA 3D 结构预测方法。trRosettaRNA 流程包括两个主要步骤:通过transformer网络进行 1D 和 2D 几何形状预测;以及通过能量最小化进行的 3D 结构折叠。基准测试表明 trRosettaRNA 优于传统的自动化方法。在 CASP15 和 RNA-Puzzles 实验的盲测中,对天然 R

AI浪潮下,XR设计师一定要掌握的设计工具(下篇)

引言 随着 AI 浪潮的爆发,各种赋能于绘画、UI 及 3D 美术领域的设计工具都发生了革新,提升了设计效率;接着 AI 浪潮下,XR 设计师一定要掌握的设计工具(上篇),本期作者将继续为大家介绍好用的提效设计工具,这些对 XR 设计师及产品经理可以快速上手且高效赋能的好工具,希望能帮助到大家日常的学习和工作。 上篇回顾:一、UI 界面生成 1. Galileo AI Galileo ai 是一款 UI 设计 AI 工具网站,用户只需要输入一句简单的文本描述,就可以得到一个完整的 UI 设计。 它利用了大量的优秀设

腾讯Angel机器学习框架升级,支持单任务万卡级别超大规模训练,超300个腾讯产品及场景接入内测

腾讯披露最新大模型训练方法,可节省50%算力成本。

OpenAI地震,对手却在悄悄办大事

机器之能报道编辑:Sia就在 OpenAI 陷入混乱的这几天,竞争对手们——无论是初创公司还是巨头——也没袖手旁观。除了用销售电话「轰炸」对方企业客户,自家基石模型或具体应用都有了重要进展。直接竞争对手之一、也曾牵涉这起混乱的 Anthropic 刚刚为市场提供了一个新的替代方案——最新发布的 Claude 2.1 对公司旗舰大型语言模型做了三项重要更新。其中,最引人瞩目的是  Claude 2.1 支持上下文窗口达 200K,Anthropic 表示这是一项复杂的壮举,也是行业首创。在此之前,OpenAI 在开发

改进分子表征学习,清华团队提出知识引导的图 Transformer 预训练框架

编辑 | 紫罗学习有效的分子特征表征以促进分子特性预测,对于药物发现具有重要意义。最近,人们通过自监督学习技术预训练图神经网络(GNN)以克服分子特性预测中数据稀缺的挑战。然而,当前基于自监督学习的方法存在两个主要障碍:缺乏明确的自监督学习策略和 GNN 的能力有限。近日,来自清华大学、西湖大学和之江实验室的研究团队,提出了知识引导的图 Transformer 预训练(Knowledge-guided Pre-training of Graph Transformer,KPGT),这是一种自监督学习框架,通过显著增