资讯列表

消息称“AI 教母”李飞飞正建立初创公司,开发可理解 3D 空间关系的 AI 系统

当地时间周六,据路透社援引 6 名知情人士消息,计算机科学家李飞飞正在建立一家初创公司。该公司旨在利用类似人类的视觉处理技术,使 AI 具备高级推理能力,有望成为 AI 技术的一次飞跃。IT之家注:李飞飞被广泛称为“AI 教母”,与通常用来指因 AI 技术突破而在 2018 年获得图灵奖的三位研究人员的“AI 教父”对应。这三名“AI 教父”则是杰弗里・辛顿、杨立昆、约书亚・本西奥。一位消息人士通过李飞飞上个月在温哥华 TED 大会发表的演讲,对这家初创公司进行了详细描述:李飞飞曾表示,最前沿的研究涉及一种算法,这

硅谷 AI 工程师内卷崩溃记:996 写代码项目被砍,连续熬夜只为讨好投资人

【新智元导读】亚马逊工程师一个周末辛苦写出的代码,因为项目最终被降级而白白浪费了。AI 爆火的背面,是一众硅谷大厂员工的疯狂内耗。越来越密集的活动日程表,越来越不可思议的 deadline,为董事会准备毫无用途的 AI 产品展示…… 被迫「内卷」的大厂 AI 工程师们,已经感到窒息。AI 爆火之后,硅谷的工程师们已经被「内卷」搞得精疲力竭,苦不堪言!放弃整个周末休息辛苦写出的代码,因为项目降低优先级全部白费。大家你追我赶,争取比竞家更快发布产品,一切都向速度看齐。领导疯狂发号施令,但对项目的实际影响漠不关心。为了赶

斯坦福李飞飞首次创业:学术休假两年,瞄准「空间智能」

「AI 教母」李飞飞创业了。没想到,在大模型时代,知名「AI 教母」李飞飞也要「创业」了,并完成了种子轮融资。据路透社独家报道,著名计算机科学家李飞飞正在创建一家初创公司。该公司利用类似人类的视觉数据处理方式,使人工智能能够进行高级推理。知情人士透露称,李飞飞最近为这家公司进行了种子轮融资,投资者包括硅谷风险投资公司 Andreessen Horowitz,以及她去年加入的加拿大公司 Radical Ventures。不过,Andreessen Horowitz 和 Radical Ventures 的发言人均对此

瑜伽球上遛「狗」!入选英伟达十大项目之一的Eureka有了新突破

机器狗在瑜伽球上稳稳当当的行走,平衡力那是相当的好:各种场景都能拿捏,不管是平坦的人行道、还是充满挑战的草坪都能 hold 住:甚至是研究人员踢了一脚瑜伽球,机器狗也不会歪倒:给气球放气机器狗也能保持平衡:上述展示都是 1 倍速,没有经过加速处理。论文地址:::DrEureka: Language Model Guided Sim-To-Real Transfer这项研究由宾夕法尼亚大学、 NVIDIA 、得克萨斯大学奥斯汀分校的研究者联合打造,并且完全开源。他们提出了 DrEureka(域随机化 Eureka),

ChatGPT们的幕后先驱,斯坦福教授Manning的四十年NLP生涯

Christopher Manning 虽已成 NLP 领域先驱,却仍为 AI 大模型的未来殚精竭虑。今年 1 月份,2024 年度 IEEE 冯诺伊曼奖项结果正式公布,斯坦福大学语言学和计算机科学教授、AI 学者克里斯托弗・曼宁(Christopher Manning)获奖。曼宁教授是将深度学习应用于 NLP 领域的早期领军人物,在词向量 GloVe 模型、注意力、机器翻译、问题解答、自监督模型预训练、树递归神经网络、机器推理、依存解析、情感分析和总结等方面都有著名的研究。他还专注于解析、自然语言推理和多语言语言

ICLR 2024 Spotlight | 无惧中间步骤,MUSTARD可生成高质量数学推理数据

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]。近年来,大型语言模型(LLM)在数学应用题和数学定理证明等任务中取得了长足的进步。数学推理需要严格的、形式化的多步推理过程,因此是 LLMs 推理能力进步的关键里程碑, 但仍然面临着重要

从基因组到蛋白质组连续翻译,南开大学开发通用跨模态数据分析方法

编辑 | 萝卜皮近期,科学家在单个细胞内同时分析多组学模态的进展,使得细胞异质性和分子层次结构的研究成为可能。然而,技术限制导致多模态数据的高噪声和高昂的成本。在这里,南开大学的研究团队提出了 scButterfly,一种基于双对齐变分自动编码器和数据增强方案的多功能单细胞跨模态翻译方法。通过对多个数据集的全面实验,研究人员证明 scButterfly 在保留细胞异质性、同时翻译各种背景的数据集和揭示细胞类型特异性生物学解释方面优于基线方法。同时,scButterfly 可应用于单模态数据的综合多组学分析、低质量单

AI 赛道火爆背后,大厂工程师吐槽:公司为求快而牺牲准确性等

OpenAI 于 2022 年 11 月发布 ChatGPT-3 以来,AI 赛道就吸引了科技巨头、资本、媒体、用户的广泛关注。CNBC 最新报道聚焦将这些大语言模型搬上舞台的软件工程师,但他们更多的情绪主题是压力、无奈、无力。科技巨头都想要在 AI 赛道上抢占先发优势,因此敦促旗下的工程团队不断迭代和发布新的 AI 产品。微软一位不愿透露姓名的工程师表示,该公司正在展开一场“人工智能激烈的竞赛”,他还声称,微软优先考虑的是发布人工智能产品的速度,而不是道德和安全问题。IT之家援引该媒体报道,一位亚马逊 AI 工程

终于有人调查了小模型过拟合:三分之二都有数据污染,微软Phi-3、Mixtral 8x22B被点名

当前最火的大模型,竟然三分之二都存在过拟合问题?刚刚出炉的一项研究,让领域内的许多研究者有点意外。提高大型语言模型的推理能力是当前研究的最重要方向之一,而在这类任务中,近期发布的很多小模型看起来表现不错,比如微软 Phi-3、Mistral 8x22B 等等。但随后,研究者们指出当前大模型研究领域存在一个关键问题:很多研究未能正确地对现有 LLM 的能力进行基准测试。这是因为目前的大多数研究都采用 GSM8k、MATH、MBPP、HumanEval、SWEBench 等测试集作为基准。由于模型是基于从互联网抓取的大

2023 IBM博士生奖学金华人占六成:Vicuna作者吴章昊、清华特奖得主高天宇入选

近日,2023 年 IBM 博士生奖学金计划名单公布。自 1951 年以来,IBM 通过极具竞争力的博士生奖学金(IBM PhD Fellowship Award)计划认可并表彰了来自全球各地的优秀博士生。2023 年,IBM 博士生奖学金计划收到了来自 14 个国家 59 所大学的数百份申请。最终,共有 10 位年轻学者获得本年度博士生奖学金,包括人工智能、混合云技术、量子计算、负责任及包容性技术等前沿研究领域的青年翘楚。特别值得注意的是,其中有六位都是华人。下图为 10 位获奖博士生的完整名单和院校信息:此外,

小模型性能饱和、表现不佳,根源是因为Softmax?

小语言模型的出现是为弥补大语言模型的训练、推理等成本昂贵的缺点,但其自身也存在训练到某个阶段后性能下降的事实 (饱和现象),那么这个现象的原因是什么?是否可以克服并利用它去提升小语言模型的性能?语言建模领域的最新进展在于在极大规模的网络文本语料库上预训练高参数化的神经网络。在实践中,使用这样的模型进行训练和推断可能会成本高昂,这促使人们使用较小的替代模型。然而,已经观察到较小的模型可能会出现饱和现象,表现为在训练的某个高级阶段性能下降并趋于稳定。最近的一篇论文发现,这种饱和现象可以通过较小模型的隐藏维度与目标上下文

CVPR 2024 Highlight | 基于单曝光压缩成像,不依赖生成模型也能从单张图像中重建三维场景

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]。原文链接:::SCINeRF: Neural Radiance Fields from a Snapshot Compressive Image一、引言传统的 3D 重建算法需要不同视角

AIGC实战案例!6组高质量的末日堡垒主题 Midjourney 提示词

今天给大家分享一组 AI 生成作品,主题为末日堡垒,并附上相应的提示词供大家参考。这组作品的灵感,来源于乔纳森·诺兰近期执导由经典游戏改编的佳作《辐射》。在这部作品中,讲述了辐射避难所的居民们因种种原因被迫重返地面的故事,那种在末日废墟中挣扎求生的场景,令人震撼又感慨万分。基于这样的灵感,我们萌生了创作一组“末日堡垒”主题 AI 图片的想法,希望大家喜欢。 当然,我们所展示的风格仅仅是 Midjourney 冰山一角,它能够演绎出千变万化的风格,满足你的各种创意需求,感兴趣的童鞋可以大胆去尝试不一样的风格,相信你会

面壁智能发布 Eurux-8x22B 开源大模型:代码性能超越 Llama3-70B

感谢面壁智能发布开源大模型 Eurux-8x22B,包括 Eurux-8x22B-NCA 与 Eurux-8x22B-KTO,主打推理能力。官方测试中,Eurux-8x22B 在 LeetCode(180 道 LeetCode 编程真题)与 TheoremQA (IT之家注:美国大学水准的 STEM 题目)测试上超越了 Llama3-70B,在 LeetCode 测试上超越闭源的 GPT-3.5-Turbo。▲ 官方测试结果据介绍,Eurux-8x22B 模型激活参数 39B,支持 64k 上下文,是由 Mixtr

AI 入侵华尔街,高盛、摩根大通:66% 初级分析师有被取代风险

【新智元导读】AI 的威力开始在银行业显现!据说,金融分析软件苏格拉底入驻华尔街,三分之二初级分析师将不再需要。AI 又把「魔爪」伸向了一波打工人,而且这次还是一波高级打工人。有银行内部的专业人士表示,即将上任的华尔街初级分析师就有着被人工智能抢走饭碗的风险。高盛、摩根斯坦利和其它几家大银行的内部人士都有此论断。华尔街这个地方,紧紧抓住了时代潮流,开始思考人工智能有没有可能性横插一脚,少招点人。目前,多家大公司都在考虑减少新分析师的招聘工作。降本增效?缩减多少呢?目前预期的数字是三分之二。也就是说,超过一半的岗位都

跨越300多年的接力:受陶哲轩启发,数学家决定用AI形式化费马大定理的证明

在陶哲轩的启发下,越来越多的数学家开始尝试利用人工智能进行数学探索。这次,他们瞄准的目标是世界十大最顶尖数学难题之一的费马大定理。费马大定理又被称为「费马最后的定理(Fermat's Last Theorem,FLT)」,由 17 世纪法国数学家皮耶・德・费马提出。它背后有一个传奇的故事。据称,大约在 1637 年左右,费马在阅读丢番图《算术》拉丁文译本时,曾在第 11 卷第 8 命题旁写道:「将一个立方数分成两个立方数之和,或一个四次幂分成两个四次幂之和,或者一般地将一个高于二次的幂分成两个同次幂之和,这是不可能

Transformer要变Kansformer?用了几十年的MLP迎来挑战者KAN

MLP(多层感知器)用了几十年了,真的没有别的选择了吗?多层感知器(MLP),也被称为全连接前馈神经网络,是当今深度学习模型的基础构建块。MLP 的重要性无论怎样强调都不为过,因为它们是机器学习中用于逼近非线性函数的默认方法。然而,MLP 是否就是我们能够构建的最佳非线性回归器呢?尽管 MLP 被广泛使用,但它们存在明显的缺陷。例如,在 Transformer 模型中,MLP 几乎消耗了所有非嵌入式参数,并且通常在没有后处理分析工具的情况下,相对于注意力层来说,它们的可解释性较差。所以,是否有一种 MLP 的替代选

邮件曝光,微软为追谷歌脚步才投资了OpenAI,纳德拉回应:才不是

微软与 OpenAI 剪不断理还乱。微软与 OpenAI 之间的关系紧密而复杂。在 OpenAI CEO Sam Altman 陷入辞退的风波时,微软 CEO 纳德拉曾多次力挺他,并向他抛出橄榄枝。当这场 OpenAI「宫斗」过去后,纳德拉也表示,无论 Altman 身在何处,仍然会支持他。前不久还有微软的员工狂吐苦水,「微软已经沦落为 OpenAI 的一个 IT 部门!」资源倾斜不仅导致员工不满,还有不少高管相继离职。不难看出,微软为了在 AI 赛道中站稳脚跟,对 OpenAI 多有依赖。这份依赖不仅源于 Ope