资讯列表
Agent4Rec来了!大模型智能体构成推荐系统模拟器,模拟真实用户交互行为
一直以来,推荐系统领域面临模型线上线下效果差距大的痛点问题,昂贵的线上 A/B 测试成本使得广大研究人员望而却步,也造成学术界的推荐系统研究与工业界的实际应用间的巨大割裂。随着大语言模型展现出类人的逻辑推理和理解能力,基于大语言模型的智能体(Agent)能否模拟真实用户的交互行为,从而构建一个可靠的虚拟推荐 A/B 测试场景,以帮助推荐研究的应用落地,是一个急迫、重要且极具经济价值的问题。为了回答这个问题,来自新加坡国立大学 NExT 实验室团队构建了 Agent4Rec,一个由 1000 名 agents 构
幻觉率直降40%,中国电信千亿参数「星辰大模型」炸场,业界首提缓解多轮幻觉解决方案
经历了 2023 年「百模大战」的洗礼,不管是国内还是海外,不管是开源还是闭源,各家大模型都从追赶和超越中获得了实质的进步。在语言、语音、视觉领域,大模型已经获得了强大的生成能力,不仅能在几秒钟之内生成非常合理的内容,甚至可以媲美拥有多年技能和知识储备的专家。这些进展似乎为「大模型超越人类智能」的说法提供了令人信服的证据,也具象化了大模型规模化落地的前景。按照目前的进展情况,2024 年很可能会成为大模型部署元年。但同样需要注意的是,大模型在技术上仍然存在一些关键缺陷,这或许会导致应用之路并不一定如想象中顺利。业界
最强AI芯片英伟达H200深夜发布,Llama2-70B推理提速90%,2024年二季度发货
芯片巨头英伟达,又打出一张王牌。英伟达在 2023 年全球超算大会(SC2023)上发布了目前世界上最强的 AI 芯片 H200。这款新的 GPU 基于 H100 进行了升级,内存带宽提高了 1.4 倍,内存容量提高了 1.8 倍,提高了处理生成式 AI 任务的能力。该公司高性能计算和超大规模数据中心业务副总裁 Ian Buck 表示:「英伟达在硬件和软件上的创新正在缔造新型 AI 超算。」英伟达在官方博客中表示:NVIDIA H200 Tensor Core GPU 具有改变游戏规则的性能和内存功能,可增强生成式
被OpenAI带火的Agent如何解放人力?清华等发布ProAgent
近日,来自清华大学的研究人员联合面壁智能、中国人民大学、MIT、CMU 等机构共同发布了新一代流程自动化范式 “智能体流程自动化” Agentic Process Automation(APA),结合大模型智能体帮助人类进行工作流构建,并让智能体自主处理工作流中涉及复杂决策与动态处理的环节,进一步提升自动化的程度,提高效率,将人类从繁重的劳动中解放出来。项目地址::,自动化是人类技术发展的主要动力,帮助人类从复杂、危险、繁琐的劳动环境中解放出来。自早期农业时代的水车灌溉,到工业时代的蒸汽机,人类一直在不断寻求更加先
可跨学科理解、多尺度建模,MIT LAMM发布微调的大语言模型 MechGPT
编辑 | 萝卜皮几个世纪以来,研究人员一直在寻找连接不同领域知识的方法。随着人工智能的出现,我们现在可以探索跨领域(例如,力学-生物学)或不同领域(例如,失效力学-艺术)的关系。为了实现这一目标,麻省理工学院(MIT)原子与分子力学实验室 (Laboratory for Atomistic and Molecular Mechanics,LAMM)的研究人员使用了经过微调的大型语言模型 (LLM),来获取多尺度材料失效的知识子集。该方法包括使用通用 LLM 从原始来源中提取问答对,然后进行 LLM 微调。由此产生的
大模型幻觉率排行:GPT-4 3%最低,谷歌Palm竟然高达27.2%
排行榜一出,高下立见。人工智能发展进步神速,但问题频出。OpenAI 新出的 GPT 视觉 API 前脚让人感叹效果极好,后脚又因幻觉问题令人不禁吐槽。幻觉一直是大模型的致命缺陷。由于数据集庞杂,其中难免会有过时、错误的信息,导致输出质量面临着严峻的考验。过多重复的信息还会使大模型形成偏见,这也是幻觉的一种。但是幻觉并非无解命题。开发过程中对数据集慎重使用、严格过滤,构建高质量数据集,以及优化模型结构、训练方式都能在一定程度上缓解幻觉问题。流行的大模型有那么多,它们对于幻觉的缓解效果如何?这里有个排行榜明确地对比了
三秒4张图!让 Stable Diffusion 出图速度暴增的新一代生成模型LCM
大家好,这里是和你们一起探索 AI 的花生~
最近一种新的图像生成形式逐渐兴起,即生成的图像会随输入的文字或笔画动作迅速变化,这让图像生成有了更多灵活探索和准确控制的空间。这种「实时反馈」的感觉源于模型能在几秒钟内,根据输入生成新的内容,而之所以能有这么快的生成速度,依靠的就是 LCM 这项新技术。视频内容来源: :
一、LCM 简介
LCM 项目主页:
Github 主页:
LCM 全称 Latent Consistency Models(潜在一致性模型),是清华大学交叉信息科学研究院研发的一款生成模型。它
AI浪潮下,XR设计师一定要掌握的设计工具(上篇)
引言
随着 AI 浪潮的爆发,各种赋能于绘画、UI 及 3D 美术领域的设计工具都发生了革新,提升了设计效。本期作者将介绍从上百个 AI 设计工具及插件中筛选出好用的提效设计工具,这些对 XR 设计师及产品经理可以快速上手且高效赋能的好工具,希望能帮助到大家日常的学习和工作。
更多XR干货:一、文案生成
1. ChatGPT
业界知名的公司 Open AI 出品的 AI 聊天机器人程序,ChatGPT 是一个由 OpenAI 开发的自然语言处理模型,这个模型被设计用于各种自然语言处理任务,如聊天对话、问答、文本生成
基于LLaMA却改张量名,李开复公司大模型开源行为引争议,官方回应来了
机器之心报道机器之心编辑部有研究者发现,李开复「零一万物」公司的 Yi-34B 模型基本上采用了 LLaMA 的架构,只是重命名了两个张量。对此,「零一万物」给出了官方回应。前段时间,开源大模型领域迎来了一个新的模型 —— 上下文窗口大小突破 200k,能一次处理 40 万汉字的「Yi」。这个大模型由创新工场董事长兼 CE0 李开复创立的大模型公司「零一万物」构建,包括了 Yi-6B 和 Yi-34B 两个版本。根据 Hugging Face 英文开源社区平台和 C-Eval 中文评测榜单,Yi-34B 推出时取得
可跨学科理解、多尺度建模,MIT LAMM 团队发布微调的大语言模型 MechGPT
编辑 | 萝卜皮 几个世纪以来,研究人员一直在寻找连接不同领域知识的方法。随着人工智能的出现,我们现在可以探索跨领域(例如,力学-生物学)或不同领域(例如,失效力学-艺术)的关系。为了实现这一目标,麻省理工学院(MIT)原子与分子力学实验室 (Laboratory for Atomistic and Molecular Mechanics,LAMM)的研究人员使用了经过微调的大型语言模型 (LLM),来获取多尺度材料失效的知识子集。该方法包括使用通用 LLM 从原始来源中提取问答对,然后进行 LLM 微调。由此产生
阿里巴巴“AI驱动”战略提速,夸克发布自研大模型
国产大模型阵营再添新锐选手。11月14日,阿里巴巴智能信息事业群发布全栈自研、千亿级参数的夸克大模型,将应用于通用搜索、医疗健康、教育学习、职场办公等众多场景。夸克App将借助自研大模型全面升级,加速迈向年轻人工作、学习、生活的AI助手。近期,在CMMLU权威大模型性能评测中,夸克大模型成绩位列榜首。最新评测显示,夸克大模型整体能力已经超过GPT-3.5,在写作、考试等部分场景中优于GPT-4。国产自研大模型中的“学霸”夸克大模型是基于Transformer架构、自主研发的多模态大模型,每天会对亿级的图文数据进行训
第二波!2023年11月精选实用设计工具合集
大家好,这是 2023 年 11 月的第 2 波干货合集!这次的合集有些有意思的东西,比如 open AI 出品的文本冒险游戏,基于 ChatGPT 的第三方插件或者说工具,有专业的玻璃拟物化设计系统,当然我最喜欢的还是适合社交媒体分享内容的卡片内容设计工具,因为它借助视觉模板搞定了相当一部分设计工作。
当然,在此之前记得看看往期干货中有没有你感兴趣的素材:下面我们具体看看这一期的干货:
1、质感十足的玻璃拟物化设计系统
DesignCode UI,整体的质感还是相当惊艳的,因为它采用了目前各大操作系统都拥抱的玻
各路大神献出自定义GPT,24小时Top 9名单在这
没有 GPTs 做不到的,只有你想不到的。11 月 10 日凌晨, OpenAI 上线 GPTs,所有的 ChatGPT Plus 订阅用户都可以自己定制 GPT,无需任何编码知识,在聊天过程中就构建好了。发布当天,OpenAI CEO 山姆・奥特曼还玩了一把幽默,亲自示范如何开发一个全新的 GPT 应用,令人没想到的是,这个 GPT 竟然和马斯克的大模型产品「Grok」同名:虽然奥特曼这一做法看起来似乎不是很地道,但是简短几句话,就能构建好 GPT,确实引发了广大网友的好奇,纷纷加入构建 GPT 大潮,场面火爆到
连葫芦娃都数不明白,解说英雄联盟的GPT-4V面临幻觉挑战
让大模型同时理解图像和文字可能比想象中要难。在被称为「AI 春晚」的 OpenAI 首届开发者大会拉开帷幕后,很多人的朋友圈都被这家公司发布的新产品刷了屏,比如不需要写代码就能定制应用的 GPTs、能解说球赛甚至「英雄联盟」游戏的 GPT-4 视觉 API 等等。不过,在大家纷纷夸赞这些产品有多好用的时候,也有人发现了弱点,指出像 GPT-4V 这样强大的多模态模型其实还存在很大的幻觉,在基本的视觉能力上也还存在缺陷,比如分不清「松糕和吉娃娃」、「泰迪犬和炸鸡」等相似图像。GPT-4V 分不清松糕和吉娃娃。图源:X
GPT-4V数学推理如何?微软发布MathVista基准,评测报告长达112页
大型多模态模型会做数学题吗?在微软最新发布的 MathVista 基准上,即使是当前最强的 GPT-4V 也会有「挫败感」。微软最近发布了名为 “MathVista” 的全新多模态数学推理基准数据集,同时提供了一份涵盖 112 页的详细评测报告,专注于大型多模态模型的数学推理表现。这一基准测试对于目前最先进的模型,如 GPT-4V,来说也是一项挑战,显示了这些模型在多模态数学问题解决方面的局限性。报告还深入分析了 GPT-4V 在自我验证、自洽性和多轮对话能力的研究潜力。论文地址:: 数据集:::。除了传统的纯文字
全新近似注意力机制HyperAttention:对长上下文友好、LLM推理提速50%
本文介绍了一项近似注意力机制新研究,耶鲁大学、谷歌研究院等机构提出了 HyperAttention,使 ChatGLM2 在 32k 上下文长度上的推理时间快了 50%。Transformer 已经成功应用于自然语言处理、计算机视觉和时间序列预测等领域的各种学习任务。虽然取得了成功,但这些模型仍面临着严重的可扩展性限制,原因是对其注意力层的精确计算导致了二次(在序列长度上)运行时和内存复杂性。这对将 Transformer 模型扩展到更长的上下文长度带来了根本性的挑战。业界已经探索了各种方法来解决二次时间注意力层的
破解自注意力推理缺陷的奥秘,蚂蚁自研新一代Transformer或实现无损外推
随着大语言模型的快速发展,其长度外推能力(length extrapolating)正日益受到研究者的关注。尽管这在 Transformer 诞生之初,被视为天然具备的能力,但随着相关研究的深入,现实远非如此。传统的 Transformer 架构在训练长度之外无一例外表现出糟糕的推理性能。研究人员逐渐意识到这一缺陷可能与位置编码(position encoding)有关,由此展开了绝对位置编码到相对位置编码的过渡,并产生了一系列相关的优化工作,其中较为代表性的,例如:旋转位置编码(RoPE)(Su et al.,
MIT 开发深度化学模型的神经尺度策略,发现「神经尺度」定律
编辑 | 绿萝在数据可用性和计算方面,大规模使得自然语言处理和计算机视觉等深度学习关键应用领域取得了重要突破。越来越多的证据表明,规模可能是科学深度学习的关键因素,但物理先验在科学领域的重要性使得规模化的策略和收益变得不确定。近日,来自 MIT 的研究团队通过将模型和数据集大小改变多个数量级来研究大型化学模型中的神经尺度(neural-scaling)行为,研究具有超过 10 亿个参数的模型,并在多达 1000 万个数据点的数据集上进行预训练。研究考虑用于生成化学的大型语言模型和用于机器学习原子间势的图神经网络。研