微软37页论文逆向工程Sora,得到了哪些结论?
一篇论文回顾 Sora 文生视频技巧的背景、技巧和应用。追赶 Sora,成为了很多科技公司当下阶段的新目标。研究者们好奇的是:Sora 是如何被 OpenAI 发掘出来的?未来又有哪些演进和应用方向?Sora 的技巧报告披露了一些技巧细节,但远远不足以窥其全貌。在最近的一篇文章中,微软研究院和理海大学的研究者根据已发表的技巧报告和逆向工程,首次全面回顾了 Sora 的背景、相关技巧、新兴应用、当前…- 5
- 0
数目即力量!腾讯揭秘:Agent数目越多,大谈话模型效果越好
来自腾讯的研究者们做了一个关于 agent 的scaling property(可拓展性)的工作。发现:通过简略的采样投票,大谈话模型(LLM)的本能,会随着实例化agent数目的添加而加强。其第一次在广泛的场景下验证了该现象的普遍性,与其他庞大方式的正交性,以及研究了其背后的原因,并提出进一步促成scaling发挥威力的办法。论文标题:More Agents Is All You Need论文地…- 6
- 0
MATRIX:社会仿照推动大模型价值自对齐,比GPT4更「体贴」
随着大言语模型(LLMs)在近年来取得显著进展,它们的能力日益增强,进而引发了一个关键的成绩:如何保证他们与人类价值观对齐,从而避免潜在的社会负面作用?模型如 ChatGPT 依赖于鉴于人类反馈的强化学习(RLHF),这一步骤通过鼓励标注者偏好的回覆并惩罚不受欢迎的反馈,提出了一种解决方案。然而,RLHF 面临着成本高昂、难以优化等成绩,以及在超人类水平模型面前显得力不从心。为了减少乃至消除对人类…- 5
- 0
大模型Scaling Law同样适用于上游工作机能?斯坦福、谷歌最新研究揭秘
大模型的成功很大程度上要归因于 Scaling Law 的存在,这一定律量化了模型机能与训练数据规模、模型架构等设计要素之间的关系,为模型开发、资源分配和选择合适的训练数据提供了宝贵的指导。以往的大量研究集中于上游复杂度或穿插熵受益的 Scaling law(即在预训练数据上举行评估),但在实际应用中,模型通常要经历一个迁徙学习的过程:首先在无监督数据上举行预训练,然后针对特定的上游工作(如编码或…- 6
- 0
用集中模型生成网络参数,LeCun点赞尤洋团队新研讨
如果你有被 Sora 生成的视频震撼到,那你就已经见识过集中模型在视觉生成方面的巨大潜力。当然,集中模型的潜力并不止步于此,它在许多其它分歧领域也有着让人期待的应用前景,更多案例可参阅机器之心不久前的报道《爆火Sora背后的技术,一文综述集中模型的最新发展方向》。近日,来自新加坡国立大学的尤洋团队、加州大学伯克利分校、Meta AI Research 的一项新研讨找到了集中模型的一个新应用方向:用…- 8
- 0
后Sora时代,CV从业者如何选择模型?卷积还是ViT,监视学习还是CLIP范式
如何衡量一个视觉模型?又如何选择适合自己需求的视觉模型?MBZUAI和Meta的研究者给出了答案。一直以来,ImageNet 准确率是评价模型功能的主要指标,也是它最初点燃了深度学习革命的火种。但对于今天的计算视觉领域来说,这一指标正变得越来越不「够用」。因为计算机视觉模型已变得越来越复杂,从早期的 ConvNets 到 Vision Transformers,可用模型的种类已大幅增加。同样,训练…- 5
- 0
人类偏好优化算法哪家强?跟着高手一文学懂DPO、IPO和KTO
尽管收集人类对模型生成内容的相对质量的标签,并通过强化学习从人类反馈(RLHF)来微调无监督大语言模型,使其符合这些偏好的办法极大地推动了对话式人工智能的发展。但由于 RLHF 是一个复杂且常常不稳定的过程,关于直接应用优化函数将人类的偏好和模型的结果从事对齐的研究成为时下的热点问题。本文是 hugging face 上的一篇博客,针对时下常见的三种人类偏好优化算法从事了本能比较。作家从事了大量的…- 13
- 0
OpenAI赋予ChatGPT影象性能,由你掌控
ChatGPT 新性能上线,有了影象能力。很快你就能报告 ChatGPT 忘记一些事情,或者在以后的对话中央求它记着一定的事情。今天,作为测试的一部分,OpenAI 开始为一小部分 ChatGPT 免费和付费用户推出新的性能,并在未来举行大规模的推广。该性能可让用户明确报告 ChatGPT 记着某些实质或者用户查看它记着了什么。比如你住在郊区,更爱好开车而不是乘坐公共交通,你可以简单地报告 Cha…- 6
- 0
华为盘问提议新范式MMQS入选WWW 2024,解锁鉴于人类反馈的多模态盘问提议
在信息时代,搜寻引擎成为人们检索信息不可或缺的工具。然而传统的鉴于关键词的搜寻方法要求用户准确表达搜寻需求,因此有一定寻衅。为了改善用户体验,盘问提议系统崭露头角。这些系统通过分析用户当前的盘问输入,生成相关的提议,减轻用户的搜寻负担。文本盘问提议(TQS)和视觉盘问提议(VQS)是两种已经深入研究的盘问提议系统。TQS 根据用户当前的盘问生成一系列关键词,辅助用户更清晰地表达搜寻计划。而 VQS…- 7
- 0
谷歌提出全新RLHF格式:清除赞美模型,且无需匹敌性训练
效果更稳定,实现更简朴。大型语言模型(LLM)的成功离不开「鉴于人类反馈的加强进修(RLHF)」。RLHF 可以大致可以分为两个阶段,首先,给定一对偏好和不偏好的行为,训练一个赞美模型,通过分类目标为前者分配更高的分数。然后通过某种加强进修算法优化这个赞美函数。然而,赞美模型的关键要素可能会产生一些不良影响。来自卡内基梅隆大学(CMU)和 Google Research 的钻研者联合提出了一种简朴…- 32
- 0
无需RLHF显著提高GPT-4/Llama2性能,北大团队提出Aligner对齐新范式
对齐新范式:批改未对齐的谜底比生成对齐的回覆更容易。背景大语言模型(LLMs)虽展现出了强大的能力,但也可能产生不可预测和有害的输出,例如冒犯性回应、虚假信息和泄露隐私数据,给用户和社会造成伤害。确保这些模型的行为与人类意图和价值观相对齐,是一个紧迫的挑战。尽管鉴于人类反馈的强化进修(RLHF)提供了一种解决方案,但它面临复杂的训练架构、对参数的高敏感性,以及赞美模型在不同数据集上的不稳定性等多重…- 4
- 0
斯坦福和OpenAI提出meta-prompting,最强零样本prompting技术诞生了
在我们的工作群里,经常会有一位管理者来谐和每个人的工作并汇总工作成果。近日,斯坦福大学的 Mirac Suzgun 和 OpenAI 的 Adam Tauman Kalai 提出了一种新的 prompting 办法:meta-prompting。类似于工作群,这种办法也是应用一个居中谐和的指挥员(元模型)来谐和应用差别用途的 AI 和其它工具。最新一代言语模型(尤其是 GPT-4、PaLM 和 L…- 8
- 0
抛弃编码器-解码器架构,用聚集模型做边沿检测效果更好,国防科大提出DiffusionEdge
现有的深度边沿检测收集通常基于包含了上下采样模块的编码器 - 解码器架构,以更好的提取多层次的特点,但这也限制了收集输出既准又细的边沿检测结果。针对这一问题,一篇 AAAI 2024 上的论文给出了新的解决方案。论文题目:DiffusionEdge: Diffusion Probabilistic Model for Crisp Edge Detection作者:叶云帆(国防科技大学),徐凯(国防…- 6
- 0
比OpenAI官方提醒词指南更全,这26条黄金规则让LLM性能飙升50%以上
今天,穆罕默德・本・扎耶德人工智能大学 VILA Lab 带来了一项关于如何更好地为分歧规模的大模型书写提醒词(prompt)的研究,让大模型性能在不需要任何额外训练的前提下轻松提高 50% 以上。该工作在 X (Twitter)、Reddit 和 LinkedIn 等平台上都引起了广泛的讨论和关注。论文地址: : :Principled Instructions Are All You Need…- 5
- 0
大模型也有小偷?为保护你的参数,上交大给大模型制作「人类可读指纹」
将分歧的基模型象征为分歧品种的狗,其中相同的「狗形指纹」表明它们源自同一个基模型。大模型的预训练需要耗费巨量的计算资源和数据,因而预训练模型的参数也正成为各大机构重点保护的核心竞争力和资产。然而,分歧于传统的软件知识产权保护可以通过比对源代码来确认是否存在代码盗用,对预训练模型参数盗用的判断存在以下两方面的新课题:1) 预训练模型的参数,尤其是千亿级别模型的参数,通常不会开源。2) 更重要的是,预…- 8
- 0
大模型也能切片,微软SliceGPT让LLAMA-2算计效率大增
简略权重矩阵的一些行和列,让 LLAMA-2 70B 的参数量减少 25%,模型还能保持 99% 的零样本任务机能,同时算计效率大大提升。这就是微软 SliceGPT 的威力。大型语言模型(LLM)通常拥有数十亿的参数,用了数万亿 token 的数据从事训练,这样的模型训练、部署成本都非常高。因此,人们经常用各种模型压缩技术来减少它们的算计需求。一般来讲,这些模型压缩技术可以分为四类:蒸馏、张量分…- 7
- 0
百川智能发布超千亿大模型Baichuan 3,华文评测水平超GPT-4
1 月 29 日,百川智能正式发布千亿参数的大语言模型 Baichuan 3。在多个权威通用本领评测如 CMMLU、GAOKAO 和 AGI-Eval 中,Baichuan 3 都展现了出色的本领,尤其在华文义务上更是逾越了 GPT-4。而在数学和代码专项评测如 MATH、HumanEval 和 MBPP 中同样表现出色,证明了 Baichuan 3 在自然语言处理和代码生成范围的强大实力。不仅如…- 6
- 0
何恺明谢赛宁团队步步解构散布模型,最后竟成典范去噪自编码器
去噪散布模型(DDM)是当前图象生成技术的一大主流法子。近日,Xinlei Chen、Zhuang Liu、谢赛宁与何恺明四人团队对 DDM 进行了解构钻研 —— 通过层层剥离其组件,DDM 的生成能力不断下降,但其表征进修能力却能得到一定的维持。这表明 DDM 的某些组件可能对表征进修作用不大。 对于当前计算机视觉等领域的生成模型,去噪是一种核心法子。这类法子常被称为去噪散布模型(DDM)—— …- 5
- 0
重塑3D生成核心实际:VAST、港大、清华用「零」训练数据生成了3D模型
AI 生成 3D 模型最难的一关,终于被搞定了。无需任何训练数据,只需对着模型形容一句话,如「一个做作业的香蕉人」:或是「一只戴着 VR 眼镜的猫」:就能生成符合形容的带有高质量纹理贴图的 3D 场景。不仅如此,还能对已有的 3D 模型进行精细化贴图。这是港大与清华大学联合 3D 生成明星公司 VAST AI 研发的一种新要领,它能够从复杂的文本形容中,直接生成富有想象力的高质量 3D 模型。目前…- 4
- 0
「think step by step」还不够,让模型「think more steps」更有用
本文对头脑链的推理步长进行了控制变量尝试,发现推理步长和答案的准确性是线性相关的,这种作用机制甚至超越了成绩本身所产生的差异。如今,大型语言模型(LLM)及其高级提醒战略的出现,标志着对语言模型的钻研取得了重大进展,尤其是在经典的 NLP 义务中。这其中一个关键的创新是头脑链(CoT)提醒技术,该技术因其在多步调成绩解决中的本领而闻名。这项技术遵循了人类的顺序推理,在各种挑战中表现出了优秀的功能,…- 3
- 0
大模型推理速度飙升3.6倍,「美杜莎」论文来了,贾扬清:最优雅加快推理方案之一
去年,在加快大语言模型推理层面,我们迎来了一个比揣测解码更高效的解决方案 —— 普林斯顿、UIUC 等机构提出的 Medusa。如今,关于 Medusa 终于有了完整技术论文,还提供了新的版本。如你我所知,在大型语言模型(LLM)的运行逻辑中,随着规模大小的增加,语言生成的质量会随着提高。不过,这也导致了推理延迟的增加,从而对实际应用构成了重大挑战。从系统角度来看,LLM 推理主要受内存限制,主要…- 6
- 0
无需训练实现价值观实时动态对齐:上交开源价值观对齐方法OPO,闭源与开源大模型均适用
随着人工智能技术的发展,以 GPT-4 为代表的大语言模型依靠其强大的能力正在对社会产生深远的影响。与此同时,大模型本身的安全性问题也变得尤为重要。如何确保大语言模型可以和人类的价值、真实的意图相一致,防止模型被滥用、输出有害的信息,这是大模型安全治理的核心问题。之前的大多数对齐方法需要网络新数据重新训练模型,然而对训练数据质量要求高以及优化模型参数耗时耗力是对齐中的痛点。除此之外,待对齐的价值观…- 5
- 0
大模型自我惩罚:Meta让Llama2自己给自己微调,性能超越了GPT-4
人工智能的反馈(AIF)要代替 RLHF 了?大模型领域中,微调是矫正模型性能的重要一步。随着开源大模型逐渐变多,人们总结出了很多种微调方式,其中一些取得了很好的效果。最近,来自 Meta、纽约大学的研究者用「自我惩罚要领」,让大模型自己生成自己的微调数据,给人带来了一点新的震撼。在新要领中,作者对 Llama 2 70B 进行了三个迭代的微调,生成的模型在 AlpacaEval 2.0 排行榜上…- 5
- 0
吞吐量提升5倍,联合设计后端体系和前端说话的LLM接口来了
大型说话模型 (LLM) 越来越多地用于需要多个链式生成挪用、高级 prompt 技术、控制流以及与外部环境交互的复杂任务。然而,用于编程和执行这些应用程序的现有高效体系存在着明显的缺陷。现在,开源社区的钻研者们面向 LLM 提出了一种结构化生成说话(Structured Generation Language)——SGLang。SGLang 能够增强与 LLM 的交互,通过联合设计后端运转时体系…- 8
- 0
工程
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!