资讯列表

优于SOTA方法,语言模型结合几何深度学习技术,望石智慧开发3D分子生成模型Lingo3DMol

编辑 | X分子生成是 AI 助力小分子新药研发的核心技术。望石智慧始终专注于分子生成技术的开发。就在前几天,望石智慧的研究团队推出了 Lingo3DMol,用于在给定口袋 3D 结构的情况下生成小分子配体的 3D 结构。方法结合了语言模型和几何深度学习技术。研究人员在传统的 SMILES 分子表征的基础上,开发了新的分子表示方法  FSMILES。此外,研究训练了一个单独的非共价相互作用预测器,为生成模型提供必要的结合模式信息。Lingo3DMol 可以有效地穿越类似药物的化学空间,防止异常结构的形成。Lingo

罗氏制药和GRCEH团队开发可解释机器学习方法,用于分析治疗性抗体的免疫突触和功能表征

编辑 | 萝卜皮治疗性抗体广泛用于治疗严重疾病。它们中的大多数会改变免疫细胞并在免疫突触内发挥作用。指导体液免疫反应的重要细胞间相互作用。尽管生成并评估了许多抗体设计,但缺乏用于系统抗体表征和功能预测的高通量工具。德国环境健康研究中心(German Research Center for Environmental Health)和罗氏制药(Roche)的研究团队,开发了一个全面的开源框架 scifAI(单细胞成像流式细胞术 AI),用于对成像流式细胞术 (IFC) 数据进行预处理、特征工程和可解释的预测机器学习。

裁员靠随机?谷歌资深工程师爆大料,员工准备抗议示威

随着谷歌又一轮「裁员广进」,员工开始了对高管的炮轰。「谷歌现在没有半个有远见的领导者,从最高管理层、高级副总裁再到副总裁,他们都得过且过、目光呆滞。」最近几天,谷歌资深软件工程师 Diane Hirsh Theriault 的长篇帖子在社交网络上引起了轰动。在去年底,Theriault 带领的团队被裁员了 3/4。在领英上的一篇推文中,Theriault 对谷歌目前的管理方式和发展方向感到深深的担忧,同时也对大量员工被「随机」裁员表达了愤怒。她的文章获得了大量谷歌同事的共鸣。最近,谷歌的新一轮裁员引发了争议,这加剧

李飞飞、吴恩达开年对话:AI 寒冬、2024新突破、智能体、企业AI

李飞飞、吴恩达畅谈 2024 AI 趋势。在人工智能发展史上,2023 已经成为非常值得纪念的一年。在这一年,OpenAI 引领的 AI 大模型浪潮席卷了整个科技领域,把实用的 AI 工具送到了每个人手里。但与此同时,人工智能的发展也引起了广泛的讨论和争议,尤其在其商业应用和未来发展前景方面。著名 AI 专家 Rodney Brooks 在 2024 年初发文预言,认为 AI 可能即将进入一个新的寒冬,随着泡沫的破裂,行业可能面临严峻的挑战。他的这一言论引发了业界的广泛讨论:新的一年,AI 领域将会迎来更多的炒作,

高通CEO安蒙:生成式AI将变革用户与终端交互的方式

尽管2024年才刚刚开始,但不论是从刚刚结束的CES上无处不在的生成式AI创新,还是从各大智能手机厂商最新旗舰发布会中频频提到的“大模型”来看——生成式AI正在加快脚步,真正走进人们的生活。近期,高通公司总裁兼CEO安蒙在多个采访中也展望了生成式AI在2024年的发展方向,他指出生成式AI走向终端,将变革用户与终端交互的方式。生成式AI走向终端,进入下一发展阶段在终端侧,高通已经能够打造高性能AI处理器,使得仅通过电池供电的移动终端也能随时随地运行生成式AI。同时,生成式AI模型经过训练优化,体量越来越小,效率越来

2024年,开源AI潜力更大?

开源社区为人工智能发展做了什么?开源(OS)正在驱动生成式 AI 的创新。得益于像 GitHub 和 Hugging Face 等学术研究平台,我们得以见证 AI 技术的蓬勃发展。但值得注意的是,OpenAI、Anthropic 等越来越多的科技公司选择不公开模型的代码和权重。指责大型科技公司闭源的声音从未停止,昨天,前特斯拉 AI 总监,OpenAI 的创始成员 Andrej Karpathy 发了一条推特暗指「闭源」对人才的限制:在人工智能领域,我认为你数不出来 30 个 30 岁以下的闻名者。在公司结构图里,

视觉Mamba模型的Swin时刻,中国科学院、华为等推出VMamba

Transformer 在大模型领域的地位可谓是难以撼动。不过,这个AI 大模型的主流架构在模型规模的扩展和需要处理的序列变长后,局限性也愈发凸显了。Mamba的出现,正在强力改变着这一切。它优秀的性能立刻引爆了AI圈。上周四, Vision Mamba(Vim)的提出已经展现了它成为视觉基础模型的下一代骨干的巨大潜力。仅隔一天,中国科学院、华为、鹏城实验室的研究人员提出了 VMamba:一种具有全局感受野、线性复杂度的视觉 Mamba 模型。这项工作标志着视觉 Mamba 模型 Swin 时刻的来临。论文标题:V

零一万物Yi-VL多模态大模型开源,MMMU、CMMMU两大权威榜单领先

1 月 22 日,零一万物 Yi 系列模型家族迎来新成员:Yi Vision Language(Yi-VL)多模态语言大模型正式面向全球开源。据悉,Yi-VL 模型基于 Yi 语言模型开发,包括 Yi-VL-34B 和 Yi-VL-6B 两个版本。Yi-VL 模型开源地址:,Yi-VL 模型在英文数据集 MMMU 和中文数据集 CMMMU 上取得了领先成绩,展示了在复杂跨学科任务上的强大实力。MMMU(全名 Massive Multi-discipline Multi-modal Understanding & R

清华、小米、华为、 vivo、理想等多机构联合综述,首提个人LLM智能体、划分5级智能水平

嘿 Siri、你好小娜、小爱同学、小艺小艺、OK Google、小布小布……想必这些唤醒词中至少有一个曾被你的嘴发出并成功呼唤出了一个能给你导航、讲笑话、添加日程、设置闹钟、拨打电话的智能个人助理(IPA)。可以说 IPA 已经成了现代智能手机不可或缺的标配,近期的一篇综述论文更是认为「个人 LLM 智能体会成为 AI 时代个人计算的主要软件范式」。这篇个人 LLM 智能体综述论文来自国内多所高校和企业研究所,包括清华大学、小米、华为、欢太、vivo、云米、理想汽车、北京邮电大学、苏州大学。文中不仅梳理了个人 LL

英伟达新对话QA模型准确度超GPT-4,却遭吐槽:无权重代码意义不大

昨天,Meta、纽约大学的研究者用「自我奖励方法」,让大模型自己生成自己的微调数据,从而在 Llama 2 70B 的迭代微调后超越了 GPT-4。今天,英伟达的全新对话 QA 模型「ChatQA-70B」在不使用任何 GPT 模型数据的情况下,在 10 个对话 QA 数据集上的平均得分略胜于 GPT-4。一年多来,ChatGPT 及后续产品引发了生产和研究社区中构建问答(QA)模型的范式转变。尤其是在实际应用中,QA 模型在以下情况成为首选:用户能够以对话方式与 QA 模型进行交互,并可以轻松提出后续问题;通才模

Pika、Gen-2、ModelScope、SEINE……AI视频生成哪家强?这个框架一测便知

AI 视频生成,是最近最热门的领域之一。各个高校实验室、互联网巨头 AI Lab、创业公司纷纷加入了 AI 视频生成的赛道。Pika、Gen-2、Show-1、VideoCrafter、ModelScope、SEINE、LaVie、VideoLDM 等视频生成模型的发布,更是让人眼前一亮。v⁽ⁱ⁾大家肯定对以下几个问题感到好奇:到底哪个视频生成模型最牛?每个模型有什么特长?AI 视频生成领域目前还有哪些值得关注的问题待解决?为此,我们推出了 VBench,一个全面的「视频生成模型的评测框架」,来告诉你 「视频模型哪

普林斯顿博士生高天宇指令微调进展速览:数据、算法和评估

自 ChatGPT 等大型语言模型推出以来,为了提升模型效果,各种指令微调方法陆续被提出。本文中,普林斯顿博士生、陈丹琦学生高天宇汇总了指令微调领域的进展,包括数据、算法和评估等。图源:(LLM)很强大,但要想真正帮助我们处理各种日常和工作任务,指令微调就必不可少了。近日,普林斯顿大学博士生高天宇在自己的博客上总结了指令微调研究方向的近期进展并介绍了其团队的一项近期研究成果。具有十亿级参数且使用万亿级 token 训练的大型语言模型(LLM)非常强大,直接就能用于解决大量不同的任务。但是,要用于真实世界应用以及作为

大模型自我奖励:Meta让Llama2自己给自己微调,性能超越了GPT-4

人工智能的反馈(AIF)要代替 RLHF 了?大模型领域中,微调是改进模型性能的重要一步。随着开源大模型逐渐变多,人们总结出了很多种微调方式,其中一些取得了很好的效果。最近,来自 Meta、纽约大学的研究者用「自我奖励方法」,让大模型自己生成自己的微调数据,给人带来了一点新的震撼。在新方法中,作者对 Llama 2 70B 进行了三个迭代的微调,生成的模型在 AlpacaEval 2.0 排行榜上优于一众现有重要大模型,包括 Claude 2、Gemini Pro 和 GPT-4。因此,论文刚刚发上 arXiv 几

奥特曼筹数十亿美元建全球晶圆厂网络,自造AI芯片

可以低成本代替英伟达?据彭博社消息,OpenAI CEO 萨姆・奥特曼(Sam Altman)近日再次为一家人工智能芯片企业筹集了数十亿美元的资金,希望建立一个范围覆盖全球的晶圆厂「企业网络(network of factories)」,并计划与未具名的顶级芯片制造商合作。报道称,奥特曼已与几家大型潜在投资者进行了谈判,希望能筹集到晶圆厂所需的巨额资金。在生成式 AI 快速爆发的时代,运行 AI 模型面临的主要困难是算力限制。在 ChatGPT 、 DALL-E 等生成式 AI 模型的背后,研究者们投入了大量的算力

被OpenAI、Mistral AI带火的MoE是怎么回事?一文贯通专家混合架构部署

本文将介绍 MoE 的构建模块、训练方法以及在使用它们进行推理时需要考虑的权衡因素。专家混合 (MoE) 是 LLM 中常用的一种技术,旨在提高其效率和准确性。这种方法的工作原理是将复杂的任务划分为更小、更易于管理的子任务,每个子任务都由专门的迷你模型或「专家」处理。早些时候,有人爆料 GPT-4 是采用了由 8 个专家模型组成的集成系统。近日,Mistral AI 发布的 Mixtral 8x7B 同样采用这种架构,实现了非常不错的性能(传送门:一条磁力链接席卷 AI 圈,87GB 种子直接开源 8x7B MoE

一张照片,为深度学习巨头们定制人像图片

主题驱动的文本到图像生成,通常需要在多张包含该主题(如人物、风格)的数据集上进行训练,这类方法中的代表工作包括 DreamBooth、Textual Inversion、LoRAs 等,但这类方案因为需要更新整个网络或较长时间的定制化训练,往往无法很有效地兼容社区已有的模型,并无法在真实场景中快速且低成本应用。而目前基于单张图片特征进行嵌入的方法(FaceStudio、PhotoMaker、IP-Adapter),要么需要对文生图模型的全参数训练或 PEFT 微调,影响原本模型的泛化性能,缺乏与社区预训练模型的兼容

高手总结!十五个 Midjourney V6 与 V5.1 镜头对比(附超多实用提示词)

最近人工智能新闻铺天盖地,属 OpenAI 耀眼,1 月 11 日推出 GPT 商店,由于登录的人数较多,网站一直登录不上,只能耐心等待... 本篇图片来自 @4rtofficial 相机镜头(部分)第二卷 PDF 文件。开头/文末已给出完整的 PDF 文件和福利。 更多V6 介绍:一、CANON EF 50MM F/1.8 STM LENS 佳能(Canon)EF 50mm f/1.8 STM 镜头的型号。这是一款标准定焦镜头,适用于街头摄影、旅行摄影等。焦距:50mm,是一款标准定焦镜头,适用于多种拍摄场景。

百度实战案例复盘!如何设计问答式AI产品?

前言 在传统营销中,客户在策划广告推广时需要层层搭建计划、手动添加素材、时刻关注效果,这个繁琐流程需要大量表单填写和反复跳转,重复的基建工作量很大,导致商业营销成为繁重的体力活,影响整体投放效率。 借助文心大模型,我们推出了轻舸:一个成本优化、高效经营的智能营销平台。 更多AI产品设计干货:一、探索方向 轻舸平台核心想要解决的,是如何利用生成式 AI 的能力,让交互过程回归自然,让客户可以通过自然语言对话这种最本能的方式完整表达原生诉求,全面解决传统广告投放中曲折繁复、学习门槛高、分析操作耗时的痛点,降低营销门槛,