字节跳动
加速量子化学计算,字节&北大团队量子蒙特卡罗研究新进展登Nature子刊
编辑 | 萝卜皮基于神经网络的变分蒙特卡罗(NN-VMC)已成为一种有前途、有潜力的从头计算量子化学的尖端技术。然而,现有方法的高计算成本,阻碍了它们在现实化学问题中的应用。字节跳动与北京大学团队介绍了 NN-VMC 的最新研究进展,它实现了显著的加速率,从而极大地将 NN-VMC 的适用性扩展到更大的系统。该团队的关键设计是一个名为 Forward Laplacian 的计算框架,它通过有效的前向传播(forward)过程来计算与神经网络相关的 Laplacian(这是 NN-VMC 的瓶颈)。然后,研究人员证明
刚刚,字节版GPTs「扣子」上线了
大玩家终于正式下场。在持续一年的大模型热潮之后,「智能体」成为了科技公司们新的押注方向之一。近日,字节跳动正式推出「Coze 扣子」AI Bot 开发平台。任何用户都可以快速、低门槛地搭建自己的 Chatbot,且平台支持用户将其一键发布到飞书、微信公众号、豆包等渠道。链接:,除了可以创建自己的 Chatbot,Coze 官方还提供了 Bots 商店和插件。如以下按照热度精选的 Bots,包含娱乐、创意、学习等各类产品,甚至我们注意到还有「马歇尔音箱粉丝」这个选项。机器之心挑选了一些已有的 Bot 试了试,看看上手
字节自研大模型,却因用ChatGPT被封号惹争议?官方回应了
没想到,字节的大模型项目是被这样曝光的。上周末,有外媒报道称,字节跳动在使用 OpenAI 技术开发自有大语言模型时,因违反 OpenAI 服务条款从而遭账号禁用。据 The Verge 报道,字节跳动内部正在研发的大语言模型项目名为「种子计划」(Project Seed)。由于训练大模型需要大量问答知识,该项目被曝出一直在秘密使用 OpenAI 的技术来充实数据集。在大模型领域,利用其他 AI 生成的内容用于训练的「取巧」行为虽然并不少见,但经常会被认为是一种超出底线的行为。在 ChatGPT 上,滥用 AI 生
用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习
如何让 LLM “忘记” 学到的有害内容?随着大型语言模型(LLM)的发展,从业者面临更多挑战。如何避免 LLM 产生有害回复?如何快速删除训练数据中的版权保护内容?如何减少 LLM 幻觉(hallucinations,即错误事实)? 如何在数据政策更改后快速迭代 LLM?这些问题在人工智能法律和道德的合规要求日益成熟的大趋势下,对于 LLM 的安全可信部署至关重要。目前业界的主流解决方案为 LLM 对齐 (alignment),即通过建立对比数据(正样本和负样本)用强化学习的方式来对 LLM 进行微调 (Fine