资讯列表
国地共建具身智能机器人创新中心正式发布天工开源计划
11月11日,国家地方共建具身智能机器人创新中心召开天工开源计划发布会,对外公布创新中心成立一年以来取得的建设成就,并就已有技术成果面向行业陆续开源开放,推动具身智能加快落地。 创新中心旨在打造具身智能机器人生态圈,涵盖关键技术及产品开源开放、产学研协同技术攻关、行业标准体系制定、具身智能机器人应用示范合作落地、具身智能机器人俱乐部及面向全球征集人形机器人参加马拉松比赛等多项内容,实现具身智能机器人生态的闭环。 创新中心总经理熊友军表示,自10月正式升级为国地共建具身智能机器人创新中心后,作为引领具身智能技术突破与产业协同的关键平台,创新中心将专注于解决发展具身智能机器人关键共性技术问题,持续迭代推出全球领先的标志性创新产品,创建繁荣的具身智能产业生态体系。
大模型应用系列:从Ranking到Reranking
每个搜索引擎背后都隐藏着一个至关重要却往往被忽视的组成部分——Reranking(重新排名)。 那么,什么是Rerank呢? 简而言之,这一过程旨在优化并调整搜索结果的顺序,使之更加精准地匹配用户的查询需求。
改进蛋白突变稳定性预测,清华龚海鹏团队AI蛋白工程模型登Nature子刊
编辑 | KX准确预测蛋白质突变效应在蛋白质工程和设计中至关重要。 近日,清华大学龚海鹏团队提出了一套基于几何学习的模型套件——GeoStab-suite,其中包含 GeoFitness、GeoDDG 和 GeoDTm 三个模型,分别用于预测蛋白质突变后的适应度得分、ΔΔG 和 ΔTm。 GeoFitness 采用专门的损失函数,允许使用深度突变扫描数据库中的大量多标记适应度数据对统一模型进行监督训练。
一文揭开 NVIDIA CUDA 神秘面纱
Hello folks,我是 Luga,今天我们继续来聊一下人工智能生态相关技术 - 用于加速构建 AI 核心算力的 GPU 编程框架 - CUDA 。 CUDA,作为现代图形处理器(GPU)的计算单元,在高性能计算领域扮演着日益重要的角色。 通过将复杂的计算任务分解为数千个线程并行执行,CUDA 显著提升了计算速度,为人工智能、科学计算、高性能计算等领域带来了革命性的变革。
探讨营销技术的六个AI用例
随着营销越来越依赖数据,AI在营销技术(martech)行业中发挥着变革性作用。 从自动化日常任务到深入洞察客户行为,AI驱动的工具正在帮助营销人员在营销活动中实现更高的效率和精准度。 无论是优化广告支出、个性化客户体验还是增强预测分析,AI工具都在重塑企业与受众互动的方式。
多模态大模型技术方向和应用场景
多模态大模型(Multimodal Large Language Models,MLLM)是一种结合了大型语言模型(LLM)和大型视觉模型(LVM)的深度学习模型,它们能够处理和理解多种类型的数据,如文本、图像和音频,从而在跨模态任务中展现出卓越的性能。 核心特点对于多模态输入-文本输出的典型 MLLM,其架构一般包括编码器、连接器以及 LLM。 如要支持更多模态的输出(如图片、音频、视频),一般需要额外接入生成器,如下图所示:MLLM 架构图模态编码器负责将原始的信息(如图片)编码成特征,连接器则进一步将特征处理成LLM 易于理解的形式,即视觉 Token。
贝叶斯统计中常见先验分布选择方法总结
在贝叶斯统计中,选择合适的先验分布是一个关键步骤。 本文将详细介绍三种主要的先验分布选择方法:经验贝叶斯方法信息先验无信息/弱信息先验经验贝叶斯方法经验贝叶斯方法是一种最大似然估计(MLE)方法,通过最大化先验分布下数据的边际似然来估计先验分布的参数。 设X表示数据,θ表示参数,则经验贝叶斯估计可表示为:θ = argmax P(X|θ)信息先验信息先验是一种基于先前知识或以前研究结果,纳入了关于估计参数信息或信念的先验分布。
自动驾驶界秋名山车神!CoRL杰出论文让自驾车学会漂移,机器人整出新活
今年的机器人顶会 CoRL 杰出论文,竟然帮自动驾驶车稳稳地完成了漂移。 先来个甜甜圈漂移热个身:然后,上点难度,来个「8 字」: 最后来个蛇形绕桩(Slalom,这次没有实体的桩)。 可以听见,在绕到一半的时候,工作人员忍不住欢呼了一下。
RAG技术落地的两个问题及应对策略
什么是RAG? RAG的全称是检索增强生成(Retrieval-Augmented Generation,简称RAG),它结合了检索和和生成技术,通过整合检索系统和生成模型的优势,来提升模型生成文本的质量和上下文相关性。 这种技术主要是为了解决生成式模型在面对需要具体、实时或领域专业知识时可能产生的准确性不足和上下文不敏感的问题。
两位本科生一作,首次提出「持续学习」+「少样本」知识图谱补全 | CIKM 2024
知识图谱(Knowledge Graphs)是一种结构化的,用于展示和管理信息,组织现实世界知识的形式。 其通常被表达为三元组形式(头实体,关系,尾实体)。 KGs 为问答系统、推荐系统和搜索引擎等各种实际应用提供了极其重要支持。
清华团队破解具身智能Scaling Law,GPT时刻在即!宁德时代联创终于出手
最近,我们意外发现,具身智能领域的明星初创公司千寻智能,悄悄完成了工商变更。 根据工商信息显示,本轮融资由柏睿资本独家投资。 至此,千寻智已经在半年多时间里获得了三次大额融资,一跃成为具身智能领域明星公司之一。
GPT-5被曝不及预期,OpenAI员工:没什么科学突破了,接下来只需要工程
猛料来了,OpenAI下一代旗舰模型被曝提升不如预期。 消息来自The Information,具体指代号“猎户座”(Orion)的模型相对GPT-4的提升幅度,小于GPT-4相对GPT-3,已进入收益递减阶段。 或许这也是奥特曼曾说,可能不会把新模型命名为GPT-5的原因之一。
在家中完成LLM微调高效指南(上)
编辑 | 言征出品 | 51CTO技术栈(微信号:blog51cto)LLM在生成文本和理解信息方面非常有效,但它们最终受限于训练数据的语料库。 例如,如果你让一个通用的预训练模型回答与你的业务特定流程或操作有关的问题,最好的结果是它拒绝,最坏的情况是它会信誓旦旦地给出一个看似合理但错误的答案。 当然,你可以通过自己训练一个模型来解决这个问题,但所需的资源往往超出实际可行的范围。
为了创造商业价值,需要充分利用企业的数据和人工智能
尽管人们生活在一个日益数据驱动的世界,但大多数公司并没有采用数据驱动的商业模式。 推动Alphabet、Meta和亚马逊等企业成功的网络效应良性循环,并不适用于销售传统产品和服务的组织。 然而,从日常业务流程生成的专有数据中获取更多信息的工具正在变得广泛可用,并且可以帮助企业开发竞争优势。
真·打字P图!字节发布新模型SeedEdit,一句话爆改世界名画,可免费体验
一句话实时P图,网友又能整活了。 字节豆包大模型又又又上新了! 11 月 11 日,字节跳动豆包大模型团队推出了最新图像编辑模型 SeedEdit,主打一句话轻松 P 图。
专家模型不要专家并行!微软开源MoE新路径
继Phi家族之后,微软又开源了新的混合专家大模型——GRIN MoE。 与Phi-3.5同样的个头(16 * 3.8B),却采用了截然不同的训练方法。 这个「不走寻常路」如果写个太长不看版,那就是两句话:1.
LoRA、完全微调到底有何不同?MIT 21页论文讲明白了
本文旨在了解两种微调大型语言模型方法之间的差异:完全微调和低秩自适应 (LoRA)。 这两种方法都用于将预训练模型适应特定的下游任务,但它们却有所不同。 微调(Fine-tuning)是将经过预训练的大语言模型应用于下游任务的关键范例。
陶哲轩联手60多位数学家出题,世界顶尖模型通过率仅2%!专家级数学基准,让AI再苦战数年
数学为评估复杂推理提供了一个独特而合适的测试平台。 它需要一定的创造力和精确的逻辑链条——通常涉及复杂的证明,这些证明必须缜密地筹划和执行。 同时,数学还允许对结果进行客观验证。