深度学习
生信工具评测方法:基于蛋白质对的计算机预测工具评估
编辑 | 白菜叶计算机模拟蛋白质功能注释对于缩小因测序加速而导致的对蛋白质活性理解的差距至关重要。 存在多种功能注释方法,而且它们的数量一直在增长,尤其是随着深度学习技术的发展。 但是,目前尚不清楚这些工具是否真的具有预测性。
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
在深度学习的背景下,NVIDIA的CUDA与AMD的ROCm框架缺乏有效的互操作性,导致基础设施资源利用率显著降低。 随着模型规模不断扩大而预算约束日益严格,2-3年更换一次GPU的传统方式已不具可持续性。 但是Pytorch的最近几次的更新可以有效利用异构计算集群,实现对所有可用GPU资源的充分调度,不受制于供应商限制。
Finer-CAM:让AI像‘找不同’一样精准捕捉细粒度特征!
一眼概览Finer-CAM 是一种改进的类激活映射(CAM)方法,能够精准定位区分视觉上相似类别的细粒度特征,在不增加计算复杂度的情况下,大幅提升可解释性。 核心问题传统的 CAM 方法在细粒度分类任务中往往会高亮整个目标区域,而无法有效区分相似类别之间的细微差异。 这导致模型的可解释性受限,难以识别用于决策的真正判别特征。
Nvidia与犹他州启动人工智能教育计划,培养未来AI人才
近日,Nvidia与犹他州政府宣布建立战略合作伙伴关系,共同推出全面的人工智能教育计划,旨在提升该州劳动力技能并促进经济增长。 这项公私合作将为犹他州的大学、社区学院和成人教育项目提供发展生成式人工智能技能的关键资源。 作为计划核心部分,教育工作者可通过Nvidia深度学习学院大学大使计划获得专业认证,享有高质量教学套件、研讨会内容以及云端Nvidia GPU加速工作站的访问权限。
六种LLM定制开发基本策略:提示工程、解码策略、RAG、代理、微调和RLHF
译者 | 朱先忠审校 | 重楼为什么要定制LLM? 大型语言模型是基于自监督学习预训练的深度学习模型,需要大量的训练数据资源、训练时间并保存大量参数。 尤其是在过去2年里,LLM彻底改变了自然语言处理,在理解和生成类似人类的文本方面表现出色。
B站文生视频模型工程实践
一、前言近年来,AI 内容生成(AIGC)领域的快速发展令人雀跃,OpenAI 在 2023 年初推出大型语言模型(LLM)GPT-4 受到了学术界和工业界的极大关注。 OpenAI 随后在 2024 年初推出文生视频(T2V)模型Sora,能够根据文本指令制作出具有现实风格和富有想象力的场景视频,更是展示了令人惊喜的“世界模拟器”能力。 B站作为UGC内容丰富的视频网站,在视频生成模型领域有着天然数据优势和广泛应用场景。
科大讯飞出品!人人都能懂的AI大模型科普课
在当今科技飞速发展的时代,一个名为"AIGC"(Al Generated Content,人工智能生成内容)的概念正逐渐走进公众视野,并迅速成为各界热议的话题。 无论是社交媒体上的讨论,还是专业论坛中的交流,AIGC都成为了不可忽视的存在。 它不仅代表着技术进步的一个重要里程碑,更是预示着未来内容创作方式的一场深刻变革。
PyTorch内存优化的十种策略总结:在有限资源环境下高效训练模型
在大规模深度学习模型训练过程中,GPU内存容量往往成为制约因素,尤其是在训练大型语言模型(LLM)和视觉Transformer等现代架构时。 由于大多数研究者和开发者无法使用配备海量GPU内存的高端计算集群,因此掌握有效的内存优化技术变得尤为关键。 本文将系统性地介绍多种内存优化策略,这些技术组合应用可使模型训练的内存消耗降低近20倍,同时不会损害模型性能和预测准确率。
神经网络技术的核心:反向传播算法(BP算法)
在前面的文章中介绍训练一个模型,其主要区别就在于神经网络模型的架构;但可能很多人并不知道神经网络模型的核心算法就是——反向传播算法,也被叫做BP算法。 可能很多人都听说过反向传播算法,但可能很多人都没意识到反向传播算法对神经网络的重要性;可以说现在的神经网络模型就建立在反向传播算法之上,没有反向传播算法就没有神经网络的存在。 反向传播(BP)算法了解过人工智能发展史的人应该都知道,人工智能技术并不是最近才出现的新技术;在世界上第一台计算机出现之后的十年,人工智能的概念就已经被提出来了,但人工智能技术的发展却是最近几年才爆火的。
终于把深度学习中的微调、提炼和迁移学习搞懂了!!!
大家好,我是小寒今天给大家分享深度学习中的三个重要知识点,微调、提炼和迁移学习在深度学习中,微调(Fine-tuning)、提炼(Distillation,即知识蒸馏)和迁移学习(Transfer Learning)是三种常见的模型优化技术,主要用于提高模型的泛化能力、减少训练时间以及优化资源利用率。 微调微调是指在一个已经训练好的模型(通常是预训练模型)的基础上,对部分或全部参数进行进一步训练,以适应特定的新任务。 通常,预训练模型是在大规模数据集(如ImageNet)上训练得到的,它能够学习到一些通用的特征。
NVIDIA和Arc研究所联合发布全球最大生物学 AI 模型 Evo2,助力基因组研究与设计
日前,Arc Institute 与 NVIDIA 合作,联合斯坦福大学、加州大学伯克利分校和加州大学旧金山分校的研究人员,共同推出了全球最大的生物学人工智能模型 ——Evo2。 该模型以超过128,000个基因组的数据为基础,训练了9.3万亿个核苷酸,使其规模与最强大的生成性 AI 语言模型相媲美。 Evo2的深度学习能力使其能够快速识别不同生物体基因序列中的模式,研究人员无需耗费数年时间。
80%准确率!Meta 研发出无创脑机接口,仅凭思维就能打字
社交媒体巨头 Meta 最近宣布,他们开发了一种新设备,可以通过读取人脑的神经信号,实现文字输入。 这项研究成果由 Meta 的科学家们在两项研究中详细介绍,利用先进的脑扫描技术和深度学习 AI 模型,成功地解码出人们在打字时的脑电信号,甚至能够重建出完整的句子。 具体来说,这项技术依赖于一种名为磁脑电图(MEG)的扫描仪,能够捕捉大脑发出的微弱磁信号。
终于把深度学习中的模型压缩搞懂了!
今天给大家分享几种常见的模型压缩技术。 在深度学习中,模型压缩是减少模型大小、降低计算复杂度,同时尽可能保持模型性能的一类技术。 它在移动端、嵌入式设备和边缘计算等资源受限的环境中尤其重要。
无需配对训练数据集,AI赋能协助全新无标记成像显微镜
编辑丨&中红外光声显微镜可以在不染色的情况下捕获生化信息。 但在较长的中红外光学波长下,光声显微镜的空间分辨率明显低于传统的共聚焦荧光显微镜。 一支来自韩国浦项科技大学的团队展示了一种可解释的基于深度学习的无监督域间转换,将低分辨率未标记的中红外光声显微镜图像转换为共聚焦状虚拟荧光染色的高分辨率图像。
DeepSeek百万年薪招人 实习生月薪过万
近日,知名的AI企业DeepSeek,随着用户量的快速增长,正积极扩大其员工规模。 据某招聘平台显示,杭州深度求索人工智能(AI)基础技术研究有限公司,即DeepSeek,已发布了多个岗位的招聘信息,涵盖深度学习研究员、核心系统研发工程师及资深UI设计师等多个领域,工作地点位于北京或杭州。 DeepSeek此次招聘的岗位众多,共计52个在招职位,显示出公司对人才的强烈需求。
人工智能的历史:从古代神话到现代机器,从图灵到未来
在人类宏伟成就的历史上,很少有演员能像人工智能一样如此引人注目、充满争议且大胆无畏。 深入人工智能 (AI) 的历史迷宫及其可能的未来,就像踏上一场穿越时空的冒险之旅,科幻小说与现实之间的界限比量子计算机解决魔方的速度更快。 请想象一下,如果有一天,机器不仅能执行任务,还能学习、适应和进化,你的烤面包机也许有一天会在国际象棋上胜过你,你的吸尘器也许能写出一首与莎士比亚媲美的十四行诗。
腾讯云TI平台上架DeepSeek系列模型 支持免费体验和一键部署
近日,腾讯云TI平台宣布正式上架备受瞩目的DeepSeek系列模型,包括参数量达到671B的“满血版”V3和R1原版模型,以及基于DeepSeek-R1蒸馏得到的系列模型,参数规模从70B到1.5B不等。 这一举措为开发者提供了强大的AI工具支持,进一步推动了大模型技术的普及和应用。 DeepSeek系列模型以其卓越的性能在全球范围内获得了广泛关注。
David Baker 利用 AI 设计蛋白质,一招制蛇毒,或将彻底改变蛇咬治疗
编辑丨&蛇中毒是一种严重的个人健康威胁,每年导致约 10 万人死亡和 30 万人永久残疾,尤其是在医疗资源匮乏的地区。 目前的抗蛇毒血清主要依赖于动物血浆提取的多克隆抗体,存在成本高、副作用大、对某些毒素效果有限等问题。 今年诺贝尔化学奖得主 David Baker 团队的一项研究揭示了蛇咬伤治疗可能改变游戏规则。