大模型
全球首家!联想将率先在AIPC端侧本地部署DeepSeek大模型
2025年2月20日,联想集团公布截至2024年12月31日的第三财季业绩,其中营收1351亿人民币,同比增长20%;净利润49.8亿人民币,同比增长达106%。 在公布业绩的同时,联想集团宣布,将在AI PC端侧本地部署DeepSeek大模型,这将成为全球首家端侧部署该大模型的AI PC品牌。 小天个人智能体已全面接入DeepSeek-R1联网满血版大模型此前,联想旗下联想天禧个人智能体系统(天禧AS)中的小天个人智能体已全面接入DeepSeek-R1联网满血版大模型。
钉钉 AI 企业搜索宣布向所有用户限时免费开放
2025年2月20日,钉钉宣布其AI企业搜索功能向所有用户限时免费开放。 这一举措旨在帮助企业用户更高效地管理和利用知识资产,提升信息检索效率。 钉钉AI企业搜索于2024年推出,专注于解决企业用户在信息分散和检索效率低下方面的痛点。
新突破!中国电信复现DeepSeek R1,探索行业大模型建设新路径
DeepSeek是由深度求索开发的低成本、高性能开源大语言模型,该模型通过强化学习与混合专家结构(MOE)的技术创新,以工程优化突破硬件限制,实现了“算力需求下降但性能提升”的反共识路径。 开源策略重塑了AI生态,为全球开发者提供普惠工具,标志着从“算力堆砌”向“算法效率”的产业转型。 中国电信政企信息服务事业群DeepSeek攻坚团队紧跟技术潮流,基于行业数据复现R1模型,提出行业大模型优化的新思路。
从大模型性能优化到DeepSeek部署
一、背景Deepseek-r1模型的爆火标志着本地部署大模型的需求日益增长。 本文主要探讨如何优化本地部署大模型的性能,并结合我们的实践进行评测分析,文章最后我们将分享如何在本地高效部署满血版Deepseek-r1大模型。 在生产环境中,我们已部署专用的大模型推理集群,并对其性能进行了全面优化。
Nature推荐的大模型,现如今最好用的AI工具应当更好地助力科学研究
编辑丨toileterAI 大模型的演变随着时间呈现出井喷的增长趋势,几乎每周甚至于没几天就会有全新的 AI 工具被推出,引来蜂拥而至的研究人员去尝试它们。 现如今花样百出的 AI 工具,让研究者们无论在何种需求上都能自行配置最得心应手的模型,每个大型语言模型 (LLM) 都得以适配不同的任务需要。 总部位于华盛顿州西雅图的 Fred Hutchinson 癌症中心的数据科学家 Carrie Wright 表示,尽管 LLM 会产生类似人类的反应,但它们仍然太容易出错,无法单独使用。
微信搜索接入DeepSeek大模型 称AI不会使用朋友圈聊天等信息
近日,微信宣布其搜索功能接入 DeepSeek-R1模型,目前处于灰度测试阶段。 部分用户在微信搜索框选择 AI 搜索时,可体验到 DeepSeek-R1提供的深度思考功能。 微信方面表示,引入大模型旨在提升搜索的智能化和精准度,更好地理解用户搜索意图,分析处理复杂查询。
腾讯新搞了个深度思考模型,我们拿它和DeepSeek掐架
AI好好用报道编辑:杨文这波「左右互搏」有看头了。 腾讯向来以「慢」著称。 无论是游戏、搜索还是音乐、短视频,腾讯都比其他家慢了半拍。
大模型 Prompt 技巧全解析
作者 | mitin在数字化浪潮的推动下,AI大模型以其卓越的自然语言处理能力和智能交互特性,迅速在很多领域中占据了重要地位。 比如:与传统客服相比,AI大模型展现出了无可比拟的优势,通过精心设计的 prompt,能使我们在客服托管、智能客服等多个项目和业务场景中发挥显著作用,大幅提高工作效率,优化成果质量。 为了精进个人能力以及助力产研学习氛围的提升,本人在学习完吴恩达教授以及其他前辈们有关 prompt 的课程之后,整理了这份学习资料,以供大家学习交流。
阶跃星辰联合吉利首次开源 Step 系列多模态大模型,包含视频、语音两款模型
今日阶跃星辰和吉利汽车集团联合宣布,将双方合作的阶跃两款 Step 系列多模态大模型向全球开发者开源。其中,包含目前全球范围内参数量最大、性能最好的开源视频生成模型阶跃 Step-Video-T2V,以及行业内首款产品级开源语音交互大模型阶跃 Step-Audio。
迅雷宣布为 AI 开发者提供大模型批量下载加速服务,当前可免费使用
迅雷今日宣布,将针对下载AI大模型及数据集文件的迅雷用户提供批量下载服务,以解决长期困扰AI开发者的“下载慢、耗时长”问题。
大模型六小强如何在 DeepSeek 冲击下重塑策略?
在过去的一个月里,全球大模型市场因 DeepSeek 的发布而陷入了动荡,各大公司纷纷被问及对这一新兴力量的看法与应对策略。 在国内市场上,已经成为独角兽的六家大模型创业公司 —— 零一万物、百川智能、阶跃星辰、智谱华章、月之暗面及 MiniMax,面临着严峻挑战,但各自的应对策略显示出不同的方向。 首先,零一万物的创始人李开复早前就表示,他们不再追求超级大模型的训练,而是专注于轻量化模型的开发。
零基础也能看懂的 ChatGPT 等大模型入门解析!
近两年,大语言模型LLM(Large Language Model)越来越受到各行各业的广泛应用及关注。 对于非相关领域研发人员,虽然不需要深入掌握每一个细节,但了解其基本运作原理是必备的技术素养。 本文笔者结合自己的理解,用通俗易懂的语言对复杂的概念进行了总结,与大家分享~一、什么是ChatGPT?
大模型前缀缓存技术,有望将服务成本降低90%
译者 | 核子可乐审校 | 重楼是不是总感觉ChatGPT响应缓慢? 大家可能没有留意,大模型应用程序的提示词重复率高达70%,问天气、问翻译和问节日安排的内容大量出现,且每次都要消耗算力进行处理。 这样的情况在分布式集群的各节点上被无数次放大,白白烧掉宝贵的能源和金钱。
移远通信边缘计算模组成功运行DeepSeek模型,以领先的工程能力加速端侧AI落地
近日,国产大模型DeepSeek凭借其“开源开放、高效推理、端侧友好”的核心优势,迅速风靡全球。 移远通信基于边缘计算模组SG885G,已成功实现DeepSeek模型的稳定运行,并完成了针对性微调。 目前,该模型正在多款智能终端上进行深入测试与优化。
仅需3步,稳定快速!火山引擎边缘大模型网关全面支持DeepSeek系列模型
DeepSeek 作为大模型新锐,凭借其在算法、架构及系统等核心领域的创新突破,迅速获得业界瞩目。 在巨大的热度下,面对海量请求,越来越多用户遇到了请求失败、调用超时、结果无法返回等稳定性问题。 火山引擎边缘大模型网关通过一个 API 接入多家模型服务,利用全球边缘节点就近调用,提升响应速度;支持故障自动切换、重试和超时控制,确保服务可靠性;兼容 OpenAI 接口标准,可快速集成 DeepSeek 等模型,降低接入成本。
DeepSeek-R1技术解码:如何实现大模型推理能力的提升?
1月20日,幻方量化旗下AI公司深度求索(DeepSeek)发布了新一代开源大模型DeepSeek-R1。 作为一款专注于推理能力的AI大模型,DeepSeek-R1凭借着成本低、推理能力强等优势,在人工智能领域掀起了千层巨浪,引起了人们的广泛关注与讨论。 DeepSeek-R1的成功,让我们更加清晰地认识到推理能力在当下人工智能发展中的重要地位。
NLLB 与 ChatGPT 双向优化:探索翻译模型与语言模型在小语种应用的融合策略
本文探讨了 NLLB 翻译模型与 ChatGPT 在小语种应用中的双向优化策略。 首先介绍了 NLLB-200 的背景、数据、分词器和模型,以及其与 LLM(Large Language Model)的异同和协同关系。 接着列举了实战与应用的案例,包括使用 ChatGPT 生成的样本微调 NLLB-200 和使用 NLLB-200 的翻译结果作为 LLM 的 prompt 等。
字节跳动豆包UltraMem架构将大模型推理成本降低83%
字节跳动豆包大模型团队今日宣布,成功研发出全新稀疏模型架构UltraMem,该架构有效解决了MoE(混合专家)模型推理时的高额访存问题,推理速度较MoE提升2-6倍,推理成本最高可降低83%。 这一突破性进展为大模型的高效推理开辟了新路径。 UltraMem架构在保证模型效果的前提下,成功解决了MoE架构推理时的访存瓶颈。