大模型
轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署
Ollama—— 这是一个专为本地部署优化的 AI 模型。 Ollama 在模型大小、性能和部署灵活性等方面都有非凡的表现,与传统云端部署相比,它可以轻松运行在普通的台式电脑或笔记本电脑上。 这无疑是 AI 大模型的一次重大突破!
图结构转文本序列,大模型直接读懂!图推理性能大涨
大语言模型直接理解复杂图结构的新方法来了:将图(Graph)转换为适合Transformer架构的线性token序列。 belike:这种最新图线性化方法,反映了自然语言中局部依赖性和全局对齐性两个关键属性,即:不仅需要保留基于前文上下文预测下一个token的能力(局部依赖性),而且不同图的token序列应该从具有相似特征的token开始或结束(全局对齐性),就像自然语言文本经常以特定词语开头或结尾。 如此一来,在海量文本数据上训练的LLM也能更好地理解图结构中的关系和属性,如节点计数、最大度数计算和图式形状分类等图推理任务都能完成。
微软:两个AI相互纠错,数学再涨5分
提升LLM数学能力的新方法来了——一个大模型不行,那就两个。 让他们彼此合作,纠正对方的错误。 这就是来自加州大学和微软研究院的最新研究成果:Flow-DPO。
揭秘:为何大模型总是赚不到钱?行业内幕大曝光!
编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)一个扎心的问题:大模型盈利了吗? 随着技术的发展,AI 逐渐走下了「神坛」,整个业界都变得更加客观和务实。 从OpenAI 今年高达 50 亿的天价亏损,到月暗沸沸扬扬的前投资人仲裁风波,大模型厂商的生意之路不是铺满大额融资的花路,而是充满了坎坷和荆棘。
国家管网“管网”大模型正式上线应用,基于华为算力底座和技术栈
据华为官方消息,11 月 29 日,国家管网集团“管网”大模型正式上线应用。“管网”大模型基于华为算力底座和技术栈,打造“管网制度流程 + 数据 + IT + 大模型”体系,构建具有管网特色的大模型方案。
重磅开源!Kimi把自家底层推理架构都开源了,开源贡献阵容相当豪华:清华、阿里、华为、AISoft、面壁智能
就在昨天,Kimi宣布要把自家底层的大模型推理架构Mooncake开源出来! 有媒体称该架构正是承载了月之暗面Kimi线上80%以上流量的正在用的底层架构。 小编立马求证了一番,的确Github上有提到:Mooncake 正在服务Kimi平台。
Kimi开源底层推理框架,1小时GitHub揽星1.2k
什么? Kimi底层推理架构刚刚宣布:开! 源!
OpenAI API:LLM编程的事实标准
当下,大模型领域已然步入 “百模大战” 时期,形形色色的大模型如雨后春笋般不断涌现。 那么,若我们打算学习大模型的 API,是否真的需要逐一去钻研呢? 答案无疑是否定的。
官宣开源 阿里云与清华大学共建AI大模型推理项目Mooncake
2024年6月,国内优质大模型应用月之暗面Kimi与清华大学MADSys实验室(Machine Learning, AI, Big Data Systems Lab)联合发布了以 KVCache 为中心的大模型推理架构 Mooncake。 通过使用以 KVCache 为中心的 PD 分离和以存换算架构,大幅提升大模型应用Kimi智能助手推理吞吐的同时有效降低了推理成本,自发布以来受到业界广泛关注。 近日,清华大学和研究组织9#AISoft,联合以阿里云为代表的多家企业和研究机构,正式开源大模型资源池化项目 Mooncake。
月之暗面 Kimi 联合清华大学等开源大模型推理架构 Mooncake
本次开源将采用分阶段的方式,逐步开源高性能 KVCache 多级缓存 Mooncake Store 的实现,同时针对各类推理引擎和底层存储 / 传输资源进行兼容。
吴恩达开源大模型套件:11 个模型平台一种方式调用,已获星标超 1.2K
它把 11 家知名大模型平台集中到了一起,统一了接口,可以用相同的方式调用不同模型。切换模型时,只需要改动一个字符串,不用在不同的 API 之间摸不着头脑了。
提示词:怎样与大模型沟通
同前面讲大模型特点类似,关于如何使用 GPT,我们也会分成两个视角:用户视角和技术视角。 这一讲,我们先从用户视角来看看如何用好 GPT。 用好 GPT若要充分发挥 GPT 的效用,需遵循以下步骤:首先是定义任务目标。
【RAG】浅看引入智能信息助理提升大模型处理复杂推理任务的潜力-AssisTRAG
AssisTRAG通过集成一个智能信息助手来提升LLMs处理复杂推理任务的能力。 该框架由两个主要组件构成:一个冻结的主语言模型和一个可训练的助手语言模型。 AssisTRAG与之前的RAG对比1.
滴滴ChatBI技术实践:智能数据分析的前沿探索与应用
一、ABI 方向的演进及 ChatBI 领域现状1. BI 产品的演进方向BI 产品的发展经历了从报表式 BI 到自助式 BI 的演变,而当前智能 BI 则吸引了大家的广泛关注与大量投入。 无论是早期的增强分析技术,还是如今新兴的 ChatBI 产品形态,其核心目的都在于降低用户利用数据的门槛与成本。
火山引擎基于大模型 ChatBI 的演进与实践
一、背景与趋势1. BI 平台演进 - 全面进入智能化在探讨火山引擎 BI 工具的发展历程时,可以清晰地划分为几个关键阶段,这些阶段亦与市面上主流 BI 工具的演进过程相吻合。 最初,传统 BI 工具主要聚焦于报表平台,由业务方提出需求,产研团队作为数据的主要生产者,负责制造简单的报表,以辅助经营仪表盘的制作。
腾讯混元大模型核心论文曝光:Scaling law、MoE、合成数据以及更多
随着 ChatGPT 的横空出世,大语言模型能力开始在各项领域(传统 NLP、数学、代码等)得到广泛验证,目前已经深刻影响到腾讯混元团队日常生活的方方面面。 腾讯混元团队长期致力于大语言模型的探索之路,大模型生产的各个环节开展研究创新以提升其基础能力,并将混元大模型的能力跟业务做深度结合,让生成式 AI 成为业务增长的放大器。 大语言模型的设计、训练和优化是一项复杂的系统工程,涉及到模型结构创新、训练范式优化、数据获取和评测设计、关键能力提升和挑战性问题的解决等方方面面。
首个可保留情感的音频 LLM:Meta 重磅开源 7B-Spirit LM,一网打尽“音频 + 文本”多模态任务
Meta 开源了一个基础多模态语言模型 Spirit LM,基于一个 70 亿参数的预训练文本语言模型,交错使用文本和语音数据进行训练,使模型能够自由地混合文本和语音,在任一模态中生成语言内容。
写给小白的大模型入门科普
什么是大模型? 大模型,英文名叫Large Model,大型模型。 早期的时候,也叫Foundation Model,基础模型。