mini
4o-mini只有8B,o1也才300B!微软论文意外曝光GPT核心机密
微软又把OpenAI的机密泄露了? ? 在论文中明晃晃写着:o1-preview约300B参数,GPT-4o约200B,GPT-4o-mini约8B……英伟达2024年初发布B200时,就摊牌了GPT-4是1.8T MoE也就是1800B,这里微软的数字更精确,为1.76T。
o1 规划能力首测:已超越语言模型范畴,preview 终于赢 mini 一回
o1-preview 终于赢过了 mini 一次!亚利桑那州立大学的最新研究表明,o1-preview 在规划任务上,表现显著优于 o1-mini。相比于传统模型的优势更是碾压级别,在超难任务上的准确率比 Llama3.1-405B 高了 11 倍。要知道之前,OpenAI 自己人也发了一张图,显示 preview 论性能比不过满血版,论经济性又不如 mini,处于一个十分尴尬的地位。作者在推文中表示,尽管存在可保证性和成本问题,但仅针对 CoT 而言,o1 已经超越了大模型的“近似检索”性质,提升到了“近似推理”
OpenAI 首款具备“推理”能力模型 o1 现已向企业 / 教育用户开放,每周最多使用 50 次
OpenAI 公司旗下首款具备“推理”能力的模型 o1 和 o1-mini 现已向企业版(Enterprise)和教育版(Edu)用户开放访问权限,用户每周最多可输入 50 条消息。据介绍,OpenAI o1 系列模型具有更高的理解能力,与传统模型不同,o1 系列模型在回答问题之前会进行深度思考,生成内在的思维链后再给出答案,因此系列模型能够处理比之前模型更复杂的任务,特别擅长解决科学、编程和数学领域的难题。OpenAI 指出,尽管目前 GPT-4o 仍是大多数任务的最佳选择,但 o1 系列在处理复杂、问题解决导向
OpenAI o1 全方位 SOTA 登顶 lmsys 排行榜:数学能力碾压 Claude 和谷歌 Gemini 模型,o1-mini 并列第一
o1 模型发布 1 周,lmsys 的 6k 投票就将 o1-preview 送上了排行榜榜首。同时,为了满足大家对模型「IOI 金牌水平」的好奇心,OpenAI 放出了 o1 测评时提交的所有代码。万众瞩目的最新模型 OpenAI o1,终于迎来了 lmsys 竞技场的测评结果。不出意外,o1-preview 在各种领域绝对登顶,超过了最新版的 GPT-4o,在数学、困难提示和编码领域表现出色;而 o1-mini 虽然名字中自带「mini」,但也和最新版的 GPT-4o 并列综合排名第二,困难提示、编码、数学
OpenAI 再成“榜一大哥”:o1-preview AI 模型更轻松驾驭数学、编程等任务
科技媒体 The Decoder 昨日(9 月 19 日)发布博文,报道称在聊天机器人竞技场(Chatbot Arena)上,OpenAI 的新人工智能模型 o1-preview 和 o1-mini 问鼎榜首。聊天机器人竞技场简介聊天机器人竞技场是一个比较人工智能模型的平台,它利用 6000 多个社区评分对新的 OpenAI 系统进行了评估。结果结果显示,o1-preview 和 o1-mini 尤其在数学任务、复杂提示和编程方面表现出色。Lmsys 提供的数学模型优势图表清楚地显示,o1-preview 和 o1
英伟达开源 Nemotron-Mini-4B-Instruct 小语言 AI 模型:专为角色扮演设计,9216 MLP、上下文长度 4096 词元
科技媒体 marktechpost 昨日(9 月 14 日)发布博文,报道称英伟达开源了 Nemotron-Mini-4B-Instruct AI 模型,标志着该公司在 AI 领域创新又一新篇章。小语言模型的大潜力Nemotron-Mini-4B-Instruct AI 模型专为角色扮演、检索增强生成(RAG)及函数调用等任务设计,是一个小语言模型(SLM),通过蒸馏(distilled)和优化更大的 Nemotron-4 15B 获得。英伟达使用剪枝(pruning)、量化(quantization)和蒸馏(di
最强端侧开源 AI 模型 Zamba2-mini 登场:12 亿参数,4bit 量化下内存占用小于 700MB
Zyphra 于 8 月 27 日发布博文,宣布推出 Zamba2-mini 1.2B 模型,共有 12 亿参数,声称是端侧 SOTA 小语言模型,在 4bit 量化下内存占用低于 700MB。AI在线注:SOTA 全称为 state-of-the-art,并不是特指某个具体的模型,而是指在该项研究任务中,目前最好 / 最先进的模型。Zamba2-mini 1.2B 虽然尺寸不大,但媲美包括谷歌 Gemma-2B、Huggingface 的 SmolLM-1.7B、苹果的 OpenELM-1.1B 和微软的 Phi
微软发布 Phi-3.5 系列 AI 模型:上下文窗口 128K,首次引入混合专家模型
微软公司今天发布了 Phi-3.5 系列 AI 模型,其中最值得关注的是推出了该系列首个混合专家模型(MoE)版本 Phi-3.5-MoE。本次发布的 Phi-3.5 系列包括 Phi-3.5-MoE、Phi-3.5-vision 和 Phi-3.5-mini 三款轻量级 AI 模型,基于合成数据和经过过滤的公开网站构建,上下文窗口为 128K,所有模型现在都可以在 Hugging Face 上以 MIT 许可的方式获取。AI在线附上相关介绍如下:Phi-3.5-MoE:首个混合专家模型Phi-3.5-MoE 是
GPT-4o mini 凭什么登顶竞技场?OpenAI 刷分秘诀被扒,原来奥特曼早有暗示
为啥 GPT-4o mini 能登顶大模型竞技场??原来是 OpenAI 会刷分呀。这两天,lmsys 竞技场公布了一份充满争议的榜单。其中才面世不久的 GPT-4o mini 和满血版并列第一,把 Claude 3.5 Sonnet 甩在身后。结果网友炸锅了,大家凭体感觉得这不可能。哪怕后面 lmsys 做过一次声明,表示大家别只看总榜,还要更关注细分领域的情况。也没能让大家满意,不少人觉得 lmsys 就是从 OpenAI 那收钱了。终于,官方晒出了一份完整数据,展示了 GPT-4o mini 参与的 1000
微软现支持开发者微调 Phi-3-mini 和 Phi-3-medium AI 模型
微软公司昨日(7 月 25 日)发布博文,宣布在 Azure 上支持开发者微调(fine-tune) Phi-3-mini 和 Phi-3-medium AI 模型,针对不同用例提高模型的性能。例如,开发者可以微调 Phi-3-medium 模型,用于辅导学生;或者可以根据特定的语气或响应风格构建聊天应用程序。Phi-3-mini 模型于今年 4 月发布,共有 38 亿参数,上下文长度有 4K 和 128K 两个版本;Phi-3-medium 模型共有 140 亿参数,上下文长度同样有 4K 和 128K 两个版本
阿尔特曼深夜发动价格战:OpenAI GPT-4o mini 全新小模型登场,GPT-3.5 退役
感谢AI在线网友 刺客 的线索投递!OpenAI,也开始进军小模型了。就在今天深夜,GPT-3.5 退场,全新发布的 GPT-4o mini,更小、性能更强,更重要的是 —— 更便宜!▲ GPT-3.5,再见!每百万个输入 token 15 美分,每百万个输出 token 60 美分,MMLU 得分 82%,性能超快。CEO Sam Altman 感慨道:通往智能的成本,竟是如此低廉。是的,如火如荼的大模型价格战,OpenAI 也入场了。Altman 回顾说:就在 2022 年,世界上最好的模型是还是 text-d
OpenAI 推出 AI 模型 GPT-4o mini,号称功能最强、成本效益最高的小模型
感谢据 CNBC 报道,OpenAI 今天发布了全新的 AI 模型“GPT-4o mini”,这是 OpenAI 为扩大其聊天机器人的使用范围所做的最新努力。OpenAI 方面称,此次新发布的产品将是“目前功能最强大、成本效益最高的小型模型”,并计划晚些时候将图像、视频和音频能力整合到该模型中。GPT-4o mini 同样也是 OpenAI 推动“多模态”(multimodality)技术发展的一部分,“多模态”是指在一个工具中提供多种类型的人工智能生成媒体,如文本、图像、音频和视频。据悉,GPT-4o mini
融合 ChatGPT+DALL・E 3,贾佳亚团队新作开源畅玩:识图推理生图一站解决
在开源社区中把 GPT-4 Dall・E 3 能⼒整合起来的模型该有多强?香港中文大学终身教授贾佳亚团队提出多模态模型 Mini-Gemini:更高清图像的精确理解、更高质量的训练数据、更强的图像解析推理能力,还能结合图像推理和生成,堪称王炸。Mini-Gemini 还提供了 2B 小杯到 34B 的超大杯,最强模型在多个指标上相比谷歌的 Gemini Pro 甚至 GPT-4V 都不遑多让。目前,Mini-Gemini 从代码、模型到数据已全部开源,登上了 PaperWithCode 热榜。Mini-Gemini
- 1