输出
OpenAI GPT-4o 新版本突然上线:丝滑解决 9.11 和 9.9 谁大,更强也更便宜了
GPT-4o 新版本突然上线,更强更便宜。能力全方位提升,ZeroEval 基准测试直接跃居第一。输入和输出分别节省 50%、33%。四舍五入就是 API 降价啊。token 输出扩展到 16k,此前支持 4k。9.11 和 9.9 谁大这个问题,也能丝滑解决。这是因为 OpenAI 给 API 中引入了结构化输出。通过 JSON 模式确保模型输出符合开发者定义的结构,能让模型变得更可靠安全。最新版模型“GPT-4o-2024-08-06”在 JSON 模式评估中,得分 100%。相比之下,去年 6 月的版本得分还
8/7/2024 1:13:07 PM
汪淼
OpenAI 在 API 中引入结构化输出,最新版 GPT-4o AI 模型达到 100% 满分
感谢OpenAI 公司昨日(8 月 6 日)发布新闻稿,宣布在 API 中引入结构化输出(Structured Outputs)。OpenAI 公司此前已提供结构化输出,用户可以指定 "response_format": {"type": "json_object"}} 来请求一个有效的 JSON 对象,也可以使用函数调用机制来请求符合特定模式的响应。OpenAI 在导言中表示,结构化输出功能可确保模型生成的响应始终符合用户提供的 JSON 模式,因此用户无需担心模型会遗漏必填键或生成无效的枚举值。AI在线附上结构
8/7/2024 9:54:41 AM
故渊
六位一线 AI 工程师分享自身总结,公开大模型应用摸爬滚打一年心得
六位一线 AI 工程师和创业者,把在大模型应用开发上摸爬滚打一整年的心得,全!分!享!了!(奇怪的六一儿童节大礼包出现了)这篇干货长文,一时间成为开发者社区热议的话题。有网友评价为,大模型领域少有的“有操作性”的实用见解,非常值得一读。这 6 位作者来自不同背景,比如有大厂工程师,也有独立开发者,还有咨询顾问。但他们的共同之处,是过去一年里一直在大模型之上构建真实应用程序,而不只是炫酷的 Demo 演示,他们认为:现在正是非机器学习工程师或科学家,也能把 AI 构建到产品中的时候。在他们的一系列分享中,网友热议的亮
6/1/2024 6:54:15 PM
清源
欧盟数据保护委员会:ChatGPT 的“数据准确性”仍未达标
据路透社报道,欧盟数据保护委员会的一个特别工作组近期表示,尽管 OpenAI 在减少 ChatGPT 输出信息的错误率上做出了一定努力,但它仍然不足以确保“完全符合”欧盟的数据规则。当地时间周五,该工作组发布了一份报告并指出,“为了遵守透明度的原则,OpenAI 采取了一些措施,也有利于避免 ChatGPT 输出错误信息,但这些措施仍然不足以遵守数据准确性的原则。”图源 PexelsIT之家注:以意大利政府为首的国家监管机构此前对广泛使用的 AI 服务提出了担忧,欧盟数据保护委员会随后成立了“ChatGPT 特别工
5/25/2024 3:24:55 PM
清源
AI 在用 | 有了这个超级提示和Claude 3,不听播客也能搞定节目内容
机器之能报道编辑:Cardinal以大模型、AIGC为代表的人工智能浪潮已经在悄然改变着我们生活及工作方式,但绝大部分人依然不知道该如何使用。 因此,我们推出了「AI在用」专栏,通过直观、有趣且简洁的人工智能使用案例,来具体介绍AI使用方法,并激发大家思考。 我们也欢迎读者投稿亲自实践的创新型用例。不用听完冗长的播客就能迅速掌握节目内容?X 用户 @genie0309 利用 Claude 3 Opus 做到了这一点。这位用户是一位连续创业者、投资人,平时重度依靠播客获取深度信息,然而优质播客节目时长至少 45 分
3/29/2024 6:17:00 PM
ScienceAI
谷歌推出 Cappy “打分”框架,可评估 AI 准确性“教模型更聪明”
据谷歌官方新闻稿,谷歌近日推出了一项名为 Cappy 的模型打分框架,该框架以 RoBERTa 语言模型为基础,主要用于检测模型输出的内容,并为相关内容打分,之后相关分数将会作为参考基准让模型学习,从而让模型更聪明。▲ 图源 谷歌官方新闻稿(下同)此外,Cappy 框架也可以作为大语言模型的“候选机制”,该框架可以内置在模型中,并对模型预输出的内容生成分数,并选择分数最高的回应作为最终输出,以提高大语言模型输出内容的正确性。研究人员提到,相对于业界其他方案,Cappy 框架的 RAM 用量更低,这是由于相关框架无需
3/17/2024 4:18:59 PM
漾仔
大模型时代还不理解自注意力?这篇文章教你从头写代码实现
自注意力是 LLM 的一大核心组件。对大模型及相关应用开发者来说,理解自注意力非常重要。近日,Ahead of AI 杂志运营者、机器学习和 AI 研究者 Sebastian Raschka 发布了一篇文章,介绍并用代码从头实现了 LLM 中的自注意力、多头注意力、交叉注意力和因果注意力。太长不看版这篇文章将介绍 Transformer 架构以及 GPT-4 和 Llama 等大型语言模型(LLM)中使用的自注意力机制。自注意力等相关机制是 LLM 的核心组件,因此如果想要理解 LLM,就需要理解它们。不仅如此,这
2/16/2024 5:06:00 PM
机器之心
「Hello World」中的「bug」
Hello World 可能是许多人编写的第一个程序。这么简单的程序按理说应该没有 bug 吧?一位叫「sunfishcode」的开发者给出了令人意外的结论。
3/23/2022 7:26:00 AM
机器之心
- 1
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
数据
机器人
模型
谷歌
大模型
Midjourney
智能
用户
开源
学习
GPT
微软
Meta
AI创作
图像
技术
论文
Stable Diffusion
马斯克
Gemini
算法
蛋白质
生成式
芯片
代码
英伟达
腾讯
神经网络
计算
研究
Sora
3D
Anthropic
AI for Science
AI设计
机器学习
GPU
开发者
AI视频
场景
华为
预测
百度
人形机器人
伟达
苹果
Transformer
深度学习
模态
xAI
字节跳动
Claude
大语言模型
搜索
驾驶
文本
具身智能
神器推荐
Copilot
LLaMA
算力
视频生成
安全
干货合集
视觉
应用
大型语言模型
科技
亚马逊
特斯拉
AGI
训练
2024