输出
OpenAI GPT-4o 新版本突然上线:丝滑解决 9.11 和 9.9 谁大,更强也更便宜了
GPT-4o 新版本突然上线,更强更便宜。能力全方位提升,ZeroEval 基准测试直接跃居第一。输入和输出分别节省 50%、33%。四舍五入就是 API 降价啊。token 输出扩展到 16k,此前支持 4k。9.11 和 9.9 谁大这个问题,也能丝滑解决。这是因为 OpenAI 给 API 中引入了结构化输出。通过 JSON 模式确保模型输出符合开发者定义的结构,能让模型变得更可靠安全。最新版模型“GPT-4o-2024-08-06”在 JSON 模式评估中,得分 100%。相比之下,去年 6 月的版本得分还
OpenAI 在 API 中引入结构化输出,最新版 GPT-4o AI 模型达到 100% 满分
感谢OpenAI 公司昨日(8 月 6 日)发布新闻稿,宣布在 API 中引入结构化输出(Structured Outputs)。OpenAI 公司此前已提供结构化输出,用户可以指定 "response_format": {"type": "json_object"}} 来请求一个有效的 JSON 对象,也可以使用函数调用机制来请求符合特定模式的响应。OpenAI 在导言中表示,结构化输出功能可确保模型生成的响应始终符合用户提供的 JSON 模式,因此用户无需担心模型会遗漏必填键或生成无效的枚举值。AI在线附上结构
六位一线 AI 工程师分享自身总结,公开大模型应用摸爬滚打一年心得
六位一线 AI 工程师和创业者,把在大模型应用开发上摸爬滚打一整年的心得,全!分!享!了!(奇怪的六一儿童节大礼包出现了)这篇干货长文,一时间成为开发者社区热议的话题。有网友评价为,大模型领域少有的“有操作性”的实用见解,非常值得一读。这 6 位作者来自不同背景,比如有大厂工程师,也有独立开发者,还有咨询顾问。但他们的共同之处,是过去一年里一直在大模型之上构建真实应用程序,而不只是炫酷的 Demo 演示,他们认为:现在正是非机器学习工程师或科学家,也能把 AI 构建到产品中的时候。在他们的一系列分享中,网友热议的亮
欧盟数据保护委员会:ChatGPT 的“数据准确性”仍未达标
据路透社报道,欧盟数据保护委员会的一个特别工作组近期表示,尽管 OpenAI 在减少 ChatGPT 输出信息的错误率上做出了一定努力,但它仍然不足以确保“完全符合”欧盟的数据规则。当地时间周五,该工作组发布了一份报告并指出,“为了遵守透明度的原则,OpenAI 采取了一些措施,也有利于避免 ChatGPT 输出错误信息,但这些措施仍然不足以遵守数据准确性的原则。”图源 PexelsIT之家注:以意大利政府为首的国家监管机构此前对广泛使用的 AI 服务提出了担忧,欧盟数据保护委员会随后成立了“ChatGPT 特别工
AI 在用 | 有了这个超级提示和Claude 3,不听播客也能搞定节目内容
机器之能报道编辑:Cardinal以大模型、AIGC为代表的人工智能浪潮已经在悄然改变着我们生活及工作方式,但绝大部分人依然不知道该如何使用。 因此,我们推出了「AI在用」专栏,通过直观、有趣且简洁的人工智能使用案例,来具体介绍AI使用方法,并激发大家思考。 我们也欢迎读者投稿亲自实践的创新型用例。不用听完冗长的播客就能迅速掌握节目内容?X 用户 @genie0309 利用 Claude 3 Opus 做到了这一点。这位用户是一位连续创业者、投资人,平时重度依靠播客获取深度信息,然而优质播客节目时长至少 45 分
谷歌推出 Cappy “打分”框架,可评估 AI 准确性“教模型更聪明”
据谷歌官方新闻稿,谷歌近日推出了一项名为 Cappy 的模型打分框架,该框架以 RoBERTa 语言模型为基础,主要用于检测模型输出的内容,并为相关内容打分,之后相关分数将会作为参考基准让模型学习,从而让模型更聪明。▲ 图源 谷歌官方新闻稿(下同)此外,Cappy 框架也可以作为大语言模型的“候选机制”,该框架可以内置在模型中,并对模型预输出的内容生成分数,并选择分数最高的回应作为最终输出,以提高大语言模型输出内容的正确性。研究人员提到,相对于业界其他方案,Cappy 框架的 RAM 用量更低,这是由于相关框架无需
大模型时代还不理解自注意力?这篇文章教你从头写代码实现
自注意力是 LLM 的一大核心组件。对大模型及相关应用开发者来说,理解自注意力非常重要。近日,Ahead of AI 杂志运营者、机器学习和 AI 研究者 Sebastian Raschka 发布了一篇文章,介绍并用代码从头实现了 LLM 中的自注意力、多头注意力、交叉注意力和因果注意力。太长不看版这篇文章将介绍 Transformer 架构以及 GPT-4 和 Llama 等大型语言模型(LLM)中使用的自注意力机制。自注意力等相关机制是 LLM 的核心组件,因此如果想要理解 LLM,就需要理解它们。不仅如此,这
「Hello World」中的「bug」
Hello World 可能是许多人编写的第一个程序。这么简单的程序按理说应该没有 bug 吧?一位叫「sunfishcode」的开发者给出了令人意外的结论。
- 1