AI在线 AI在线

OpenAI 向部分付费订阅用户开放 GPT-4o 语音模式,可提供更自然实时对话

作者:清源
2024-07-31 06:54
当地时间 30 日,OpenAI 宣布即日起向部分 ChatGPT Plus 用户开放 GPT-4o 的语音模式(AI在线注:Alpha 版本),并将于今年秋季逐步推广至所有 ChatGPT Plus 订阅用户。今年 5 月,OpenAI 首席技术官米拉・穆拉蒂(Mira Murati)在演讲中提到:在 GPT-4o 中,我们训练了跨文本、视觉和音频的端到端全新统一模型,这意味着所有输入和输出都由同一个神经网络处理。由于 GPT-4o 是我们第一个结合所有这些模式的模型,因此我们在探索该模型的功能及其局限性方面仍处

当地时间 30 日,OpenAI 宣布即日起向部分 ChatGPT Plus 用户开放 GPT-4o 的语音模式(AI在线注:Alpha 版本),并将于今年秋季逐步推广至所有 ChatGPT Plus 订阅用户。

OpenAI 向部分付费订阅用户开放 GPT-4o 语音模式,可提供更自然实时对话

今年 5 月,OpenAI 首席技术官米拉・穆拉蒂(Mira Murati)在演讲中提到:

在 GPT-4o 中,我们训练了跨文本、视觉和音频的端到端全新统一模型,这意味着所有输入和输出都由同一个神经网络处理。

由于 GPT-4o 是我们第一个结合所有这些模式的模型,因此我们在探索该模型的功能及其局限性方面仍处于起步阶段。

OpenAI 公司原计划今年 6 月底邀请一小部分 ChatGPT Plus 用户测试 GPT-4o 语音模式,但官方在 6 月宣布推迟,表示需要更多时间打磨该模型,提高该模型检测和拒绝某些内容的能力。

根据此前曝光的信息,GPT-3.5 模型的平均语音反馈延迟为 2.8 秒,而 GPT-4 模型的延迟为 5.4 秒,因此在语音交流方面不太优秀,而即将推出的 GPT-4o 可以极大地缩短延迟时间,近乎无缝对话

GPT-4o 语音模式具有快速反应声音堪比真人等特征,OpenAI 更称 GPT-4o 语音模式可以感知语音中的情感语调,包括悲伤、兴奋或歌唱。

OpenAI 发言人林赛・麦卡勒姆(Lindsay McCallum)表示:“ChatGPT 不能假冒他人的声音,包括个人和公众人物的声音,并且会阻止与预设声音不同的输出。”

相关标签:

相关资讯

OpenAI推全新语音转录模型gpt-4o-transcribe,语音转文字准确率飙升

继此前在语音 AI 领域引发一些关注后,OpenAI并未停下在该领域探索的脚步,现在这家ChatGPT的创造者再次发力,推出了三款全新的自主研发语音模型,分别为:gpt-4o-transcribe, gpt-4o-mini-transcribe and gpt-4o-mini-tts。 其中最受瞩目的当属gpt-4o-transcribe。 目前,这些新模型已经率先通过应用程序接口(API)向第三方开发者开放,开发者们可以利用它们打造更智能的应用程序。
3/21/2025 9:01:00 AM
AI在线

行业沸腾!GPT-4o动动嘴秒出设计作品!Adobe真的顶得住?

这两天大家都被 OpenAI 的 GPT-4o 刷屏了吧。 这款更新后的多模态 AI 模型,直接把“开口就出图”变成了现实。 你只需要动动嘴皮子,说出想法,专业级别的设计作品就能跃然屏幕。
4/1/2025 12:33:10 AM
彭彭

GPT-4o深度体验10大场景!可能ComfyUI工作流真不用学了

上周我介绍了 gemini 生图模型,我觉得已经算是实用性很强了,但紧接着 Open AI 就卷起来了,也更新了一波图像生成模型,然后迅速在全网刷屏。 那它的效果到底好不好用呢? 是不是被吹的很厉害?
4/3/2025 5:39:24 AM
彩云Sky