智谱清言上线情感语音模型 GLM-4-Voice:可理解情感,有情绪表达和共鸣

智谱今天宣布上线 GLM-4-Voice 端到端情感语音模型。 官方表示,其能够理解情感,有情绪表达、情感共鸣,可自助调节语速,支持多语言和方言,并且延时更低、可随时打断,用户即日起可在“智谱清言”App 上体验。 据介绍,GLM-4-Voice 具备如下特点:情感表达和情感共鸣:声音有不同的情感和细腻的变化,如高兴、悲伤、生气、害怕等。

智谱今天宣布上线 GLM-4-Voice 端到端情感语音模型。官方表示,其能够理解情感,有情绪表达、情感共鸣,可自助调节语速,支持多语言和方言,并且延时更低、可随时打断,用户即日起可在“智谱清言”App 上体验。

据介绍,GLM-4-Voice 具备如下特点:

  • 情感表达和情感共鸣:声音有不同的情感和细腻的变化,如高兴、悲伤、生气、害怕等。

  • 调节语速:在同一轮对话中,可以要求 TA 快点说 or 慢点说。

  • 随时打断,灵活输入指令:根据实时的用户指令,调整语音输出的内容和风格,支持更灵活的对话互动。

  • 多语言、多方言支持:目前 GLM-4-Voice 支持中英文语音以及中国各地方言,尤其擅长粤语、重庆话、北京话等。

  • 结合视频通话,能看也能说:即将上线视频通话功能。

此外,智谱 AutoGLM 具备 phone use 能力,只需接收简单的文字 / 语音指令,它就可以模拟人类操作手机。其不受限于简单的任务场景或 API 调用,也不需要用户手动搭建复杂繁琐的工作流,操作逻辑与人类类似。

GLM-4-Voice 同期对外开源,官方称其为智谱首个开源的端到端多模态模型。AI在线附地址:

代码仓库:

  • https://github.com/THUDM/GLM-4-Voice

相关资讯

最接近GPT-4的国产大模型诞生了

2024 年,国产大模型的第一个重磅消息,来自智谱 AI。在 1 月 16 日举办的 2024 智谱 AI 技术开放日 Zhipu DevDay 上,智谱 AI 正式发布新一代基座大模型「GLM-4」。经历了三个月的技术迭代,GLM-4 相比上一代基座模型 GLM-3 实现了 60% 的性能全面提升,直接逼近 GPT-4。一方面,GLM-4 支持更长的上下文、更强的多模态能力;另一方面,GLM-4 支持更快的推理、更多并发,大大降低了推理成本。同时,GLM-4 也增强了智能体能力,智谱 AI 正式上线了「GLM-4

刚刚,我们感受了一波最「像人」的国产AI,模型还是开源的

今年 5 月,OpenAI 首次展示了 GPT-4o 的语音功能,无论是对话的响应速度还是与真人声音的相似度,都颇为惊艳。 特别是它允许用户随时打断,充分感知到用户的情绪并给予回应。 大家突然发现,原来 AI 语音通话还能这么玩?

智谱 AI 宣布全模型矩阵降价:GLM-4-Flash 模型降至 0.06 元 / 百万 Tokens

在今天举行的智谱 AI Open Day 上,智谱 AI 宣布全模型矩阵降价。IT之家附降价情况如下:GLM-4-Air、GLM-3-Turbo 现价 0.6 元 / 百万 TokensEmbedding-2 现价 0.3 元 / 百万 TokensGLM-4-Flash 现价 0.06 元 / 百万 Tokens在今天的活动中,智谱还宣布开源 GLM-4-9B 系列模型,其包含基座模型、视觉模型,以及不同上下文长度的 Chat 模型。GLM-4-9B-Chat 可提供多轮对话、网页浏览、代码执行、自定义工具调用等