LLaMA-Omni

仅用4块GPU、不到3天训练出「开源版GPT-4o」,这是国内团队最新研究

LLaMA-Omni能够接收语音指令,同步生成文本和语音响应,响应延迟低至 226ms,低于 GPT-4o 的平均音频响应延迟 320ms。以 ChatGPT 为代表的大型语言模型(LLM)已成为强大的通用任务解决器,但大多数 LLM 仅支持基于文本的交互,这限制了它们在不适合文本输入输出的场景中的应用。GPT-4o 的出现使得通过语音与 LLM 进行交互成为可能。然而,开源社区对于构建此类基于 LLM 的语音交互模型仍然缺乏探索。实现与 LLM 进行语音交互最简单的方法是采用基于自动语音识别(ASR)和语音合成(
  • 1