智谱开源 GLM-PC 基座模型 CogAgent-9B,让 AI 智能体“看懂”屏幕

智谱技术团队公众号昨日(12 月 26 日)发布博文,宣布开源 GLM-PC 的基座模型 CogAgent-9B-20241220,基于 GLM-4V-9B 训练,专用于 Agent 任务。

智谱技术团队公众号昨日(12 月 26 日)发布博文,宣布开源 GLM-PC 的基座模型 CogAgent-9B-20241220,基于 GLM-4V-9B 训练,专用于智能体(Agent)任务。

AI在线注:该模型仅需屏幕截图作为输入(无需 HTML 等文本表征),便能根据用户指定的任意任务,结合历史操作,预测下一步的 GUI 操作。

得益于屏幕截图和 GUI 操作的普适性,CogAgent 可广泛应用于各类基于 GUI 交互的场景,如个人电脑、手机、车机设备等。

智谱开源 GLM-PC 基座模型 CogAgent-9B,让 AI 智能体“看懂”屏幕

相较于 2023 年 12 月开源的第一版 CogAgent 模型,CogAgent-9B-20241220 在 GUI 感知、推理预测准确性、动作空间完善性、任务普适性和泛化性等方面均实现了显著提升,并支持中英文双语的屏幕截图和语言交互。

CogAgent 的输入仅包含三部分:用户的自然语言指令、已执行历史动作记录和 GUI 截图,无需任何文本形式表征的布局信息或附加元素标签(set of marks)信息。

智谱开源 GLM-PC 基座模型 CogAgent-9B,让 AI 智能体“看懂”屏幕

其输出涵盖以下四个方面:

  • 思考过程(Status & Plan): CogAgent 显式输出理解 GUI 截图和决定下一步操作的思考过程,包括状态(Status)和计划(Plan)两部分,输出内容可通过参数控制。

  • 下一步动作的自然语言描述(Action):自然语言形式的动作描述将被加入历史操作记录,便于模型理解已执行的动作步骤。

  • 下一步动作的结构化描述(Grounded Operation): CogAgent 以类似函数调用的形式,结构化地描述下一步操作及其参数,便于端侧应用解析并执行模型输出。其动作空间包含 GUI 操作(基础动作,如左键单击、文本输入等)和拟人行为(高级动作,如应用启动、调用语言模型等)两类。

  • 下一步动作的敏感性判断:动作分为“一般操作”和“敏感操作”两类,后者指可能带来难以挽回后果的动作,例如在“发送邮件”任务中点击“发送”按钮。

CogAgent-9B-20241220 在 Screenspot、OmniAct、CogAgentBench-basic-cn 和 OSWorld 等数据集上进行了测试,并与 GPT-4o-20240806、Claude-3.5-Sonnet、Qwen2-VL、ShowUI、SeeClick 等模型进行了比较。

智谱开源 GLM-PC 基座模型 CogAgent-9B,让 AI 智能体“看懂”屏幕

结果显示,CogAgent 在多个数据集上取得了领先的结果,证明了其在 GUI Agent 领域强大的性能。

相关资讯

AI现场发了2万红包,打开了大模型Act时代

我们需要的是「真正解放双手的智能体」。 最近一段时间,大模型领域正在经历智能体(AI Agent)引发的革命。 Anthropic 推出的升级版 Claude 3.5 Sonnet,一经推出即引爆了 AI 圈。

GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会

大语言模型(Large Language Models)的发展势头愈发猛烈,各大公司国际角逐的背后,也需要一同应对公平、安全以及隐私等方面的问题。

智谱 AI 完成新一轮融资:北京市人工智能产业投资基金参投,具体金额不便透露

感谢据腾讯科技今日报道,“清华系”大模型公司智谱 AI 据悉已于今年年初完成新一轮融资,北京市人工智能产业投资基金参与融资。对此,智谱 AI 表示本次“不方便透露”具体投资金额,但智谱 AI 是该基金成立以来投资的第一家人工智能大模型公司。智谱 AI 表示,本次融资将持续用于基座大模型的进一步研发,与各家产业龙头企业合作,一同在千行百业打造蓬勃繁荣的大模型生态,共同赋能落实市政府产业战略,助力北京国际科技创新中心建设,加速迈向通用人工智能的时代。而在去年 10 月,智谱 AI 就已宣布完成超 25 亿元融资,该公司