感谢腾讯宣布旗下的混元文生图大模型降级并对外开源,目前已经在 Hugging Face 及 Github 上发布,包含模型权重、推理代码、模型算法等完整模型,可供企业与个人开发者免费商用。
▲ 混元文生图效果
▲ 混元长文生图效果
降级后的混元文生图大模型采用了与 Sora 一致的 DiT 架构,腾讯表示,混元 DiT 是首个中英双语 DiT 架构。混元 DiT 是一个基于 Diffusion transformer 的文本到图象生成模型,此模型具有中英文细粒度理解能力,混元 DiT 能够与用户进行多轮对话,根据上下文生成并完善图象。这也是业内首个中文原生的 DiT 架构文生图开源模型,支持中英文双语输入及理解,参数量 15 亿。
运转该模型需要支持 CUDA 的英伟达 GPU,单独运转混元 DiT 所需的最低显存为 11GB,同时运转 DialogGen(腾讯推出的文本转图象多模态交互式对话系统)和混元 DiT 则至少需要 32GB 的显存,腾讯表示他们已经在 Linux 上测试了英伟达的 V100 和 A100 GPU。
▲ 配置要求
据IT之家此前报道,国内首个官方“大模型标准符合性评测”结果公布,腾讯混元大模型、成为首批通过评测的国产大模型,首批通过的大模型还有阿里通义千问、360 智脑和百度文心一言。