面部

可灵1.5模型新升级!行业首发人脸定制模型

出品 | 51CTO技术栈(微信号:blog51cto)近日,可灵1.5模型也迎来再次升级,支持在图生视频高品质模式下,使用多达六种运镜控制方式和运动笔刷功能。 最新数据显示,可灵AI用户已累计生成超5100万个视频和1.5亿张图片。 图片11月25日消息,快手可灵AI在全球上线业内首个视频模型定制功能,解决了AI视频生成中人物IP(知识产权)稳定性难题。

AI 赋能好莱坞:《此心安处》通过实时 AI 换脸技术让演员“逆生长”

索尼影业出品的《此心安处》(Here)上周末大规模公映,该片由罗伯特・泽米吉斯执导,耗资 5000 万美元(AI在线备注:当前约 3.55 亿元人民币)。 值得一提的是,该片利用了实时生成式 AI 面部变换技术,让汤姆・汉克斯和罗宾・怀特两位演员跨越了 60 年的年龄跨度,是好莱坞首部围绕人工智能视觉特效打造的长篇电影之一。 该片改编自 2014 年的同名漫画小说,主要场景设定在新泽西州的一个客厅,跨越多个时间段。

Meta 重启面部识别技术,打击“假名人”诈骗

据路透社报道,当地时间 22(今)日,在因隐私和监管压力于三年前关闭 Facebook 的面部识别功能后,Meta 目前宣布正在重新测试该服务,以打击“名人诱饵”诈骗。Meta 表示,将在试验中招募约 50000 名公众人物,自动将他们的 Facebook 头像与疑似诈骗广告中的图像进行比较。如果图像一致且 Meta 判断该广告是诈骗,将会阻止这些广告。

AI 根据声音内容帮照片“对口型”,蚂蚁集团开源 EchoMimic 项目

蚂蚁集团 10 日开源了名为 EchoMimic 的新项目,其能够通过人像面部特征和音频来帮人物“对口型”,结合面部标志点和音频内容生成较为稳定、自然的视频。该项目具备较高的稳定性和自然度,通过融合音频和面部标志点(面部关键特征和结构,通常位于眼、鼻、嘴等位置)的特征,可生成更符合真实面部运动和表情变化的视频。其支持单独使用音频或面部标志点生成肖像视频,也支持将音频和人像照片相结合做出“对口型”一般的效果。据悉,其支持多语言(包含中文普通话、英语)及多风格,也可应对唱歌等场景。 AI在线附相关链接:项目地址: G

AI 新研究可用手机检测中风:准确率达 82%,分析面部肌肉运动

来自皇家墨尔本大学(RMIT)生物医学工程师团和圣保罗州立大学的博士生 Guilherme Camargo de Oliveira 共同开发了一款基于 AI 的面部筛查工具,医护人员只需要借助智能手机,在几秒钟内就可以确定患者是否中风。▲ 博士生 Guilherme Camargo de Oliveira 与 RMIT 大学客座副教授 Nemuel Daniel Pah(画面中人物)展示了面部筛查工具该工具在检测中风方面的准确率达到了 82%,但不会取代中风的综合临床诊断测试,仅用于帮助更快地识别需要治疗的人。RM

微软推出 VASA-1 AI 框架,可即时生成 512x512 40FPS 逼真对口型人像视频

据微软官方新闻稿,微软今天公布了一项图生视频的 VASA-1 框架,该 AI 框架只需使用一张真人肖像照片和一段个人语音音频,就能够生成精确逼真的对口型视频(生成念稿子的视频),据称在表情和头部动作方面特别自然。IT之家获悉,目前业界相关许多研究都集中在对口型上,而面部动态行为及头部运动情况通常被忽视,因此生成的面部也会显得僵硬、缺乏说服力且存在恐怖谷现象。而微软的 VASA-1 框架克服了以往面部生成技术的限制,研究人员利用了扩散 Transformer 模型,在整体面部动态和头部运动方面进行训练,该模型将所有可

提前 0.9 秒预测,Emo 机器人问世:能同步模仿你的面部表情

名为 Emo 的仿人机器人近日问世,它会观察你的面部表情,然后可以镜像模仿你的面部表情,达到你笑它也笑的效果。人工智能(AI)目前快速发展,现在固然可以在很大程度上模仿人类语言,不过放在实体机器人中,互动往往会产生“恐怖谷理论”(Uncanny Valley),一个重要的原因是机器人无法复制复杂的非语言暗示和举止。纽约哥伦比亚大学的霍德・利普森(Hod Lipson)及其同事们创造了一个名为 Emo 的机器人,它利用人工智能模型和高分辨率摄像头预测人们的面部表情,并试图复制这些表情。它能在某人微笑前约 0.9 秒预
  • 1