可以试试这个开源项目:live speech portraits real-time photo realistic talking-head animation(现场演讲肖像:实时逼真的谈话头像动画)。
该系统仅由超过 30 fps 的音频信号驱动,生成个性化的、逼真的说话头动画。我们的系统包含三个阶段。第一阶段是深度神经网络,提取深度音频特征以及流形投影,将特征投影到目标人的语音空间。在第二阶段,我们从投影的音频特征中学习面部动态和动作。预测的运动包括头部姿势和上身运动,其中前者由自回归概率模型生成,该模型模拟目标人物的头部姿势分布。上半身运动是从头部姿势推断出来的。在最后阶段,我们根据之前的预测生成条件特征图,并将它们与候选图像集一起发送到图像到图像的转换网络,以合成逼真的渲染。我们的方法可以很好地泛化到野外音频并成功合成高保真个性化面部细节,例如皱纹、牙齿。我们的方法还允许明确控制头部姿势。广泛的定性和定量评估以及用户研究证明了我们的方法优于最先进技术。
github地址:https://github.com/YuanxunLu/LiveSpeechPortraits
在线运行示例:点击打开链接
网友回复
阿里云ESA、cloudflare worker、腾讯云EdgeOne网站代理托管哪家更好?
剪映能打开.fcpxml格式的文件吗?
增量式编码器与绝对式编码器的区别是啥?
有没有开源的单张照片或者序列帧图片或视频就能重建4d场景动画项目?
chrome网页突然报错:错误代码:RESULT_CODE_KILLED_BAD_MESSAGE
openai的codex如何全程无需手动确认自动修改文件?
阿里云oss前端上传文件直传如何限制文件类型?
阿里云oss前端获取policy签名直传oss上传文件回调如何传?
如何将根据三维物体通过提示词变成可交互的4d场景动画?
浏览器中实时摄像头离线视觉ai模型有吗?


