模型名称 | wav2lip |
---|---|
类别 | 图像 - 视频生成 |
网络 | Wav2Lip |
数据集 | LRS2 |
是否支持Fine-tuning | 否 |
模型大小 | 139MB |
最新更新日期 | 2021-12-14 |
数据指标 | - |
-
- Wav2Lip实现的是视频人物根据输入音频生成与语音同步的人物唇形,使得生成的视频人物口型与输入语音同步。Wav2Lip不仅可以基于静态图像来输出与目标语音匹配的唇形同步视频,还可以直接将动态的视频进行唇形转换,输出与目标语音匹配的视频。Wav2Lip实现唇形与语音精准同步突破的关键在于,它采用了唇形同步判别器,以强制生成器持续产生准确而逼真的唇部运动。此外,它通过在鉴别器中使用多个连续帧而不是单个帧,并使用视觉质量损失(而不仅仅是对比损失)来考虑时间相关性,从而改善了视觉质量。Wav2Lip适用于任何人脸、任何语言,对任意视频都能达到很高都准确率,可以无缝地与原始视频融合,还可以用于转换动画人脸。
-
- ffmpeg
- libsndfile
-
-
$ hub install wav2lip
- 如您安装时遇到问题,可参考:零基础windows安装 | 零基础Linux安装 | 零基础MacOS安装
-
-
-
# Read from a file $ hub run wav2lip --face "/PATH/TO/VIDEO or IMAGE" --audio "/PATH/TO/AUDIO"
- 通过命令行方式人物唇形生成模型的调用,更多请见 PaddleHub命令行指令
-
-
-
import paddlehub as hub module = hub.Module(name="wav2lip") face_input_path = "/PATH/TO/VIDEO or IMAGE" audio_input_path = "/PATH/TO/AUDIO" module.wav2lip_transfer(face=face_input_path, audio=audio_input_path, output_dir='./transfer_result/', use_gpu=True)
-
-
-
def wav2lip_transfer(face, audio, output_dir ='./output_result/', use_gpu=False, visualization=True):
-
人脸唇形生成API。
-
参数
- face (str): 视频或图像文件的路径
- audio (str): 音频文件的路径
- output_dir (str): 结果保存的路径;
- use_gpu (bool): 是否使用 GPU;
- visualization(bool): 是否保存结果到本地文件夹
- face (str): 视频或图像文件的路径
-
-
-
1.0.0
初始发布
-
$ hub install wav2lip==1.0.0
-