MusePose
MusePose 是一种基于姿态引导的虚拟人视频生成框架。它属于腾讯音乐娱乐 Lyra 实验室的 Muse 开源系列的最后一个模块。通过与 MuseV 和 MuseTalk 的结合,MusePose 旨在实现一个具备全身运动和交互能力的端到端虚拟人生成愿景。在开发过程中,MusePose 参考了 AnimateAnyone 的学术论文和 Moore-AnimateAnyone 的代码库。
核心贡献
- MusePose 可以在给定姿态序列下,生成参考图像中人物角色的舞蹈视频,生成效果超过当前大部分开源模型。
- 该框架发布了一个姿态对齐算法,用户可以将任意舞蹈视频与任意参考图像对齐,大大提高了推理性能与模型可用性。
- 修复了多处重要的 BUG,并在 Moore-AnimateAnyone 的代码基础上进行了改进。
使用场景
- 虚拟主播:为虚拟主播生成具备真实感的动态视频,提升互动体验。
- 影视娱乐:在电影、电视和音乐视频中,生成虚拟角色的动态表演。
- 游戏开发:生成游戏中虚拟角色的动态动作,以增强游戏沉浸感。
- 广告营销:在广告中使用虚拟人进行宣传和展示,增加吸引力。
安装和使用
- 环境准备:推荐使用 Python 版本 >=3.10 和 CUDA 版本 11.7。
- 安装依赖:
pip install -r requirements.txt pip install --no-cache-dir -U openmim mim install mmengine mim install "mmcv>=2.0.1" mim install "mmdet>=3.1.0" mim install "mmpose>=1.1.0"
- 下载权重:将训练好的模型权重和其他组件的权重下载并放在
pretrained_weights
目录下。 - 准备用于生成的视频和图像:将参考图像和舞蹈视频保存在
./assets
文件夹下。 - 姿态对齐:运行
pose_align.py
将参考图像与舞蹈视频对齐。python pose_align.py --imgfn_refer ./assets/images/ref.png --vidfn ./assets/videos/dance.mp4
- 推理生成视频:运行
test_stage_2.py
,生成虚拟人视频。生成结果将保存在python test_stage_2.py --config ./configs/test_stage_2.yaml
./output/
目录下。
广告:私人定制视频文本提取,字幕翻译制作等,欢迎联系QQ:1752338621