File size: 1,417 Bytes
2e9df2e
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
---
language: zh
tags:
  - audio-to-video
  - talking-head
  - emotion-driven
  - motion-generation
  - pytorch
license: apache-2.0
datasets:
  - MEAD
model-index:
  - name: ADEF
    results: []
---

# ADEF: 音频驱动的情感融合说话视频生成的研究

ADEF(Audio-Driven Emotion-Fused)是一种音频驱动的说话人视频生成框架,能够将输入音频转换为具有情感表达的说话人视频。该模型由多个子模块组成,包括音频到情感(audio2emo)、情感分类器(emo_classifier)、情感增强器(emo_enhancer)、动作生成器(motion_generator)和动作模板(motion_template)。

## 📁 模型结构

仓库包含以下子模块及其对应的预训练权重:

- `audio2emo/audio2emo.pth`:音频的情感分析模型。
- `emo_classifier/emo_level_classifier.pth`:对情感及其强度进行分类,用作情感-等级损失。
- `emo_enhancer/emo_enhancer.pth`:情感增强模块。
- `motion_generator/emo_dit_100000.pt`:音频驱动-情感融合的运动生成器。
- `motion_template/motion_template.pkl`:提供动作模板以指导生成过程。

## 🚀 使用方法

1. 克隆仓库并安装依赖项。
2. 参考https://github.com/ZhouXsh/ADEF

## 📄 许可证

本项目采用 Apache 2.0 许可证。

## 📬 联系方式

如有问题或建议,请联系仓库维护者 [ZhouXSh](https://huggingface.co/ZhouXSh)。