turturtur250 commited on
Commit
9ccec28
·
1 Parent(s): dbb1c70
Files changed (1) hide show
  1. README.md +66 -1
README.md CHANGED
@@ -1,3 +1,68 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
- license: mit
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # MelTrim 数据集
2
+
3
+ 欢迎来到 MelTrim 数据集!该存储库托管了用于训练和评估 MelTrim 模型的数据集,其中包含了多个知名的情感和多模态对话数据集。
4
+
5
+ ## 简介
6
+
7
+ MelTrim 是一个专注于情感识别和多模态情感分析的模型。为了让模型能够更好地理解和处理复杂的人类情感,我们整合了以下三个高质量的数据集:
8
+
9
+ * **MEAD (Multi-view Emotional Audio-visual Dataset)**
10
+ * **MELD (Multimodal EmotionLines Dataset)**
11
+ * **M3ED (Multi-modal Multi-scene Multi-label Emotional Dialogue Database)**
12
+
13
+ 这些数据集提供了丰富的音频、视频和文本信息,涵盖了多种情感、场景和语言,为训练强大的多模态情感模型奠定了坚实的基础。
14
+
15
  ---
16
+
17
+ ## 数据集详情
18
+
19
+ ### MEAD (Multi-view Emotional Audio-visual Dataset)
20
+
21
+ MEAD 是一个大规模的、用于情感化人脸视频生成的多视角视听数据集。
22
+
23
+ * **内容**: 该数据集包含 60 位演员在三种不同强度水平下,用八种不同情绪进行表达的视频。
24
+ * **视角**: 视频在严格控制的环境下,从七个不同的视角同时录制,以提供高质量的面部表情细节。
25
+ * **规模**: 每位演员和每个视角都录制了约 40 小时的视听片段。
26
+ * **情感**: 数据集涵盖了八种核心情感,为情感生成和识别研究提供了丰富的样本。
27
+ * **应用**: MEAD 数据集非常适合用于条件生成、跨模态理解和表情识别等研究领域。
28
+
29
+ ### MELD (Multimodal EmotionLines Dataset)
30
+
31
+ MELD 是一个多模态、多方对话的情感识别数据集,通过对 EmotionLines 数据集的增强和扩展而来。
32
+
33
+ * **来源**: 数据来源于经典美剧《老友记》(Friends),包含了超过 1400 个对话和 13000 个话语。
34
+ * **多模态**: 每个话语都包含音频、视频和文本三种模态的信息。
35
+ * **情感标注**: 每个话语都被标注了七种情感之一:愤怒、厌恶、悲伤、喜悦、中性、惊讶和恐惧。
36
+ * **情感倾向**: 同时,MELD 也为每个话语提供了情感倾向(正面、负面和中性)的标注。
37
+
38
+ ### M3ED (Multi-modal Multi-scene Multi-label Emotional Dialogue Database)
39
+
40
+ M3ED 是首个中文多模态情感对话数据集,为跨文化情感分析和识别提供了宝贵的资源。
41
+
42
+ * **内容**: 该数据集包含了来自 56 部不同电视剧的 990 个双人情感对话,共计 9,082 轮次和 24,449 个话语。
43
+ * **多模态**: 与 MELD 类似,M3ED 同样包含声学、视觉和文本三种模态。
44
+ * **情感标注**: 话语级别上标注了七种情感类别:快乐、惊讶、悲伤、厌恶、愤怒、恐惧和中性。
45
+ * **价值**: 作为首个中文多模态情感对话数据集,M3ED 对于促进跨文化情感计算研究具有重要意义。
46
+
47
  ---
48
+
49
+ ## 使用说明
50
+
51
+ 每个数据集都存放在各自的文件夹中。您可以根据需要加载和使用这些数据来训练或评估您的模型。建议在使用前仔细阅读每个数据集的原始论文,以了解其详细信息和使用规范。
52
+
53
+ ## 许可证
54
+
55
+ 本数据集合集中的每个数据集都遵循其原始的许可证规定。在使用任何特定数据集之前,请务必查阅并遵守其原始的许可协议。
56
+
57
+ ## 如何引用
58
+
59
+ 如果您在您的研究中使用了这些数据集,请务必引用其原始出处:
60
+
61
+ * **MEAD**:
62
+ > Kaisiyuan Wang, Qianyi Wu, Linsen Song, Zhuoqian Yang, Wayne Wu, Chen Qian, Ran He, Yu Qiao, Chen Change Loy. "MEAD: A Large-scale Audio-visual Dataset for Emotional Talking-face Generation." ECCV 2020.
63
+
64
+ * **MELD**:
65
+ > S. Poria, D. Hazarika, N. Majumder, G. Naik, E. Cambria, R. Mihalcea. "MELD: A Multimodal Multi-Party Dataset for Emotion Recognition in Conversation." ACL 2019.
66
+
67
+ * **M3ED**:
68
+ > Jia-Chen Li, et al. "M3ED: A Multi-modal Multi-scene Multi-label Emotional Dialogue Database." ACL 2021.