Dataset Viewer
Auto-converted to Parquet Duplicate
The dataset viewer is not available for this split.
Cannot load the dataset split (in streaming mode) to extract the first rows.
Error code:   StreamingRowsError
Exception:    CastError
Message:      Couldn't cast
wav: binary
__key__: string
__url__: string
tar: null
to
{'tar': Value('binary'), '__key__': Value('string'), '__url__': Value('string')}
because column names don't match
Traceback:    Traceback (most recent call last):
                File "/src/services/worker/src/worker/utils.py", line 99, in get_rows_or_raise
                  return get_rows(
                File "/src/libs/libcommon/src/libcommon/utils.py", line 272, in decorator
                  return func(*args, **kwargs)
                File "/src/services/worker/src/worker/utils.py", line 77, in get_rows
                  rows_plus_one = list(itertools.islice(ds, rows_max_number + 1))
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/iterable_dataset.py", line 2361, in __iter__
                  for key, example in ex_iterable:
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/iterable_dataset.py", line 1882, in __iter__
                  for key, pa_table in self._iter_arrow():
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/iterable_dataset.py", line 1914, in _iter_arrow
                  pa_table = cast_table_to_features(pa_table, self.features)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/table.py", line 2192, in cast_table_to_features
                  raise CastError(
              datasets.table.CastError: Couldn't cast
              wav: binary
              __key__: string
              __url__: string
              tar: null
              to
              {'tar': Value('binary'), '__key__': Value('string'), '__url__': Value('string')}
              because column names don't match

Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.

YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/datasets-cards)

MelTrim 数据集

欢迎来到 MelTrim 数据集!该存储库托管了用于训练和评估 MelTrim 模型的数据集,其中包含了多个知名的情感和多模态对话数据集。

简介

MelTrim 是一个专注于情感识别和多模态情感分析的模型。为了让模型能够更好地理解和处理复杂的人类情感,我们整合了以下三个高质量的数据集:

  • MEAD (Multi-view Emotional Audio-visual Dataset)
  • MELD (Multimodal EmotionLines Dataset)
  • M3ED (Multi-modal Multi-scene Multi-label Emotional Dialogue Database)

这些数据集提供了丰富的音频、视频和文本信息,涵盖了多种情感、场景和语言,为训练强大的多模态情感模型奠定了坚实的基础。


数据集详情

MEAD (Multi-view Emotional Audio-visual Dataset)

MEAD 是一个大规模的、用于情感化人脸视频生成的多视角视听数据集。

  • 内容: 该数据集包含 60 位演员在三种不同强度水平下,用八种不同情绪进行表达的视频。
  • 视角: 视频在严格控制的环境下,从七个不同的视角同时录制,以提供高质量的面部表情细节。
  • 规模: 每位演员和每个视角都录制了约 40 小时的视听片段。
  • 情感: 数据集涵盖了八种核心情感,为情感生成和识别研究提供了丰富的样本。
  • 应用: MEAD 数据集非常适合用于条件生成、跨模态理解和表情识别等研究领域。

MELD (Multimodal EmotionLines Dataset)

MELD 是一个多模态、多方对话的情感识别数据集,通过对 EmotionLines 数据集的增强和扩展而来。

  • 来源: 数据来源于经典美剧《老友记》(Friends),包含了超过 1400 个对话和 13000 个话语。
  • 多模态: 每个话语都包含音频、视频和文本三种模态的信息。
  • 情感标注: 每个话语都被标注了七种情感之一:愤怒、厌恶、悲伤、喜悦、中性、惊讶和恐惧。
  • 情感倾向: 同时,MELD 也为每个话语提供了情感倾向(正面、负面和中性)的标注。

M3ED (Multi-modal Multi-scene Multi-label Emotional Dialogue Database)

M3ED 是首个中文多模态情感对话数据集,为跨文化情感分析和识别提供了宝贵的资源。

  • 内容: 该数据集包含了来自 56 部不同电视剧的 990 个双人情感对话,共计 9,082 轮次和 24,449 个话语。
  • 多模态: 与 MELD 类似,M3ED 同样包含声学、视觉和文本三种模态。
  • 情感标注: 话语级别上标注了七种情感类别:快乐、惊讶、悲伤、厌恶、愤怒、恐惧和中性。
  • 价值: 作为首个中文多模态情感对话数据集,M3ED 对于促进跨文化情感计算研究具有重要意义。

使用说明

每个数据集都存放在各自的文件夹中。您可以根据需要加载和使用这些数据来训练或评估您的模型。建议在使用前仔细阅读每个数据集的原始论文,以了解其详细信息和使用规范。

许可证

本数据集合集中的每个数据集都遵循其原始的许可证规定。在使用任何特定数据集之前,请务必查阅并遵守其原始的许可协议。

如何引用

如果您在您的研究中使用了这些数据集,请务必引用其原始出处:

  • MEAD:

    Kaisiyuan Wang, Qianyi Wu, Linsen Song, Zhuoqian Yang, Wayne Wu, Chen Qian, Ran He, Yu Qiao, Chen Change Loy. "MEAD: A Large-scale Audio-visual Dataset for Emotional Talking-face Generation." ECCV 2020.

  • MELD:

    S. Poria, D. Hazarika, N. Majumder, G. Naik, E. Cambria, R. Mihalcea. "MELD: A Multimodal Multi-Party Dataset for Emotion Recognition in Conversation." ACL 2019.

  • M3ED:

    Jia-Chen Li, et al. "M3ED: A Multi-modal Multi-scene Multi-label Emotional Dialogue Database." ACL 2021.

Downloads last month
3