Skip to content

The Interactive Emotional Dyadic Motion Capture (IEMOCAP)

#评测指标-WAR UAR

适配方法:

线性分类器(Linear Classifier),上游模型输出的特征先经过全局平均池化层进行特征提取,再输入包含一层线性全连接层的线性分类器中。线性分类器输入维度与特征向量的维度相等,输出维度与类别数相等。

数据描述:

交互式情感动态捕捉(IEMOCAP)数据库是一个有表演的、多模态的和多说话者的情感数据库。它包含了大约12小时的视听数据,包括视频、语音、面部动作捕捉、文本转录。它包括演员进行即兴表演或脚本情景的对谈会话。

数据集构成和规范:

源数据量:

数据集分成中立(1708),生气(1103),伤心(1084),高兴(595),兴奋(1041),害怕(40),惊讶(107),沮丧(1849),其它(2507)

评测数据量:

评测数据为源数据集中的5531个实例(中立、生气、伤心、高兴),其中将兴奋类和高兴类的样本合并

源数据字段:

KEYSEXPLAIN
id数据 id
sentence说话内容
label情感标签

源数据集样例:

{
  "id": Ses01F_impro01_F000,
  "sentence": "Excuse me.",
  "label": "neu"
}

论文引用:

@article{busso2008iemocap,
  title={IEMOCAP: Interactive emotional dyadic motion capture database},
  author={Busso, Carlos and Bulut, Murtaza and Lee, Chi-Chun and Kazemzadeh, Abe and Mower, Emily and Kim, Samuel and Chang, Jeannette N and Lee, Sungbok and Narayanan, Shrikanth S},
  journal={Language resources and evaluation},
  volume={42},
  pages={335--359},
  year={2008},
  publisher={Springer}
}

源数据集版权使用说明:

IEMOCAP License