The Interactive Emotional Dyadic Motion Capture (IEMOCAP)
#评测指标-WAR UAR
适配方法:
线性分类器(Linear Classifier),上游模型输出的特征先经过全局平均池化层进行特征提取,再输入包含一层线性全连接层的线性分类器中。线性分类器输入维度与特征向量的维度相等,输出维度与类别数相等。
数据描述:
交互式情感动态捕捉(IEMOCAP)数据库是一个有表演的、多模态的和多说话者的情感数据库。它包含了大约12小时的视听数据,包括视频、语音、面部动作捕捉、文本转录。它包括演员进行即兴表演或脚本情景的对谈会话。
数据集构成和规范:
源数据量:
数据集分成中立(1708),生气(1103),伤心(1084),高兴(595),兴奋(1041),害怕(40),惊讶(107),沮丧(1849),其它(2507)
评测数据量:
评测数据为源数据集中的5531个实例(中立、生气、伤心、高兴),其中将兴奋类和高兴类的样本合并
源数据字段:
KEYS | EXPLAIN |
---|---|
id | 数据 id |
sentence | 说话内容 |
label | 情感标签 |
源数据集样例:
{
"id": Ses01F_impro01_F000,
"sentence": "Excuse me.",
"label": "neu"
}
论文引用:
@article{busso2008iemocap,
title={IEMOCAP: Interactive emotional dyadic motion capture database},
author={Busso, Carlos and Bulut, Murtaza and Lee, Chi-Chun and Kazemzadeh, Abe and Mower, Emily and Kim, Samuel and Chang, Jeannette N and Lee, Sungbok and Narayanan, Shrikanth S},
journal={Language resources and evaluation},
volume={42},
pages={335--359},
year={2008},
publisher={Springer}
}