MEAD简介
MEAD数据集是一个专注于情感谈话头部视频的大规模、高质量视听数据集。它包含了带有情绪类别和强度注释的高质量谈话头部视频,这些视频展示了60名演员在3个不同强度等级下与8种不同情绪的人进行对话。MEAD被介绍为“A Large-scale Audio-visual Dataset for Emotional Talking-face Generation”,由Loy在其论文中首次提出。这个数据集与以前的数据集不同,它侧重于自然情感语音的面部生成,并考虑了多种情绪状态。
MEAD数据集的特点包括丰富的情感数据、多样化的说话者和多个视角。它不仅满足相同内容不同情绪的需求,还采用时间对齐算法来对齐长度不均匀的语音,以适应不同情绪下的语音速率差异。此外,MEAD数据集支持音频驱动多样化且逼真的面部动画人脸生成,这对于研究人员来说是一个重要的资源。
总的来说,MEAD数据集提供了一个独特的平台,用于探索和开发能够理解和生成自然情感面部表情的技术,特别是在情感谈话头部视频生成方面。通过收集和分析高质量的情感对话视频,MEAD数据集促进了相关领域的研究进展,并为未来的应用奠定了基础。