AI读懂说话人情绪,语音情感识别数据等你Pick!

近日,小米推出了全面支持情感化语音交互的小米小爱音箱Art,小米也成为业内首家情感化TTS大规模落地的企业。

基于开心、关心、害羞等有限但类型不同的情感音频数据,通过不同技术训练并迭代声学模型,这款音箱支持情感TTS合成,并实现了“小爱同学”的音感化、拟人化。

支持情感化语音交互的小米小爱音箱Art

随着人工智能技术的发展,在实现人机对话的基础上,各大AI企业都在情感化语音交互的领域积极展开探索。

例如在智能客服领域,当用户的问题无法解决或者问题表述不清时,智能客服很有可能无法识别用户的情绪、进行进一步操作,从而引发用户的不满和投诉。

针对这一情况,日本NTT研究所研发出一款客服电话情感识别系统,对用户的电话语音进行收集处理,如果未检测到用户愤怒的情感,则继续当前的语音服务;如果检测到愤怒的情感,则转为人工服务进行业务处理。

AI企业积极在情感化语音交互领域进行探索

语音情感识别通常指机器从语音中自动识别人类情感和情感相关状态的过程。通过分析说话人情绪使机器进行拟人化的互动,识别说话人的情感成为语音技术发力的一个新热点。

语音情感识别包括两种,NTT推出的客服电话情感识别系统属于只通过声音来分析情感。这一情感语音识别模型的落地应用离不开训练数据的支撑。

数据堂深耕于AI数据领域近十年,一直致力于为全球人工智能企业提供专业的数据服务,行业内高标准的语音情感识别训练数据《20人英文情感语音麦克风采集数据》和《30部电影语音视频标注数据》广受重视和好评。

20人英文情感语音麦克风采集数据

该数据由20名美国母语人员参与录制,录音文本覆盖愤怒、高兴、悲伤等10种情感,录音均采用高保真麦克风录制,每人约录制2100句,是适用于情感语音分析检测的高质量训练数据集。

30部电影语音视频标注数据

电影语音视频标注数据样例

该数据采集30 部电影,每部电影均按字幕开始时间和结束时间对每句进行切割,每句话均分为音频和视频两个部分。

数据标注内容含台词、基础情感、时间轴、角色名称,有生气、高兴、悲伤、惊讶、中性五种基础情感,数据可用于语音识别、情感语音分析等。

语音情感识别的另外一种模型就是结合声音和图像的多模态情感分析。

机器人Pepper就是应用多模态情感分析的典型案例。

Pepper是由日本软银集团和法国Aldebaran Robotics研发的一款人形机器人,可综合考虑周围环境,积极主动地作出反应。

Pepper配备了语音识别技术以及分析表情和声调的情绪识别技术,经过定制化开发,可通过表情、动作、语音与人类交流、反馈,甚至能够跳舞、开玩笑。

如今在商业领域,全球超过2000家企业应用了Pepper,服务于零售、金融、健康护理等众多行业。

结合声音和图像多模态情感分析的机器人Pepper

麻省理工学院媒体实验室分拆公司Affectiva通过语音和面部数据打造了情感档案,其神经网络SoundNet可以在短短1.2秒内识别出音频数据中的愤怒情绪。

除了愤怒,人的情感从大类上可分为高兴、悲伤、失望、惊讶等面部情感,从内心情感上还可细分为:尴尬、犹豫、赞同、羡慕等。这些情感可以用VAD方法进行量化打分。

所谓VAD,是指Valence、Arousal、Dominance三个衡量维度。

· Valence(效价),指达到目标对于满足个人需要的价值,同一个目标对每一个人可能有三种效价:正、零、负。

· Arousal(积极程度),即精神+身体共同体现出的积极程度,如充满活力或死气沉沉。

· Dominance(优势度),表示个体对情景和他人的控制状态,如愤怒就属于优势度高的情感,而恐惧属于优势度低的情感。

针对多模态情感分析和情感的衡量,数据堂还推出了《1,003人情感视频数据》和《17人情感视频语音标注数据》。

1,003人情感视频数据

情感视频数据样例

该数据是结合声音和图像的多模态情感分析数据,包括高兴、悲伤、失望、惊讶等11种面部情感和尴尬、犹豫、赞同、羡慕等15种内心情感,是一套高质量的多模态情感分析训练数据。

17人情感视频语音标注数据

情感视频语音标注数据样例

该数据共计16小时,是一套多模态(结合声音和图像)情感分析的数据。

视频音频均在安静室内环境采集,对视频的情感进行标注,并对视频中被采集者阅读的内容进行撰写。运用该数据可对情感使用VAD量化打分,能够更深刻情感理解。

数据堂一直致力于开发个性化的机器训练数据,并将数据和服务落地到AI产品和业务,为人们带去更好的产品体验,让每个人都能享受人工智能带来的美好生活。

猜你喜欢

转载自blog.csdn.net/weixin_44532659/article/details/118187306