亚马逊语音专家揭秘Alexa耳语模式的AI基础

上周,亚马逊在美国西雅图举行的发布会上一口气推出了十余款Alexa设备,大部分设备主要由Alexa语音平台驱动。其中部分设备将增添“耳语模式”功能,使Alexa设备用耳语来回应用户的低声说话。日前,亚马逊Alexa语音系统小组的一位专家Zeynab Raeesy在其博文中揭秘了这一功能的AI基础。

Raeesy在博文中介绍:“如果你在一个有小孩睡觉的房间,当有人走进来时,你会马上低声说话,提醒进来的人你希望房间内能保持安静,而进来的人意识到这一点之后,很可能也会压低声音讲话。”

Raeesy指出,Alexa的耳语模式令人难以理解的地方在于它是清音的,也就是说,它不涉及声带振动,往往比普通的语音在低频段具有更少的能量。她与小组的同事研究了两种能区分正常语音和耳语音的神经网络。

两种神经网络主要在结构上有所区别,一个是MLP(多层感知器),另一个是能进行时间递归的LSTM(长短期记忆)网络,这两者用来做训练的数据是一样的,这些数据包括(1)对数滤波器组能量,或者是用来记录不同频率范围信号能量的语音信号表示;(2)能区别耳语音与正常语音之间信号差异的一组特征。

在测试中,他们发现LSTM的表现结果比MLP更好,具备许多优势。Raeesy解释道,Alexa语音识别引擎的其他组件完全依赖对数滤波器组能量,并给不同的组件提供相同的输入数据,进而使整个系统更加紧凑。

Alexa耳语模式的开发并非一帆风顺,至少在最初阶段是这样的。由于Alexa是通过短时间的沉默(一种被称为“结束指向”的技术)来识别指令的结束或者进行回复,LSTM往往在话语即将结束时降低置信度。为解决这个问题,研究人员将LSTM的输出校准成整个话语的平均值,最终,降低最后1.25秒的语音数据成为维持“耳语模式”性能的关键。

美式英语的耳语模式功能将在今年11月份推出,对耳语模式具体工作原理的介绍将以论文的形式在12月份的IEEE语音技术研讨会上发表。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。