浅谈智能音箱的基本工作原理和核心技术?
智能音箱主要是通过用户的语音指令实现交互操作,提供内容与服务的,智能音箱的工作原理是由内置的语音交互系统通过语音算法本地处理单元和音频解码单元,收集用户的语音并降噪,识别唤醒词,再将将语音信号转为数字信号,处理过后上传到云端服务器,云端服务器对其进行编码识别和语义理解,再将信息传递给智能音箱,智能音箱随后将数字信号通过音效单元还原为语音信号并播放出来。
一、那么,智能家居是如何运作的呢?下面,我们来了解一下智能家居的基本工作原理。首先,我们需要清楚智能家居运行的必要条件:家庭网关、智能设备、网络、控制中心。非必要条件:智能语音音箱(天猫精灵、小度等)。家庭网关(也叫主机):整套智能家居系统的核心设备(相当于大脑),它将所有的设备连接在一起,可随时随地对其进行控制,有了网关,各种智能设备可以进行逻辑联动,从而形成一个有机的整体。智能设备:例如智能开关面板、智能插座、万能遥控器等,用于改造家庭传统电器,将传统家电变为智能可控。网络(有线或WIFI):智能设备需配网后方可对其进行智能管控。控制中心:用户通过控制中心对智能家居进行集中管控,目前控制中心的形式主要是APP。如果用户再配置语音音箱的话,则可以通过下达指令给智能音箱来实现智能控制。
二、智能音箱的核心技术1、芯片技术芯片是智能设备的核心,目前为智能音箱提供芯片技术的主要有联发科、全志科技、瑞芯微、紫光展锐、高通、晶晨等厂商,除了主控芯片以外,还有数字功放芯片、音频 ADC 芯片、内存芯片、电源系统管理芯片、WIFI 蓝牙二合一芯片等。2、麦克风阵列技术该技术是是语音识别的硬件配套,主要解决远距离语音识别以及复杂声学环境下提取纯净声源同时抑制噪声的难题,当出现环境噪声、房间混响、人声叠加、模型噪声、阵列结构等问题时,麦克风阵列技术就会发挥作用,其发展主要呈现小型化、低成本化、智能化(识别多人语音)3、语音识别技术该技术已处于相对成熟阶段,普遍近场识别率能达到 90%以上,部分技术识别率能达 97%。4、语义识别技术智能音箱光能识别语音还不够,关键是要识别语义,能理解用户的意思才能提供更好的交互体验。语义识别技术发展的关键是数据量的收集与算法模型的构建,当收集到的数据量足够时,就能通过算法模型构建更复杂精确的建模,从而正确辨析语境和语义。目前该技术普遍存在误唤醒率高、连续对话功能不稳定、语义理解能力差等缺点,还存在很大的进步空间。5、内容推荐算法智能音箱的智能化还体现在能根据用户需求推荐内容,提高用户满意度。
人工智能科普|语音唤醒技术的原理是什么
姓名:张璐
学号:19021210845
转载自:https://www.toutiao.com/a6644766450860950024/
【嵌牛导读】 不少同学家里都有AI智能音箱产品,例如天猫精灵、小爱同学、小度等等。这些智能音箱不仅便捷了我们的日常生活,也因为他们或机智或逗比的回答,给用户带来了不少欢乐。
【嵌牛鼻子】AI智能音箱、语音唤醒
【嵌牛提问】语音唤醒技术的原理是什么?
【嵌牛正文】
“天猫精灵。”“哎,在的,你说”
“小爱同学,定明天早上8点的闹钟。”“好的,已经帮你定好明天早上8点的闹钟”
不少同学家里都有AI智能音箱产品,例如天猫精灵、小爱同学、小度等等。这些智能音箱不仅便捷了我们的日常生活,也因为他们或机智或逗比的回答,给用户带来了不少欢乐。
这些智能产品中的一项重要的AI能力,就叫做语音唤醒。
首先,设备开启并自动加载好资源,这时它处于休眠状态。然后,当用户说出特定的唤醒词时,设备就会被唤醒,切换到工作状态等待用户接下来的指令。
这一过程中用户不需要用手接触,直接可以用语音进行操作,同时利用语音唤醒的机制,设备不用实时地处于工作的状态,从而节省能耗。
语音唤醒的应用领域比较广泛,例如机器人、手机、可穿戴设备、智能家居、车载等。几乎很多带有语音功能的设备,都会需要语音唤醒技术作为人和机器互动的一个开始或入口。不同的产品会有不同的唤醒词,当用户需要唤醒设备时需要说出特定的唤醒词。
定义
语音唤醒在学术上被称为keywordspotting(简称KWS),吴老师给它做了一个定义:在连续语流中实时检测出说话人特定片段。
这里要注意,检测的“实时性”是一个关键点,语音唤醒的目的就是将设备从休眠状态激活至运行状态,所以唤醒词说出之后,能立刻被检测出来,用户的体验才会更好。
那么,该怎样评价语音唤醒的效果呢?通行的指标有四个方面,即唤醒率、误唤醒、响应时间和功耗水平:
➤唤醒率,指用户交互的成功率,专业术语为召回率,即recall。
➤误唤醒,用户未进行交互而设备被唤醒的概率,一般按天计算,如最多一天一次。
➤响应时间,指从用户说完唤醒词后,到设备给出反馈的时间差。
➤功耗水平,即唤醒系统的耗电情况。很多智能设备是通过电池供电,需要满足长时续航,对功耗水平就比较在意。
语音唤醒的技术路线
经过长时间的发展,语音唤醒的技术路线大致可归纳为三代,特点如下:
第一代:基于模板匹配的KWS
训练和测试的步骤比较简单,训练就是依据注册语音或者说模板语音进行特征提取,构建模板。测试时,通过特征提取生成特征序列,计算测试的特征序列和模板序列的距离,基于此判断是否唤醒。
第二代:基于HMM-GMM的KWS
将唤醒任务转换为两类的识别任务,识别结果为keyword和non-keyword。
第三代:基于神经网络的方案
神经网络方案又可细分为几类,第一类是基于HMM的KWS,同第二代唤醒方案不同之处在于,声学模型建模从GMM转换为神经网络模型。第二类融入神经网络的模板匹配,采用神经网络作为特征提取器。第三类是基于端到端的方案,输入语音,输出为各唤醒的概率,一个模型解决。
语音唤醒的难点
语音唤醒的难点,主要是低功耗要求和高效果需求之间的矛盾。
一方面,目前很多智能设备采用的都是低端芯片,同时采用电池供电,这就要求唤醒所消耗的能源要尽可能的少。
另一方面,用户对体验效果的追求越来越高。目前语音唤醒主要应用于C端,用户群体广泛,且要进行大量远场交互,对唤醒能力提出了很高要求。
要解决两者之间的矛盾,对于低功耗需求,我们采用模型深度压缩策略,减少模型大小并保证效果下降幅度可控;而对于高效果需求,一般是通过模型闭环优化来实现。先提供一个效果可用的启动模型,随着用户的使用,进行闭环迭代更新,整个过程完成自动化,无需人工参与。
语音唤醒的典型应用
语音唤醒的应用领域十分广泛,主要是C端产品,比如机器人、音箱、汽车等。比较有代表性的应用模式有如下几种:
➤传统语音交互:先唤醒设备,等设备反馈后(提示音或亮灯),用户认为设备被唤醒了,再发出语音控制命令,缺点在于交互时间长。
➤One-shot:直接将唤醒词和工作命令一同说出,如“叮咚叮咚,我想听周杰伦的歌”,客户端会在唤醒后直接启动识别以及语义理解等服务,缩短交互时间。
➤Zero-shot:将常用用户指定设置为唤醒词,达到用户无感知唤醒,例如直接对车机说“导航到科大讯飞”,这里将一些高频前缀的说法设置成唤醒词。
➤多唤醒:主要满足用户个性化的需求,给设备起多个名字。
➤所见即所说:新型的AIUI交互方式,例如用户对车机发出“导航到海底捞”指令后,车机上会显示“之心城海底捞”“银泰城海底捞”等选项,用户只需说“之心城”或“银泰城”即可发出指令。