人工智能通过语音技术来听懂人类的语言
扫描二维码
随时随地手机看文章
(文章来源:百度智能云)
你可能发现这样的场景,当你坐在沙发上说一声“打开电视机”,不需要遥控器,你就可以尽情观赏电视节目;跟朋友聊天,无需手动敲字,语音输入后便可实时转化成文字,发送给对方,既省时又省事。这是怎么回事呢?这些设备是如何听懂我们的语言的呢?这里不得不提的,就是语音识别技术。“什么是语音识别?语音识别是完成从语音信息到机器可识别文本信息的转化过程。”
语音识别就是让机器拥有“耳朵”。当然,不是简单的给机器装台收音器就可以实现,它需要不断的进化。这就好像是人的听觉系统的成长。一个出生的婴儿能听到声音,但是听不懂,往后随着年龄的增长,不断的学习、训练,能听懂的东西越来越多。机器的语音识别也有类似的成长过程。语音识别技术的研究最早可以追溯到上世纪50年代,当时的效果并不好。
直到21世纪初,特别是近10年,借助机器学习领域深度学习研究的发展,以及大数据语料的积累,语音识别技术才有了突飞猛进的发展。如今,语音识别的正确率已经接近甚至部分超过了人类。比如,2017年,IBM、微软相继宣称自家产品的语音识别错误率接近了人类,人类的语音识别错误率大约为5.1%,而百度更是通过像百度大脑中语音语义一体化这样的技术,把语音识别错误率控制在了3%左右。
根据识别内容的范围,语音识别可分为“封闭域识别”和“开放域识别”两大类。封闭域识别,识别范围为预先指定的字/词集合,即算法只在开发者预先设定的封闭域识别词的集合内进行语音识别,对范围之外的语音会拒识。因此,可将其声学模型和语言模型进行裁剪,使得识别引擎的运算量变小。并且,可将引擎封到嵌入式芯片或者本地化的SDK中,从而使识别过程完全脱离云端,摆脱对网络的依赖,并且不会影响识别率。
典型的应用场景是,不涉及到多轮交互和多种语义说法的场景。比如,智能家居,主要指只能进行简单指令交互的智能家居和电视盒子,语音控制指令一般只有“打开窗帘”、“打开电视”等,或者语音唤醒功能“小度小度”。开放域识别,无需预先指定识别词集合,算法将在整个语言大集合范围中进行识别。
为适应此类场景,声学模型和语言模型一般都比较大,引擎运算量也较大。因此,业界厂商基本上都只以云端形式提供。比如,百度云就可以提供这样的产品。具体而言,开放域识别按照音频录入和结果获取方式又可将产品形态分为3种:
产品形态一:流式上传-同步获取,应用/软件会对说话人的语音进行自动录制,并将其连续上传至云端,说话人在说完话的同时能实时地看到返回的文字。典型应用场景:语音输入法、实时字幕、语音笔记。
产品形态二:已录制音频文件上传-异步获取,音频时长一般小于5小时。典型应用场景:音/视频字幕配置、实时性要求不高的客服语音质检和语音内容审查等。
产品形态三:已录制音频文件上传-同步获取,音频时长一般小于1分钟。典型应用场景:语音搜索、更智能的机器人语音交互。
当前,百度语音识别技术已经全面开放,包括语音识别、长语音识别、远场语音识别、呼叫中心实时语音识别、呼叫中心音频文件转写五大类别,数十项基础技术,并服务于众多开发者。通过这样的介绍,你大概了解到计算机的“耳朵”是如何练成的吧。如果在实践中,智能音箱这类产品听不懂你的话,你可以多说几遍,像对待孩子那样。只要这样,智能音箱就会越来越懂你。