智能座舱入门必备:一文读懂车载语音系统

共 5022字,需浏览 11分钟

 ·

2023-08-23 15:00

智能座舱有两大人工智能交互系统,一个基于视觉(计算机视觉)、一个基于语音。前者的应用体现在IMS系统,我之前的文章有过介绍;后者的应用在舱内的语音功能。这篇文章就系统地介绍智能座舱的语音系统(VOS)。


01 概述


VOS(智能座舱语音操作系统)旨在为用户提供车内环境下的语音交互服务。

VOS系统采用了唤醒、语音识别、语义理解等技术实现语音控制。

座舱的车设车控、地图导航、音乐及多媒体应用、系统设置、空调等均可通过语音来操作。

除了针对车身、车载的控制外,语音还支持天气查询、日程管理以及闲聊对话。

用户只要说唤醒词,即可使用。语音指令可以一步直达功能,既能解放手指,又无需视线偏移注视车机中控区域,从而保障行车安全。



02 总体架构


在总体的架构上,语音系统可分为四个模块。即车端系统、云端系统、语音运营管理平台以及训练和分析统计模块。


整体的语音系统和要求,包括车端到云端链接、数据到功能的构建、Online的运营平台、线下线上的数据采集和标注。




03 VOS车端模块


车机端主要是对话系统(DS),也是用户感受最直观的,产品的重点侧向交互设计。



从上图可以看到,车机端由以下几个模块组成:
  • 音频处理模块:AEC /AGC/ANR/ BF...
  • 唤醒模块/本地ASR
  • 语音控制器语
  • 本地对话系统
  • TTS模块


以上每个模块均包含一个或多个应用,这些应用内置在车机:音频处理包括AEC (Acoustic Echo Cancelling)、VAD (Voice Activity Detection)、音频压缩、唤醒词、本地的ASR识别等。

该模块可以对来自麦克风的原始音频信号进行各种预处理,向语音助手提供获取唤醒信号、预处理后的音频、本地ASR识别结果等接口。

前端信号处理包括:AEC、ANR、AGC、声源定位(SSL)、Beamforming,全部通过软件方案实现。


3.1语音助手


车机端负责语音对话的中枢控制模块,负责协调车机端对话系统的总体流程。

车机端的其他模块或者被语音助手调用(音频服务、本地对话系统、TTS模块、应用程序),或者属于语音助手的组成部分(对话控制器)。


3.2本地对话(本地DS)


本地对话系统是云端对话系统在车机上的一个镜像。它负责执行那些需要在车机上执行的对话处理,如:离线无网络状态下的对话功能、基于本地SDK的导航或音乐搜索相关的对话处理、 或者其他一些本地优于云端的场景下的对话功能。本地对话系统提供了一系列接口供对话控制器进行调用。

本地对话系统从云端对话系统相同的基础架构衍生而来,和云端的设计和功能大体相同。

但也根据本地的特点和需求进行了变化。如鉴于车机运算资源的匮乏而精简了模型;集成了车机专属的基于SDK的媒体和导航搜索功能;本地对话系统包含语音识别、语义理解、语音合成, 系统倾向于支持断网场景下的业务,如车控、打电话等基本场景。

本地对话系统的交互入口是语音唤醒,有的唤醒会支持双唤醒词(隐含)。像百度地图就支持“小度小度”也支持“小德小德”(高德地图的唤醒词),容错率更好。


3.3本地NLU


本地NLU在无网络状态下,提供基础语义理解服务,考虑到车机端的运算能力,在NLU模型上需做大量的模型裁剪和压缩,并结合车机芯片进行指令集层面的优化,确保将本地NLU的效果最大程度地逼近云端NLU的效果;本地NLU的资源大约是在线的1/10, 最大程度地保证了本地的效果。


3.4本地TTS


TTS模块被语音助手调用,负责将文本转换为语音播报。TTS合成引擎由供应商提供,对话话术的TTS文本通过话术运营系统来制定和编辑,其结果存储在数据库中、供对话系统调用。



04 VOS云端系统



4.1对话系统


对话系统的云端部分(或者说在线对话系统)由多个部署在云服务上的服务和存储组成。

云端向车机提供两种接口:一种是基于TCP的socket流式数据传输接口,用于传输语音数据并给出云端ASR识别结果和对话结果;一种是基于HTTP的用于发送非语音类消息的接口。

云端服务可以部署在各种云服务(如aws、华为云等)的计算节点上;一套部署在具备64G内存的计算节点上的云端节点可以同时支持2-3万台设备的访问。

对话系统的云端部分主要提供以下几项功能:
  • 在线ASR识别 对话服务模块可以接受用户发起的语音对话的音频输入,并给出识别结果。
  • 对话  对话服务模块可以接受用户发起的语音对话的文本输入,并给出相应的对话结果,包括TTS文本、要车机进行的操作、车机用来屏显的内容等。
  • 其他功能  如向用户进行主动推送等。


4.2模型


模型主要提供各种AI算法的运行模型数据,包括声学模型、语言模型等等多个不同算法不同用途的模型,可独立升级,来实现最优的AI处理效果。

对于通用领域,模型优化能够带来整体的提升。例如整体升级声学模型和语言模型,在用户数据积累到一定程度的时候,如1万小时交互音频数据,可以带来20%-30%错误率下降;

对于专有领域,模型优化能够实现从极低到极高,甚至从无到有的提升,例如一些产品强相关的词汇、使用常见的一些专有名词、人名地名等,都可以做特定的优化,达到通用的效果。


4.3云端TTS


云端TTS有别于本地端TTS,基于强大的计算能力,云端使用更大的数据库,技术上使用基于拼接的方案,相比于本地端基于参数合成的TTS,音质更自然;


TTS的声音可以进行定制,需要经过文本设计、发音人确认、录音场地和录音、数据筛选、标注、训练等过程。



05 运营平台


运营平台通过云端和线上对话系统联通,负责以可视化的形式干预对话系统线上的数据和功能。其中主要包含两大类功能:数据运营、功能运营。


5.1数据运营


数据部分的运营主要针对两部分比较常用的可运营数据

1. 针对系统接入的CP/SP的可运营的内容,比如喜马拉雅的推荐数据、黄页数据等等,可以在系统中以手动的方式调整数据的内容、排序等;


2. 针对企业自有的数据,比如主机厂独有的充电桩数据、服务门店数据,可以有机的结合到对话系统中来。



5.2功能运营


功能运营主要是在特定的时间点,比如某些节日、或者有特殊意义的日子、或者临时发生一些事件的时候,通过快速干预某些特定的说法的反馈,通过编辑特定说法的TTS回复,来实现系统对特殊情况的特殊处理。


06 训练及分析


6.1用户数据统计分析


用户数据统计分析系统,通过对所有实车用户使用车载语音的情况进行统计分析,能够得出不同维度、不同粒度的分析报表。定期进行报表的解读和分析,可用得出的结论来指导系统功能的改进。


6.2训练系统


针对音频、文本、图像的采集+标注系统,企业通过定期常规的对线上数据的回收、标注和不定期的对特殊要求数据的采集、标注,生产出各个AI模型需要的数据,提供模型训练支持;每次模型训练完毕会有迭代上线,从而实现训练数据系统和线上模型的一个闭环迭代,不断的提升整体的语音产品的能力。


以上便是对智能座舱车载语音系统的完整介绍


   如果你想更快入行智能汽车行业,欢迎关注我们推出的《智能座舱产品特训营》课程,帮你铺平产品之路。最新一期8月20号准时开课。


1)在今天的就业形式下,泛泛而谈/隔行授课的课程很难具备实际价值。前两年招聘的敞口大,或许有点帮助,今天不行了。所以,我们是一种采用重交付,22节直播课,拿公司真实项目,带着大家练,以练带学,让大家上班就能上手干活;


2)还是基于现在的就业形势,不太可能内推很多人了(学员每个人都会内推)。但10个人左右的小班的话,培训扎实一些,内推过去成功率会高很多。


3)费用和成本。人数多了对于学员意义不大,人数少了我们边际成本很高。只能提高费用(我的认知里付费是人生最低成本最捷径的升级方式),我们能覆盖时间成本,学员能提高效率和学习质量。


4.我们彼此最宝贵的是时间⌛️   


基于以上几点吧,所以有了以下的课程体系设计(内含课程大纲和详细的课表)大家感兴趣的可以找我私聊:xuelaoban667

浏览 496
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报