博舍

外呼机器人起名 外呼智能机器人谁用过,效果怎么样

外呼机器人起名

外呼机器人如何使用?

这个有一个网页后台,我们用的小水智能,这个东西后期需要话术录入,场景选择,话术是真人声优录制的,导入客户号码就可以自动外呼了,非常方便。

人工智能电话机器人话术怎么做?

首先要有专业的人来做话术,有丰富的行业关键词语音数据积累,再有是全面的行业知识库和机器人问答逻辑,还要有一个适合行业特点的电话机器人配音师来配音处理。

这样才可能保证这套话术的完善,保证机器人的拨打效果。

智能机器人外呼骗局

电销机器人的功能强大,有很多人类所不能达到的功能,它们能够自动拨打电话,号码一键导入,自由控制,自动拨打电话。

由于设计它们的程序员预先已经植入了相关数据,所以,电销机器人能够相对准确地反映出顾客的需求,对于顾客的要求也能够很快地作出解释和应答。

电销机器人好用吗?对于这个问题的回答人各有异,并不相同,但是,不可否认的就是电销机器人的出现的的确确给电话销售行业带来了诸多便利,人们可以有更多时间去干其他更需要他们的工作。

电销机器人在另一方面也提高了工作人员的热情,因为有的时候,工作人员不得不面对一些蛮横无理的要求和很难缠的客户,这个时候如果过度地和那些客人打交道会极大的影响到工作人员的工作热情,他们都会觉得烦躁,心情不好。

那些负面情绪会降低他们的工作热情和态度,但是当电销机器人则不一样,它们可以承担较大的责任个工作量,这样一来,同时也就减轻了工作人员的负担,让他们可以少面对一些难

一个智能外呼机器人的诞生

导读:AI经过近几年的快速发展,融入越来越多的业务服务,诞生了许多触手可及的产品,给众多行业赋能提效,也给普通消费者带来了不一样的产品体验。相信很多同学都接听过机器人打来的电话,如基金推荐、外卖提醒、卖房推销等,高效、稳定的外呼给商家侧提升了极大的效率。那么,这种智能外呼机器人产品是如何落地的呢?

一、产品架构

首先来看看整体的产品架构:

技术基础:智能外呼机器人核心是AI的基础技术,赋予产品识别语音、语义理解、合成语音的能力,简单来说就是如何准的确地识别客户所表达的意思,一般称作识别意图。而另一方面,Fs、sip构建的话务服务赋予产品对外通话的能力,可以拨通客户的手机进行交流。资源许可:构建的机器人服务需要耗费一定的资源,一般将整个过程分为话务、TTS、ASR、机器人方面的资源。如果要完成完整的外呼服务,一般是1:1的关系。如果是saas产品,可以将整个许可打包成一个商品出售。按这样区分可以清晰划分产品框架,后续的运维、扩容也十分方便,也利于计算成本、产品定价。话务模块:话务模块是管理话务能力方面的功能,语音通讯、录音等。语音服务:该模块是管理语音方面的能力,包括ASR服务、TTS服务。也会有一些产品将这些能力纳入话务模块。算法模块:算法模块是外呼机器人的核心能力,需要完成数据的处理、模型的构建与训练等,让机器人具备识别能力。对话管理:机器人识别客户的意图之后,需要做出一定的回应。怎么说、说什么由对话管理去控制。运营管理:基于上述模块的协作完成一个外呼服务的构建,对于业务人员来说则需要在运营层面去管理外呼名单、外呼策略等,让机器人运转起来。

对产品有全局的架构思维,有助于全面地看待问题,无论是产品设计还是后续的运营都是很有帮助的。

二、业务流程

智能外呼,简单来说就是模拟人的对话能力,教会机器人去识别语音内容,然后根据内容做出应答。在运营管理发起外呼动作,整体的业务流会经过以下几个步骤:

1.由话务服务出局通话请求,拨通客户的电话后,收集客户语音并实时返回至语音服务模块;

2.语音服务将客户的语音经过ASR处理,输出客户的文本给到算法模块;

3.算法模块经过算法分析,识别客户的意图,了解客户想表达的意思。有一点需要注意的是,不一定非要语音才能分析意图,比如客户静默太长时间,可输出一个静默的意图,让机器人再次唤醒客户对答。也不一定是对文本内容直接分析,比如机器人未播完话术时被客户打断,这时候应该输出一个打断的意图,停止播报,让客户说完再识别。各种各样的情景,跟人与人之间的对话情景对应;

4.得到客户的意图后,对话控制根据对话流程,输出机器人需要对答的内容。对答文本流转至TTS合成语音(如果文本不涉及变量,可以一次性保存为录音,不占用TTS资源),或者调用已录好的音频,传至话务服务模块,对客户输出语音。然后再次得到客户语音,循环这个过程直至结束后将对话数据返给外呼管理模块,进行后续的分析。

三、产品设计1.话务服务模块

依托于FS强大的拓展性,搭建一个电话软交换平台,可对接运营商的sip线路,也可用网关设备搭建话务中心,提供呼叫控制、资源分配、录音、计费等能力。一般大企业会有独立的话务服务,专供需要的业务系统接入,而自建外呼服务或者构建saas产品则需要从0到1去搭建了。

2.语音服务模块

ASR、TTS是基础底层技术,自研成本非常高,而且经过长期的发展也很成熟,市面上有科大、阿里云、腾讯云等厂商的服务。一般有两种模式,一种是接入云服务,按调用次数收费,如果有开放的开发环境建议使用这种模式,可以随时升级调优。另外一种是买断服务,购买完整的语音服务,包括模型、资源,一般在较为封闭的开发环境使用,比如银行业务。但这种模式成本较大,而且调试升级不方便。

3.对话管理

对话管理是智能外呼机器人产品的核心模块,涉及VUI设计、话术管理等。VUI设计是指语音交互流程,就是机器人的应答逻辑,是机器人的主心骨。我对于VUI的设计主要有以下几个步骤:

1)梳理外呼业务的主流程

产品必定会有一个流程,以期望客户按我们的设计走,完成一定的动作,达到业务目标。所以在设计前应当梳理清楚我们要做的是什么业务,业务涉及什么环节,业务目标又是什么。以一个信用卡欠款催收为例:

2)归纳意图

在业务运转过程找中,会遇到哪些情况,然后归类起来,形成一个意图,代表客户反馈给机器人的状态。可将意图分为三种类别:通用意图、业务意图、QA。

通用意图:顾名思义就是整个人机对话环节都可能会发生的情况。咱们可以想想现实中打电话,对方可能会正在忙没法接电话,可能信号不好听不清等等,可以归纳出“正忙、听不清”的意图;业务意图:与业务相关的情况,比如客户表示是不是本人、已还清欠款等情况,可归纳出“是本人、非本人、已还款”的意图;QA:通用意图以及业务意图是固定的,在实际运营中会有些频率不高或者未想到的语料,可以在线上添加QA语料,然后在后台经过关键词提取、预定训练方式实现模型建设,可减少算法投入成本,也比较灵活。如果某个QA出现频率高,可以考虑增加一个通用意图或者业务意图。

确定意图后,有助于我们梳理流程框架:

3)编写对话剧本

确定了环节、意图后,还是比较零散的信息,典型的对话场景是怎么样的?实际的对话流又是怎么体现的?这时候可以借助对话剧本去模拟人机对话。如果客户按推荐的流程走,并完成了目标,称之为愉悦路径。如果客户没有按推荐的流程走,无法完成外呼目标,则成为非愉悦路径。

举个例子:

编写对话剧本其实就是梳理主流程、异常分支如何处理,尤其是非愉悦路径,通话环境的情况很复杂,各种不在目标内的情况要做好处理。

4)设计对话跳转逻辑

经过对话剧本的编写,VUI有了雏形,接下来需要整合成一个完整的流程。对于VUI,我理解为一个庞大的决策树,在某个节点,根据客户的反馈决定往哪个分支走,主体设计是环节+意图+跳转。

对话的跳转逻辑设计是个十分复杂的过程,需要反复推敲跳转是否合理,是否符合业务场景,是否覆盖了常见的情况。从开场白到完成业务目标会有多种分支,而且有时候跳转较多,单纯看路径会比较抽象,可以借助对话剧本具象化。另外建议设置好结束点,路径设计不宜过长,机器人没法像人这么灵活,对话轮次过多反而会阻碍业务目标的达成。如果某个意图出现频率高,而且处理方式是一致的,可以提炼出来作为一个全局节点。

5)设计话术

确定了对话跳转逻辑后,需要明确每个节点机器人的应答话术。话术内容的设计也很考究,基本原则是通用化、封闭化。应答内容尽量通用化,往主流程引导,兜住未知的情景,复杂的内容引导客户去确认。虽然AI大大提升了效率,但是还没有达到可以处理全部开放化的情景,比较适合做标准化的工作。举个例子,你想确认客户的地址是否正确,不应该去问”请问您所在的地级市是哪里“,答案千千万万,而且asr识别不准,可行性可想而知,倒不如改为”请问您是在xxx地方吗?“,这样范围可控。

参照对话跳转逻辑设计每个节点话术,包括环节+客户意图+机器人话术+跳转节点:

经过5个步骤的思考以及设计,对话管理模块的功能已完成,产品展示层面比较多的是画布的模式,可以自由组合各个环节、节点以及话术。但VUI设计是复杂性的功能,不建议普通客户去操作,交由专业人员管理,或者采用模板的方式推广。

4.算法模块

VUI里面涉及的意图是由算法分析出来的,建议在意图设计的环节也保持与算法的同事沟通。算法模型是核心资产,也是产品护城河。目前市面上会有厂商提供NLP服务,但作为核心能力,建议采用自研,契合自身业务去构建算法能力。智能产品需要众多的语料去完善其模型,即使产品上线后也需要不断去调优,一套完整的算法优化流程尤为重要。

作为产品经理,重点关注其中的标注结果,核对分类是否正确、是否存在与产品设计违背的地方、是否可以达到可用的效果,这样可以减少效果与最终目标的不适应情况。另外还有需要关注模型校验的结果是否符合预期,生产对客的效果如何。

虽然AI技术很强大,但也不是无敌,也要看与各个技术的配合度以及局限性。语音机器人特别依赖ASR的准确率,曾经踩过一个坑,询问客户的所在地,以判断是否可办理金融业务,但ASR对短句的转译能力差,无法精准转写,导致识别准确率很低,效果很不理想。如果前期关注到ASR的局限性,就很有可能会规避这个问题。

算法能力的构建涉及多个角色、多个流程以及持续性优化,如果业务比较成熟,可以搭建一套运营后台系统去支撑这部分工作,发现热点知识、拒识等内容,实行标注质检工作等。

5.运营管理

经过各个模块的搭建,已经具备了机器人外呼能力、识别能力、对答能力,运营管理模块就负责如何使用机器人,根据业务需要设计各种外呼策略,比如重拨、定时外呼、防骚扰等。

四、结语

智能外呼机器人是AI落地较为广泛的产品,涉及了多个领域的知识,也需要多种角色参与,因此需要掌握的东西比较多,很考验产品的整合能力。同时也是十分重运营的产品,不是搭建完成就完事了。如果功能建设完成了,我认为只是从0到0.5,要达到真正的对客效果,还需要持续优化,采集更多的语料去丰富意图、提升识别效果等。

以上为本人的一点经验之谈,欢迎大家一起交流。

 

本文由@骨灰级小白原创发布于人人都是产品经理,未经作者许可,禁止转载。

题图来自unsplash,基于CC0协议。

智能外呼机器人的前世今生

嘟嘟嘟~~~

“您好,请问是xx先生(女士)吗?您的保险即将到期哦,请问是否需要立即续保呢?”

当电话那头传来一阵阵亲切的问候声,是否幻想着跟你交流的是一位温柔可人的客服小姐姐呢?当你还在浮想翩翩的时候,那可能就要大失所望咯。

这温柔的声音可能来源自一位铁憨憨(智能交互机器人)。

小伙伴们是不是很诧异,印象中的机器人声音机械且单调,怎么会和上面听到的声音一样呢。自然而然会心生疑问,到底什么是智能交互机器人?

智能交互机器人的前世今生

在智能外呼逐渐兴起以前,企业通常采用传统的人工外呼方式。

人工外呼是指:电话通过电脑自动往外拨打客户电话,当客户接听电话的同时,系统接通呼叫中心的坐席人员,外呼的线路数大于坐席数,从而节省通话的等待时间。

当前市场竞争越来越激烈,企业无时无刻都在想着开发客户、维护客户。随着移动互联网科技的飞速发展,越来越多的企业采用了新的营销方式——智能交互机器人。

智能交互机器人是指:基于传统呼叫中心的技术,融合智能AI,开发出智能化的电话自动外呼机器人,来代替人工外呼拨打客户电话、服务客户、转化客户。

 

人工外呼PK智能交互机器人

RoundOne:成本

人工外呼:坐席的培训成本、工资成本、培训费、管理费……

智能交互机器人:开发成本。(简直一本万利呀) 胜!

RoundTwo:效率

人工外呼:每人每天约300通电话,且效率受身体、情绪影响。

智能交互机器人:每个机器人每天约1200通电话,不怕脏不怕累,只要有电就可以旋转跳跃不停歇~胜!

RoundThree:管理

人工外呼:人员管理复杂,数据可回溯性差。

智能交互机器人:可根据企业需求,系统整理导出需要的客户数据,便于企业数据分析,制定友好的客户管理策略。胜!

各方面都格外出色的智能交互机器人,不服不行呐!

 

深入浅出智能交互机器人

这么厉害的智能交互机器人,背后到底隐藏着那些技术呢?

让我们来一探究竟!

智能交互机器人是采用深度神经学算法和卷积神经网络算法,融合了ASR、NLP、TTS等多个门类的前沿技术集成的产品,其中,语音识别(ASR)、自然语言处理(NLP)、语音合成(TTS)技术起到了关键作用,保障了外呼系统的精准、高效、稳定运行。

看到了这么多专业术语,小伙伴们肯定现在都是下面的表情。

 

 

刚准备躺平的小TKer这时手机突然“叮叮叮”响了起来:

“尊敬的Tker先生您好,我是泰康在线续保专员,您的购买的保险马上要到期了,为避免您的保单失效,今天特意致电您进行续保操作”

此时的小TKer还没意识到对面就是我们的智能交互机器人,掐指一算,好像确实是要到期了,但最近手头有点紧,着实有些犹豫道:

“感觉价格略微有些贵呢,我感觉需要考虑下。”

此时智能交互机器人便收到了小TKer的语音,但是机器人毕竟不是人类,只靠语音无法理解所说的内容,这个时候就需要先通过ASR语音识别技术将语音转化成文本。

3.1、ASR语音识别技术

ASR语音识别流程如下图所示:

第一步:建立声学模型

对于同一个单词或汉字,由于不同人的发音、语调、语速等各不相同,声学模型建立过程需要录入大量的原始用户声音,以从中提取特征建立声学模型数据库。

第二步:建立语言模型

和声学模型的建立过程及面临的问题类似,只是这一步针对的是文本而不是声音。语言模型可以调整声学模型所得到的不合逻辑的字词,使识别结果变得正确通顺。

第三步:语音识别

首先,将用户的语音输入进行编码和特征提取(已被拆分成N份,合在一起才是一个汉字或单词),将提取到的特征拿到声学模型库(第一步中介绍的)中去查询,得到单个的单词或汉字;然后再拿到语言模型库(第二步中介绍的)中去查询,得到最匹配的单词或汉字。

然而此时智能交互机器人只是将语音转化成了文字,这可还远远不够哦。通过转换后的文本,智能交互机器人需要根据它了解用户的意图是什么,才能做出对应的回答。因此,还需要通过意图识别模型,进一步对客户的意图进行识别。

3.2、意图识别技术

意图识别,顾名思义,是将用户输入的自然语言会话进行划分,类别(classification)对应的就是用户意图。例如“今天天气如何”,其意图为“询问天气”。自然地,可以将意图识别看作一个典型的分类问题。

 

 

在智能交互机器人中,使用了深度学习模型,采用预训练模型bert(取名源自于芝麻街的动画角色,也就是上图中拿着小黄鸭的人偶哦)对文本进行处理作为输入,训练海量数据,得到了一个高准确率的意图识别模型。当用户回答或是咨询相关问题时,智能交互机器人能迅速准确的洞悉其目的。

那么此时问题又来了,就算知道了小Tker的意图,智能交互机器人是怎么知道该回答些什么呢?

不要着急嘛,路要慢慢走,知识也要慢慢积累~听我徐徐道来。

这里有涉及到了一项智能交互机器人中的重要模块——智能对话引擎。

3.3、智能对话引擎

智能对话引擎主要用于生成符合当前语境的话术。话术的生成主要采用了两种方式,一种是话术流程引擎,另一种则是采用了nlg自然语言生成技术。

在话术流程引擎中,利用公司积累的大量客服记录数据并采用阅读理解技术从不同产品的相关文档中自动抽取典型问题的回复话术,整合出一套高质量的交互知识库,能够根据客户的情感趋向、意图方向等信息,从知识库中筛选出最为恰当的回复话术,完成对客户问题迅速反应及处理。

另一种方式则采用了自然语言生成模型,通过构建NLG模型可以理解意图、考虑上下文、并将结果呈现为一种可以被理解的语言。

在这种对话类型的情景中,智能交互机器人使用GPT-2模型(一种在文本生成中表现优异的模型),通过对保险领域中的相关话术与内容进行学习理解,在海量数据的熏陶下,俨然化身一个保险小专家。通过分析用户的意图,从历史学习的数据中生成出能够给与满意答复的文本,直击要害的解决用户的问题。

根据小TKer上面的回复来看,小TKer有些犹豫,所以为了达到挽留小Tker续保的目的,智能交互机器人生成了对应的挽留话语:

“其实买保险就是为了一份安心,花一份小钱,买一份大的安心,还是很划算的哦”

但问题又来了,如何让机器人有感情的读出这段文字,并且能够有语气的变化,不被发现是机器人呢?不要担心,法宝都准备好了!——语音合成技术(TTS)

 

3.4、语音合成技术(TTS)

 

TTS技术(Text-To-Speech,语音合成),主要目的是将文字转化为声音(朗读出来),类比于人类的嘴巴。

我们常见的Siri、天猫精灵,高德地图导航等等中听到的声音,都是由TTS来生成的哟,一下子是不是感觉就在身边!

当接收到文本后,TTS会首先进行语言学处理,进行文本规整、词的切分、语法分析和语义分析,然后会为合成语音规划出音段特征,如音高、音长和音强等,使合成语音能正确表达语意,听起来更加自然,最后根据前两部分处理结果的结果输出最终语音。

至此,智能交互机器人经过一系列处理,用最优美柔和的声音完成了对小TKer的劝导。也完成了对用户语音的转化、识别、生成、输出这一整套闭环操作。

没想到简简单单的一句对话,蕴含了这么多科学技术吧!小TKer在听了智能交互机器人给出的建议后,也是觉得颇有道理,愉快的完成了随后的续保操作,毕竟这样优美柔和的声音,谁能拒绝呢?

写在最后:

目前智能交互机器人广泛的应用于各个领域,在管理和效率上都有着极大的优势。无论是从语言理解,还是从声音的拟人化,都不断的在更新优化,进行着技术上的革新。在不远的未来,相信智能交互机器人能够更加大放异彩,为企业乃至个人提供长足的帮助。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇