博舍

什么是自然语言处理 自然语言处理的技术路线有哪些方面

什么是自然语言处理

自然语言处理结合计算语言学、机器学习和深度学习模型处理人类语言。

计算语言学

计算语言学是使用计算机和软件工具理解和构建人类语言模型的科学。研究人员使用计算语言学方法(例如语法和语义分析)创建框架,从而帮助机器理解对话式人类语言。语言翻译器、文字转语音合成器和语音识别软件等工具都基于计算语言学。 

机器学习

机器学习是一种技术,使用样本数据训练计算机以提高其效率。人类语言有一些特征,例如讽刺、隐喻、句子结构变化,以及人类需要数年才能学习的语法和特殊用法。程序员使用机器学习方法教授NLP应用程序从一开始就识别和准确理解这些特征。

深度学习

深度学习是机器学习的一个特定领域,教授计算机像人类一样学习和思考。此领域涉及神经网络,该网络由类似人脑操作的数据处理节点组成。计算机借助深度学习可以识别、分类和关联输入数据中的复杂模式。

NLP实施步骤

一般来说,NLP流程首先从来源(例如云数据仓库、调查、电子邮件或内部业务流程应用程序)收集和准备非结构化文本或语音数据。

预处理

NLP软件使用预处理技术(例如分词、词干、词形还原和停用词删除)为各种应用程序准备数据。 

分词将句子分解为单个单元的字词或短语。 词干和词形还原将字词简化为词根形式。例如,这些流程将starting(开始)转换为start(开始)。 删除停用词可确保删除对句子没有重要含义的字词,例如为和与。 训练

研究人员使用预处理的数据通过机器学习训练NLP模型,以便根据提供的文本信息执行特定应用程序。训练NLP算法需要向软件提供大量数据样本,以提高算法的准确性。 

部署和推理

然后,机器学习专家将部署模型或将其集成到现有的生产环境中。NLP模型接收输入并预测其为特定使用案例设计的输出。您可以在实时数据上运行NLP应用程序,并获得所需的输出。

自然语言处理五年技术革新,快速梳理 NLP 发展脉络

来源:机器之心

机器之心发布

机器之心编辑部

机器之心《2020-2021全球AI技术趋势发展报告》节选:顶会趋势(NeurIPS)分析。

2021年伊始,机器之心发布《2020-2021全球AI技术趋势发展报告》,基于顶会、论文及专利等公共数据、机器之心专业领域数据仓库,通过数据挖掘定位七大趋势性AI技术领域。

此外,该报告还邀请了近100位专家学者通过问卷调查,形成对这七大技术领域近年发展情况、成熟度与未来趋势的综合总结,并基于2015-2020年间的开源论文与专利语料,结合机器之心自有的新闻舆论以及模型最佳表现(SOTA)等相关数据库进行了探索性数据分析,并形成了用以帮助技术趋势判定的量化指标SyncedIndicator(SI)。

为了方便从业者把握AI技术趋势,机器之心将持续刊载该该报告的节选内容,以下篇幅选自《2020-2021全球AI技术趋势发展报告》第三章「人类语言技术」。

「3-1 」人类语言技术

3-1-1  近年领域事件

根据机器之心整理的人工智能领域事件库数据,近5年(2015~2020)来人类语言技术领域的主要有以下大事件值得关注:

神经机器翻译、注意力机制与Transformer

自然语言处理的技术突破似乎总是从机器翻译领域开始的,作为NLP领域最早的研究领域之一,机器翻译是较能体现语言理解的一项重要技术任务,也是自深度学习兴起后技术突破最多最频繁的技术任务。机器翻译的核心技术涵盖了自然语言理解和生成两大基本问题,其技术路径的演变基本可以代表整个自然语言处理技术领域的主要技术方法演变:从最初的基于语法规则的机器翻译(RBMT),统计学兴起之后逐渐开始形成气候的统计机器翻译(SMT),以及近10年来基于神经网络的机器翻译(NMT),机器翻译领域通常是新技术首先得到测试验证的领域。2015年以来,正是神经机器翻译快速发展的时代,而其中贡献较为突出的当属搜索引擎行业的龙头企业谷歌,从2016年谷歌神经机器翻译(GNMT)的发布开始,将初期主要在CV领域活跃的Attention机制运用到了机器翻译领域,2017年又抛开深度学习领域一直被广泛使用的核心RNN网络、提出了单纯基于自注意力机制的Transformer模型架构,在模型泛化能力上看到了很大的可能性。2018年紧接着提出并开源了基于双向Transformer的大规模预训练语言模型BERT,刷新了当时多项不同类型的NLP下游任务的最佳表现,使人们看到了这类模型的巨大潜力,也自此掀起了NLP领域的大规模预训练语言模型研究与开发的热潮。

大规模预训练语言模型

2018~2019年里,尤其是2019年,大规模预训练语言模型似乎成为了NLP领域技术指标突破逃不开的技术方法。在ELMo之前,深度学习在自然语言处理的主要应用方向在于从词到句子级别的分布式表征,word2vec是此类方法的典型代表。虽然一时间预训练的词向量在诸多自然语言处理任务上取得了不错的进展,但词向量本身都是上下文无关的,也即同一个词的向量表示在不同语境中总是相同的,这就意味着词向量无法解决语言技术里很大的一个障碍,一词多义问题。因此研究人员们开始在具体的下游任务中基于词向量的序列来做编码,这种seq2seq端到端的思想迅速取代了word2vec的热潮,而谷歌在这个基础上研发出的自注意力机制模型transformer可算是这个思想的集大成者。也正是同一时间,来自华盛顿大学的研究者开发出了ELMo模型,通过语言模型来获得一个上下文相关的预训练表示,并通过定制成功地用在了多个不同的下游任务上取得领先的表现效果。而仅仅针对文本进行丰富的encoding尚不足以覆盖所有NLP下游任务,尤其是QA、阅读理解等包含问询关系等多种复杂模式的情况下,下游任务的网络会需要做更多不同的结构调整,同一个模型在多个不同任务、甚至同一任务不同数据集上的表现差别仍然有待提高,这也就促使了BERT的诞生。BERT类模型使用大规模语料数据采取更深程度的预训练,从而形成一个更为通用的模型基底。这比覆盖上下文语境含义的词向量更进一步,而涉及到下游任务时也仅需要定制一个非常轻量级的输出层而不需要对模型骨架做重大调整。

实用效率工具和数据集

当一个技术发展成熟到一定程度之后,我们会看到技术在研究层面的数据增加开始放缓,但在工程和应用层面的相关数据开始增加。而回顾过去五年的NLP领域事件,我们发现除了重要的具体模型算法之外,数据集和实用的开源工具成为该领域里不可忽视的组成部分。除了机器翻译领域Google开源的GNMT,OpenNMT也开源了其自研的神经机器翻译工具包,并且提供了Pytorch和TensorFlow两个不同框架的支持。

数据集Benchmark方面,问答数据集SQuAD经历了1.0、2.0两个代际,自然语言理解综合benchmarkGLUE也经历了一次到SuperGLUE的升级,中文领域也衍生出了类似的评价体系CLUE。随着预训练语言模型的火热与广泛应用,可以预见的是相关的数据集与评估指标还会有新的升级与换代。

Facebook开发并开源了实用文本分类库fastText,OpenAI在三代GPT版本更迭后,于今年的GPT-3发布后不久便开始提供对应的API服务。综合工具方面,微软联合创始人保罗艾伦建立的AllenInstituteforAI于今年正式推出了其自然语言处理工具包AllenNLP,提供完整的自然语言处理流程框架和相应工具。成立于2016年的Huggingface借助Transformer模型的东风,提供多种基于transformer架构模型的调用框架(包括BERT、GPT-2、Transformer-XL、RoBERTa、DistilBERT、BART,以及GoogleT5等近40种不同模型),同时兼容TensorFlow与pytorch。知名语音技术工具包Kaldi也于2017和2018年先后增加了TensorFlow和PyTorch的整合支持。

总体而言,NLP领域每年都有新突破,语音领域在2015~2017年发展迅猛,达到接近人类水平,而后归于稳定、小修小改重点解决局部问题。

*完整的人类语言技术相关影响力事件表请参看报告附录。

3-1-22019~2020年热门技术

根据2019-2020年度技术热词分析结果,该领域的整体热度在本篇报告覆盖的领域里面排第二,仅次于计算机视觉,领域内的技术热词以主流的自然语言处理下游技术任务为主(如机器翻译、问答系统、信息抽取、文本分类等),同时包括一些近年来讨论热度比较高的算法模型框架(如BERT、word2vec、Transformer等),语音识别、语音合成两个语音相关的技术词也同样榜上有名。

具体来说,神经机器翻译、语音识别以及BERT在论文、新闻的热词发现中均名列前茅,除此之外,新闻资讯中的技术热词多是大众讨论度比较高的技术词或偏口语化的技术词,如自然语言处理本身、聊天机器人、以及注意力机制,而论文中则会有比较多相对具体的基础技术任务如文本分类、命名体识别、语义解析等以及相对书面正式的技术词如自然语言理解、问答系统、机器阅读理解。报告、survey中呈现出的高频讨论技术词则多是归纳性质较强的技术任务或方法,如问答系统、序列到序列(seq2seq)、端到端(end2end)模型等。

以下为本领域在各项热门技术词挖掘中综合排名前100的技术词:

技术名词新闻挖掘论⽂挖掘报告/Survey⾃然语⾔处理✓⾃然语⾔理解✓⾃然语⾔推理✓机器翻译✓神经机器翻译✓✓问答系统✓✓对话系统✓聊天机器⼈✓机器阅读理解✓⽂本⾃动摘要⽂本分类✓情感分析✓语⾳识别✓✓语⾳合成⽂本⽣成✓命名体识别✓语义解析✓语法解析词性标注✓语⾔模型✓预训练模型✓ELMOGPTBERT✓✓Transformer✓注意⼒机制✓seq2seq✓word2vec✓词嵌⼊✓表3-1-2-1人类语言技术2019~2020年热门技术词

*为了分析的完整和可对比性,我们额外补充了语音合成、语法解析、文本自动摘要,以及ELMO、GPT等技术词

结合各AI技术分析报告文章、论文survey,社交网络观点、以及专家问卷结果,该人类语言技术章节分析主要从机器翻译、问答系统、阅读理解、文本分类、语音识别、语音合成等热门NLP和语音方面的技术任务,以及相关的热门技术方法如语言模型、序列到序列,词嵌入,BERT等分不同角度切入,从学界问卷、论文专利、以及新闻舆情多数据角度综合分析其本身以及相关技术近五年来的重要事件以及发展趋势,分析细节详情参见报告。

报告全文获取方式

方式二:成为机器之心PRO-VIP会员

自然语言处理的研究现状及发展趋势

AI中国网https://www.cnaiplus.com

自然语言处理(NaturalLanguageProcessing,简称NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。实现人机间自然语言通信意味着要使计算机既能理解自然语言文本的意义,也能以自然语言文本来表达给定的意图、思想等;前者称为自然语言理解,后者称为自然语言生成。近年来,NLP非常火,吸引着人们对它进行研究,并越来越多地应用于各个行业。正如国际知名学者周海中先生曾经所言:“自然语言处理是极有吸引力的研究领域,它具有重大的理论意义和实用价值。”

NLP融计算机科学、语言学、自动化、数学等为一体,是一门综合性的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系,但又有重要的区别。NLP并不是一般地研究自然语言,而是研制能有效地实现自然语言通信的计算机系统,特别是其中的软件系统;因而它是计算机科学的一部分。可以说,NLP是计算机科学、语言学、自动化、数学以及人工智能、知识工程等交叉学科关注计算机和自然语言之间的相互作用的领域。近年来,人工智能技术高速发展,已被应用到各个领域,机械、电子、经济甚至哲学,都有所涉及;人们对它的需求也从计算智能、感知智能到了以NLP为代表的认知智能的层面。没有成功的NLP,就不会有真正的认知智能。因此,NLP被视为人工智能极具吸引力的研究领域以及人工智能必须优先解决的核心问题之一,也被喻为人工智能技术上的“皇冠”。

由于人工智能包括感知智能(比如图像识别、语言识别和手势识别等)和认知智能(主要是语言理解知识和推理),而语言在认知智能起到最核心的作用。如果能把语言问题解决了,人工智能最难的部分也就基本解决了。美国微软公司创始人比尔▪盖茨先生曾经表示,“语言理解是人工智能领域皇冠上的明珠。”前微软公司全球执行副总裁沈向洋先生也在公开演讲时说:“懂语言者得天下……下一个十年,人工智能的突破在自然语言的理解……人工智能对人类影响最为深刻的就是自然语言方面。”由于理解自然语言需要关于外在世界的广泛知识以及运用操作这些知识的能力,所以NLP也被视为解决人工智能完备(AI-complete)的核心问题之一。可以说,NLP目前是人工智能领域的关键核心技术,对它的研究也是充满魅力和挑战的。

NLP涉及的领域较多,主要包括机器翻译、语义理解和对话系统等。它目前面临四大挑战:一是在词法、句法、语义、语用和语音等不同层面存在不确定性;二是新的词汇、术语、语义和语法导致未知语言现象的不可预测性;三是数据资源的不充分使其难以覆盖复杂的语言现象;四是语义知识的模糊性和错综复杂的关联性难以用简单的数学模型描述,语义计算需要参数庞大的非线性计算。例如在对话系统中,深度学习目前已成为对话系统的一项基本技术;神经网络被应用于传统任务导向型对话系统的不同组成部分。近年来,端到端的框架不仅在非面向任务的聊天对话系统中流行,在面向任务的对话系统中也逐步流行起来,但是仍远非完美。又如在语义识别方面,需要对句法进行剖析,因此剖析在对话系统、信息抽娶语法检查中都起着非常重要的作用。

大约20世纪90年代开始,NLP领域发生了巨大的变化,各类分析模型的提出和面向真实语料大规模语义知识库的构建都为其发展提供了坚实的基矗这种巨变有两个明显的特征:(1)对系统的输入,要求研制的NLP系统能处理大规模的真实文本,而不是如以前的研究性系统那样,只能处理很少的词条和典型句子。只有这样,研制的系统才有真正的实用价值。(2)对系统的输出,鉴于真实地理解自然语言是十分困难的,对系统并不要求能对自然语言文本进行深层的理解,但要能从中抽取有用的信息。同时,由于强调了“大规模”和“真实文本”,所以下面两方面的基础性工作也得到了重视和加强:(1)大规模真实语料库的研制。大规模的经过不同深度加工的真实文本的语料库,是研究自然语言统计性质的基础;如果没有这样的语料库,统计方法只能是无源之水。(2)大规模、信息丰富的词典的编制工作。因此规模为几万,十几万,甚至几十万词,含有丰富的信息(如包含词的搭配信息)的计算机可用词典对NLP的重要性是很明显的。

目前存在的问题主要有两个方面:一方面,迄今为止的语法都限于分析一个孤立的句子,上下文关系和谈话环境对本句的约束和影响还缺乏系统的研究,因此分析歧义、词语省略、代词所指、同一句话在不同场合或由不同的人说出来所具有的不同含义等问题,尚无明确规律可循,需要加强语义学和语用学的研究才能逐步解决。另一方面,人理解一个句子不是单凭语法,还运用了大量的有关知识,包括生活知识和专门知识,这些知识无法全部贮存在计算机里。因此一个书面理解系统只能建立在有限的词汇、句型和特定的主题范围内;计算机的贮存量和运转速度大大提高之后,才有可能适当扩大范围。要实现人机间自然语言通信,必须解决NLP文本和对话的各个层次上广泛存在的各种各样的歧义性或多义性,如果解决了这一问题,那么人机间的有效通信。

如果说NLP是人工智能的皇冠,那么语义表示和理解技术就是皇冠上的明珠。目前人工智能领域的发展态势,在语义这一块已经到了重兵集结的程度。句法分析技术的进步,使得我们有希望从结构和算法方向逼近更加精准的语义解析;应用领域数据转化为知识的实践方兴未艾,知识图谱的技术栈里算力充足工具齐全,使得我们有希望从表示的方向为语义架桥铺路添砖加瓦。语义结构表示框架中,现有的知识图谱可以完美描述实体、关系、属性(状态)及其值这三类要素;但是剩下的还有事件、时间、空间、因果条件、逻辑模态等,我们必须对现有的知识图谱结构进行改造,才能适应这些语义要素的表示。

由于语言工程、认知科学等主要局限于实验室,目前来看数据处理可能是NLP应用场景最多的一个发展方向。实际上,自从进入大数据时代,各大平台就没有停止过对用户数据的深度挖掘。要想提取出有用的信息,仅提取关键词、统计词频等是远远不够的,必须对用户数据(尤其是发言、评论等)进行语义上的理解。另外,利用离线大数据统计分析的方法进行NLP任务的研究是目前非常有潜力的一种研究范式,尤其是谷歌、推特、百度等科技企业在这类应用上的成功经验,引领了目前大数据研究的浪潮。

NLP是为各类企业及开发者提供的用于文本分析及挖掘的核心工具,已经广泛应用在电商、金融、物流、医疗、文化娱乐等行业客户的多项业务中。它可帮助用户搭建内容搜索、内容推荐、舆情识别及分析、文本结构化、对话机器人等智能产品,也能够通过合作,定制个性化的解决方案。由于理解自然语言,需要关于外在世界的广泛知识以及运用操作这些知识的能力,所以NLP也被视为解决强人工智能的核心问题之一,其未来一般也因此密切结合人工智能技术发展,尤其是设计一个模仿人脑的神经网络。

训练NLP文本解析人工智能系统需要采集大量多源头数据集,对科学家来说是一项持续的挑战:需要使用最新的深度学习模型,模仿人类大脑中神经元的行为,在数百万甚至数十亿的注释示例中进行训练来持续改进。当下一种流行的NLP解决方案是预训练,它改进了对未标记文本进行训练的通用语言模型,以执行特定任务;它的思想就是,该模型的参数不再是随机初始化,而是先有一个任务进行训练得到一套模型参数,然后用这套参数对模型进行初始化,再进行训练,以获得更好的预测性见解。

我们目前已进入一个以互联网为主要标志的海量信息时代,而这些海量信息大部分是以自然语言表示的。一方面,有关的海量信息可为计算机学习自然语言提供更多的“素材”;另一方面,这也为NLP提供更加宽广的应用舞台。例如,作为NLP的重要应用,搜索引擎逐渐成为人们获取信息的重要工具,出现了以谷歌、百度等为代表的搜索引擎巨头;机器翻译也从实验室走入寻常百姓家;基于NLP的中文输入法(如搜狗、微软、谷歌等输入法)成为计算机用户的必备工具;带有语音识别的计算机和手机也正大行其道,协助用户更有效地生活、工作和学习。

现在,NLP领域已经有了大量的人工标注知识,而深度学习可以通过有监督学习得到相关的语义知识,这种知识和人类总结的知识应该存在某种对应关系,尤其是在一些浅层语义方面。因为人工标注,本质上已经给深度学习提供了学习的目标;只是深度学习可以不眠不休地学习,这种逐步靠拢学习目标的过程,可能远比人类总结过程来得更快、更好。这一点,从谷歌公司旗下DeepMind研究团队开发的围棋软件AlphaGo短时间内连胜两位人类围棋高手的事实,似乎能够得到验证。

深度学习在NLP中的应用非常广泛,可以说横扫NLP的各个应用,从底层的分词、语言模型、句法分析、词性标注、语音识别等到高层的语义理解、语用阐释、对话管理、知识问答等方面都几乎都有深度学习的模型,并且取得了不错的效果。有关研究已从传统的机器学习算法转变成更有表现力的深度学习模型,如卷积神经网络和回归神经网络。不过,目前的深度学习技术还不具备理解和使用自然语言所必需的概念抽象和逻辑推理能力,这方面还有待今后进一步的研究。

有关NLP文本分析的研究目前主要集中于文本表示模型的选择和特征词选择算法的选取上。由于NLP文本是非结构化的数据,要想从大量的文本中挖掘有用的信息就必须首先将文本转化为可处理的结构化形式。人们通常采用向量空间模型来描述文本向量,但是如果直接用分词算法和词频统计方法得到的特征项来表示文本向量中的各个维,那么这个向量的维度将是非常的大。因此,必须对文本向量做进一步净化处理,在保证原文含义的基础上,找出对文本特征类别最具代表性的文本特征。为了解决这个问题,最有效的办法就是通过特征选择来降维。

长文本的智能解析是颇具挑战性的任务,如何从纷繁多变、信息量庞杂的冗长文本中获取关键信息,一直是文本领域难题;这一难题有待解决。另外,训练NLP文本解析人工智能系统需要采集大量多源头数据集,对科学家来说是一项持续的挑战:需要使用最新的深度学习模型,模仿人类大脑中神经元的行为,在数百万甚至数十亿的注释示例中进行训练来持续改进。当下一种流行的NLP解决方案是预训练,它改进了对未标记文本进行训练的通用语言模型,以执行特定任务。

互联网搜索引擎已经有一段时间让人们使用会话语言和术语来在线搜索事物。现在,谷歌公司的云端硬盘用户已经可以使用这一功能。用户可以搜索存储在谷歌云端硬盘中的文件和内容,就像使用谷歌搜索提供的对云端硬盘内置NLP的新支持一样。该功能使用户可以使用通常用词组表达的查询以及在实际对话中将要使用的查询来更轻松地找到所需的内容。谷歌公司在在线和移动搜索、移动应用程序以及GoogleTranslate等服务中广泛使用NLP;该公司在这一领域的研究是为提高机器阅读和理解人类语言能力所做的更广泛努力的一部分。随着谷歌调整其算法,NLP应该会随着时间的推移变得更好。

近年来,NLP处于快速发展阶段。各种词表、语义语法词典、语料库等数据资源的日益丰富,词语切分、词性标注、句法分析等技术的快速进步,各种新理论、新方法、新模型的出现推动了NLP研究的繁荣。互联网技术的普及与世界经济社会一体化的潮流对NLP技术的迫切需求,为NLP研究发展提供了强大的市场动力。NLP研究成果在服务应用的同时,而且还促进新兴学科,如生物信息学等的发展。另外,对于NLP的认识正促使计算机的体系结构发生着变化,NLP能力的提升将是下一代计算机追求的重要目标。

英国剑桥量子计算公司(CQC)最近宣布,他们利用自然语言的“固有量子”结构,开辟了一个全新的可能应用领域。其通过将语法句子翻译成量子线路,然后在量子计算机上实现生成的程序,并实际执行问答。这是第一次在量子计算机上执行NLP。通过使用CQC的一流的、平台无关的可重定目标编译器t|ket??,这些程序在IBM量子计算机上成功执行并得到结果,整个突破朝着实现“意义感知”和“语法知悉”的NLP方向迈出了有意义的一大步--这是计算机时代早期以来计算机科学家及计算语言学家追寻的梦想。

美国哈佛大学医学院的研究人员借助NLP技术日前开发出一种工具,可以评估新冠肺炎(COVID-19)患者的病例、社交媒体和健康卫生数据。他们率先努力通过使用机器学习技术查看来自各种来源的数据和信息(包括患者记录、社交媒体和公共卫生数据)来寻找新冠肺炎病毒的解决方案。借助NLP工具,他们还可以搜索有关新冠肺炎病毒的在线信息,并了解爆发的当前位置。另外,研究人员还利用NLP技术对新冠肺炎、药物和疫苗等密集展开研究,同时包括临床诊断与治疗以及流行病学研究等。

一个完整的NLP系统通常包含语音识别、语义识别、语音合成三部分;其中,中国的一些科技企业在语音识别和语音合成已处世界领先地位。语音识别是指让计算机“听到”人的语音,目前已经比较成熟,尤其汉语的语音识别领先英语;如百度、搜狗、科大讯飞,识别率均已达到97%左右。语音合成是指计算机将“回复”给人的语句,通过合成音频的形式,利用扬声器外放;目前,科大讯飞的语音合成技术代表了世界领先水平。

中国阿里达摩院的NLP研究团队最近提出优化模型StructBERT,能让机器更好地掌握人类语法,加深对自然语言的理解。使用该模型好比给机器内置一个“语法识别器”,使机器在面对语序错乱或不符合语法习惯的词句时,仍能准确理解并给出正确的表达和回应,大大提高机器对词语、句子以及语言整体的理解力。这一技术已广泛使用于阿里旗下阿里小蜜、蚂蚁金服、优酷等业务。阿里达摩院的语言模型和阅读理解技术也被用于行业赋能,推进人工智能技术在医疗、电力、金融等行业的落地。据悉,StructBERT模型最近被评为全球性能最强的NLP系统。

根据市场分析机构MordorIntelligence的一份报告,2019年全球NLP市场价值为109亿美元,预计到2025年将达到348亿美元,复合年增长率为21.5%。该报告指出,在过去的几年中,深度学习架构和算法在市场格局中取得了令人瞩目的进步,而语音分析解决方案正在主导着这一市场,因为传统的基于文本的分析已不足以处理复杂的业务问题。

总之,随着互联网的普及和海量信息的涌现,作为人工智能领域的研究热点和关键核心技术,NLP正在人们的生活、工作、学习中扮演着越来越重要的角色,并将在科技进步与社会发展的过程中发挥越来越重要的作用。

文/林峰(作者单位:美国波士顿大学工学院)

AI中国网https://www.cnaiplus.com

本文网址:

张博, 董瑞海|自然语言处理技术赋能教育智能发展——人工智能科学家的视角

张博,爱尔兰都柏林大学教育技术与创新博士;华东师范大学教育信息技术系助理研究员。

目录概览

一、引言

二、人工智能科学家

三、对自然语言处理定义的理解

四、自然语言处理关键前沿技术

五、自然语言处理技术加快赋能教育智能发展

六、自然语言处理技术在智能教育发展中的应用趋势与挑战

一、引言

自然语言处理(NaturalLanguageProcessing,NLP)于20世纪50年代末兴起。“图灵测试”的出现被认为是自然语言处理发展的开端。60年代,人工智能领域的第一次发展高潮出现,孕育出自然语言处理和人机对话技术。70年代开始,基于统计的方法逐渐代替了基于规则的方法。90年代中期以来,计算机的运行速度和存储量大幅度增加,为自然语言处理技术的飞速发展提供了硬件基础。同时,随着互联网商业化和网络技术的发展,基于自然语言的信息检索、提炼,以及语言翻译和理解的需求日益增加,这些都促使语音和语言处理技术逐渐产品化并被广泛应用。到了21世纪,自然语言处理技术的突破进展,已经使人工智能(ArtificialIntelligence,AI)系统的语音能力、语言能力等得到前所未有的提高,并开始对全球发展产生重要的经济影响。

人工智能尤其是自然语言处理技术的快速发展给教育领域带来了巨大的机遇(Alhawiti,2014),并衍生出人工智能+教育。人工智能教育,又称智能教育(ArtificialIntelligenceinEducation,AIED),是人工智能技术对教育的赋能,具体是指通过人工智能技术在教育领域的运用,来实现辅助、优化教与学过程,甚至是替代教师完成一些机械性工作,以提升教育质量,实现个性化学习等目标(吴永和,刘博文,马晓玲,2017)。作为人工智能最重要的一部分,自然语言处理的快速发展,对教育实现智能发展具有关键的促进作用。郑南宁指出自然语言处理技术有望帮助教师从简单重复的教学工作中解放出来,比如,降低教师作业批改的工作量,使他们有更多时间专注学生全面长远的发展(郑南宁,2019)。其次,自然语言处理技术可以促进传统教学方法、教学环境的变革,比如提供更多元化的教学材料、更丰富的交互方式、更加个性化的教育模式等(清华大学人工智能研究院,2020)。未来教师将不仅仅是知识的传授者,也将成为智能化满足学生个性化学习需求的教学实践者。本文旨在通过对国内外AI科学家近几年公开发表的访谈、演讲、会议报告、论文等数据进行分析,梳理自然语言处理关键技术的发展趋势,探讨其赋能教育智能发展的现状,以及在未来智能教育发展中的应用趋势与挑战。

二、人工智能科学家

人工智能的持续发展离不开AI科学家的不断探索和创新,他们是技术持续发展的推动者,是技术应用趋势的预测者,他们会在各种重要场合(例如,访谈、演讲、国际会议等)发表最新的研究,以及对人工智能未来发展趋势的看法。AI科学家乐观预测自然语言处理技术将进一步发展成熟,并在未来被应用到更多领域,尤其是教育领域。2019年,刘群在知乎专访中提到自然语言处理让机器变得善解人意(知乎,2019)。沈向洋在公开演讲时表示,下一个十年人工智能的突破在自然语言的理解方面(清华大学,2020)。2017年,吴达恩在斯坦福的人工智能年度报告中提出,随着深度学习的快速发展及其在自然语言处理领域的广泛应用,自然语言处理技术正在经历关键的革命时刻,这将促进新应用程序的繁荣(例如,教育机器人),并为其他领域的发展带来创新(Shoham,Perrault,Brynjolfsson,&Clark,2017)。2020年,StuartJonathanRussell在展望未来5—10年人工智能对人类社会的影响时强调,如果AI智能系统能更精确地理解人类语言,其将在人类日常的学习与生活中扮演更重要的角色,并认为未来十年将迎来语言理解的重大突破(Russell,2020)。在2020年中国人工智能学会(ChineseAssociationforArtificialIntelligence,CAAI)的特约专栏中,宗成庆提出,自然语言处理最终要解决的是人类语言的理解问题,是可以使智能系统实现更精准的性能水平,是可以满足个性化用户需求,甚至让机器做到像人一样理解自然语言的问题(宗成庆,2020)。因此,了解自然语言处理技术的发展历程及其赋能教育智能发展的现状,探究其对未来智能教育发展的影响,是本研究的重点。

本文以自然语言处理的技术发展及其在智能教育领域中的应用与实践为主题,收集了44位AI科学家发表的相关观点与研究,旨在探讨AI科学家视角下自然语言处理技术赋能教育智能发展的现状。在收集到的数据中,国外AI科学家23名,主要来源于美国人工智能协会(theAssociationfortheAdvancementofArtificialIntelligence,AAAI);国内AI科学家21名,主要来自中国人工智能学会(ChineseCongressonArtificialIntelligence,CAAI)。

数据显示,本研究所涉及的AI科学家中,男性36人,占总样本的82%;女性8人,占总样本的18%,如图1(a)所示。其次,AI科学家的工作单位所在国家分布情况如图1(b)所示,中国科学家最多,占总样本的48%,美国科学家占39%,其余科学家分布在英国、爱尔兰、加拿大、智利、泰国和巴基斯坦。数据结果从侧面印证,中国和美国是目前全球研究自然语言处理及其在教育领域应用方面的两个主要国家(戴静&顾小清,2020)。

图1AI科学家分布情况

三、对自然语言处理定义的理解

自然语言处理主要研究人与计算机之间用自然语言进行有效交流的各种理论和方法。自然语言是指汉语、英语等人们日常使用的语言,而语言是人类学习的重要工具。自然语言处理技术可以广泛应用于师生教与学的活动过程中,自然语言处理是教育智能发展的基础。由于自然语言处理技术涉及多种不同的任务,基于AI科学家的视角,我们可以从四个层次对自然语言处理的定义进行理解:

二是对自然语言的理解。在对文本进行处理的基础上,自然语言处理技术会理解文本包含的意义,比如表达意图、情感、情绪等理解过程。刘群解释,自然语言处理的研究对象是人类语言,如词语、短语、句子、篇章等。通过对这些语言单位的分析,计算机不但可以理解语言所表达的字面含义,还可以理解人类语言所表达的情感以及语言所传达的意图(知乎,2019)。

三是交互,即人类通过自然语言与计算机进行交流对话,例如,人机问答–教育机器人、浏览器搜索、智能电子设备的信息沟通等。DanJurafsky认为,自然语言处理是实现人与计算机之间用语言进行有效通信的方法,是了解人类心理和态度的最佳途径(Dan,2017)。DragomirRadev认为,自然语言处理可应用于人机问答、情感分析、机器翻译、语义分析、拼写纠错等教育活动,但是话语意图分析、习惯性表达、语义相关等方面的语言理解使得自然语言处理发展遇到挑战(Dragomir,2017)。

四是创新,即计算机可以通过语言理解进行智能创作,包括写作辅助、图文自动生成等。例如,2021年,IIyaSutskever宣布,语言模型将开始了解视觉世界,通过自然语言的输入,系统可以智能生成各种具有创造性的图像(OpenAI,2021)。

何晓东认为,自然语言处理作为人工智能的核心技术,主要用于连接人类和计算机世界的交流(何晓东,2019)。从自然语言处理定义的四个层次可以看出,基于自然语言处理技术可以开发出具有互动性、创新性、个性化的智能工具来赋能教育的智能发展。AI科学家期望随着自然语言处理技术的不断优化,相关智能工具的性能会被不断提高,并为未来的智能教育带来更好的体验。

四、自然语言处理关键前沿技术

随着自然语言处理技术的快速发展,它在教育领域的应用取得了突破性的进展,越来越多的智能工具与系统逐渐被广泛地应用于教学活动中。然而,这些突破性的进展离不开一系列关键技术的涌现。为了更好地理解自然语言处理的一些技术原理,基于AI科学家的研究进展,本节对自然语言处理发展过程中涌现的关键技术进行详细讨论。例如,随着新词嵌入方法的出现,计算机对自然语言的理解更加精准与高效,随着大规模语料库预训练模型的不断发展,多种自然语言处理任务的性能得到显著提高。这些自然语言处理关键技术的进步是智能教育不断发展的重要基石。

(一)新词嵌入方法的出现

依据上文的描述,计算机在基于自然语言处理学习读懂自然语言的过程中,最先开始学习的是文本中词汇的理解与表达。在深度学习出现之前,在自然语言处理问题的机器学习方法中,我们一般采用一种高维但稀疏的向量来表达词汇,比如One-hotEncoding。然而这种方式不仅带来计算空间的浪费,还会影响系统模型的性能,因为系统不能理解单词之间的相关性。其次,早期的基于奇异值分解的LSI/LSA(LatentSemanticIndexing/LatentSemanticAnalysis)(Hofmann,1999)、基于概率分布的LDA(LatentDirichletAllocation)(Blei,Ng,&Jordan,2003)等系统模型在对单词的语义理解上取得较大进步,但这类模型计算比较耗时,并需要对不同语料库的主题与数量进行合理的选择。2003年Bengio等人提出神经语言模型(NNLM),使深度学习开始应用于自然语言处理(Bengio,Ducharme,Vincent,&Janvin,2003);2013年,Mikolov等人构建CBOW和Skip-Gram模型,通过观察共现词汇并引入负采样等可行性措施,实现了高密度词向量的表达方式(Mikolov,Chen,Corrado,&Dean,2013)。GloVe(Pennington,Socher,&Manning,2014)也是生成词向量的有效方法,它是一种基于词统计的模型,可使词向量拟合预先基于整个数据集计算得到的全局统计信息,从而能高效地学习词的表征。

其次,随着迁移学习技术的进步(庄福振,罗平,何清,&史忠植,2015),AI科学家尝试构建多语言统一的词向量(MultilingualWordEmbedding,MWE)方式(Ruder,Vulic,&Søgaard,2019),也就是在统一词向量空间中表示来自多种语言的词汇。AI科学家尝试采用无监督的MWE方法来获得统一的词嵌入表达,与传统的监督方法相比,这一方法可以利用近似无限的未标注语料库,从而为低资源语言(应用范围比较小,缺乏标注的数据)开辟了许多新的可能性(Conneau,Lample,Ranzato,Denoyer,&Jégou,2017;Zhang,Liu,Luan,&Sun,2017)。

(二)超越词袋模型

随着计算机对单词表达能力的提升,如何提取文本(例如句子、篇章)中的高级语义信息,是实现自然语言处理任务的关键,例如,基于文本信息的情感分析、问答系统、机器翻译等任务。随着文本提取技术的不断创新发展,自然语言处理的任务性能得到显著提高。早期的词袋(BagofWords)模型忽略了语句中词语之间的依赖关系。比如,在词袋模型中,“我喜欢苹果,不喜欢鸭梨”和“我喜欢鸭梨,不喜欢苹果”两个句子是相同的表达。深度学习技术对语境和序列信息的捕获能力为语义的理解带来了变革。卷积神经网络(CNN)是早期被采用对自然语言词汇序列进行特征提取的模型,其擅长捕获局部语境信息,然而CNN无法满足语言序列长期记忆性的要求。因而,循环神经网络(RNN)被广泛应用。RNN的执行思路是通过系统中共享的参数进行序列信息的处理(Cho,etal,2014)。原始的RNN模型容易出现梯度消失和爆炸的问题。因而,经过改良,LSTM和GRU模型(RNN的升级版)开始被广泛应用于各种自然语言处理任务中,它们通过门控制技术极大地提高了各种任务的性能。

此外,注意力机制(Attention)被提出并被应用到机器翻译的任务中,不仅改善了翻译的性能,还增强了模型的可解释性(Bahdanau,Cho,&Bengio,2014)。2017年,AshishVaswani团队扩展了注意力机制,首次提出Transformer模型结构(Vaswani,etal,2017)。Transformer模型完全去除了编码中的循环和卷积,仅依赖多头注意力机制和位置编码来分析语义信息,使翻译、解析等任务的训练时间大幅缩短。同时,注意力机制的Transformer模型是基于大规模语料库训练的预训练语言模型的重要基石之一,为自然语言处理技术的进一步发展带来重大突破。

(三)基于大规模语料库的预训练语言模型

随着基于大规模语料库的预训练语言模型的出现与不断创新,自然语言处理获得了跨越性发展,它可以实现的任务越来越多元化,并且任务性能更加精确与高效。SebastianRuder在2021年公开发表的报告中,对2018年到2020年自然语言处理预训练语言模型的发展进行了总结(Sebastian,2021),如图2所示,预训练语言模型的发展越来越趋于大规模化。2018年,AlecRadford团队发布了GPT(GenerativePre-trainingTransformer)语言模型,这是一套人工智能的生成网络模型,可以通过文字、图片、音乐、一段程序或者数据分析结果来智能化生成新的内容。2018年,基于Transformer,JacobDevlin团队发布了BERT(BidirectionalEncoderRepresentationsfromTransformers)预训练语言模型(Devlin,Chang,Lee,&Toutanova,2018)。2019年,OpenAI发布GPT–2无监督的转化语言模型,它可以基于一个特定的线索,自动编写出文本内容。2020年,TomBrown团队提出GPT–3语言模型,可以将学习能力转移到同一领域的多个相关任务中,既能做组词造句,又能做阅读理解(Brown,etal.,2020)。2021年,WilliamFedus团队首次提出一个1.6万亿参数的自然语言处理模型——稀疏激活专家模型(SwitchTransformer)(Fedus,Zoph,&Shazeer,2021)。SwitchTransformer模型的突破在于,它可以在使用相同计算资源的情况下使预训练速度提高7倍以上,同时保证模型质量得到30%的提升。

图2自然语言处理近期模型规模发展史

由此可知,随着这些自然语言处理关键技术的不断优化,自然语言处理任务逐渐被简化,并实现应用的通用化,这对各领域尤其是智能教育领域的发展产生了重要的影响。数据显示,随着BERT以及BERT衍生模型的快速发展,自然语言处理任务在阅读理解、文本分析、语言翻译、情感分析等应用上都迎来了突破和创新(Matthew,2020)。这些关键技术的优化发展对开发可以应用在教育领域的智能工具至关重要,因为智能工具可以实现教育系统中各环节要素的自动分析,实施精准干预,支持规模化教学与个性化学习等机制(彭绍东,2021)。因此,自然语言处理技术的快速发展会促进教育领域智能工具的开发,而这些智能工具在学、教、管、评的教育活动中不断创新优化与实践的过程,就是自然语言处理赋能教育智能发展的过程。

五、自然语言处理技术加快赋能教育智能发展

在过去近40年,自然语言处理领域逐渐出现10个研究热度较高的技术话题,包括情感分析、机器翻译、问答、语言模型、神经网络模型、语义表示、知识图谱、词对齐、条件随机场和词义消歧(清华大学,2020),如图3所示。其中,2003年以后,情感分析的研究热度迅速增长,其基于自然语言处理的数据挖掘技术被应用于提取和分析用户生成语言中的主观信息,而机器翻译、问答系统等技术研究热度也一直保持上升态势。何晓东预测,自然语言处理技术在未来可能会从文本分析、文本创作、情感智能、机器翻译、智能对话(例如语音助手、聊天机器人)等方向取得重大突破;而这些技术方向的发展都与智能教育的未来发展密切相关(何晓东,2019)。具体来说,智能教育也是基于多元化的教育数据进行分析,以了解师生教与学过程中的各种需求,然后提供评估反馈和智能化的解决方案,并应用于“教、学、评、测、练”五大环节(前瞻产业研究院,2020)。结合上文中介绍的自然语言处理关键技术的原理知识,本节将基于AI科学家的研究实例,深入探讨五种在教育领域被广泛应用的自然语言处理技术,以及这些技术赋能教育智能发展的实践与创新。

图3自然语言处理领域技术研究发展趋势

(一)情感分析与情绪分析

目前,基于自然语言处理的情感分析技术逐渐应用于教育领域。情感分析(SentimentAnalysis)是指利用自然语言处理的文本挖掘技术,对带有情感色彩的文本进行抽取、分析和处理,从而发现潜在的问题以用于预测或改进(Yang,Cunningham,Zhang,Smyth,&Dong,2021)。郑耀威在2020年的AAAI会议上,提出了新的分析方法,使用语法信息增强了语句多方面情感分类的效果(Zheng,Zhang,Mensah,&Mao,2020)。情感分析在教育领域的应用是,通过对学生的课程反馈、教师评价、课程论坛评论等文本信息进行分析,智能化预测学生对学校教育教学现状的态度,评估教师授课质量,等等。例如,HeatherNewman等人使用情感分析工具VADER分析学校教与学的评价信息,以研究学习环境对改善学生学习的体验,以及对教师教学的体验(Newman&Joyner,2018)。QuratulainRajput等人基于情感分析指标,对某课程结束后学生提交的反馈报告进行多种方法的文本分析,使教师教学评估更加高效(Rajput,Haider,&Ghani,2016)。因此,分析学生对学校政策、教学活动等事件的反馈与态度,可以使教育组织更加了解学生的需求,不断提高教学质量,提供更具个性化的教育环境。

而情绪分析(EmotioinAnalysis)主要是分析用户的状态、情绪等(比如高兴、沮丧、失落、抑郁等)(Koelstra,etal.,2011)。情绪分析在教育领域逐渐被应用于学校舆情监督、心理观察等方面。例如,利用自然语言处理系统模型监督学校论坛上的评论、留言等信息,可以实时分析学生情绪,在观测到学生感到沮丧失落的时候,学校可以及时做出安抚和应对措施。AngelinaTzacheva等人基于计算机科学课程学生反馈的评估数据,通过为每个文本注释创建多个标签,自动检测学生反馈中的情绪以了解学生对课堂教学模式的感受,从而帮助教师改善教学(Tzacheva,Ranganathan,&Jadi,2019)。

(二)文本分类

文本分类是自然语言处理在教育领域应用的另一个重要模块,它旨在通过分配不同的标签对文本信息(例如句子、段落)进行分类。文本信息可以有不同的来源,包括电子邮件、论坛留言、社交媒体、教学评价、教学材料等。自然语言处理的文本分类技术广泛应用于教育领域的不同任务中,包括问题解答、个性化学习推荐、图书馆内容管理、新闻分类、内容审核等(Minaee,etal.,2021)。随着技术的发展,文本分类技术的研究也在不断进步。2020年,阿里云推出的智能文本分类服务,可以按照给定的类目体系对用户提供的文本进行自动分类(阿里云,2020)。邱锡鹏团队提出的多尺度注意力的文本分类方法使语言的理解结果更优化(Guo,Qiu,Liu,Xue,&Zhang,2020)。随着文本分类模型系统性能的提升,相关的智能工具性能也在不断优化,并被广泛应用于阅读等级分类、作文自动批改等方面。

阅读等级分类是衡量阅读难度的标准之一,文本可读性对于阅读教学材料、教材编排等有重要意义。自然语言处理在教育文本阅读方向的一个重要应用是阅读分级。阅读分级测评体系通过计算机对大量的文本、书籍进行自动处理并分析其难度,然后为不同水平的学习者提供不同难度的学习资料。例如,蓝思(Lexile)阅读测评体系(Ardoin,Williams,Christ,Klubnik,&Wellborn,2010)基于书籍难度和读者阅读能力两个指标进行分级,使学习者可以轻松选择适合自己的书籍。迷雾指数(TheGunningFOGIndex)(Swieczkowski&Kułacz,2021)是一种针对英语文本的可读性测试,该模型系统可从词数、难度、完整思维的数量、平均句长等方面考察一篇文章的阅读难度,并评估出适合阅读此文章的阅读者的正规教育年限,比如,当读物的迷雾指数为12时,阅读者大概需要相当于高中生的阅读水平。2020年,唐玉玲等人提出结合语言难度特征的句子可读性计算方法,构建了规模更大的汉语句子可读性语料库,提高了评估准确率,优化了汉语材料的可读性应用(Tang&Yu,2020)。

(三)问答与对话系统

随着智能机器人逐渐被应用于教育领域,问答与对话系统的性能(例如,准确度、智能化、个性化)优化一直受到AI科学家的关注。问答系统(QuestionAnsweringSystem,QASystem)是用来回答用户提出问题的系统,其设计思想是由计算机负责解析并理解由用户提出的自然语言(问题),并从当前收集的所有问答集中检索出最适合的答案返回给用户。目前,基于自然语言处理的问答系统任务的准确性已经可以超越人类水平的基准线,并逐渐达到专家水平。例如,基于斯坦福问答数据集(StanfordQuestionAnsweringDataset,SQuAD)的文本理解挑战赛,就是检验计算机阅读理解水平的权威测试。2018年,PranavRajpurkar团队提出SQuAD2.0,该数据集可以测试模型系统回答阅读理解类问题的准确度(Rajpurkar,Jia,&Liang,2018)。基于SQuAD2.0官网数据,本文整理了从2018年到2021年,问答系统模型执行能力的变化趋势。如图4所示,随着模型系统的不断升级,一些模型系统获得的精确匹配度(ExactMatch,EM)和准确度(F1)分值不断提高,逐渐超越人类水平的基准线(EM86.831,F189.452),并达到了前所未有的新高度(EM90.871,F193.183)(SQuAD2.0,2021)。刘知远团队提出,基于BabelNet(一种多语言的百科全书词典)为多种语言建立统一的义位知识库(Qi,Chang,Sun,Ouyang,&Liu,2020),可优化知识库的构建。2021年,严睿团队提出的检查模型优化了回答阅读理解问题的答案生成响应效能(Chen,etal.,2020)。这说明自然语言处理任务在智能化地执行阅读理解和问答测试方面的技术越来越成熟,这些技术衍生的智能工具可以在教育系统中帮助师生提高教与学的效率。

图4基于SQuAD2.0的测试结果

此外,对话系统属于多轮次对话的问答系统(例如,聊天机器人)。不同对话系统具有不同的复杂程度,有简单的单行响应对话系统(基于人工模板的聊天机器人),也有复杂的多轮次对话系统(数字语音助手)。现有的检索式对话系统可能会出现忽略上下文相关性而只能回答简单问题的情况,而严睿团队提出的基于预训练语言模型的文本–回复匹配模型,可以显著改善这个问题(Xuetal.,2020)。车万翔团队开发的目标管理模型使开放式对话能够获得更连贯且更有趣的多轮对话(Xu,Wang,Niu,Wu,&Che,2020)。在个性化对话系统的创新中,张亦驰提出的一种基于多动作数据增强的学习框架,可以有效学习到多样化的对话策略(Zhang,Ou,&Yu,2020)。黄民烈团队提出的个性化对话生成模型,可以在对话生成的时候控制回复中所展现的个性化属性(Zheng,Zhang,Huang,&Mao,2020)。而随着自然语言处理中对话系统的不断创新与发展,AI科学家开始将智能对话系统实现在教育机器人领域。例如,麻省理工学院媒体实验室(MITMediaLab)的CynthiaBreazeal团队设计的“社交机器人”,是可以与人合作的社交、情感智能机器,能满足从孩子到老年人各年龄段新技能的学习和情感需求(Cynthia,2019)。余胜泉团队开发的一个新颖实用的对话系统,专门帮助教师和家长为学生解决德育方面的困扰,可以精确理解用户的问题并实时推荐适合的解决方案(Peng,etal.,2019)。2021年,陈鹏鹤团队设计并创建了一个名为PBAdvisor的智能助手,它可以帮助没有心理学专业知识的老师和家长轻松地就学生的问题行为找到合适的解释方案,并解释问题行为形成的原因(Chen,Lu,Liu,&Xu,2021)。同年,卢宇团队开发了新型智能辅导系统RadarMath,以支持智能化的、个性化的数学学习教育。该智能辅导系统可以为学习者提供自动评分、个性化学习指导等服务(Lu,Pian,Chen,Meng,&Cao,2021)。这些智能对话系统可以在不同的教学环境中提供人性化的交互方式和个性化的智能辅导与教学,可见,基于自然语言处理技术的教育机器人展示了其在未来智能教育发展中巨大的应用前景。

(四)机器翻译系统

机器翻译是另一个广泛应用于教育领域的自然语言处理技术。机器翻译(MachineTranslation,MT)是利用计算机将一种自然语言(源语言)转变成另一种自然语言(目标语言)的自动翻译(Russell&Norvig,2002)。随着技术的不断发展,神经网络机器翻译(NeuralMachineTranslation,NMT)于2013年被提出(Kalchbrenner&Blunsom,2013)并迅速发展,它在文本翻译、对话系统和文字概括方面的性能不断得到优化和提升。在机器翻译任务中,双语互译质量评估辅助工具(bilingualevaluationunderstudy,BLEU)是非常重要的指标。2002年,KishorePapineni首次提出BLEU指标,其设计思想是机器翻译结果越接近专业人工翻译的结果,模型系统的效果就越佳(Papineni,Roukos,Ward,&Zhu,2002)。依据2018年斯坦福发布的人工智能年报,如图5所示,在2008年到2018年期间,模型系统在将新闻从英语翻译成德语的BLEU分数是2008年的3.5倍,而从德语翻译成英语的BLEU分数是2008年的2.5倍(Shoham,etal.,2018),这表明了机器翻译性能在过去十年的快速发展。

图5新闻稿翻译——WMT竞赛

通过以上分析可以发现,应用于教育领域的自然语言处理技术仍在快速发展,并不断赋能智能教育的发展与创新。随着智能工具的普及与成熟,越来越多的学生开始自主选择适合自己的智能学习工具,以满足个性化的学习需求。学校教师也开始在教学中应用智能批改、智能搜索、虚拟现实、智能学情分析等智能技术辅助备课、教学以及对学生的评估与管理,以增强课堂的趣味性、有效性和个性化。然而,自然语言处理技术赋能未来智能教育发展的过程中,机遇与挑战是共存的。

六、自然语言处理技术在智能教育发展中的应用趋势与挑战

基于上文的讨论,自然语言处理俨然已经成为智能教育未来发展过程中最重要的人工智能技术。同时,自然语言处理正在结合其他人工智能技术,给智能教育的未来发展带来新的机遇,同时也给传统的教育方法带来了新的挑战。

(一)智能教育未来发展趋势

迈向大规模个性化教育个性化教育是智能教育时代变革的必然趋势。《教育信息化十年发展规划(2011—2020年)》指出要为每一名学习者提供个性化学习的信息化环境和服务。通过本文的讨论可以发现,基于自然语言处理技术的智能工具可以为师生的教与学提供智能化、个性化的解决方案。未来的个性化教育,将主要建立在师生充分交互的大数据获取基础上。通过对这些教育数据的统计分析,可实现学生个性化评估反馈、以学定教、自动化辅导与答疑,并智能化推荐适合学生的学习内容,以提升学习效率与质量,从而实现大规模因材施教。其次,基于自然语言处理技术的智能推荐系统将更精确地对师生的教与学活动进行赋能,将标准化、专业化的传统教育逐渐转型为个性化、多样化的智能化教育。

教育智能化的战略布局2020年以来,疫情的蔓延加速了线上线下融合教学模式的普及:以学生为中心,通过智能技术连接线上和线下、虚拟和现实的学习场景,形成智能化教育场景生态,为实现个性化教学新样态提供了基础。在智能时代,教育组织、技术型企业机构以及社会相关部门应该密切沟通,相互合作,在分析人工智能最新技术范式和理念的基础上,明确教育智能化的发展方向,系统审视其应用场景,助力我国教育智能化建设。基于国家对智能时代教育发展的政策支持,结合我国国情,跨领域的合作应该从实践层面分析人工智能与教育系统各要素融合的路径,阐释智能教育理念下未来教育的体制机制、服务模式和治理体系,并形成有中国特色的人工智能教育发展战略布局。

(二)智能教育未来发展中的挑战

完善智能教育理论体系与传统教育不同,智能教育时代的教学方法、评价模式等都需要进行改进,以建设与智能时代相适应的教育观念与理论。伍红林曾表示,在智能技术支持下,教育学的学科形态和使命都将发生转变,例如,一些新的跨学科分支将产生,并有可能成为研究主流(伍红林,2020)。人工智能的快速发展正在逐步推动教育学基本理论研究的新变化,而教育存在形态的变化可能引起教育学原有研究领域和理论内涵的转换与更新,这将迫使教育学主动对其他学科进行吸收与转化。因此,随着人工智能技术的快速发展,我们应该对传统教育学理论进行完善,抓紧建构适应人工智能时代的教育学理论体系。

加强教育数据治理随着智能教育系统中自然语言处理技术的不断应用,教育数据的积累已经在一定程度上实现了教与学的自动化和智能化,然而,这其中也潜藏着风险。近年来,智能技术伦理、教育数据安全方面的一些问题受到很多关注,比如,个人数字信息的过分暴露可能会对教师与学生的隐私、安全等造成严重的负面影响(清华大学,2020)。因此,加强智能教育时代的数据治理研究已经刻不容缓。数据治理的能力决定着未来教育发展的水平和布局,所以教育组织应该:(1)搭建智能化数据资产平台,建立数据收集、整合、治理、存储的常态化监控体系;(2)建立有效的数据共享、管理与保障体系,通过对师生行为数据进行梳理,建立全局数据字典,完成数据的标准化和治理化;(3)建设跨校区统一支撑平台,加强统一身份认证、课程认证、学分认证、教师角色定位等问题的治理,保障数据的隐私性。因此,搭建智能教育数据资源及管理平台,构建智能教育大数据的治理体系,是人工智能时代未来智能教育建设的关键路径。

进一步优化教育智能技术沈向洋曾表示:“人工智能要真正达到人类思维水平,特别是在认知方面,还有很长的路要走。”(沈向洋,2018)尽管人工智能依靠深度学习取得了快速的发展,却仍需要依赖大规模标注的数据进行监督训练,因此,要实现真正的人类智能,计算机还需要掌握大量的常识性知识,以人的思维模式和知识结构来进行语言理解、视觉场景解析和决策分析。刘群曾指出,关于自然语言处理模型系统的学习问题,尽管很多知识点的逻辑推理对人类来说不是问题,但是计算机理解起来却有困难;同时,自然语言处理还面临着标注数据资源贫乏的问题,例如,小语种的机器翻译、特定领域对话系统、多轮问答系统等,都将使自然语言处理在教育领域的应用面临挑战(知乎,2019)。在2021年麻省理工学院的人工智能会议上,LexFridman提出希望自然语言处理在未来智能教育的发展过程中可以使常识推理与语言模型相结合,通过上下文信息实现从有限的句子智能写作到包含数千个词语的段落篇章写作(Lex,2021)。关于其他新兴智能技术,例如,智能教学机器人、脑机接口改善学习能力等,则还需要进一步成熟与优化,并加快应用于教育的智能发展。

(张博工作邮箱:bzhang@ed.ecnu.edu.cn)

上期回顾

特稿

尤西林:中国当代通识教育的起源背景与现状问题——兼论通识教育“评估−调整”机制的意义

高等工程教育

乔伟峰等|基于共同体准则的治理:工程教育认证的理论源流与实践走向

曾开富等|中美研究型大学工程教育制度与理念研究——基于语料库的批判话语分析方法

李曼丽等|新时期本科教育拔尖创新人才培养模式探索——一项关于清华“钱班”12年试点的质性研究

基本理论与基本问题

吴瑞君等|我国人口在校模式高质量发展研究

李小红等|家庭文化资本对学生阅读素养的影响:基于多层logistic模型的实证研究

杨钋,颜芷邑|寄宿如何影响学生的心理健康?

郑磊,孙钰|有志者,事竟成——学生意志力对认知能力的异质性影响

蔡庆丰等|交通基础设施改善会提升家庭教育期望吗?——基于“中国家庭追踪调查”的实证分析

李毅,李纪阳|社会博弈与公共理性:义务教育“公民同招”的治理逻辑与路径

本刊声明

一、本刊对所有来稿不收取任何费用,也未委托任何机构或个人代为组稿。

二、本刊严禁一稿多投,如因作者一稿多投给本刊造成损失的,本刊保留追究作者法律责任的权利。

三、作者投稿请登陆华东师范大学学报期刊社官方网站(www.xb.ecnu.edu.cn)。

华东师范大学学报期刊社

华东师范大学学报期刊社微信矩阵

我知道你在看哟返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇