人工智能导论期末复习题
文章目录@[toc]期末复习题一一、选择题二、填空题三、判断题四、简答题期末复习题二一、选择题二、填空题三、判断题四、简答题期末复习题一一、选择题1.【多选题】在卷积神经网络中,常用的池化方法有(ABC)A.最大池化法B.平均池化法C.概率池化法D.最小池化法
2.【单选题】本原问题所对应的节点称为(B)A.端节点B.终叶节点C.子节点D.父节点
3.【单选题】支持向量机算法属于(B)A.决策树学习B.统计学习C.集成学习D.记忆学习
4.【单选题】Teacher(father(Zhan))的个体是(C)A.常量B.变量C.函数D.谓词
5.【多选题】BP网络的优点是(ABC)A.很好的逼近特性
B.具有较强的泛化能力
C.具有较好的容错性
D.收敛效率高
6.【单选题】当P为F,Q为F,R为T时,(P∨Q)↔R的真值是(B)
A.TB.FC.不确定
7.【单选题】是(B)A.结合律B.连接词化归律
C.分配律D.德•摩根律
8.【多选题】思维方式有(ACD)A.抽象思维
B.逆向思维C.形象思维
D.灵感思维
9.【单选题】在有序搜索中,如果节点x在希望树中,若x是(C),则其所有子节点都在希望树中。A.终叶节点B.端节点C.与节点D.或节点
10.【单选题】基于状态空间的搜索算法是(A)A.A*算法B.与或树搜索C.极大极小分析法D.α-β剪枝技术
11.【单选题】神经网络是(B)学派的成果
A.符号学派B.联接学派C.行为学派D.统计学派
12.【多选题】2006年,深度学习元年,深度学习之父Hinton提出了哪些观点:(ABCD)A.多层人工神经网络模型可以有很强的特征学习能力。B.深度学习模型对原始数据有更本质的表达。C.深度神经网络可以采用逐层训练方法进行优化。D.训练时可以将上层训练好的结果作为下层训练过程中的初始化参数。
13.【多选题】机器学习包括(ABC)A.监督学习B.强化学习C.非监督学习D.群体学习
14.【单选题】极大极小分析法中,用于极大极小分析法中计算各节点分数的是(A)A.估价函数
B.代价函数C.启发式函数D.价值函数
15.【单选题】如果问题存在最优解,则下面几种搜索算法中,(D)可以认为是“智能程度相对比较高”的算法。A.深度优先搜索
B.宽度优先搜索
C.有界深度优先搜索
D.启发式搜索
16.【单选题】置换是一个形如{t1/x1,t2/x2,…,tn/xn}的有限集合:xi可以是(B)A.常量B.变元
C.函数D.谓词
17.【单选题】消去存在量词时,当(B)时,用skolem函数
A.存在量词未出现在全称量词的辖域内时
B.存在量词出现在全称量词的辖域内时
C.以上情况都需要D.以上情况都不需要
18.【单选题】产生式规则的形式化描述遵循(A)A.巴科斯范式
B.前置范式C.斯科林范式D.合取范式
19.【多选题】不确定性推理,包括(ABCD)A.主观Bayes推理
B.证据理论
C.模糊推理
D.概率推理
20.【多选题】槽值可以是(ABCD)A.数值、字符串
B.布尔值或是动作
C.过程
D.框架名
二、填空题1.框架A的某个槽值是另一个框架B时,则称框架A与框架B之间具有横向联系
2.P(y)
3.产生式系统的推理方式有正向推理,反向推理与混合推理
4.当P与Q为F,R为T时,(P∨Q)→R的真值是T
5.人工智能的终极目标是探讨智能形成的基本机理,研究利用自动机模拟人的思维过程
6.中文屋子实验是为了证明即使通过图灵测试也不能说明计算机能思维
7.卷积核与特征图之间是一一对应关系,即一个输入图如果有六个卷积核心,就应该产生六个特征图
8.从问题的初始状态集,经过一系统列的算符运算,到达目标状态,所经过算符的序列叫问题的解
9.设有如图4-26的与/或/树,请分别按和代价法及最大代价法求解树的代价
和代价是21
最大代价是10
10.从Open表的所有节点中选择一个估价函数值最小的进行扩展的A算法叫全局择优
三、判断题1.(F)将一个复杂的问题分解为几个子问题的过程称为分解。可用或树表示,将一个复杂的问题变换成若干个等价的问题的过程称为等价变换。可用与树表示
2.(T)Boosting方法和Bagging方法都属于集成方法,但是产生训练样本的方式不同
3.(F)任何文字的合取式称为子句。
4.(T)语义网的聚类关系与实例、分类、成员关系的主要区别是聚类关系一般不具备属性的继承性
5.(T)一定存在一个BP神经网络能够逼近给定的样本或者函数
6.(T)自然演绎推理与归结演绎推理属于确定性推理
7.(F)卷积神经网络中,对不同位置的特征进行聚合统计,称为池化(pooling)。池化不会丢失图像的信息,也不会降低其空间分辨率。
8.(F)“与或”树始终是站在双方的立场上得出来的
9.(T)如果已确定某个节点为可解节点,则其不可解的后继节点可以从搜索树中删除,如果确定某个节点是不可解节点,则其全部后继节点都可以从搜索树中删除。
10.(F)两个A*启发策略的h1和h2中,如果对搜索空间中的任一状态n都有h1(n)≤h2(n),就称策略h1比h2具有更多的信息性
四、简答题1.卷积神经网络设有如下特征图,给定池化窗口为2*2,请分别用最大池化法和平均池化法求出池化后的输出特征图。
2.
S={P(x,f(x))∨¬Q(x,f(x))∨R(x,f(x))}
3.对下列各题分别证明G是否为F1,F2,…,Fn的逻辑结论
4.有一农夫带一条狼,一只羊和一框青菜与从河的左岸乘船倒右岸,但受到下列条件的限制:
(1)船太小,农夫每次只能带一样东西过河;
(2)如果没有农夫看管,则狼要吃羊,羊要吃菜。
请设计一个过河方案,使得农夫、浪、羊都能不受损失的过河,画出相应的状态空间图
5.请简要解释BP学习算法的正向传播与反向传播的含义?
正向传播:输入信息由输入层传至隐层,最终在输出层输出。
反向传播:修改各层神经元的权值,使误差信号最小。
期末复习题二一、选择题1.【多选题】博弈树算法包括(CD)A.A*算法B.与或树搜索C.极大极小分析法D.α-β剪枝技术
2.【单选题】一阶谓词的个体不能是(D)A.常量B.变量C.函数D.谓词
3.【单选题】描述的是(B)
A.事实性知识B.规则性知识C.控制性知识D.元知识
4.【单选题】Teacher(father(Zhan))的个体是(C)A.常量B.变量C.函数D.谓词
5.【单选题】设P和Q是两个谓词公式,D是它们共同的个体域,若对于D上的任何一个解释P和Q都有相同的真值,则称P和Q在D上(D)A.永真B.永假C.不可满足D.等价
6.【单选题】视觉、听觉、触觉、嗅觉属于智能的什么能力(A)
A.感知能力B.记忆与思维能力C.学习能力D.行为能力
7.【单选题】认为智能取决于知识的积累量及一般化程度的理论是(B)
A.思维理论B.知识阈值理论C.进化理论D.控制理论
8.【单选题】研究机器人的“说”、“写”、“画画”属于人工智能的什么研究内容(D)
A.知识表示B.机器感知C.机器学习D.机器行为
9.【单选题】人工智能的目的是让机器能够(D),以实现某些脑力劳动的机械化。A.具有智能
B.和人一样工作
C.完全代替人的大脑
D.模拟、延伸和扩展人的智能
10.【单选题】人工智能中通常把(B)作为衡量机器智能的准则A.图灵机
B.图灵测试
C.中文屋思想实验
D.人类智能
11.【多选题】启发信息的作用可以分为(ABC)A.用于确定某些应该从搜索树中抛弃或修剪的节点
B.用于决定要生成哪一个或哪几个后继节点
C.用于决定应先扩展哪一个节点
D.用于决定节点的类型
12.【单选题】专家系统是(A)学派的成果
A.符号学派B.联接学派C.行为学派D.统计学派
13.【单选题】对于谓词公式,以下说法错误的是(C)A.上述公式中的所有y是自由变元。
B.P(x,y)中的x是约束变元。
C.R(x,y)中的x是约束变元。
D.Q(x,y)中的x是约束变元。
14.【单选题】(B)表示“每个人都有喜欢的人”。
15.【单选题】以下等价式错误的是(C)
16.【单选题】设个体域D={1,2},求公式,设对个体常量b,函数f(x)指派的值分别为:b=1,f(1)=2,f(2)=1,对谓词P,Q:P(1)=F,P(2)=T,Q(1,1)=T,Q(2,1)=F,谓词的真值是(A)A.TB.FC.不能确定D.都不是
17.【单选题】决定人工神经网络性能的三大要素中没有(B)A.神经元的特性B.神经元个数C.神经元之间的连接形式,即拓扑结构D.学习规则
18.【单选题】卷积神经网中,如果特征图是32×32矩阵,池化窗口是4×4的矩阵,那么池化后的特征图是(C)的的矩阵
A.2×2
B.4×4
C.8×8
D.16×16
19.【单选题】卷积神经网中,如果输入图像是32×32矩阵,卷积核心是5×5的矩阵,步长为1,那么卷积操作后的特征图是(D)的矩阵A.34×34
B.32×32
C.30×30
D.28×28
20.【单选题】用极大极小分析法计算博弈树的倒推值,根点s的倒推值是多少(B)
A.2B.3C.4D.6
二、填空题1.按拓扑结构分,人工神经网络可以分为前馈网络和反馈网络
2.第一次提出“人工智能”,标志着人工智能学科诞生的会议是达特茅斯会议
3.当P与Q为F,R为T时,(P∨Q)→R的真值是T
4.在博弈树中,“或”节点和“与”节点逐层交替出现。自己一方扩展的节点为或节点,对方扩展的节点为与节点
5.连接词﹁,→,↔,∨,∧,的优先级别从低到高排列是↔,→,∨,∧,﹁
6.若P是原子谓词公式,则称P和~P为互补文字
7.,需要用g(y,z,v)替换的约束变元是w
8.卷积神经网络是BP神经网络的延伸与拓展
9.求与或树中解树的代价,如果是与节点,则求解方法有和代价法与最大代价法
10.博弈树是一棵与或树
三、判断题1.(F)知识具有不确定性与相对正确性,所以它不一定可以被表达与利用。
2.(T)希尔勒中文屋实验证明即使通过图灵测试也不能说明计算机能思维。
3.(T)产生式系统求解问题的过程是一个反复进行“匹配–冲突消解–执行”的过程
4.(T)一定存在一个BP神经网络能够逼近给定的样本或者函数
5.(F)“与或”树始终是站在双方的立场上得出来的
6.(T)因为归结式C12是其亲本子句C1与C2的逻辑结论,所以将归结式C12加入原子句集S,得到的S1与S的真值相同
7.(F)演绎推理是由个别事物或现象推出一般性知识的过程,归纳推理是由一般性知识推理出个别事实的过程
8.(T)卷积主要用于得到图片的局部特征感知,池化主要用于特征降维,压缩数据和参数的数量
9.(F)将一个复杂的问题分解为几个子问题的过程称为分解,可用或树表示。将一个复杂的问题变换成若干个等价的问题的过程称为等价变换,可用与树表示
10.(T)本原问题所对应的节点称为终叶节点。终叶节点一定是端节点,但端节点不一定是终止节点
四、简答题1.BP学习算法的基本思想是什么?
BP学习算法的基本思想是调整权值,使得神经网络的实际输出能够逼近样本与函数的实际输出。
2.2016年ALphaGo挑战韩国职业九段选手李世石获胜,2017年与当时世界排名第一的中国棋手柯洁对战获胜,ALphaGoZERO已经从观摩人类棋局进化到自己与自己下棋,你觉得这属于强人工智能还是弱人工智能,并结合此事件分析什么是强人工智能,什么是弱人工智能,以及它们的区别。
我觉得属于弱人工智能,ALphaGo虽然战胜了人类冠军,可它没有自我意识,更没有胜利的喜悦,因为弱人工智能是对人类某项智能的模拟与扩展,ALphaGo仍然属于这个范畴,而强人工智能是指机器真正能思维,具有自我意识,我觉得ALphaGo的计算依然只是特征的抽取与模型的建立,还谈不上真正的思维,所以属于弱人工智能。(参考)
3.
4.设有子句集:
S={~A(x,y)∨~B(y)∨C(f(x)),~A(x,y)∨~B(y)∨D(x,f(x)),~C(z)∨~B(y),A(a,b),~A(x,b)∨B(b)},请用归结原理证明这个子句集是否不可满足。并结合证明过程来讨论为什么归结原理会出现组合爆炸的问题,你觉得会导致推理程序出现什么问题?
(1)~A(x,y)∨~B(y)∨C(f(x))
(2)~A(x,y)∨~B(y)∨D(x,f(x))
(3)~C(z)∨~B(y)
(4)A(a,b)
(5)~A(x,b)∨B(b)
(6)B(b){a/x}(4)(5)
(7)~C(z){b/y}(3)(6)
(8)~A(x,y)∨~B(y){f(x)/z}(1)(7)
(9)~B(b){a/x,b/y}(4)(8)
(10)nil(6)(9)
盲目归结会产生大量的不必要的归结式,这种不必要的归结式在下一轮归结时,会以幂次方的增长速度增长,从而产生组合爆炸。这会造成智能程序无法在人可以接受的时间内完成归结。
5.设训练例子集如表所示,请用ID3算法计算出其决策树选择的第一个属性?
(注1:不需要计算出全部的决策树
注2:计算到小数点后3位。
注3:log2(1/2)=-1,log2(2/3)=-0.5850,log2(1/3)=-1.5850)
表训练例子集
初始化样本集S={S1,S2,…,S6}和属性集X={x1,x2}。
生成仅含根节点(S,X)的初始决策树。计算根节点(S,X)关于每一个属性的信息增益,并选择具有最大信息增益的属性对根节点进行扩展。
首先,计算根节点的信息熵:
E(S,X)=-PS(+)logPS(+)-PS(-)logPS(-)
式中
PS(+)=3/6,PS(-)=3/6,log2(3/6)=-1
即有
E(S,X)=-(3/6)*log2(3/6)-(3/6)*log2(3/6)
=0.5+0.5=1
按照ID3算法,再计算根节点(S,X)关于每个属性的加权信息熵。
先考虑属性x1,对x1的不同取值:
当x1=T时,有ST={1,2,3}
当x1=F时,有SF={4,5,6}
其中,ST和SF中的数字均为例子集S中的各个例子的序号,|S|、|ST|和|SF|分别为例子集S、ST和SF的大小且有|S|=6,|ST|=|SF|=3。
由ST可知:
PST(+)=2/3,PST(-)=1/3,log2(2/3)=-0.5850,log2(1/3)=-1.5850
则有:
E(ST,X)=-PST(+)log2PST(+)-PST(-)log2PST(-)
=-(2/3)(-0.5850)-(1/3)(-1.5850)
=0.9183
再由SF可知:
PSF(+)=1/3,PSF(-)=2/3
则有:
E(SF,X)=-PSF(+)log2PST(+)-PSF(-)log2PSF(-)
=-(1/3)(-1.5850)-(2/3)(-0.5850)
=0.9183
E(S,X),xi)=(|ST|/|S|)*E(ST,X)+(|SF|/|S|)*H(SF,X)
=(3/6)*0.9183+(3/6)*0.9183
=0.9183
再考虑属性x2,对x2的不同取值:
当x2=T时,有S’T={1,2,5,6}
当x2=F时,有S’F={3,4}
其中,S’T和S’F中的数字均为例子集S中的各个例子的序号,|S|、|S’T|和|S’F|分别为例子集S、S’T和S’F的大小且有|S|=6,|S’T|=4,|S’F|=2。
由S’T可知:
P’ST(+)=2/4,P’ST(-)=2/4,log2(2/4)=-1
则有:
E(S’T,X)=-P’ST(+)log2P’ST(+)–P’ST(-)log2P’ST(-)
=-(2/4)(-1)-(2/4)(-1)
=1
再由S’F可知:
P’SF(+)=1/2,P’SF(-)=1/2,log2(1/2)=-1
则有:
E(S’F,X)=-(P’SF(+)log2P’ST(+)-P’SF(-)log2P’SF(-))
=-(1/2)(-1)-(1/2)(-1)
=1
E(S,X),x2)=(|S’T|/|S|)*E(S’T,X)+(|S’F|/|S|)*H(S’F,X)
=(4/6)*1+(2/6)*1=1
据此,可得到各属性的信息增益分别为
G((S,X)x1)=E(S,X)-E(S,X),xi)=1-0.9183=0.0817
G((S,X)x2)=E(S,X)-E(S,X),x2)=1-1=0
显然,x1的信息增益更大,因此应该选择对x1进行扩展。
上一篇>>人工智能导论练习题(上)
上一篇>>人工智能导论练习题(下)
人工智能导论(9)——自然语言处理(Natural Language Processing)
文章目录一、概述二、重点内容三、思维导图四、重点知识笔记NLP的两个核心任务NLP处理的三个分析层面NLP的主要流程语音识别机器翻译一、概述人类利用语言进行交流、思想表达和文化传承是人类智能的重要体现。自然语言处理(NLP)是指用计算机来处理、理解以及运用人类语言,实现人机交流的目的。
本文将人工智能"自然语言处理"基础知识整理为思维导图,便于回顾和记忆。
二、重点内容简介NLP核心任务NLP主要应用领域NLP三个分析层面NLP分析流程典型应用简介语音识别机器翻译三、思维导图四、重点知识笔记自然语言处理(NLP)是指用计算机来处理、理解以及运用人类语言,是计算机科学与语言学的交叉学科。
从应用角度看,自然语言处理的应用有:
语音识别、文字识别文本生成、图像描述生成机器翻译:将一种语言翻译成另一种语言。知识图谱、信息抽取对话系统、问答系统文本分类、情感分析文本推荐NLP的两个核心任务自然语言理解(NaturalLanguageUnderstanding,NLU)自然语言生成(NaturalLanguageGeneration,NLG)自然语言理解(NLU):实现人机间自然语言通信意味着要使计算机既能理解自然语言文本的意义自然语言生成(NLG):以自然语言文本来表达给定的意图、思想等。NLU的应用:
机器翻译机器客服智能音响NLU的实现方式:
自然语言理解跟整个人工智能的发展历史类似,一共经历了3次迭代:
基于规则的方法:最早大家通过总结规律来判断自然语言的意图,常见的方法有:CFG、JSGF等。基于统计的方法:后来出现了基于统计学的NLU方式,常见的方法有:SVM、ME等。基于深度学习的方法:随着深度学习的爆发,CNN、RNN、LSTM都成为了最新的”统治者”。Transformer是目前“最先进”的方法。BERT和GPT-2都是基于TRansformer的。
NLG的6个步骤:
内容确定–ContentDetermination文本结构–TextStructuring句子聚合–SentenceAggregation语法化–Lexicalisation参考表达式生成–ReferringExpressionGeneration|REG语言实现–LinguisticRealisationNLG典型应用:
聊天机器人自动写新闻:对于具有明显规则的领域,比如体育新闻。目前很多新闻已经借助NLG来完成了BI报告生成NLP处理的三个分析层面第一层面:词法分析
词法分析包括汉语的分词和词性标注这两部分。
分词:将输人的文本切分为单独的词语词性标注:为每一个词赋予一个类别类别可以是名词(noun)、动词(verb)、形容词(adjective)等属于相同词性的词,在句法中承担类似的角色。第二层面:句法分析
句法分析是对输人的文本以句子为单位,进行分析以得到句子的句法结构的处理过程。
三种比较主流的句法分析方法:
短语结构句法体系,作用是识别出句子中的短语结构以及短语之间的层次句法关系;介于依存句法分析和深层文法句法分析之间依存结构句法体系(属于浅层句法分析),作用是识别句子中词与词之间的相互依赖关系;实现过程相对来说比较简单而且适合在多语言环境下应用,但是其所能提供的信息也相对较少深层文法句法分析,利用深层文法,对句子进行深层的句法以及语义分析例如词汇化树邻接文法,组合范畴文法等都是深层文法深层文法句法分析可以提供丰富的句法和语义信息深层文法相对比较复杂,分析器的运行复杂度也比较高,不太适合处理大规模的数据第三个层面:语义分析
语义分析的最终目的是理解句子表达的真是语义。语义表示形式至今没有一个统一的方案。
语义角色标注(semanticrolelabeling)是目前比较成熟的浅层语义分析技术。语义角色标注一般都在句法分析的基础上完成,句法结构对于语义角色标注的性能至关重要。通常采用级联的方式,逐个模块分别训练模型分词词性标注句法分析语义分析联合模型(新发展的方法)将多个任务联合学习和解码分词词性联合词性句法联合分词词性句法联合句法语义联合等联合模型通常都可以显著提高分析质量联合模型的复杂度更高,速度也更慢。NLP的主要流程传统机器学习的NLP流程预处理特征提取词袋设计Embedding特征分类器深度学习的NLP流程预处理设计模型模型训练预处理过程:
收集语料库(输入文本)文本清洗(文本清洗,)删除所有不相关的字符,例如任何非字母数字字符分割成单个的单词文本删除不相关的单词,例如“@”提及或网址链接将所有字符转换为小写,以便将诸如“hello”,“Hello”和“HELLO”之类的单词视为相同考虑将拼写错误或交替拼写的单词组合成单个表示(例如“cool”/“kewl”/“cooool”)考虑词性还原(将诸如“am”,“are”和“is”之类的词语简化为诸如“be”之类的常见形式)分词去掉停用词(可选)标准化和特征提取等。英文预处理:
分词–Tokenization词干提取–Stemming词形还原–Lemmatization词性标注–PartsofSpeech命名实体识别–NER分块–Chunking中文NLP预处理:
中文分词–ChineseWordSegmentation词性标注–PartsofSpeech命名实体识别–NER去除停用词中文分词方法:
经典的基于词典及人工规则:适应性不强,速度快,成本低基于词典:(正向、逆向、双向最大匹配)基于规则:(词法结构)现代的基于统计和机器学习:适应性强,速度较慢,成本较高基于统计:HMM隐马尔可夫模型基于机器学习:CRF条件随机场自然语言典型工具和平台
NLTK:全面的python基础NLP库。StanfordNLP:学界常用的NLP算法库。中文NLP工具:THULAC、哈工大LTP、jieba分词。语音识别将人类语音中的词汇内容转换为计算机可读的输入。
语音识别系统的分类主要有:
孤立和连续语音识别系统(主流为连续语音识别)以单字或单词为单位的孤立的语音识别系统自然语言只是在句尾或者文字需要加标点的地方有个间断,其他部分都是连续的发音特定人和非特定人语音识别系统特定人语音识别系统在前期需要大量的用户发音数据来训练模型。非特定人语音识别系统则在系统构建成功后,不需要事先进行大量语音数据训练就可以使用大词汇量和小词汇量语音识别系统嵌入式和服务器模式语音识别系统语音识别的过程
语音识别系统一般可以分为前端处理和后端处理两部分:
前端包括语音信号的输入预处理:滤波、采样、量化特征提取后端是对数据库的搜索过程训练:对所建模型进行评估、匹配、优化,之后获得模型参数识别语音识别的过程:
根据人的语音特点建立语音模型对输入的语音信号进行分析,并抽取所需的特征,建立语音识别所需要的模板将语音模板与输入的语音信号的特征进行比较,找出一与输入语音匹配最佳的模板通过查表和判决算法给出识别结果显然识别结果的准确率与语音特征的选择、语音模型和语音模板的好坏及准确度有关。
语音识别系统的性能受多个因素的影响
不同的说话人不同的语言同一种语言不同的发音和说话方式等提高系统的稳定性就是要提高系统克服这些因素的能力,使系统能够适应不同的环境。
声学模型是识别系统的底层模型,并且是语音识别系统中最关键的一部分。声学模型的目的是提供一种有效的方法来计算语音的特征矢量序列和各发音模板之间的距离。
语音识别关键技术
语音特征提取常见的语音特征提取算法有MFCC、FBank、LogFBank等声学模型与模式匹配声学模型:对应于语音音节频率的计算,输出计算得到的声学特征模式匹配:在识别时将输入的语音特征与声学特征同时进行匹配和比较目前采用的最广泛的建模技术是隐马尔可夫模型(HiddenMarkovModel,HMM)。语音模型与语义理解进行语法、语义分析语言模型会计算音节到字的概率主要分为规则模型和统计模型语音模型的性能通常通过交叉熵和复杂度来表示,交叉熵表示交叉熵表示用该模型对文本进行识别的难度复杂度是指用该模型表示这个文本平均的分支数,其倒数可以看成是每个词的平均概率机器翻译机器翻译就是让机器模拟人的翻译过程,利用计算机自动地将一种自然语言翻译为另一种自然语言。
在机器翻译领域中出现了很多研究方法,包括:
直接翻译方法句法转换方法中间语言方法基于规则的方法基于语料库的方法基于实例的方法(含模板与翻译记忆方法)基于统计的方法基于深度学习的方法等机器翻译过程:
原文输入:按照一定的编码转换成二进制。原文分析(查词典和语法分析)查词典:词在语法类别上识别为单功能的词,在词义上成为单义词(某些介词和连词除外)语法分析:进一步明确某些词的形态特征。找出动词词组、名词词组、形容词词组等译文综合(调整词序与修辞以及从译文词典中取词)任务1:把应该以为的成分调动一下首先加工间接成分:从前向后依次取词加工,从句子的最外层向内加工。其次加工直接成分:依据成分取词加工,对于复句还需要对各分句进行加工。任务2:修辞加工根据修辞的要求增补或删掉一些词。例如英语中的冠词、数次翻译汉语,加上"个"、“只”。任务3:查目标语言词典,找出目标语言文字的代码。译文输出将目标语言的代码转换成文字,打印出译文来通用翻译模型:
GNMT(GoogleNeuralMachineTranslation)基于网页和App的神经网络机器翻译完全基于注意力机制的编解码器模型TransformerTransformer的升级版—UniversalTransformer在Transformer出现之前,多数神经基于神经网络的翻译模型都使用RNN。RNN训练起来很慢,长句子很难训练好。UniversalTransformer模型具有了通用计算能力,在更多任务中取得了有力的结果。UniversalTransformer的训练和评估代码已开源在了Tensor2Tensor网站。
个人总结,部分内容进行了简单的处理和归纳,如有谬误,希望大家指出,持续修订更新中。
修订历史版本见:https://github.com/hustlei/AI_Learning_MindMap
人工智能议论文800字
人工智能议论文800字
当今世界,人工智能、虚拟现实等技术快速发展,各种各样的机器人正一步步走进我们的世界。是欣然接受,还是退避三舍?我认为,不论态度如何,机器人永远无法取代人类。
诚然,机器人的出现给我们带来了许多便利之处。在家做清洁,有扫地机器人;给小朋友讲故事,有对话机器人;餐厅点菜,有服务员机器人。“世界潮流浩浩汤汤,顺之则昌,逆之则亡。”如果利用机器人,我们能得到更高品质的社会环境、更高效率的生活状态,何乐而不为呢?
但与此同时,随着机器人不断“拟人化”,不少人开始深思:我们的生活将要被机器人主宰了吗?阿尔法狗击败李世石余温未散,又有高度仿真的机器人索菲亚横空出世,我们担心未来的某一天,电影中机器人统治世界的局面成为现实。于是有人用消极的态度负隅顽抗。我认为,我们应在这之间保持理智:不使物役我,而使我役物。
小时候我们常常为这个问题困扰——电脑强大还是人脑强大?答案是绝对的——人脑。不论是怎样的机器人,都是人的创造。正如法国科学家苏埃尔所说,“机器人高度拟人化,将重新定义人的价值”。我们要做的,就是明白人的价值。帕斯卡尔在《人是一棵会思想的芦苇》中这样定义人的价值——人的伟大,我们对于人的灵魂具有一种伟大的观念,以致我们不能忍受人的蔑视,或不受别的灵魂尊敬。所以,在柯洁对战阿尔法狗时,我们看到他的皱眉,或扯头发,或有汗珠沁出眉间,虽然柯洁没有赢得比赛,但这就是人的价值,正是这种价值让我们不被机器人役使。
不久之前,诺贝尔文学奖获得者莫言在被问到“如何看待机器人写的诗歌作品”时,他答道:“从技术上讲没有问题,但就是没有感情,没有个性,这样产生的东西,不是真正的文学。”针对机器人,他又说:“一个活人写的诗,哪怕平仄全错了,至少还有一种要表达的感觉。机器人是不会犯错的,作者写的不如机器快,但这是人写的东西,是有‘人气’的。”所以即使机器人可能思考,可能更好地完成任务,但他们始终缺乏了一种叫“人气”的东西,正是这种“人气”,才保证我们在机器人愈发人化的同时,不被机器人同化。诚如苹果公司CEO库克所说:“我并不担心机器人像人一样思考,我只担心人像机器人一样思考。”我们应保有这样的人气,机器是死的,可人是活的。“机智者会跳出思维定式去思考,想象所有可能的办法去达到目标。”哈维·麦凯如是说。这大概就是人之所以为人的意义吧。若完全沉浸于科技带给我们的方便中,我们就可能被它奴役。
尼采说:“人之所以为人,便在于人是一个桥梁,人应当被超越。”机器人使我们更加成为人,更有超越自我的勇气,从而不使物役我,而使我役物