博舍

新一代人工智能的发展与展望 人工智能的发展之路是多选题吗为什么

新一代人工智能的发展与展望

    随着大数据、云计算等技术的飞速发展,人们生产生活的数据基础和信息环境得到了大幅提升,人工智能(AI)正在从专用智能迈向通用智能,进入了全新的发展阶段。国务院印发的《新一代人工智能发展规划》指出新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升。在4月10日“吴文俊人工智能科学技术奖”十周年颁奖盛典中,作为我国不确定性人工智能领域的主要开拓者、中国人工智能学会名誉理事长李德毅院士荣获“吴文俊人工智能最高成就奖”,并在大会上作题为《探索什么叫新一代人工智能》的报告,探讨了新一代人工智能的内涵和路径,引领着新一代人工智能的发展与展望。

    人工智能这一概念诞生于1956年在美国达特茅斯学院举行的“人工智能夏季研讨会”,随后在20世纪50年代末和80年代初先后两次步入发展高峰,但因为技术瓶颈、应用成本等局限性而均掉入低谷。在信息技术的引领下,数据信息快速积累,运算能力大幅提升,人工智能发展环境发生了巨大变化,跨媒体智能、群体智能成为新的发展方向,以2006年深度学习模型的提出为标志,人工智能第三次站在了科技发展的浪潮之巅。

    当前,随着移动互联网、物联网、大数据、云计算和人工智能等新一代信息技术的加速迭代演进,人类社会与物理世界的二元结构正在进阶到人类社会、信息空间和物理世界的三元结构,人与人、机器与机器、人与机器的交流互动愈加频繁。在多源数据、多元应用和超算能力、算法模型的共同驱动下,传统以计算机智能为基础的、依赖于算力算法和数据的人工智能,强调通用学习和大规模训练集的机器学习,正逐渐朝着以开放性智能为基础、依赖于交互学习和记忆、基于推理和知识驱动的以混合认知模型为中心的新一代人工智能方向迈进。应该说,新一代人工智能的内核是“会学习”,相较于当下只是代码的重复简单执行,新一代人工智能则需要能够在学习过程中解决新的问题。其中,学习的条件是认知,学习的客体是知识,学习的形态是交互,学习的核心是理解,学习的结果是记忆……因此,学习是新一代人工智能解释解决现实问题的基础,记忆智能是新一代人工智能中多领域、多情景可计算智能的边界和约束。进而当人类进入和智能机器互动的时代,新一代人工智能需要与时俱进地持续学习,不断检视解决新的问题,帮助人机加深、加快从对态势的全息感知递进到对世界的多维认知。

    事实上,基于数据驱动型的传统人工智能,大多建立在“数据中立、算法公正和程序正义”三要素基础之上,而新一代人工智能更关注于交互能力,旨在通过设计“记忆”模块来模仿人脑,解决更灵活多变的实际问题,真正成为“不断学习、与时俱进”的人工智能。特别是人机交互支撑实现人机交叉融合与协同互动,目前已在多个领域取得了卓越成果,形成了多方面、多种类、多层次的应用。例如,在线客服可以实现全天候不间断服务,轻松解决用户咨询等问题,也可将棘手问题转交人工客服处理,降低了企业的管理成本;在智慧医疗领域,人工智能可以通过神经影像实现辅助智能诊断,帮助医生阅片,目前准确率已达95%以上,节省了大量的人力;2020年,在抗击疫情的过程中,新一代人工智能技术加速与交通、医疗、教育、应急等事务协作联动,在科技战“疫”中大显身手,助力疫情防控取得显著成效。

    未来已来,随着人工智能逐渐融入居民生活的方方面面,将继续在智慧医疗、自动驾驶、工业制造智能化等领域崭露头角。一是基于新一代人工智能的智慧医疗,将助力医院更好记录、存储和分析患者的健康信息,提供更加精准化和个性化的健康服务,显著提升医院的临床诊断精确度。二是通过将新一代人工智能运用于自动驾驶系统的感知、预测和决策等方面,重点解决车道协同、多车调度、传感器定位等问题,重新定义城市生活中人们的出行方式。三是由于我国工业向大型化、高速化、精细化、自主化发展,对高端大规模可编程自动化系统提出迫切需求,新一代人工智能将推动基于工业4.0发展纲领,以高度自动化的智能感知为核心,主动排除生产障碍,发展具备有适应性、资源效率、人机协同工程的智能工厂应运而生。总之,如何展望人工智能通过交互学习和记忆理解实现自编程和自成长,提升自主学习和人机交互的效率,将是未来研究着力发展的硬核领域,并加速新一代信息技术与智能制造深度融合,推动数字化转型走深走实,有信心、有能力去迎接下一场深刻产业变革的到来。

2023年人工智能领域发展七大趋势

2022年人工智能领域发展七大趋势

有望在网络安全和智能驾驶等领域“大显身手”

人工智能已成为人类有史以来最具革命性的技术之一。“人工智能是我们作为人类正在研究的最重要的技术之一。它对人类文明的影响将比火或电更深刻”。2020年1月,谷歌公司首席执行官桑达尔·皮查伊在瑞士达沃斯世界经济论坛上接受采访时如是说。

美国《福布斯》网站在近日的报道中指出,尽管目前很难想象机器自主决策所产生的影响,但可以肯定的是,当时光的车轮到达2022年时,人工智能领域新的突破和发展将继续拓宽我们的想象边界,其将在7大领域“大显身手”。

增强人类的劳动技能

人们一直担心机器或机器人将取代人工,甚至可能使某些工种变得多余。但人们也将越来越多地发现,人类可借助机器来提升自身技能。

比如,营销部门已习惯使用工具来帮助确定哪些潜在客户更值得关注;在工程领域,人工智能工具通过提供维护预测,让人们提前知道机器何时需要维修;法律等知识型行业将越来越多地使用人工智能工具,帮助人们对不断增长的可用数据中进行分类,以找到完成特定任务所需的信息。

总而言之,在几乎每个职业领域,各种智能工具和服务正在涌现,以帮助人们更有效地完成工作。2022年人工智能与人们日常生活的联系将会变得更加紧密。

更大更好的语言建模

语言建模允许机器以人类理解的语言与人类互动,甚至可将人类自然语言转化为可运行的程序及计算机代码。

2020年中,人工智能公司OpenAI发布了第三代语言预测模型GPT—3,这是科学家们迄今创建的最先进也是最大的语言模型,由大约1750亿个“参数”组成,这些“参数”是机器用来处理语言的变量和数据点。

众所周知,OpenAI正在开发一个更强大的继任者GPT—4。尽管细节尚未得到证实,但一些人估计,它可能包含多达100万亿个参数(与人脑的突触一样多)。从理论上讲,它离创造语言以及进行人类无法区分的对话更近了一大步。而且,它在创建计算机代码方面也会变得更好。

网络安全领域的人工智能

今年1月,世界经济论坛发布《2021年全球风险格局报告》,认为网络安全风险是全世界今后将面临的一项重大风险。

随着机器越来越多地占据人们的生活,黑客和网络犯罪不可避免地成为一个更大的问题,这正是人工智能可“大展拳脚”的地方。

人工智能正在改变网络安全的游戏规则。通过分析网络流量、识别恶意应用,智能算法将在保护人类免受网络安全威胁方面发挥越来越大的作用。2022年,人工智能的最重要应用可能会出现在这一领域。人工智能或能通过从数百万份研究报告、博客和新闻报道中分析整理出威胁情报,即时洞察信息,从而大幅加快响应速度。

人工智能与元宇宙

元宇宙是一个虚拟世界,就像互联网一样,重点在于实现沉浸式体验,自从马克·扎克伯格将脸书改名为“Meta”(元宇宙的英文前缀)以来,元宇宙话题更为火热。

人工智能无疑将是元宇宙的关键。人工智能将有助于创造在线环境,让人们在元宇宙中体会宾至如归的感觉,培养他们的创作冲动。人们或许很快就会习惯与人工智能生物共享元宇宙环境,比如想要放松时,就可与人工智能打网球或玩国际象棋游戏。

低代码和无代码人工智能

2020年,低代码/无代码人工智能工具异军突起并风靡全球,从构建应用程序到面向企业的垂直人工智能解决方案等应用不一而足。这股新鲜势力有望在2022年持续发力。数据显示,低代码/无代码工具将成为科技巨头们的下一个战斗前线,这是一个总值达132亿美元的市场,预计到2025年其总值将进一步提升至455亿美元。

美国亚马逊公司2020年6月发布的Honeycode平台就是最好的证明,该平台是一种类似于电子表格界面的无代码开发环境,被称为产品经理们的“福音”。

自动驾驶交通工具

数据显示,每年有130万人死于交通事故,其中90%是人为失误造成的。人工智能将成为自动驾驶汽车、船舶和飞机的“大脑”,正在改变这些行业。

特斯拉公司表示,到2022年,其生产的汽车将拥有完全的自动驾驶能力。谷歌、苹果、通用和福特等公司也有可能在2022年宣布在自动驾驶领域的重大飞跃。

此外,由非营利的海洋研究组织ProMare及IBM共同打造的“五月花”号自动驾驶船舶(MAS)已于2020年正式起航。IBM表示,人工智能船长让MAS具备侦测、思考与决策的能力,能够扫描地平线以发觉潜在危险,并根据各种即时数据来变更路线。2022年,自动驾驶船舶技术也将更上一层楼。

创造性人工智能

在GPT—4谷歌“大脑”等新模型的加持下,人们可以期待人工智能提供更加精致、看似“自然”的创意输出。谷歌“大脑”是GoogleX实验室的一个主要研究项目,是谷歌在人工智能领域开发出的一款模拟人脑具备自我学习功能的软件。

2022年,这些创意性输出通常不是为了展示人工智能的潜力,而是为了应用于日常创作任务,如为文章和时事通讯撰写标题、设计徽标和信息图表等。创造力通常被视为一种非常人性化的技能,但人们将越来越多地看到这些能力出现在机器上。(记者刘霞)

【纠错】【责任编辑:吴咏玲】

新一代人工智能的发展与展望

随着大数据、云计算等技术的飞速发展,人们生产生活的数据基础和信息环境得到了大幅提升,人工智能(AI)正在从专用智能迈向通用智能,进入了全新的发展阶段。国务院印发的《新一代人工智能发展规划》指出新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升。在4月10日“吴文俊人工智能科学技术奖”十周年颁奖盛典中,作为我国不确定性人工智能领域的主要开拓者、中国人工智能学会名誉理事长李德毅院士荣获“吴文俊人工智能最高成就奖”,并在大会上作题为《探索什么叫新一代人工智能》的报告,探讨了新一代人工智能的内涵和路径,引领着新一代人工智能的发展与展望。

人工智能这一概念诞生于1956年在美国达特茅斯学院举行的“人工智能夏季研讨会”,随后在20世纪50年代末和80年代初先后两次步入发展高峰,但因为技术瓶颈、应用成本等局限性而均掉入低谷。在信息技术的引领下,数据信息快速积累,运算能力大幅提升,人工智能发展环境发生了巨大变化,跨媒体智能、群体智能成为新的发展方向,以2006年深度学习模型的提出为标志,人工智能第三次站在了科技发展的浪潮之巅。

当前,随着移动互联网、物联网、大数据、云计算和人工智能等新一代信息技术的加速迭代演进,人类社会与物理世界的二元结构正在进阶到人类社会、信息空间和物理世界的三元结构,人与人、机器与机器、人与机器的交流互动愈加频繁。在多源数据、多元应用和超算能力、算法模型的共同驱动下,传统以计算机智能为基础的、依赖于算力算法和数据的人工智能,强调通用学习和大规模训练集的机器学习,正逐渐朝着以开放性智能为基础、依赖于交互学习和记忆、基于推理和知识驱动的以混合认知模型为中心的新一代人工智能方向迈进。应该说,新一代人工智能的内核是“会学习”,相较于当下只是代码的重复简单执行,新一代人工智能则需要能够在学习过程中解决新的问题。其中,学习的条件是认知,学习的客体是知识,学习的形态是交互,学习的核心是理解,学习的结果是记忆……因此,学习是新一代人工智能解释解决现实问题的基础,记忆智能是新一代人工智能中多领域、多情景可计算智能的边界和约束。进而当人类进入和智能机器互动的时代,新一代人工智能需要与时俱进地持续学习,不断检视解决新的问题,帮助人机加深、加快从对态势的全息感知递进到对世界的多维认知。

事实上,基于数据驱动型的传统人工智能,大多建立在“数据中立、算法公正和程序正义”三要素基础之上,而新一代人工智能更关注于交互能力,旨在通过设计“记忆”模块来模仿人脑,解决更灵活多变的实际问题,真正成为“不断学习、与时俱进”的人工智能。特别是人机交互支撑实现人机交叉融合与协同互动,目前已在多个领域取得了卓越成果,形成了多方面、多种类、多层次的应用。例如,在线客服可以实现全天候不间断服务,轻松解决用户咨询等问题,也可将棘手问题转交人工客服处理,降低了企业的管理成本;在智慧医疗领域,人工智能可以通过神经影像实现辅助智能诊断,帮助医生阅片,目前准确率已达95%以上,节省了大量的人力;2020年,在抗击疫情的过程中,新一代人工智能技术加速与交通、医疗、教育、应急等事务协作联动,在科技战“疫”中大显身手,助力疫情防控取得显著成效。

未来已来,随着人工智能逐渐融入居民生活的方方面面,将继续在智慧医疗、自动驾驶、工业制造智能化等领域崭露头角。一是基于新一代人工智能的智慧医疗,将助力医院更好记录、存储和分析患者的健康信息,提供更加精准化和个性化的健康服务,显著提升医院的临床诊断精确度。二是通过将新一代人工智能运用于自动驾驶系统的感知、预测和决策等方面,重点解决车道协同、多车调度、传感器定位等问题,重新定义城市生活中人们的出行方式。三是由于我国工业向大型化、高速化、精细化、自主化发展,对高端大规模可编程自动化系统提出迫切需求,新一代人工智能将推动基于工业4.0发展纲领,以高度自动化的智能感知为核心,主动排除生产障碍,发展具备有适应性、资源效率、人机协同工程的智能工厂应运而生。总之,如何展望人工智能通过交互学习和记忆理解实现自编程和自成长,提升自主学习和人机交互的效率,将是未来研究着力发展的硬核领域,并加速新一代信息技术与智能制造深度融合,推动数字化转型走深走实,有信心、有能力去迎接下一场深刻产业变革的到来。

作者:徐云峰

catalogs:13000076;contentid:7688970;publishdate:2021-06-11;author:黄童欣;file:1623414511328-aff718d9-3742-46b0-b08c-e56bdd1ed8c8;source:29;from:中华读书报;timestamp:2021-06-1120:28:23;[责任编辑:]

人工智能导论期末复习题

文章目录@[toc]期末复习题一一、选择题二、填空题三、判断题四、简答题期末复习题二一、选择题二、填空题三、判断题四、简答题期末复习题一一、选择题

1.【多选题】在卷积神经网络中,常用的池化方法有(ABC)A.最大池化法B.平均池化法C.概率池化法D.最小池化法

2.【单选题】本原问题所对应的节点称为(B)A.端节点B.终叶节点C.子节点D.父节点

3.【单选题】支持向量机算法属于(B)A.决策树学习B.统计学习C.集成学习D.记忆学习

4.【单选题】Teacher(father(Zhan))的个体是(C)A.常量B.变量C.函数D.谓词

5.【多选题】BP网络的优点是(ABC)A.很好的逼近特性

B.具有较强的泛化能力

C.具有较好的容错性

D.收敛效率高

6.【单选题】当P为F,Q为F,R为T时,(P∨Q)↔R的真值是(B)

A.TB.FC.不确定

7.【单选题】是(B)A.结合律B.连接词化归律

C.分配律D.德•摩根律

8.【多选题】思维方式有(ACD)A.抽象思维

B.逆向思维C.形象思维

D.灵感思维

9.【单选题】在有序搜索中,如果节点x在希望树中,若x是(C),则其所有子节点都在希望树中。A.终叶节点B.端节点C.与节点D.或节点

10.【单选题】基于状态空间的搜索算法是(A)A.A*算法B.与或树搜索C.极大极小分析法D.α-β剪枝技术

11.【单选题】神经网络是(B)学派的成果

A.符号学派B.联接学派C.行为学派D.统计学派

12.【多选题】2006年,深度学习元年,深度学习之父Hinton提出了哪些观点:(ABCD)A.多层人工神经网络模型可以有很强的特征学习能力。B.深度学习模型对原始数据有更本质的表达。C.深度神经网络可以采用逐层训练方法进行优化。D.训练时可以将上层训练好的结果作为下层训练过程中的初始化参数。

13.【多选题】机器学习包括(ABC)A.监督学习B.强化学习C.非监督学习D.群体学习

14.【单选题】极大极小分析法中,用于极大极小分析法中计算各节点分数的是(A)A.估价函数

B.代价函数C.启发式函数D.价值函数

15.【单选题】如果问题存在最优解,则下面几种搜索算法中,(D)可以认为是“智能程度相对比较高”的算法。A.深度优先搜索

B.宽度优先搜索

C.有界深度优先搜索

D.启发式搜索

16.【单选题】置换是一个形如{t1/x1,t2/x2,…,tn/xn}的有限集合:xi可以是(B)A.常量B.变元

C.函数D.谓词

17.【单选题】消去存在量词时,当(B)时,用skolem函数

A.存在量词未出现在全称量词的辖域内时

B.存在量词出现在全称量词的辖域内时

C.以上情况都需要D.以上情况都不需要

18.【单选题】产生式规则的形式化描述遵循(A)A.巴科斯范式

B.前置范式C.斯科林范式D.合取范式

19.【多选题】不确定性推理,包括(ABCD)A.主观Bayes推理

B.证据理论

C.模糊推理

D.概率推理

20.【多选题】槽值可以是(ABCD)A.数值、字符串

B.布尔值或是动作

C.过程

D.框架名

二、填空题

1.框架A的某个槽值是另一个框架B时,则称框架A与框架B之间具有横向联系

2.P(y)

3.产生式系统的推理方式有正向推理,反向推理与混合推理

4.当P与Q为F,R为T时,(P∨Q)→R的真值是T

5.人工智能的终极目标是探讨智能形成的基本机理,研究利用自动机模拟人的思维过程

6.中文屋子实验是为了证明即使通过图灵测试也不能说明计算机能思维

7.卷积核与特征图之间是一一对应关系,即一个输入图如果有六个卷积核心,就应该产生六个特征图

8.从问题的初始状态集,经过一系统列的算符运算,到达目标状态,所经过算符的序列叫问题的解

9.设有如图4-26的与/或/树,请分别按和代价法及最大代价法求解树的代价

和代价是21

最大代价是10

10.从Open表的所有节点中选择一个估价函数值最小的进行扩展的A算法叫全局择优

三、判断题

1.(F)将一个复杂的问题分解为几个子问题的过程称为分解。可用或树表示,将一个复杂的问题变换成若干个等价的问题的过程称为等价变换。可用与树表示

2.(T)Boosting方法和Bagging方法都属于集成方法,但是产生训练样本的方式不同

3.(F)任何文字的合取式称为子句。

4.(T)语义网的聚类关系与实例、分类、成员关系的主要区别是聚类关系一般不具备属性的继承性

5.(T)一定存在一个BP神经网络能够逼近给定的样本或者函数

6.(T)自然演绎推理与归结演绎推理属于确定性推理

7.(F)卷积神经网络中,对不同位置的特征进行聚合统计,称为池化(pooling)。池化不会丢失图像的信息,也不会降低其空间分辨率。

8.(F)“与或”树始终是站在双方的立场上得出来的

9.(T)如果已确定某个节点为可解节点,则其不可解的后继节点可以从搜索树中删除,如果确定某个节点是不可解节点,则其全部后继节点都可以从搜索树中删除。

10.(F)两个A*启发策略的h1和h2中,如果对搜索空间中的任一状态n都有h1(n)≤h2(n),就称策略h1比h2具有更多的信息性

四、简答题

1.卷积神经网络设有如下特征图,给定池化窗口为2*2,请分别用最大池化法和平均池化法求出池化后的输出特征图。

2.

S={P(x,f(x))∨¬Q(x,f(x))∨R(x,f(x))}

3.对下列各题分别证明G是否为F1,F2,…,Fn的逻辑结论

4.有一农夫带一条狼,一只羊和一框青菜与从河的左岸乘船倒右岸,但受到下列条件的限制:

(1)船太小,农夫每次只能带一样东西过河;

(2)如果没有农夫看管,则狼要吃羊,羊要吃菜。

请设计一个过河方案,使得农夫、浪、羊都能不受损失的过河,画出相应的状态空间图

5.请简要解释BP学习算法的正向传播与反向传播的含义?

正向传播:输入信息由输入层传至隐层,最终在输出层输出。

反向传播:修改各层神经元的权值,使误差信号最小。

期末复习题二一、选择题

1.【多选题】博弈树算法包括(CD)A.A*算法B.与或树搜索C.极大极小分析法D.α-β剪枝技术

2.【单选题】一阶谓词的个体不能是(D)A.常量B.变量C.函数D.谓词

3.【单选题】描述的是(B)

A.事实性知识B.规则性知识C.控制性知识D.元知识

4.【单选题】Teacher(father(Zhan))的个体是(C)A.常量B.变量C.函数D.谓词

5.【单选题】设P和Q是两个谓词公式,D是它们共同的个体域,若对于D上的任何一个解释P和Q都有相同的真值,则称P和Q在D上(D)A.永真B.永假C.不可满足D.等价

6.【单选题】视觉、听觉、触觉、嗅觉属于智能的什么能力(A)

A.感知能力B.记忆与思维能力C.学习能力D.行为能力

7.【单选题】认为智能取决于知识的积累量及一般化程度的理论是(B)

A.思维理论B.知识阈值理论C.进化理论D.控制理论

8.【单选题】研究机器人的“说”、“写”、“画画”属于人工智能的什么研究内容(D)

A.知识表示B.机器感知C.机器学习D.机器行为

9.【单选题】人工智能的目的是让机器能够(D),以实现某些脑力劳动的机械化。A.具有智能

B.和人一样工作

C.完全代替人的大脑

D.模拟、延伸和扩展人的智能

10.【单选题】人工智能中通常把(B)作为衡量机器智能的准则A.图灵机

B.图灵测试

C.中文屋思想实验

D.人类智能

11.【多选题】启发信息的作用可以分为(ABC)A.用于确定某些应该从搜索树中抛弃或修剪的节点

B.用于决定要生成哪一个或哪几个后继节点

C.用于决定应先扩展哪一个节点

D.用于决定节点的类型

12.【单选题】专家系统是(A)学派的成果

A.符号学派B.联接学派C.行为学派D.统计学派

13.【单选题】对于谓词公式,以下说法错误的是(C)A.上述公式中的所有y是自由变元。

B.P(x,y)中的x是约束变元。

C.R(x,y)中的x是约束变元。

D.Q(x,y)中的x是约束变元。

14.【单选题】(B)表示“每个人都有喜欢的人”。

15.【单选题】以下等价式错误的是(C)

16.【单选题】设个体域D={1,2},求公式,设对个体常量b,函数f(x)指派的值分别为:b=1,f(1)=2,f(2)=1,对谓词P,Q:P(1)=F,P(2)=T,Q(1,1)=T,Q(2,1)=F,谓词的真值是(A)A.TB.FC.不能确定D.都不是

17.【单选题】决定人工神经网络性能的三大要素中没有(B)A.神经元的特性B.神经元个数C.神经元之间的连接形式,即拓扑结构D.学习规则

18.【单选题】卷积神经网中,如果特征图是32×32矩阵,池化窗口是4×4的矩阵,那么池化后的特征图是(C)的的矩阵

A.2×2

B.4×4

C.8×8

D.16×16

19.【单选题】卷积神经网中,如果输入图像是32×32矩阵,卷积核心是5×5的矩阵,步长为1,那么卷积操作后的特征图是(D)的矩阵A.34×34

B.32×32

C.30×30

D.28×28

20.【单选题】用极大极小分析法计算博弈树的倒推值,根点s的倒推值是多少(B)

A.2B.3C.4D.6

二、填空题

1.按拓扑结构分,人工神经网络可以分为前馈网络和反馈网络

2.第一次提出“人工智能”,标志着人工智能学科诞生的会议是达特茅斯会议

3.当P与Q为F,R为T时,(P∨Q)→R的真值是T

4.在博弈树中,“或”节点和“与”节点逐层交替出现。自己一方扩展的节点为或节点,对方扩展的节点为与节点

5.连接词﹁,→,↔,∨,∧,的优先级别从低到高排列是↔,→,∨,∧,﹁

6.若P是原子谓词公式,则称P和~P为互补文字

7.,需要用g(y,z,v)替换的约束变元是w

8.卷积神经网络是BP神经网络的延伸与拓展

9.求与或树中解树的代价,如果是与节点,则求解方法有和代价法与最大代价法

10.博弈树是一棵与或树

三、判断题

1.(F)知识具有不确定性与相对正确性,所以它不一定可以被表达与利用。

2.(T)希尔勒中文屋实验证明即使通过图灵测试也不能说明计算机能思维。

3.(T)产生式系统求解问题的过程是一个反复进行“匹配–冲突消解–执行”的过程

4.(T)一定存在一个BP神经网络能够逼近给定的样本或者函数

5.(F)“与或”树始终是站在双方的立场上得出来的

6.(T)因为归结式C12是其亲本子句C1与C2的逻辑结论,所以将归结式C12加入原子句集S,得到的S1与S的真值相同

7.(F)演绎推理是由个别事物或现象推出一般性知识的过程,归纳推理是由一般性知识推理出个别事实的过程

8.(T)卷积主要用于得到图片的局部特征感知,池化主要用于特征降维,压缩数据和参数的数量

9.(F)将一个复杂的问题分解为几个子问题的过程称为分解,可用或树表示。将一个复杂的问题变换成若干个等价的问题的过程称为等价变换,可用与树表示

10.(T)本原问题所对应的节点称为终叶节点。终叶节点一定是端节点,但端节点不一定是终止节点

四、简答题

1.BP学习算法的基本思想是什么?

BP学习算法的基本思想是调整权值,使得神经网络的实际输出能够逼近样本与函数的实际输出。

2.2016年ALphaGo挑战韩国职业九段选手李世石获胜,2017年与当时世界排名第一的中国棋手柯洁对战获胜,ALphaGoZERO已经从观摩人类棋局进化到自己与自己下棋,你觉得这属于强人工智能还是弱人工智能,并结合此事件分析什么是强人工智能,什么是弱人工智能,以及它们的区别。

我觉得属于弱人工智能,ALphaGo虽然战胜了人类冠军,可它没有自我意识,更没有胜利的喜悦,因为弱人工智能是对人类某项智能的模拟与扩展,ALphaGo仍然属于这个范畴,而强人工智能是指机器真正能思维,具有自我意识,我觉得ALphaGo的计算依然只是特征的抽取与模型的建立,还谈不上真正的思维,所以属于弱人工智能。(参考)

3.

4.设有子句集:

S={~A(x,y)∨~B(y)∨C(f(x)),~A(x,y)∨~B(y)∨D(x,f(x)),~C(z)∨~B(y),A(a,b),~A(x,b)∨B(b)},请用归结原理证明这个子句集是否不可满足。并结合证明过程来讨论为什么归结原理会出现组合爆炸的问题,你觉得会导致推理程序出现什么问题?

(1)~A(x,y)∨~B(y)∨C(f(x))

(2)~A(x,y)∨~B(y)∨D(x,f(x))

(3)~C(z)∨~B(y)

(4)A(a,b)

(5)~A(x,b)∨B(b)

(6)B(b){a/x}(4)(5)

(7)~C(z){b/y}(3)(6)

(8)~A(x,y)∨~B(y){f(x)/z}(1)(7)

(9)~B(b){a/x,b/y}(4)(8)

(10)nil(6)(9)

盲目归结会产生大量的不必要的归结式,这种不必要的归结式在下一轮归结时,会以幂次方的增长速度增长,从而产生组合爆炸。这会造成智能程序无法在人可以接受的时间内完成归结。

5.设训练例子集如表所示,请用ID3算法计算出其决策树选择的第一个属性?

(注1:不需要计算出全部的决策树

注2:计算到小数点后3位。

注3:log2(1/2)=-1,log2(2/3)=-0.5850,log2(1/3)=-1.5850)

​表训练例子集

初始化样本集S={S1,S2,…,S6}和属性集X={x1,x2}。

生成仅含根节点(S,X)的初始决策树。计算根节点(S,X)关于每一个属性的信息增益,并选择具有最大信息增益的属性对根节点进行扩展。

首先,计算根节点的信息熵:

E(S,X)=-PS(+)logPS(+)-PS(-)logPS(-)

式中

PS(+)=3/6,PS(-)=3/6,log2(3/6)=-1

即有

E(S,X)=-(3/6)*log2(3/6)-(3/6)*log2(3/6)

=0.5+0.5=1

按照ID3算法,再计算根节点(S,X)关于每个属性的加权信息熵。

先考虑属性x1,对x1的不同取值:

当x1=T时,有ST={1,2,3}

当x1=F时,有SF={4,5,6}

其中,ST和SF中的数字均为例子集S中的各个例子的序号,|S|、|ST|和|SF|分别为例子集S、ST和SF的大小且有|S|=6,|ST|=|SF|=3。

由ST可知:

PST(+)=2/3,PST(-)=1/3,log2(2/3)=-0.5850,log2(1/3)=-1.5850

则有:

E(ST,X)=-PST(+)log2PST(+)-PST(-)log2PST(-)

=-(2/3)(-0.5850)-(1/3)(-1.5850)

=0.9183

再由SF可知:

PSF(+)=1/3,PSF(-)=2/3

则有:

E(SF,X)=-PSF(+)log2PST(+)-PSF(-)log2PSF(-)

=-(1/3)(-1.5850)-(2/3)(-0.5850)

=0.9183

E(S,X),xi)=(|ST|/|S|)*E(ST,X)+(|SF|/|S|)*H(SF,X)

​=(3/6)*0.9183+(3/6)*0.9183

​=0.9183

再考虑属性x2,对x2的不同取值:

当x2=T时,有S’T={1,2,5,6}

当x2=F时,有S’F={3,4}

其中,S’T和S’F中的数字均为例子集S中的各个例子的序号,|S|、|S’T|和|S’F|分别为例子集S、S’T和S’F的大小且有|S|=6,|S’T|=4,|S’F|=2。

由S’T可知:

P’ST(+)=2/4,P’ST(-)=2/4,log2(2/4)=-1

则有:

E(S’T,X)=-P’ST(+)log2P’ST(+)–P’ST(-)log2P’ST(-)

=-(2/4)(-1)-(2/4)(-1)

=1

再由S’F可知:

P’SF(+)=1/2,P’SF(-)=1/2,log2(1/2)=-1

则有:

E(S’F,X)=-(P’SF(+)log2P’ST(+)-P’SF(-)log2P’SF(-))

=-(1/2)(-1)-(1/2)(-1)

=1

E(S,X),x2)=(|S’T|/|S|)*E(S’T,X)+(|S’F|/|S|)*H(S’F,X)

​=(4/6)*1+(2/6)*1=1

据此,可得到各属性的信息增益分别为

G((S,X)x1)=E(S,X)-E(S,X),xi)=1-0.9183=0.0817

G((S,X)x2)=E(S,X)-E(S,X),x2)=1-1=0

显然,x1的信息增益更大,因此应该选择对x1进行扩展。

上一篇>>人工智能导论练习题(上)

上一篇>>人工智能导论练习题(下)

人工智能的发展与未来

随着人工智能(artificialintelligent,AI)技术的不断发展,各种AI产品已经逐步进入了我们的生活。

现如今,各种AI产品已经逐步进入了我们的生活|Pixabay

19世纪,作为人工智能和计算机学科的鼻祖,数学家查尔斯·巴贝奇(CharlesBabbage)与艾达·洛夫莱斯(AdaLovelace)尝试着用连杆、进位齿轮和打孔卡片制造人类最早的可编程数学计算机,来模拟人类的数理逻辑运算能力。

20世纪初期,随着西班牙神经科学家拉蒙-卡哈尔(RamónyCajal)使用高尔基染色法对大脑切片进行显微观察,人类终于清晰地意识到,我们几乎全部思维活动的基础,都是大脑中那些伸出细长神经纤维、彼此连接成一张巨大信息网络的特殊神经细胞——神经元。

至此,尽管智能的具体运作方式还依然是个深不见底的迷宫,但搭建这个迷宫的砖瓦本身,对于人类来说已经不再神秘。

智能,是一种特殊的物质构造形式。

就像文字既可以用徽墨写在宣纸上,也可以用凿子刻在石碑上,智能,也未必需要拘泥于载体。随着神经科学的启迪和数学上的进步,20世纪的计算机科学先驱们意识到,巴贝奇和艾达试图用机械去再现人类智能的思路,在原理上是完全可行的。因此,以艾伦·图灵(AlanTuring)为代表的新一代学者开始思考,是否可以用二战后新兴的电子计算机作为载体,构建出“人工智能”呢?

图灵在1950年的论文《计算机器与智能(ComputingMachineryandIntelligence)》中,做了一个巧妙的“实验”,用以说明如何检验“人工智能”。

英国数学家,计算机学家图灵

这个“实验”也就是后来所说的“图灵测试(Turingtest)”:一名人类测试者将通过键盘和显示屏这样不会直接暴露身份的方式,同时与一名人类和一台计算机进行“网聊”,当人类测试者中有七成都无法正确判断交谈的两个“人”孰真孰假时,就认为这个计算机已经达到了“人工智能”的标准。

虽然,图灵测试只是一个启发性的思想实验,而非可以具体执行的判断方法,但他却通过这个假设,阐明了“智能”判断的模糊性与主观性。而他的判断手段,则与当时心理学界崛起的斯纳金的“行为主义”不谋而合。简而言之,基于唯物主义的一元论思维,图灵和斯金纳都认为,智能——甚至所有思维活动,都只是一套信息处理系统对外部刺激做出反应的运算模式。因此,对于其他旁观者来说,只要两套系统在面对同样的输入时都能够输出一样的反馈,就可以认为他们是“同类”。

1956年,人工智能正式成为了一个科学上的概念,而后涌现了很多新的研究目标与方向。比如说,就像人们在走迷宫遇到死胡同时会原路返回寻找新的路线类似,工程师为了使得人工智能达成某种目标,编写出了一种可以进行回溯的算法,即“搜索式推理”。

而工程师为了能用人类语言与计算机进行“交流”,又构建出了“语义网”。由此第一个会说英语的聊天机器人ELIZA诞生了,不过ELIZA仅仅只能按照固定套路进行作答。

而在20世纪60年代后期,有学者指出人工智能应该简化自己的模型,让人工智能更好的学习一些基本原则。在这一思潮的影响下,人工智能开始了新一轮的发展,麻省理工学院开发了一种早期的自然语言理解计算机程序,名为SHRDLU。工程师对SHRDLU的程序积木世界进行了极大的简化,里面所有物体和位置的集合可以用大约50个单词进行描述。模型极简化的成果,就是其内部语言组合数量少,程序基本能够完全理解用户的指令意义。在外部表现上,就是用户可以与装载了SHRDLU程序的电脑进行简单的对话,并可以用语言指令查询、移动程序中的虚拟积木。SHRDLU一度被认为是人工智能的成功范例,但当工程师试图将这个系统用来处理现实生活中的一些问题时,却惨遭滑铁卢。

而这之后,人工智能的发展也与图灵的想象有所不同。

现实中的人工智能发展,并未在模仿人类的“通用人工智能(也称强人工智能)”上集中太多资源。相反,人工智能研究自正式诞生起,就专注于让计算机通过“机器学习”来自我优化算法,最后形成可以高效率解决特定问题的“专家系统”。由于这些人工智能只会在限定好的狭窄领域中发挥作用,不具备、也不追求全面复杂的认知能力,因此也被称为“弱人工智能”。

但是无论如何,这些可以高效率解决特定问题的人工智能,在解放劳动力,推动现代工厂、组织智能化管理上都起到了关键作用。而随着大数据、云计算以及其他先进技术的发展,人工智能正在朝着更加多远,更加开放的方向发展。随着系统收集的数据量增加,AI算法的完善,以及相关芯片处理能力的提升,人工智能的应用也将逐渐从特定的碎片场景转变为更加深度、更加多元的应用场景。

人工智能让芯片的处理能力得以提升|Pixabay

从小的方面来看,人工智能其实已经渐渐渗透进了我们生活的方方面面。比如喊一声就能回应你的智能语音系统,例如siri,小爱同学;再比如在超市付款时使用的人脸识别;抑或穿梭在餐厅抑或酒店的智能送餐机器人,这些其实都是人工智能的应用实例。而从大的方面来看,人工智能在制造、交通、能源及互联网行业的应用正在逐步加深,推动了数字经济生态链的构建与发展。

虽然脑科学与人工智能之间仍然存在巨大的鸿沟,通用人工智能仍然像个科幻梦,但就像萧伯纳所说的那样“科学始终是不公道的,如果它不提出十个问题,也永远无法解决一个问题。”科学总是在曲折中前进,而我们只要保持在不断探索中,虽无法预测是否能达到既定的目的地,但途中终归会有收获。

参考文献

[1]王永庆.人工智能原理与方法[M].西安交通大学出版社,1998.

[2]Russell,StuartJ.ArtificialIntelligence:AModernApproach[J].人民邮电出版社,2002.

[3]GabbayDM,HoggerCJ,RobinsonJA,etal.Handbookoflogicinartificialintelligenceandlogicprogramming.Vol.1:Logicalfoundations.,1995.

[4]胡宝洁,赵忠文,曾峦,张永继.图灵机和图灵测试[J].电脑知识与技术:学术版,2006(8):2.

[5]赵楠,缐珊珊.人工智能应用现状及关键技术研究[J].中国电子科学研究院学报,2017,12(6):3.

[6]GeneserethMR,NilssonNJ.LogicalFoundationofArtificialIntelligence[J].brainbroadresearchinartificialintelligence&neuroscience,1987

作者:张雨晨

编辑:韩越扬

[责编:赵宇豪]

人工智能的智能发展之路

人工智能是计算机科学的一个分支,英文缩写为AI(ArtificialIntelligence)。人工智能的目的在于尝试使用计算机技术生产出与人类智能相似的智能机器,包括但不仅限于人工智能机器人、语言识别、图像识别等系统。人工智能的智能表现在对人的思维过程的模拟,但是人的思维过程并不简单,它包括识别、分析、比较、概括、判断、推理等等步骤,是一个复杂且高级的认识过程,因此人工智能是一门非常具有挑战性的科学。

机器人一词最早诞生于上世纪20年代

人工智能的概念大约诞生在20世纪50年代,到如今仅仅经历了60余年的发展之路,是一项非常高新的技术,被誉为二十一世纪三大尖端技术之一。人工智能虽然说是一门计算机科学的分支,但它在发展过程中还涉及到了心理学、哲学和语言学等学科,有学者甚至认为人工智能的发展几乎需要涉及自然科学和社会科学的所有学科,其范围远远超出计算机科学的范畴。

我们可以把人工智能简单的拆开成“人工”与“智能”两个方面来理解,“人工”很简单,即人为制造的,那么“智能”是什么呢?智能从字面含义上来讲,就是智力与能力的合体。我们知道,人类可以通过学习与实践发展自己的智力与能力。也因此,人工智能在发展过程中,其核心问题就是如何帮助机器拥有推理、知识、规划、学习、交流、感知、移动和操作物体的等能力,并尝试构建出智力。

依托于计算机技术的先天优势,学习知识对于人工智能而言可以说只是时间和存储空间的问题。自动化技术的发展,让人工智能拥有了移动与操作物体的能力。智能算法的发展,让人工智能在一定程度上也拥有了推理与交流的能力。那么人工智能在发展路上所遇到的难题,究竟是什么呢?

人工智能与计算机的发展是分不开的|Pixabay

有学者总结,人工智能发展会面临着六大瓶颈,分别是数据瓶颈、泛化瓶颈、能耗瓶颈、语义鸿沟瓶颈、可解释性瓶颈和可靠性瓶颈。

数据瓶颈是指“由于数据收集能力的不足、理论无偏性和数据随机性等条件的限制而导致数据失真、缺乏等数据缺陷。”我们简单的套在人工智能上来看,收集数据能力的不足可以理解成识别技术的不成熟,理论无偏性可以理解成获取数据的质量,数据随机性的限制可以理解成获取及处理数据的难易度。随着大数据技术的发展,人工智能已在数据方面取得了比较明显的进步。不过,目前人工智能的发展仍未完全突破数据瓶颈的问题,训练数据的增大对人工智能算法的提升效果仍然不够理想。

泛化瓶颈是指人工智能在泛化能力提升上所遇到的困难。泛化能力是指“机器学习算法对新鲜样本的适应能力。”你可以将人工智能的泛化能力简单理解成自主学习能力与适应能力。通常来说,人工智能的各项能力,都需要通过大量的样本数据训练及算法规定来获得。在实验室的环境下,很多人工智能的各项能力均有不错表现。但是实际生活照比实验室环境而言,存在太多的不确定性,因此人工智能要想更好的落地,就需要拥有强大的泛化能力,以在应对突发情况及未知情况时能够给出合理的响应,更好的帮助人类。

能耗瓶颈可以简单的理解为人工智能在应用等过程中所消耗能源大于它实际所产生的效益,即能耗成本过高。而在优化人工智能能耗问题的过程中,首当其冲的就是对算法的优化。就像人体的大脑大概只占体重的2%,但是却能占据人体总能耗的20%一样,算法对于人工智能能耗的影响也非常的大。随着智能算法的发展,人工智能在能耗瓶颈上也有所进步。例如奥地利科技学院、维也纳工业大学和麻省理工学院的研究者就成功训练了一种能够控制自动驾驶汽车的低能耗智能算法,这一算法仅仅使用了75000个参数与19个神经元,比之前减少了数万倍。

语义鸿沟瓶颈是指人工智能缺乏真正的语言理解能力,无法根据上下文或常识理解一些容易产生歧义的语言,即听不懂“人话”。目前,人工智能在这一点上仍然没有显著的突破。

可解释性瓶颈是指人工智能过于依赖模型中已有的数据,缺乏深层学习能力的缺陷。人工智能很容易学习一个东西是什么,但是很难明白一个东西究竟为什么会这样。如果人工智能不能理解知识或行为之间的深层逻辑,那么它在用已有模型去应对未知变量时,就很容易引起模型崩塌,类似于“死机”。目前,已有学者提出可以使用对抗网络与最优传输技术找到模型坍塌的原因,并提出改进模型,从几何映射的角度上尝试去突破人工智能的可解释问题,在理论上取得了一些进步。

我们都遇到过电脑死机,这在一定程度上反映着可靠性|publicdomain

可靠性瓶颈是指人工智能在系统可靠性上的不足。粗略来讲,可靠性主要包含设计可靠性、耐久性和可维修性三个方面。人工智能的设计可靠性可以简单的理解为它的算法是否可靠,它是否能在规定的条件下,完成预定的功能。例如自动汽车在行驶过程中,是否能够正确识别道路情况,并作出合理反应,很大程度上都要依靠自动驾驶系统的设计可靠性。耐久性和可维修性很简单,即能不能长久使用与能不能、方便不方便维修,维修的成本如何。

现阶段的人工智能仍然存在很大的局限性,市面上应用的人工智能绝大多数为弱人工智能,而强人工智能的发展仍然存在很多的难题。但是不管人工智能在未来有多少难关需要克服,可以肯定的是,科技的发展会不断推动人工智能的发展,让人工智能可以帮助更多产业、更多市场主体中实现新的赋能与转型,最终完成为数字经济集约化发展提供不竭动力的光荣使命,为我们的美好未来添砖加瓦。

参考文献

[1]EditorSHIA.TheBlueScreenofDeathandotherdeadlybugs-ScienceDirect[J].Computers&Security,2002,21(6):491-496.

[2]ChowdhuryM,SadekA.AdvantagesandLimitationsofArtificialIntelligence[M].2012.

[3]ABDA,BSC,BMV,etal.Asurveyofrobotlearningfromdemonstration[J].RoboticsandAutonomousSystems,2009,57(5):469-483.

[4]谭民,王硕.机器人技术研究进展[J].自动化学报,2013,39(7):10.

[5]胡德文,王正志,周宗谭.神经网络算法在机器人眼手系统中的应用[J].机器人,1991(S1):5.

[6]SciaviccoL,SicilianoB.ModellingandControlofRobotManipulators[M].SpringerLondon,2000.

作者:张雨晨

编辑:韩越扬

[责编:赵宇豪]

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇