人工智能与伦理道德
技术进步本身无法解决AI的深层次根本性问题:算法的设计哪怕再周全,也必须根据现实世界的数据来作出决定,但现实世界是有缺陷的、不完美的、不可预测的、特异的。
计算机科学家比其他人更快意识到,在系统被设计出来之后,工程并不总是能解决这样的问题。尽管数据隐私得到加强,对算法公平的局限性有了更加清醒的认识,但人们意识到,在系统投入使用之前,必须把道德关切纳入考量。这种认知促使伦理学课程(由哲学系博士后和研究生讲授)被正式整合进哈佛大学的很多计算机科学课程。哈佛大学以及人工智能伦理与治理基金机构(由哈佛大学法学院伯克曼·克莱因中心和麻省理工学院媒体实验室共同创办)的数据科学家,就AI对人类社会的影响进行了深入讨论。这种对伦理的关注源于哈佛大学一位资深的计算机科学教授。
从沟通到合作——和伦理学
自然科学教授芭芭拉·格罗兹(BarbaraGrosz)说:“几年前,我去拜访微软的几位朋友。其中一人研究计算机视觉系统。我们开车去某处散步。在高速公路上,我们前面的是一辆卡车,上面载着一个移动厕所,一辆自行车绑在这个移动厕所上。‘我的系统会怎么处理这个东西?’那人说,‘它知道该作何反应吗?’”答案是可能不知道。这样的一幅情景不可能成为其“体验”——大量的图像,由人类进行标记,构成了系统的训练数据——的一部分。
芭芭拉·格罗兹
现在的AI系统还很弱小,比不上强大的人类智能——可以把在一个场景中学到的东西迅速应用到另一个场景。纵然电脑能区分自动车、卡车和移动厕所,但如果这些物体混在一起,以每小时100公里的速度,沿着带自行车道的高速公路行驶,那么电脑就会搞不清状况。(利用这一弱点就是“AI和敌对攻击”的主题。)换句话说,AI缺乏常识和推理能力,即使它能发现人类发现不了的东西,比如发现复杂生物网络中的三阶或更高阶相互作用(必须三个或更多变量相互作用才能产生效果)。“别老想着机器人会统治世界。与其担心人们知道其局限性的智能系统,不如担心人们以为很聪明的愚蠢系统。”
格罗兹曾在康奈尔大学学习数学,后来在加州大学伯克利分校攻读计算机科学,1973年成为斯坦福国际研究院(SRIInternational)人工智能中心的研究数学家,从此开始钻研AI问题。计算机如何生成和理解人类语音和文本是AI研究的一个子领域,格罗兹被视为该领域的奠基人(荣获2017年国际计算语言学协会终生成就奖),她能说出Alexa、Siri和谷歌等智能语音系统一大堆的不足之处。例如,这些系统知道最近的医院在哪里,却没办法指引脚踝受伤的人前往。
她在语言方面开展AI研究的时候,还没有自然语言处理这种数据驱动的方法,所以她发明了一种基于模型的方法来代表人类语言,好让计算机可以理解其含义。事实证明这对该领域特别有价值,因为这促使她深入思考人机交互的本质,后来在构想人机协作的未来时,又促使她提出了旨在跟人进行团队合作的协作型AI系统的理论模型。
她在语言计算模型方面的研究远远超出了语法规则设计的范畴。理解说话者的意图,以便确定对话的结构,从而解译人类话语的含义,这是她开创的一个重要策略。她指出,真正的对话经常偏离主题,焦点不时转换。她举了一个著名的例子:一个人试图通过电传打字机,告诉另一个人如何组装一台空气压缩机,两人的自发对话被她记录了下来。其中一人用“它”来指代一个已经有半小时都没有被提及的物体,但两人十分清楚是什么意思。她说,语气也是理解歧义句的关键。“你是真正的王子”可能说得真心诚意,也可能语带讽刺,必须教电脑明白二者的区别。
从这种跨学科研究中,产生了关于人机交互本质的一般性原则。格罗兹和博士生(现为微软研究院高级研究员)艾瑟·卡马尔(EceKamar)提出了“中断管理”理论,用于引导人机之间的信息交换,以大大提高人机对话的效率。在漫长的职业生涯中,她逐渐意识到,AI系统与人类团队协作才能最大程度地发挥AI的作用。她设想的未来将智能电脑的速度和统计能力与人类的天赋相结合,而不是机器和人类彼此对抗。在描述AI系统击败象棋和围棋世界冠军或者取代人类工作岗位时,对抗常常被用来形容机器和人类的关系。可以说,人机协作代表了AI系统的前沿。
格罗兹开始在医疗领域试验基于团队的AI系统。她和一位斯坦福儿科医生启动了一个协调罕见病儿童护理工作的项目。照料这些儿童的人有很多,除了父母之外,还包括医生、家庭护理人员、理疗师和老师。她说,护理时间横跨数年,“我不知道有哪个人可以在这么长的时间内,持续追踪另外15个人都干了些什么”。
格罗兹和博士生(现为以色列理工学院教员)奥夫拉·阿米尔(OfraAmir)从分析患者护理团队如何工作开始,提出了一个团队合作的理论,引导人类成员和旨在协调儿童护理信息的AI系统进行互动。正如她在语言方面的AI研究一样,她从一般性原则着手。“在理论层面上,我们希望更好地了解在团队拥有多个成员的环境中如何共享信息,然后打造工具,先是为父母,接着为医生。”
她和巴伊兰大学教授萨里特·克劳斯(SaritKraus)提出了一个重要原则:团队成员不应该承担他们缺乏必要知识或者无力完成的任务。这是良好的人类团队合作所具有的一个特征,也是“知道自身局限性的智能系统”所具有的一个重要特征。“问题在于,不仅是AI,还有很多已经面世的技术无法完成分配给它们的工作。”“不知道你想要什么”的网络客服聊天机器人就是一例。她说,这些系统原本应该采取不同的设计,以便客户的初次互动是在电脑的帮助下跟一个人进行,那个人应该和客户建立关系,并检查电脑明显误解的地方,而系统应该帮助那个人更快地作出回答。当智能系统设计的这些基本原则没有得到应有的尊重时,系统被认为能够做到它们实际上做不到的事情,或者以不恰当的方式被使用。
格罗兹的跨学科研究方法涵盖语言学、哲学、心理学、经济学,甚至还有一点人类学和社会学,这促使她思考其中哪些学科对AI系统设计的教学最有帮助。1987年至2001年,她曾教了一门AI导论课程,当时AI的应用大体上还处于理论层面,但在2013年和2014年,她重开那门课程时,世界已经大变,全面运行的AI系统投入了使用。格罗兹意识到,关于AI提出的伦理挑战和良好的系统设计之间的相互影响,出现了一个教学良机。
这导致了格罗兹对哈佛大学计算机科学教学工作最重要的贡献之一:伦理学应该紧密地整合进所有课程。2015年秋,她引入了一门新课程,名叫“智能系统设计与伦理挑战”。次年,该课程的25个名额有140多名学生申请,这使她有了信心。格罗兹鼓励她的计算机科学同事将伦理学整合进他们自己的课程。由于他们大多缺乏伦理学的教学经验,她开始和哲学系主任、哲学沃尔科特教授艾莉森·西蒙斯(AlisonSimmons)合作。他们携手各自领域的同事,招募愿意将伦理单元囊括进计算机科学课程的计算机科学教授和愿意教授伦理单元的哲学系研究生。
这项“嵌入式伦理计算机科学”计划的目标,是教那些打造未来AI系统的人如何识别和思考伦理问题。(计算机科学现在是哈佛大学本科生人数第二多的专业,如果把统计学和应用科学等相关专业的学生计算在内,那么招生总数将大大超过排名第一的经济学专业。)“大多数的伦理挑战并没有一个简单的正确答案,”格罗兹指出,“所以,就像学生们学习基本的计算技能一样,我希望他们学习基本的伦理推理技能。”2017年春,四门计算机科学课程囊括了伦理学习,同年秋达到五门,2018年春增加到八门,现在总共有18门,包括系统编程、机器学习及其对公平和隐私的影响、社交网络与审查问题、机器人与就业和人机交互。
对就读这些课程的学生进行调查后发现,80%到90%的学生赞同嵌入式伦理教学,并且还想要更多。格罗兹说:“我希望所有的计算机科学课程,可能除了一两门以外,都包含伦理单元。”这样一来,到毕业时,每个学生都会知道,“伦理在该领域的方方面面都非常重要,而不仅仅是在AI方面”。她和同事希望学生们明白,想要解决偏见和AI可解释性等问题,他们在设计系统时,必须从一开始就把伦理原则放在心上。
变成波士顿司机
伯克曼·克莱因互联网及社会中心教务主任、国际法和计算机科学教授乔纳森·齐特林(JonathanZittrain)一直从原始法律的角度朝这个目标努力。2018年春,他和麻省理工学院媒体实验室主任伊藤穰一(JoiIto)共同教授一门课程,内容是探索应该如何塑造AI技术,使其将公共利益牢记在心。自动驾驶汽车是极好的研究对象,迫使学生们正视复杂性的本质,远非决定谁生谁死的“失控电车难题”那么简单。
齐特林解释说,一旦汽车真正实现自主,“这意味着,如果发出了对某人的逮捕令,那么下次那个人进入一辆自动驾驶汽车时,车门会自动上锁,汽车会把他送到最近的警局。或者,要是车里的人突然发病了,该怎么办?车辆能否以每小时110公里的速度在城市道路上飞奔,把人送往医院,而其他所有车辆都自动向两边分开,让出一条道路?”
齐特林班上的学生以为他们知道有关自动驾驶汽车的讨论会如何展开。但当齐特林提出一个非常简单的问题时,他们面临着系统设计者在道德上的两难抉择。那个问题是:“司机应不应该能够要求车辆以每小时128公里的速度行驶?”如果是,而汽车以那个速度行驶时发生了车祸,司机是否应该承担责任?或者,允许汽车达到那个速度的汽车制造商是否应该负责?“超速行驶时有发生,但我们知道我们对此无能为力,这能让我们心里好过点。”齐特林指出,“对自动驾驶汽车的初始前提是,车上没有司机,我们又不能责怪汽车,因为它是个死物。看起来好像没有责任,但实际上责任大了。”汽车制造商、AI系统设计者、政策制定者和司机都可以被追责。
齐特林指出,如果车载AI系统从道路驾驶经历中“学习”,不断改变其行为,那么情况会变得更加复杂。“如果它在波士顿开得够多,说不定它会变成波士顿司机!”这适用于很多学习系统,而相关的法律解决方案还未经探索。他说,如果学习系统的行为并不总是可以预测,带着那种不确定性投入使用,会让人们付出代价。
齐特林说,在跨学科研究中,各学科之间的联系是关键所在。在伯克曼·克莱因中心和麻省理工学院媒体实验室,他和同事建立了一个名叫“集会”的团体,让其他公司的软件开发人员跟学生、跟彼此共事几个月,研究AI和数据科学其他领域的一些问题。“嵌入式伦理授课可以为哈佛大学不同专业的学生提供彼此相逢的机会,利用他们在各自专业学到的知识,以团队方式研究这类东西。”
“我认为,这是格罗兹的教学和研究具有重大影响力和长久魅力的一个原因。她教的不是如何干预和修复计算机系统或软件,而是在更宏观的层面上思考人和技术应该如何互动。”技术能被追责吗?技术能被理解吗?技术能是公平的吗?
系统偏见和社会工程
在2018年10月举行的首届哈佛数据科学大会(HDSC)上,自主无人系统的公平问题被放在了一个突出的位置。计算机科学教授大卫·帕克斯(DavidParkes)列出了哈佛大学数据科学研究的指导原则:应该解决包括隐私在内的道德问题;不应该延续现有偏见;应该是透明的。但想要创造出体现这些原则的学习型AI系统是很难的。系统复杂性(可能有数千甚至更多变量)使人们几乎不可能真正理解AI系统,而且存在于学习系统所依赖的数据集中的偏见很容易得到强化。
人们为什么很想打开AI系统的“引擎盖”,弄明白它到底是如何作出决定的?这有很多原因:评估是什么导致输出结果存在偏见,在出事故前进行安全检查,或者在涉及自动驾驶汽车的事故发生后认定责任。
你能迅速完成这个简单的决策树吗?输入数据是:国际机器学习会议;2017年;澳大利亚;袋鼠;晴天。假设你已经正确完成,请用文字来解释你是如何达成拍手这个决定的。要是有100万个变量,会怎么样?
这探究起来其实很难、很复杂。为了说明这一点,计算机科学助理教授费娜丽·杜什-维雷兹(FinaleDoshi-Velez)把一个相对简单的决策树投射到大屏幕上。该决策树深四层,按照5个输入数据来回答问题。如果执行正确,最终的结果是举起你的左手。一些与会者能按规定完成。然后,她展示了一个更加复杂得多的决策树,可能深25层,增加了5个新参数来确定沿该决策树到达正确答案的路径。这个任务对电脑来说易如反掌。然而,当维雷兹询问有没有观众可以用文字来描述他们为什么会到达他们得出的那个答案时,没人回答。即使标出正确路径,也很难用外行人的话来描述复杂的交互式输入数据对结果的影响。这还只是决策树那样的简单模型,而不是拥有数百万个参数的现代深度架构。开发从任意模型(可扩展系统,拥有任意数量的变量、任务和输出数据)中获取解释的技术,这是维雷兹及其同事的研究课题。
偏见造成了一系列的问题。在HDSC大会上发表关于算法公平的讲话时,计算机科学教授辛西娅·德沃克(CynthiaDwork)说,面对不同的群体(比如种族不同或者宗教信仰不同),评定是否符合资格(比如贷款资格)的算法应该对每个群体都一视同仁。但在机器学习系统中,算法本身(逐步解决一个特定问题的过程)只是系统的一部分。另一个部分是数据。在自动作出贷款决定的AI系统中,算法部分可能是没有偏见的,对每个群体都完全公平的,但在算法从数据中学习后,结果可能就不是这样了。德沃克解释道:“算法访问的数据没有被正确标注(也就是没有获得真相)。”如果被用来作出决定的数据存在偏见,那么决定本身就可能存在偏见。
有几个方法可能解决这个问题。一是仔细挑选被算法纳入考量的申请人属性(邮政编码是著名的种族代号,因此常常被排除)。但偏见可以通过算法使用的其他变量的相关性(比如姓氏与地理普查数据相结合)卷土重来。
德沃克说,针对特定群体的偏见常常可以通过聪明的算法设计来加以解决,但由于算法决策的一个基本特征,确保对个人的公平要难得多。任何一个这样的决定都会划一条线:正如德沃克所说,总是会有来自不同群体的两个人靠近这条线,线的两边各有一人,他们在几乎所有方面都非常相似,但只有一个人会获得贷款。
在某些情况下,通过系统设计来纠正偏见可能不是个好主意。看看计算机科学教授陈伊玲(YilingChen,音译)和研究生莉莉·胡(LilyHu)设计的一个雇佣系统。该系统旨在消除对非洲裔美国人的雇佣偏见。莉莉说:“作为纯粹的优化驱动工具,算法会继承、吸收、再现和加剧已有的不平等。比如,就业市场上存在一个由来已久的偏见,这时机器学习来了,它通过学会,重现了这个偏见。”他们的解决方法(利用经济学和社会学工具来理解就业市场上的偏见)使人们对算法公平的思考超出计算机科学的范畴,从跨学科、全系统的角度来看待这一问题。
陈伊玲从事于社会计算,这个数据科学领域强调人类行为对算法输入数据的影响。由于人是“自私的、独立的、容易犯错的且不可预测的”,这使得算法设计不可能在任何情况下都确保公平公正,于是她开始思考如何消除训练数据中的偏见。
她和莉莉致力于解决在招聘过程中落实反歧视行动的问题。想要消除少数群体历来面临的不公,一个直截了当的方法是在其他所有条件相等的情况下,作出有利于少数群体的雇佣决定。(这可能被视为对多数群体的不公,但在真正实现就业平等之前,仍然是可以接受的。)但陈伊玲和莉莉考虑了人的因素。假设少数群体中的很多人都没有上过大学,原因是“学费高昂,而且由于歧视的缘故,我即使拿到了学位,找到工作的几率仍然很低”。同时,雇主可能认为“来自少数群体的人,受教育程度较低,工作表现不好,因为他们不够努力”。陈伊玲和莉莉说,考虑到由来已久的不平等,即使某个少数群体人士不上大学的决定是理性的,但那个决定会强化雇主对整个群体的成见。这种反馈效应模式不仅难以打破,而且正是算法(着眼于以前的成功招聘并将之与大学学位联系起来)将会强化的那种数据模式。
陈伊玲和莉莉提出的解决方法不单单基于数学,而是社会工程,利用算法来改变数据标注。这相当于承认消除数据中的偏见非常困难。研究人员提议创建一个临时的就业市场。陈伊玲说,可以将之视为一个实习期,每个应聘者必须实习两年,然后才能转正。进入这个实习库后,会面临一个简单的“公平约束”算法,该算法要求雇主从少数和多数群体中选择实习生,实习生数量要具有代表性。然后,在实习结束时,是否转正只看工作表现,不考虑属于哪个群体。由于从族群角度来说是同样聪明的,两个群体最终实现了平等。
莉莉说:“我们试图反驳的是一切都可归结为优化问题、预测问题或者分类问题的观点。这种观点在机器学习/AI圈子里仍然是主流。如果你以标准的机器学习方式来处理,最后的结果将是加剧那些不平等。”
她说,人们必须明白,“创造技术的行为和我们使用技术的方式,其本身就是政治行动。技术不是凭空存在的,就像有时为善、有时为恶的仪器工具一样。我觉得,以那种方式来看待技术是很幼稚的”。
莉莉强调,不管技术被用来识别视频片段中的犯罪嫌疑人,还是被用来提供适合不同学习风格的教育或者医疗建议,“我们都要思考技术如何体现特定的价值观和假设。这是第一步:要知道,问题并非是伦理上的和非伦理上的,其实,在我们设计的一切东西中,总会有规范性问题,每一步都是如此”。把那种认知整合进现有的课程中,这有助于确保“我们用技术打造的世界,是一个我们想要居于其中的世界”。
(转自:品觉)返回搜狐,查看更多
2023超星尔雅人工智能,语言与伦理答案
学习通app人工智能,语言与伦理章节测验答案
1.1
1【多选题】对人工智能常见的误解有哪些?()AD
A、人工智能就是机器学习
B、机器学习只是人工智能中的一个方向
C、人工智能最近十年受到深度学习的驱动较多
D、人工智能就是深度学习
2【判断题】哲学思维对于人工智能的重要性表现在,哲学所强调的批判性思维有助于认清人工智能发展中的问题。()对
3【判断题】深度学习在人工智能领域的表现并不突出。()X
1.2
1
【单选题】计算机之父是()。C
A、约翰·麦卡锡
B、艾伦·图灵
C、赫尔伯·西蒙
D、马文·明斯基
2
【单选题】人工智能与计算机学科的关系是()。C
A、计算机学科的主要驱动力是人工智能研究
B、计算机是人工智能研究的一个领域
C、人工智能是计算机学科的一个分支
D、人工智能与计算机学科没有联系
3
【单选题】人工智能作为一门学科的建立时间是()。A
A、1956年
B、1930年
C、1960年
D、1952年
4【多选题】下列哪些选项是符号AI的技术路线()?AD
A、通用问题求解器
B、深度学习
C、机器学习
D、贝叶斯网络
5【判断题】符号AI是将人的思维通过逻辑语言制成流形图让计算机去执行。()对
6【判断题】通用问题求解器需要寻找全局最优解。()X
7【判断题】符号AI无法面对人类经验的变动性。()对
1.3
1
【单选题】()是现在新出现的人工智能的研究方向。D
A、深度学习
B、人工神经元网络
C、贝叶斯网络
D、类脑人工智能
2
【单选题】深度学习中的“深度”是指()。B
A、计算机理解的深度
B、中间神经元网络的层次很多
C、计算机的求解更加精准
D、计算机对问题的处理更加灵活
3【多选题】人工神经元网络与深度学习的关系是()。AC
A、人工神经元网络是深度学习的前身
B、深度学习是人工神经元网络的一个分支
C、深度学习是人工神经元网络的一个发展
D、深度学习与人工神经元网络无关
4【多选题】人工神经元网络的运作可以粗略分为()三个层面。ACD
A、输入层
B、映射机制
C、中间处理层
D、输出层
5【判断题】符号AI不是人工智能的正统。()X
6【判断题】人工神经元网络是对人类的神经元运作进行一种非常粗糙的数学模拟。()对
7【判断题】相比于人工神经元网络和深度学习,类脑人工智能对人类大脑的神经回路具有更深入的了解。()对
1.4
1
【单选题】深度学习的实质是()。B
A、推理机制
B、映射机制
C、识别机制
D、模拟机制
2【多选题】符号AI的问题在于()。BCD
A、缺少推理必要的信息
B、把推理所依赖的公理系统全部锁死
C、缺少推理的灵活性
D、会遭遇“框架问题”
3【判断题】推理的本质是在信息不足的情况下能够最大程度的得到最靠谱的结论。()对
4【判断题】计算机具有触类旁通的能力,可以根据具体语境对事件进行分类。()X
5【判断题】人工神经元网络会遭遇“框架问题”。()X
————————————————
单元测试答案是辛苦整理的
需要支付5元/门
购买单元测试答案QQ920119876
————————————————
1.5
1
【单选题】日本五代计算机泡沫关注的核心问题是()。
A、人工神经元网络
B、符号AI
C、贝叶斯网络
D、自然语言处理
2【判断题】制造人工智能的规划、计划和方案本身应该能根据情况的变化进行自我调整。()
2.1
1【多选题】目前对人工智能的发展所持有的观点有()。
A、乌托邦论
B、模块论
C、末世论
D、泡沫论
2【判断题】现在的人工智能系统都是专用人工智能而非通用人工智能。()
2.2
1
【单选题】一个真正的通用人工智能系统应具备处理()问题的能力。
A、全局性
B、局部性
C、专业性
D、统一性
2
【单选题】目前的人工智能研发的动力主要来源于()。
A、科学
B、商业
C、学术
D、军事
3【判断题】现有的人工神经元网络或深度学习无法处理全局性问题。()
4【判断题】人工神经元网络只需要很少的数据便可掌握处理特定问题的能力。()
2.3
1
【单选题】能够推进人工智能智能的研究最好方法是()。
A、继续完善深度学习
B、提升计算机处理数据的能力
C、研究人类自己的智能
D、研发通用人工智能
2【多选题】下列哪些选项属于通用智力因素?()
A、短期记忆
B、流体智力
C、晶体智力
D、反应速度
3【判断题】类脑人工智能是指模拟人类大脑的人工智能。()
4【判断题】人类自己的智能体现了通用性。()
2.4
1【多选题】以下哪些选项属于自然智能?()
A、植物
B、动物
C、细菌
D、机器
2【多选题】智能的特点是()。
A、能对环境进行灵活的应对
B、能够不断创新
C、具有十分牢固的记忆力
D、经济高效
3【判断题】智能与神经元网络的存在具有必然关系。()
4【判断题】类脑人工智能及人工神经元网络只是智能展现的一种形式。()
2.5
1
【单选题】提出强人工智能与弱人工智能的人是()。
A、约翰·塞尔
B、彼得卡鲁瑟斯
C、杰瑞·佛多
D、埃隆·马斯克
2【判断题】通用人工智能就是强人工智能。()
3.1
1
【单选题】深度学习的数据材料来源于()。
A、人工搜集
B、已有数据库
C、抽样调查
D、互联网
2
【单选题】大数据技术的样本空间是()。
A、针对所有相关数据
B、需要确立样本范围
C、不做样本控制
D、以上都不对
3【判断题】统计学研究首先要确立样本空间,进行合理抽样,然后估测出相关的情况。()
4【判断题】当前的主流人工智能是通向真正的通用人工智能的康庄大道。()
3.2
1
【单选题】大数据所搜集到的用户群体都是()。
A、具有线上行为的用户
B、具有线下行为的用户
C、参与调研的用户
D、不参与调研的用户
2
【单选题】人类心智比较容易适应()环境。
A、大数据
B、小数据
C、多数据
D、单一数据
3【多选题】技术问题背后还有着()问题
A、如何取样
B、社会的公平正义
C、社会的价值导向
D、健康的网上习惯
4【判断题】由于大数据只能体现出数量而不能进行质量上的判断,所以在采样并不完整的情况下给出的结论未必准确。()
5【判断题】大数据会使人类的行为逐渐趋同。()
3.3
1
【单选题】“节俭性理性”是()提出的。
A、赫伯特·西蒙
B、吉仁泽
C、司马贺
D、拉普拉斯
2
【单选题】
利用自己的认知本能来进行判断的思维算法是()。
A、
科学法
B、
逻辑法
C、
捷思法
D、
大数据
3【多选题】绿色人工智能是指()。
A、对环境友好
B、所需数据小
C、消耗资源少
D、效率高
4【判断题】面临信息过载的情况,最好的判断方法是通过本能运用原始算法。()
5【判断题】大量信息的提供,尤其是彼此矛盾的信息的提供并不会导致我们的思维过载。()
6【判断题】赫伯特·西蒙提出了有限理性理论。()
3.4
1
【单选题】过度开采社会人文资源,是指在大数据的环境下对()的侵犯。
A、个人隐私
B、大众心理
C、个人的行为规范
D、大众消费习惯
2【判断题】大数据无法维持人类社会的隐私和公开之间的张力平衡。()
3【判断题】深度学习就是一种绿色人工智能。()
4.1
1
【单选题】在人工智能的所有子课题中,所牵涉范围最广的是()
A、机器视觉
B、非确定条件下的推理
C、机器听觉
D、自然语言处理
2【多选题】真正的通用人工智能系统具有把握()的能力。
A、专业性
B、跨领域
C、局部性
D、全局性
3【判断题】语言是检测人工智能是否真正厉害的试金石。()
4【判断题】机器语言的特点是有丰富的修辞手段。()
4.2
1
【单选题】聊天机器人ELIZA的运作,很大程度上采用了将计就计的策略,它本身并没有一个完整的()。
A、神经元
B、符号建模
C、语义建模
D、数据库
2【多选题】下列属于行为主义心理学家的是()。
A、约翰·华生
B、博尔赫斯·斯金纳
C、巴普洛夫
D、冯特
3【判断题】图灵测验本身具有浓重的行为主义色彩。()
4【判断题】聊天机器人某种程度上具备人类的心智。()
4.3
1
【单选题】SHRDLU系统实际上是一个()。
A、积木系统
B、语义模型
C、人工装置
D、人工神经元网络
2
【单选题】SHRDLU系统是由()发明的。
A、杰瑞·佛多
B、约翰·塞尔
C、赫伯特·西蒙
D、特里·威诺格拉格
3【判断题】SHRDLU系统预设了在哲学上语词和外部对象具有对应关系。()
4【判断题】外在主义的语义模型在哲学上的意思是每个语词的真正含义都要通过与其对应的外在对象来加以编码。()
4.4
1
【单选题】语言不仅仅是句法问题,更是()。
A、语义
B、结构
C、音韵
D、逻辑
2
【单选题】实际的翻译中有时要破坏句子原有的句法结构,根据()重新组织句子。
A、音韵
B、意义
C、逻辑
D、效果
3【多选题】乔姆斯基认为人类的语法都有哪两个层面?()
A、语义层面
B、深层语法
C、句法层面
D、浅层语法
4【判断题】大数据对于语言学习来说,其解释能力非常有限。()
5【判断题】0-3岁的小孩通过贫乏的语言样本就能够进行有效的语言学习,说明了基于大数据的心智模型是有问题的。()
4.5
1
【单选题】可以用来界定因果关系的是()。
A、贝叶斯公式
B、先验概率
C、后验概率
D、归纳逻辑
2
【单选题】把归纳逻辑抬到比较高的位置的哲学家是()。
A、海德格尔
B、大卫·休谟
C、康德
D、莱布尼茨
3【多选题】下列属于基于规则的自然语言处理进路的是()。
A、基于中间语的翻译
B、基于浅层语法的翻译
C、基于外在语言的翻译
D、基于深层语法的翻译
4【多选题】下列属于外语翻译专业术语的是()。
A、外在语言
B、中间语言
C、源语言
D、目标语言
5【判断题】先验概率是指根据以往经验和分析得到的概率。()
6【判断题】休谟认为在因果推理中只有或然性。()
7【判断题】同一个语词在不同的语境当中具有不同的含义。()
8【判断题】贝叶斯公式适合于人工智能的自然语言处理。()
4.6
1
【单选题】下列属于基于统计的自然语言处理进路的是()。
A、基于中间语的翻译
B、基于浅层语法的翻译
C、基于贝叶斯公式
D、基于深层语法的翻译
2
【单选题】基于规则与统计的混合进路的日然语言处理进路背后的哲学根据是()的哲学。
A、莱布尼茨
B、海德格尔
C、大卫·休谟
D、康德
3【多选题】康德认为知识的来源有哪两部分?()
A、心之自发性
B、先天范畴
C、感官的杂多性
D、感性材料
4【判断题】多引擎翻译系统是指本身由很多不同的原则所驱动的混合翻译。()
5【判断题】混合式自然语言处理进路的问题在于如何将基于规则的自然语言处理与基于规则的语言处理很好地融合在一起。()
4.7
1
【单选题】影响基于中间语的机器翻译思路的哲学家是()。
A、康德
B、大卫·休谟
C、长尾真
D、莱布尼茨
2
【单选题】影响基于统计学自然语言处理的哲学家是()。
A、康德
B、大卫·休谟
C、长尾真
D、莱布尼茨
3
【单选题】与基于实际语例的自然语言处理进路有关的哲学家是()。
A、康德
B、大卫·休谟
C、长尾真
D、莱布尼茨
4【判断题】基于实例的自然语言处理会出现不对齐问题。()
5【判断题】基于实例的自然语言处理的问题是它会由两种语言之间的对应关系所决定,而有时两种语言之间的对应关系比较难以把捉。()
6【判断题】基于实例的自然语言处理在语言翻译上具有灵活性。()
7【判断题】基于实例的自然语言处理需要事先对语用材料的规则性有所把握。()
5.1
1
【单选题】提出强人工智能与弱人工智能的人是()。
A、约翰·塞尔
B、彼得卡鲁瑟斯
C、杰瑞·福多
D、埃隆·马斯克
2
【单选题】专用与通用人工智能讨论的是智能的()问题。
A、分层
B、深度
C、宽窄
D、语言处理
3
【单选题】弱人工智能是指仅仅模拟人类大脑的();强人工智能是指其本身就是一个()。
A、心智;智能
B、运作;大脑
C、智能;程序
D、智能;心智
4【判断题】强人工智能与弱人工智能就等于专业人工智能与通用人工智能。()
5【判断题】现有的深度学习进路的人工智能并不能达到通用人工智能。()
5.2
1
【单选题】()的思想激发了基于中间语的机器翻译思路。
A、笛卡尔
B、塞尔
C、莱布尼茨
D、康德
2
【单选题】磨坊论证出自()。
A、《纯粹理性批判》
B、《单子论》
C、《人类理智新论》
D、《神正论》
3
【单选题】机械主义的说明方式不能囊括人类的()。
A、感觉
B、知识
C、思维
D、逻辑
4【判断题】灵活理解语句的能力是人类智能的标准。()
5【判断题】多重可实现主义是指用什么东西来执行计算机的抽象程序来说是不重要的,可以通过很多途径来执行计算机程序。()
5.3
1
【单选题】汉字屋论证是()提出的。
A、埃隆·马斯克
B、杰瑞·福多
C、约翰·塞尔
D、彼得卡鲁瑟斯
2【多选题】塞尔区分了()和()。
A、强人工智能
B、弱人工智能
C、专用人工智能
D、通用人工智能
3【判断题】任何一个精心编程的计算机,它本身的句法操作不足以支持起语义理解。()
5.4
1
【单选题】丹尼尔·丹尼特对塞尔“中文屋论证”的批评是()。
A、过于依赖感官
B、过于依赖知觉
C、过于依赖概念
D、过于依赖直觉
2
【单选题】塞尔论证的合法性前提是,他的中文屋系统和一般的计算机系统之间是()。
A、不同的
B、同构的
C、互补的
D、不相容的
3
【单选题】()无法得知,因为他人的行为和表现有伪装性。
A、“他心”
B、“他感”
C、“灵感”
D、“灵性”
4【判断题】塞尔认为一个人具有一门语言表达的外部行为就代表其真正懂得这门语言。()
5【判断题】人类的感官处理也具有机械性。()
6.1
1【多选题】机器翻译的局限性在于()。
A、训练样本单一
B、只能处理简单句
C、基于已有的既成案例
D、错误较多
2【判断题】人类译员一定会被机器所取代。()
6.2
1【判断题】现有的机器翻译无法对人类语用环境的丰富性进行处理。()
2【判断题】文化差异不一定会影响翻译结果。()
6.3
1
【单选题】认知语言学关心的是我们在使用某个概念时,心中浮现出的()。
A、句法规则
B、字典上的定义
C、认知图式
D、具体语境
2【多选题】认知语言学更多地是考虑()。
A、句法
B、音韵
C、语义
D、语用
3【判断题】翻译不一定发生在不同语言的人之间。()
4【判断题】翻译机器在进行翻译时会考虑到用户的文化背景。()
6.4
1
【单选题】框架与框架之间的粘接剂叫做()。
A、框间网络
B、框架结构
C、框架链接
D、框间关系
2【判断题】框架之间的相互关系构成了人类语言的基本推理系统。()
3【判断题】框架需要使用整个框架网络,但有时也可单独使用。()
7.1
1
【单选题】计算机的编程语言是以()语为模仿对象的。
A、西
B、法
C、日
D、英
2【多选题】人工智能主要依赖的学科有()。
A、逻辑学
B、数学
C、统计学
D、信息与计算科学
3【判断题】计算机自身的编程母语是多语种的。()
4【判断题】人工智能不会受到“母语意识”的影响。()
7.2
1
【单选题】第一个注意到东方语言中量词问题的语言哲学家是()。
A、图灵
B、麦克德莫特
C、蒯因
D、罗素
2【多选题】英语重视哪两个问题的区分?()
A、谓语与非谓语
B、可数名词与不可数名词
C、冠词与数词
D、单复数
3【判断题】通过海量的数据输入及学习人工智能在量词的指派方面会达到相对准确的程度。()
4【判断题】基于统计学的和数据训练的人工智能系统是无法对语词背后的含义进行深入的理解的。()
7.3
1
【单选题】量词在汉语中的演化史,以()时代作为一个重要的转折点。
A、西周
B、先秦
C、两汉
D、宋代
2【多选题】汉语的演化史表明,量词的真实功用可能与()没有任何关系。
A、隐喻机制
B、个体化机制
C、单复数区分
D、补足音素
3【判断题】通用量词就是只能和特定的名词进行搭配的量词。()
4【判断题】通用量词的出现提升了古汉语的韵律上的齐一性。()
5【判断题】按照认知语言学的看法,我们对整个世界当中的事物的描述都是一种隐喻投射机制。()
7.4
1【判断题】站在整个全球人类语言演化的大方向上来看,量词现象是具有地方性的。()
8.1
1
【单选题】“中文屋”是()提出的思想实验。
A、艾伦·图灵
B、马文·明斯基
C、乔姆斯基
D、约翰·塞尔
2【判断题】汉语在塞尔的论证中所扮演的角色是非常“功能性”的,即塞尔只是借用“汉语”指涉任何他不懂的语言。()
8.2
1
【单选题】金谷武洋认为日本人是()看待世界的。
A、上帝的视角
B、他者的视角
C、虫子的视角
D、对象的视角
2
【单选题】与汉语相比,日语对于(身体感受性)的强调更加明显。
A、语法
B、量词
C、发音
D、身体感受性
3【多选题】日语是()的混合体。
A、平假名
B、汉字
C、片假名
D、假名
4【判断题】塞尔的规则书很大程度上是指语言符号的输入和语言符号的输出之间的关系。()
5【判断题】对语言的把握和体会很大程度上是一个语言符号的问题,并不依赖于对语境的观察。()
8.3
1
【单选题】提出“包容构架”理论的是()。
A、罗德尼·布鲁克斯
B、约翰·塞尔
C、马文·明斯基
D、艾伦·图灵
2
【单选题】日语具有强烈的()。
A、第三人称性
B、第二人称性
C、客体性
D、第一人称性
3
【单选题】深度学习归根结底是一个()。
A、推理机制
B、映射机制
C、识别机制
D、模拟机制
4【判断题】深度学习能够很好地处理语境性的信息。()
5【判断题】深度学习无法从客观数据达到主观体验。()
8.4
1
【单选题】()是非常接近欧陆现象学运动的语言学流派。
A、结构主义语言学
B、转化-生成语言学
C、历史比较语言学
D、认知语言学
2
【单选题】现有的主流人工智能对自然语言的处理是基于()视角的。
A、第二人称
B、第三人称
C、第一人称
D、对象
3【多选题】下列哪些哲学家是从人类真实接受到的现象学体验出发来理解人类生活的方方面面?()
A、胡塞尔
B、萨特
C、海德格尔
D、梅洛·庞蒂
4【判断题】计算机永远无法处理日语所具有的暧昧性。()
5【判断题】认知语言学是对我们进行语言处理的认知图式进行精确的把握。()
9.1
1
【单选题】阿西莫夫三定律出自()。
A、《曙光中的机器人》
B、《我,机器人》
C、《机器人与帝国》
D、《机器与伦理》
2【多选题】人工智能伦理学包括()。
A、机器伦理学
B、机器发明者的伦理学
C、编程伦理学
D、机器人伦理学
3【判断题】伦理道德规范编程的语义内容本身需要具身性加以奠基。()
4【判断题】机器伦理学是指造人工智能的主体自身的道德。()
9.2
1
【单选题】金谷武洋认为日本人是用虫子的视角看待世界的,这是一种()解释。
A、现象学
B、认知科学
C、认知哲学
D、生物学
2
【单选题】认知语言学认为“意义”的核心观点在于()。
A、区域化
B、行动化
C、范畴化
D、理论化
3【多选题】下列与“汉密尔顿理论”相关的是()
A、利他行为是由于基因相似
B、道德德生物学起源很可能就是与“通过亲属的生存而完成家族基因的备份”这一隐蔽的生物学目的相关的。
C、在假定甲、乙两个生物学个体之间具有一定的遗传相似性的前提下,只要这种相似性与“乙从甲获得的好处“之间乘积能够抵消“甲自身因帮助乙而遭受到的损失”,那么,使得互助行为得以可能的那些基因就会在种群中传播。
D、以上都不对
4【判断题】麦金泰尔在《依赖性的理性动物》一书中指出动物的社群活动具有很深的生物学根基。()
5【判断题】认知语言学认为一个句子的意义具有唯一的答案。()
6【判断题】人类作为社会性动物的原因是建立于生物学事实的,即人类的身体具有一种生物学意义上的脆弱性。()
9.3
1
【单选题】伦理学命题本身的意义是奠基在()之上的。
A、概念图式
B、认知图式
C、身体图式
D、心理架构
2
【单选题】根据认知语言学,并不存在与具体的()相脱离的语义。
A、理性存在
B、感性存在
C、多面性存在
D、非理性存在
3【多选题】对人类自身的()的研究,有助于人工智能伦理学的研究。
A、认知架构
B、认知图式
C、身体图式
D、心理架构
4【判断题】伦理学也基于互助原则,只有两种彼此力量相近的力量才能通过互助来互惠。()
5【判断题】找不到一个程序性的方法我们不可能把阿西莫夫三定律预先输入到计算机的软件中去。()
10.1
1
【单选题】德性论者关心的是()。
A、道德行为
B、道德主体
C、道德规则
D、行为后果
2
【单选题】从儒家的立场来看,德性是靠()的。
A、天性
B、遗传
C、熏养
D、感受
3【多选题】下列属于伦理学理论的是()。
A、义务论
B、后果论
C、德性论
D、行为论
4【判断题】行动者德性伦理学认为德性来源于行为者的美好的动机。()
5【判断题】《春秋公羊传》是孔子的著作。()
10.2
1
【单选题】击靶德性论致力于将“德性”兑换成平时我们所经常用到的()。
A、德性精神
B、德性习惯
C、德性名目
D、德性行为
2
【单选题】创立“神经哲学”的是()。
A、丘奇兰夫妇
B、Swanton
C、麦金太尔
D、斯宾诺莎
3
【单选题】与重视动机反省机制的行为者德性论尤其不同的是,击靶德性论特别看重()的实现。
A、德性精神
B、德性培育
C、德性伦理
D、德性价值
4【判断题】儒家的德性名目有“四维”、“五德”、“八德”等。()
10.3
1
【单选题】道德识别的矢量空间是()提出的。
A、斯宾诺莎
B、Swanton
C、麦金太尔
D、丘奇兰夫妇
2【多选题】人工神经元网络包括()。
A、输入层
B、中间隐藏层
C、映射层
D、输出层
3【判断题】在人类道德的培养中道德样板起到了很重要的作用。()
4【判断题】人类的认知过程具有从底层特征到高层特征这种单向过程的特征。()
10.4
1
【单选题】在信息匮乏的情况下能够提供有效的问题解决路径的重要思想把手是()。
A、推理思想
B、知性思维
C、归纳思维
D、类比思维
2
【单选题】视频中的第一个数据库是完成对()的评价的。
A、特定的人
B、特定的道德名目
C、道德行为
D、道德结果
3【判断题】类比思维需要很强大的直觉。
4【判断题】道德熏养不需要使用类比思维。()
10.5
1
【单选题】最近几年人工智能的发展是由于()的崛起。
A、深度学习
B、人工神经元网络
C、符号AI
D、专用人工智能研究
2【多选题】对人工智能的发展持“末世论”的科学家是()。
A、司马贺
B、霍金
C、埃隆·马斯克
D、约翰·塞尔
3【判断题】当前人工智能的发展具有学科基础薄弱的问题。()
4【判断题】当前人工智能的研究更多地受到科学研究的推动而商业的推动。()
5【判断题】人工智能解决的是资源的配置问题而非资源的来源问题。()
来源:智慧树答案网
本文链接:https://www.zhihuishutiku.com/post/234.html