博舍

人工智能的三大学术流派有哪些 当前人工智能有哪些学派其在人工智能上有什么不同观

人工智能的三大学术流派有哪些

今天无意间听到了一位同事说起人工智能的三大流派,这个也有流派?想先了解一下,就在网上搜索了一下相关的基础知识进行补充。

前世今生

人工智能在其学科发展的60余年历史中,有许多不同学科背景的学者都曾对人工智能做出过各自的理解,提出不同的观点,由此产生了不同的学术流派。这其中,对人工智能研究影响较大的主要有符号主义、联结主义和行为主义三大学派。

三大学派一、符号主义(symbolicism)-数理逻辑

符号主义学派认为人工智能源于数学逻辑,人类认知和思维的基本单元是符号,而认知过程就是在符号表示上的一种运算。

符号主义致力于用某种符号来描述人类的认知过程,并把这种符号输入到能处理符号的计算机中,从而模拟人类的认知过程,实现人工智能。

符号主义的发展大概经历了几个阶段:推理期(20世纪50年代–20世纪70年代),知识期(20世纪70年代—-)。“推理期”人们基于符号知识表示、通过演绎推理技术取得了很大的成就;“知识期”人们基于符号表示、通过获取和利用领域知识来建立专家系统取得了大量的成果

二、联结主义(connectionism)-仿生学

连接学派通过算法模拟神经元,并把这样一个单元叫做感知机,将多个感知机组成一层网络,多层这样的网络互相连接最终得到神经网络。这一学派认为人工智能源于仿生学,特别是人脑模型的研究。联结主义学派从神经生理学和认知科学的研究成果出发,把人的智能归结为人脑的高层活动的结果,强调智能活动是由大量简单的单元通过复杂的相互连接后并行运行的结果。我们可以根据要解决的实际问题来构建神经网络,进而用数据不断训练这一网络,调整连接权重来模拟智能。

20世纪60~70年代,连接主义,尤其是对以感知机(perceptron)为代表的脑模型的研究出现过热潮,由于受到当时的理论模型、生物原型和技术条件的限制,脑模型研究在20世纪70年代后期至80年代初期落入低潮。直到Hopfield教授在1982年和1984年发表两篇重要论文,提出用硬件模拟神经网络以后,连接主义才又重新抬头。1986年,鲁梅尔哈特(Rumelhart)等人提出多层网络中的反向传播算法(BP)算法。进入21世纪后,连接主义卷土重来,提出了“深度学习”的概念。

三、行为主义(actionism)-控制论

是一种基于“感知—行动”的行为智能模拟方法。行为主义学派认为,行为是有机体用以适应环境变化的各种身体反应的组合,它的理论目标在于预见和控制行为。

行为主义是20世纪末才以人工智能新学派的面孔出现的,引起许多人的兴趣。这一学派的代表作首推布鲁克斯(Brooks)的六足行走机器人,它被看作新一代的“控制论动物”,是一个基于感知-动作模式的模拟昆虫行为的控制系统。

备注:https://www.toutiao.com/a6639167420290302467/

人工智能导论——人工智能的主要学派及主张

目前对人工智能研究影响较大的的学派主要有符号主义、联结主义和行为主义这三大学派。

(1)符号主义(symbolicism),又称为逻辑主义(logicism)、心理学派(psychologism)或计算机学派(computerism),其原理主要为物理符号系统(即符号操作系统)假设和有限合理性原理。

主张:该学派认为人工智能源于数理逻辑。数理逻辑从19世纪末起得以迅速发展,到20世纪30年代开始用于描述智能行为。计算机出现后,又再计算机上实现了逻辑演绎系统。其有代表性的成果为启发式程序LT逻辑理论家,证明了38条数学定理,表了可以应用计算机研究人的思维多成,模拟人类智能活动。该学派认为人类认知和思维的基本单元是符号,而认知过程就是在符号表示上的一种运算。符号主义致力于用计算机的符号操作来模拟人的认知过程其,实质就是模拟人的左脑抽象逻辑思维,通过研究人类认知系统的功能机理,用某种符号来描述人类的认知过程,并把这种符号输入到能处理符号的计算机中,从而模拟人类的认知过程,实现人工智能。

(2)联结主义(connectionism),又称为仿生学派(bionicsism)或生理学派(physiologism),其主要原理为神经网络及神经网络间的连接机制与学习算法。

主张:其原理主要为神经网络和神经网络间的连接机制和学习算法。这一学派认为人工智能源于仿生学,特别是人脑模型的研究。联结主义学派从神经生理学和认知科学的研究成果出发,把人的智能归结为人脑的高层活动的结果,强调智能活动是由大量简单的单元通过复杂的相互连接后并行运行的结果。其中人工神经网络就是其典型代表性技术。 它的代表性成果是1943年由生理学家麦卡洛克(McCulloch)和数理逻辑学家皮茨(Pitts)创立的脑模型,即MP模型,开创了用电子装置模仿人脑结构和功能的新途径。它从神经元开始进而研究神经网络模型和脑模型,开辟了人工智能的又一发展道路。

(3)行为主义(actionism),又称为进化主义(evolutionism)或控制论学派(cyberneticsism),其原理为控制论及感知-动作型控制系统。

主张:认为人工智能源于控制论。控制论思想早在20世纪40~50年代就成为时代思潮的重要部分,影响了早期的人工智能工作者。维纳(Wiener)和麦克洛克(McCulloch)等人提出的控制论和自组织系统以及钱学森等人提出的工程控制论和生物控制论,影响了许多领域。控制论把神经系统的工作原理与信息理论、控制理论、逻辑以及计算机联系起来。早期的研究工作重点是模拟人在控制过程中的智能行为和作用,如对自寻优、自适应、自镇定、自组织和自学习等控制论系统的研究,并进行“控制论动物”的研制。到20世纪60~70年代,上述这些控制论系统的研究取得一定进展,播下智能控制和智能机器人的种子,并在20世纪80年代诞生了智能控制和智能机器人系统。行为主义是20世纪末才以人工智能新学派的面孔出现的,引起许多人的兴趣。这一学派的代表作者首推布鲁克斯(Brooks)的六足行走机器人,它被看作是新一代的“控制论动物”,是一个基于感知-动作模式模拟昆虫行为的控制系统。

就人工智能三大学派的历史发展来看,符号主义认为认知过程在本体上就是一种符号处理过程,人类思维过程总可以用某种符号来进行描述,其研究是以静态、顺序、串行的数字计算模型来处理智能,寻求知识的符号表征和计算,它的特点是自上而下。而联结主义则是模拟发生在人类神经系统中的认知过程,提供一种完全不同于符号处理模型的认知神经研究范式。主张认知是相互连接的神经元的相互作用。行为主义与前两者均不相同。认为智能是系统与环境的交互行为,是对外界复杂环境的一种适应。

 

 

 

内容主要来自于《人工智能及其应用》

 

人工智能研究主要有哪三大学派,其特点是什么

人工智能研究主要有哪三大学派,其特点是什么?

(1)符号主义:又称为功能模拟学派,主要观点认为智能活动的基础是物理符号系统,思维过程是符号模式的处理过程。其特点:(a)立足于逻辑运算和符号操作,适合模拟人的逻辑思维过程,解决需要逻辑推理的复杂问题。(b)知识可用显示的符号表示,在已知基本规则的情况下,无需输入大量的细节知识。(c)便于模块化,当个别事实发生变化时,易于修改。(d)能与传统的符号数据库进行连接。(e)可对推理结论进行解释,便于对各种可能性进行选择。(2)连接主义:又称为结构模拟学派,是基于神经网络及网络间的连接机制和学习算法的人工智能学派。主要观点认为大脑是一切智能活动的基础,因而从大脑神经元及其连接机制出发进行研究,渴望揭示人类智能的奥秘,从而真正实现人类智能在机器上的模拟,其特点:(a)通过神经元之间的并行协作实现信息处理,处理过程具有并行性,动态性,全局性。(b)可以实现联想的功能,便于对噪声的信息进行处理。(c)可以通过对于神经元之间连接强度的调整实现学习和分类等。(d)适合模拟人类的形象思维过程。(e)求解问题时,可以较快的得到一个近似解。(3)行为主义:又称模拟学派、进化主义或控制论学派,认为智能行为的基础是“感知行为”的反应机制。基于智能控制系统的理论、方法和技术,研究拟人的智能控制行为。其特点:(a)知识和形式表达和模型化方法是人工智能的重要障碍之一。(b)智能取决于感知和行动,应直接利用机器对机器环境作用后,以环境对作用的响应为原型。(c)智能行为只能体现在世界中,通过与周围环境交互而表现出来。(d)人工智能可以像人类智能一样逐步进化,分阶段发展和增强。

人工智能导论第一次作业(人工智能有哪些研究途径与方法它们的关系如何人工智能有哪些研究内容人工智能领域有哪些分支领域和研究方向现在人工智能有哪些学派它们的认知观是什么)

人工智能有哪些研究途径与方法?它们的关系如何?

(1)研究途径与方法

“心理模拟、符号推演”

心理学派、逻辑学派和符号主义的基于“心理模拟和符号推演”的人工智能研究。就是从人脑的宏观心理层面入手,以智能行为的心理模型为依据,将问题或知识表示成某种逻辑网络,采用符号推演的方法,模拟人脑的逻辑思维过程,实现人工智能。

“生理模拟、神经计算”

“生理模拟、神经计算”就是从人脑的生理层面,即微观结构和工作机理入手,以智能行为的生理模型为依据,采用数值计算的方法,模拟脑神经网络的工作过程,实现人工智能。具体来讲,就是用人工神经网络作为信息和知识的载体,用称为神经计算的数值计算方法来实现网络的学习记忆联想识别和推理等功能。

“行为模拟、控制进化”

“行为模拟、控制进化”是一种基于“感知—行为”模型的研究途径和方法,我们称其为行为模拟法。基于行为模拟法的人工智能研究,被称为行为主义、进化主义、控制理论学派。

“群体模拟、仿生计算”

“群体模拟、仿生计算”就是模拟生物群落的群体智能行为,从而实现人工智能。其特点为可以直接付诸应用而解决工程问题和实际问题。

“博采广鉴、自然计算”

“博采广鉴、自然计算”就是模仿或者借鉴自然界中某种机理而设计计算机模型,这种计算机模型一般具有自适应、自组织、自学习、自寻优能力的算法。

“着眼数据、统计建模”

“着眼数据、统计建模”就是着眼于事物或问题的外在表现和关系,收集、采集、整理相关信息并做成样本数据,然后基于样本数据用统计学、概率论和其他数学理论和方法建立数学模型,并采用适当的算法和策略进行计算,以期从事物外在表现的样本数据中推测事物的内在模式或规律,并用之解决相关实际问题。

   (2)关系

       以上人工智能研究的六种方法和途径,它们各有所长,也有各自的局限性。所以,这些研究途径和方法并不能相互取代,而是并存和互补的关系。

人工智能有哪些研究内容?难题求解自动规划、调度与配置机器博弈机器翻译与机器写作机器定理证明自动程序设计智能控制智能管理智能决策智能通信智能预测智能仿真智能设计与制造智能车辆与智能交通智能诊断与治疗智能生物信息处理智能教育智能人—机接口模式识别智能机器人数据挖掘与知识发现计算机辅助创新计算机文艺创作人工智能领域有哪些分支领域和研究方向?

a).从研究内容来看,人工智能可以分为搜索与求解、知识与推理、学习与发现等十大分支领域(它们构成了人工智能学科的总体架构)。

b).从研究途径和智能层次来看,人工智能可分为符号智能、计算智能、统计智能和交互智能等四大分支领域。

c).从所模拟的脑智能或脑功能来看,AI中有机器学习、机器感知、机器联想、机器推理、机器行为等分支领域。

d).从系统角度看,AI中有智能计算机系统和智能应用系统两大类。

e).从应用角度看,AI中有难题求解等数十个分支领域和研究方向。

f).从信息处理角度看,人工智能的研究涉及确定—确切性信息处理、不确定—确切性信息处理、确定—不确切性信息处理和不确定—不确切性信息处理等四个主题。

现在人工智能有哪些学派?它们的认知观是什么?

目前人工智能的主要学派有下面三家:

(1)  符号主义,又称为逻辑主义、心理学派或计算机学派,其原理主要为物理符号系统(即符号操作系统)假设和有限合理性原理。

(2)  连接主义,又称为仿生学派或生理学派,其主要原理为神经网络及神经网络间的连接机制与学习算法。

(3)  行为主义,又称为进化主义或控制论学派,其原理为控制论及感知-动作型控制系统。

认识观

符号主义认为人工智能源于数理逻辑连接主义认为人工智能源于仿生学行为主义认为人工智能源于控制论

5.未来人和机器的关系是什么?

在机器人行为准则被严格贯彻的情况下,机器人可以参与到人们的生活和工作中去,人和及其人可以和谐共存也可以成为朋友甚至是家人。

6.智能时代青少年人工智能伦理教育有必要吗?为什么?

我认为智能时代青少年人工智能伦理教育十分有必要。                          

从2017年起,伴随互联网和大数据信息技术的社会普及,“人工智能+教育”已成为当前国内教育领域的前端热门话题。编程作为人工智能教育的基础语言成为教育领域的焦点。越来越多的学校和企业采取联合教研的方式合作,利用双方优势助推人工智能教育的普及。国务院《新一代人工智能发展规划》指出,人工智能成为国际竞争的新焦点。人工智能是引领未来的战略性技术,人工智能将深刻改变人类生产生活方式和思维模式,人工智能的迅速发展将深刻改变人类社会生活、改变世界。                                                                         人工智能要从娃娃抓起,推动国民科学创新素质。信息数字化社会中,人工智无处不在,融入到教育、交通、金融等改革发展的万花筒中。两会时间里,人工智能被写进2018年政府工作报告,引起社会各界尤其是教育领域的高度关注。“人工智能时代刚刚来临,人工智能发展方面人才缺口大,同时国内中小学校的STEAM科学教育课程也亟待加强,这是促进素质教育的有力突破口。”中国教育科学研究院副研究员郁波说。教育部发布的《关于“十三五”期间全面深入推进教育信息化工作的指导意见》提出,鼓励中小学探索STEAM教育、创客教育等新教育模式,使学生具有较强的信息意识与创新意识,养成数字化学习习惯。“人工智能是改变人类未来生活方式的重要手段,是未来颠覆人类发展生活的大方向。”,对国内中小学教育,人工智能和教育相结合势在必行,“让人工智能融入中小学课堂,推助国民科学创新素质,为国家的人工智能发展培育种子力量,这是一种社会责任。

人工智能可能有自主意识了吗

➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术

➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互

➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系

➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。

LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。

为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。

事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?

人工智能自主意识之辨

勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。

受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。

至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。

清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”

中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。

被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。

这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。

当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。

但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。

段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。

若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。

不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。

若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。

段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。

但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”

换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。

郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”

技术换道

有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。

据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。

一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。

从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。

梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”

不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。

谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。

郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。

梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。

相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。

这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。

“人工智能觉醒”背后

有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。

梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”

据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。

这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”

梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”

我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。

中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”

在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。

毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。

从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。

为了人机友好的未来

确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。

薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。

梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。

“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。

因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。

与其对立的观点则认为,目前这一担忧为时尚早。

“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。

商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。

郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”

在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

编辑:李华山

2022年08月16日07:42:05

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇