博舍

人工智能的起源 人工智能最初是什么时候提出的问题呢

人工智能的起源

原标题:人工智能的起源

人工智能(ArtificialIntelligence),英文缩写为AI,是一门由计算机科学、控制论、信息论、语言学、神经生理学、心理学、数学、哲学等多种学科相互渗透而发展起来的综合性新学科。自问世以来AI经过波波折折,但终于作为一门边缘新学科得到世界的承认并且日益引起人们的兴趣和关注。不仅许多其他学科开始引入或借用AI技术,而且AI中的专家系统、自然语言处理和图象识别已成为新兴的知识产业的三大突破口。

人工智能的思想萌芽可以追溯到十七世纪的帕斯卡和莱布尼茨,他们较早萌生了有智能的机器的想法。十九世纪,英国数学家布尔和德.摩尔根提出了“思维定律“,这些可谓是人工智能的开端。十九世纪二十年代,英国科学家巴贝奇设计了第一架“计算机器“,它被认为是计算机硬件,也是人工智能硬件的前身。电子计算机的问世,使人工智能的研究真正成为可能。

作为一门学科,人工智能于1956年问世,是由“人工智能之父“McCarthy及一批数学家、信息学家、心理学家、神经生理学家、计算机科学家在Dartmouth大学召开的会议上,首次提出。对人工智能的研究,由于研究角度的不同,形成了不同的研究学派。这就是:符号主义学派、连接主义学派和行为主义学派。

传统人工智能是符号主义,它以Newell和Simon提出的物理符号系统假设为基础。物理符号系统是由一组符号实体组成,它们都是物理模式,可在符号结构的实体中作为组成成分出现,可通过各种操作生成其它符号结构。物理符号系统假设认为:物理符号系统是智能行为的充分和必要条件。主要工作是“通用问题求解程序“(GeneralProblemSolver,GPS):通过抽象,将一个现实系统变成一个符号系统,基于此符号系统,使用动态搜索方法求解问题。

连接主义学派是从人的大脑神经系统结构出发,研究非程序的、适应性的、大脑风格的信息处理的本质和能力,研究大量简单的神经元的集团信息处理能力及其动态行为。人们也称之为神经计算。研究重点是侧重于模拟和实现人的认识过程中的感觉、知觉过程、形象思维、分布式记忆和自学习、自组织过程。

行为主义学派是从行为心理学出发,认为智能只是在与环境的交互作用中表现出来。

人工智能的研究经历了以下几个阶段:

第一阶段:50年代人工智能的兴起和冷落

人工智能概念首次提出后,相继出现了一批显著的成果,如机器定理证明、跳棋程序、通用问题s求解程序、LISP表处理语言等。但由于消解法推理能力的有限,以及机器翻译等的失败,使人工智能走入了低谷。这一阶段的特点是:重视问题求解的方法,忽视知识重要性。

第二阶段:60年代末到70年代,专家系统出现,使人工智能研究出现新高潮

DENDRAL化学质谱分析系统、MYCIN疾病诊断和治疗系统、PROSPECTIOR探矿系统、Hearsay-II语音理解系统等专家系统的研究和开发,将人工智能引向了实用化。并且,1969年成立了国际人工智能联合会议(InternationalJointConferencesonArtificialIntelligence即IJCAI)。

第三阶段:80年代,随着第五代计算机的研制,人工智能得到了很大发展

展开全文

日本1982年开始了“第五代计算机研制计划“,即“知识信息处理计算机系统KIPS“,其目的是使逻辑推理达到数值运算那么快。虽然此计划最终失败,但它的开展形成了一股研究人工智能的热潮。

第四阶段:80年代末,神经网络飞速发展

1987年,美国召开第一次神经网络国际会议,宣告了这一新学科的诞生。此后,各国在神经网络方面的投资逐渐增加,神经网络迅速发展起来。

第五阶段:90年代,人工智能出现新的研究高潮

由于网络技术特别是国际互连网的技术发展,人工智能开始由单个智能主体研究转向基于网络环境下的分布式人工智能研究。不仅研究基于同一目标的分布式问题求解,而且研究多个智能主体的多目标问题求解,将人工智能更面向实用。另外,由于Hopfield多层神经网络模型的提出,使人工神经网络研究与应用出现了欣欣向荣的景象。人工智能已深入到社会生活的各个领域。

IBM公司“深蓝“电脑击败了人类的世界国际象棋冠军,美国制定了以多Agent系统应用为重要研究内容的信息高速公路计划,基于Agent技术的Softbot(软机器人)在软件领域和网络搜索引擎中得到了充分应用,同时,美国Sandia实验室建立了国际上最庞大的“虚拟现实“实验室,拟通过数据头盔和数据手套实现更友好的人机交互,建立更好的智能用户接口。图像处理和图像识别,声音处理和声音识别取得了较好的发展,IBM公司推出了ViaVoice声音识别软件,以使声音作为重要的信息输入媒体。国际各大计算机公司又开始将“人工智能“作为其研究内容。人们普遍认为,计算机将会向网络化、智能化、并行化方向发展。二十一世纪的信息技术领域将会以智能信息处理为中心。

目前人工智能主要研究内容是:分布式人工智能与多智能主体系统、人工思维模型、知识系统(包括专家系统、知识库系统和智能决策系统)、知识发现与数据挖掘(从大量的、不完全的、模糊的、有噪声的数据中挖掘出对我们有用的知识)、遗传与演化计算(通过对生物遗传与进化理论的模拟,揭示出人的智能进化规律)、人工生命(通过构造简单的人工生命系统(如:机器虫)并观察其行为,探讨初级智能的奥秘)、人工智能应用(如:模糊控制、智能大厦、智能人机接口、智能机器人等)等等。

人工智能研究与应用虽取得了不少成果,但离全面推广应用还有很大的距离,还有许多问题有待解决,且需要多学科的研究专家共同合作。未来人工智能的研究方向主要有:人工智能理论、机器学习模型和理论、不精确知识表示及其推理、常识知识及其推理、人工思维模型、智能人机接口、多智能主体系统、知识发现与知识获取、人工智能应用基础等。返回搜狐,查看更多

责任编辑:

“人工智能”一词最初是在1956年Dartmouth学会上提出的

0分享至

“人工智能”一词最初是在1956年Dartmouth学会上提出的。从那以后,研究者们发展了很多理论和原理,人工智能的概念也随之扩展。人工智能是一门极其复杂且具有挑战性的科学,它涉及的学科范围非常广泛,如果要从事这项工作,必须懂得计算机知识、心理学知识和哲学知识等等。总的说来,人工智能研究的主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但在不同时代、不同的人对这种“复杂工作”的理解是不尽相同的,例如繁重的科学和工程运算本来是要人脑来承担的,而计算机不仅能出色地完成这种运算,而且比人脑做得更快、更准确。

因此,当代人已不再把这种计算看作是“需要人类智能才能完成的复杂任务”。由此可见,复杂工作的内涵是随时代的发展和技术的进步而变化的,人工智能这门科学的具体目标也是随着时代的发展而发展的。它一方面不断取得新的进展,另一方面又朝着更有意义、更加困难的目标转向。目前可以用来研究人工智能的主要物质手段以及能够实现人工智能技术的机器就是计算机,因此人工智能的发展是与计算机的发展紧密联系在一起的。除了计算机科学以外,人工智能还涉及信息论、控制论、自动化、仿生学、生物学、心理学、数理逻辑、语言学、医学以及哲学等众多学科。人工智能学科研究的内容主要包括知识表示、自动推理和搜索方法、机器学习和知识获取、知识处理系统、自然语言理解、计算机视觉、智能机器人、自动程序设计等领域。

人工智能是计算机学科的一个分支,20世纪70年代以来被称为世界三大尖端技术(空间技术、能源技术、人工智能)之一,也被认为是21世纪三大尖端技术(基因工程、纳米科学、人工智能)之一。这是因为近30年来,人工智能获得了迅速的发展,在很多学科领域都获得了广泛应用,并且取得了丰硕的成果。人工智能在实际生活中应用非常广泛,比如用于机器视觉:指纹识别、人脸识别、视网膜识别、虹膜识别、掌纹识别等;此外还可以用于专家系统、智能搜索、定理证明、博弈、自动程序设计、航天等方面。目前,人工智能还处于进一步研究中,但是有学者认为让计算机拥有智商是非常危险的,比如它可能会反抗人类。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

人工智能的若干伦理问题思考

国内方面相关研究起步较晚,研究不如国外系统与全面。但是近些年来,相关学者也将重点放在人工智能的伦理方面。相关文献有《机器人技术的伦理边界》[7]、《人权:机器人能够获得吗?》[8]、《我们要给机器人以“人权”吗?》[9]、《给机器人做规矩了,要赶紧了?》[10]、《人工智能与法律问题初探》[11]等等。值得一提的是,从以上文献可以看出,我国学者已经从单纯的技术伦理问题转向人机交互关系中的伦理研究,这无疑是很大的进步。

不过,遗憾的是,无论是在国内还是国外,现在仍然很少有成型的法律法规来对人工智能技术与产品进行约束,随着人们将注意力转向该方向,相信在不远的将来,有关政府部门会出台一套通用的人工智能伦理规范条例,来为整个行业作出表范。

三、人工智能是否会取代人类

有关人工智能与人的关系,很多人进行过质疑与讨论。1967年,《机器的神话》[12]作者就对机器工作提出了强烈的反对意见,认为机器的诞生使得人类丧失个性,从而使社会变得机械化。而近些年来,奇点理论的提出与宣传[13],更加使得人们担忧机器是否将会全面替代人类,该理论的核心思想即认为机器的智能很快就将超过人类。

笔者认为,人工智能不断进步,这是个不争的事实。机器的感觉,运动、计算机能都将会远远超过人类。这是机器的强项。但是不会从根本上冲击人类的岗位与职业。这是出于以下几方面的考虑:首先机器有自己的优势,人类也有自己的优势,且这个优势是机器在短期无法比拟与模仿的。人类具有思维能力,能够从小数据中迅速提炼归纳出规律,并且可以在资源有限的情况下进行非理性决策。人类拥有直觉能够将无关的事物相关化。人类还具有与机器不尽相同的内部处理方式,一些在人类看来轻而易举的事情,可能对于机器而言就要耗费巨大的资源。2012年,google训练机器从一千万张的图片自发的识别出猫。2016年,谷歌大脑团队训练机器,根据物体的材质不同,来自动调整抓握的力量。这对于一个小孩子来说,是很简单的任务,但在人工智能领域,确正好相反。也许正如莫桑维克悖论所阐述的,高级推理所需要的计算量不大,反倒是低级的感觉运动技能需要庞大的计算资源。

其次,目前人类和机器还没有达到同步对称的交互,仍然存在着交互的时间差。目前为止,仍然是人类占据主动,而且对机器产生不可逆的优势。皮埃罗·斯加鲁菲在《智能的本质》[14]一书中曾经提出:人们在杂乱无章中的大自然中建立规则和秩序,因为这样的环境中人类更容易生存和繁衍不息。而环境的结构化程度越高,制造在其中的机器就越容易,相反,环境的结构化程度越低,机器取代的可能性越小。由此可见,机器的产生与发展是建立在人们对其环境的了解与改造上的。反过来,机器的发展进一步促进了人们的改造与认知活动。这就如天平的两端,单纯的去掉任何一方都会导致天平的失衡。如果没有人类的指引与改造作用,机器只能停留在低端的机械重复工作层次。而机器在一个较低端层次工作的同时也会使得人们不断追求更高层次的结构化,从而使得机器向更高层次迈进。这就像一个迭代上升的过程,人-机器-人-机器,以此循环,人类在这段过程中总是处于领先的地位。所以机器可以取代人类的工作,而不是人类。

再次,人工智能的高速发展同时带来了机遇。诚然,技术的发展会带来一些负面影响,但是如果从全局来看,是利大于弊的。新技术的发展带来的机遇就是全方位的。乘法效应就是说明的这个道理:在高科技领域每增加一份工作,相应的在其它行业增加至少4份工作,相应的,传统制造业为1:1.4[14].我们应该看到,如今伴随着人工智能业的飞速发展,相关企业如雨后春笋般诞生,整体拉动了相关产业(服务业、金融业)的发展,带来了更多的就业机会。

而且,任何一项技术的发展都不是一蹴而的,而是循序渐进的过程。无论是最早期的类人猿的工具制造、还是后来的电力发展、再到现在的互联网时代,技术的发展与运用是需要时间来保证的。现在社会上有些人担心人工智能的发展会立即冲击自己的工作,实则是有些“杞人忧天”的意味。以史可以明鉴,历史上大的技术突破并没有对人类的工作产生毁灭性的打击。蒸汽机的诞生替代了传统的骡马、印刷机的诞生取代了传统的抄写员、农业自动化设施的产生替代了很多农民的工作,但这都没有致使大量的工人流离失所,相反,人们找到了原本属于人类的工作。新兴技术创造的工作机会要高于所替代的工作机会。所以,我们不必过分担心机器取代人类工作的问题。

四、谁来为事故负责

2016年7月,特斯拉无人驾驶汽车发生重大事故,造成了一名司机当场死亡。这件事故很快成为了新闻媒体的焦点。人们不仅仅关注这件事情本身所带来的影响,更加担心机器作为行为执行主体,发生事故后责任的承担机制。究竟是应该惩罚那些做出实际行为的机器(并不知道自己在做什么),还是那些设计或下达命令的人,或者两者兼而有之。如果机器应当受罚,那究竟如何处置呢?是应当像西部世界中将所有记忆全部清空,还是直接销毁呢?目前还没有相关法律对其进行规范与制约。

随着智能产品的逐渐普及,我们对它们的依赖也越来越深。在人机环境交互中,我们对其容忍度也逐渐增加。于是,当系统出现一些小错误时,我们往往将其归因于外界因素,无视这些微小错误的积累,我们总是希望其能自动修复,并恢复到正常的工作状态。遗憾的是,机器黑箱状态并没有呈现出其自身的工作状态,从而造成了人机交互中人的认知空白期。当机器不能自行修复时,往往会将主动权转交给人类,人类就被迫参与到循环中,而这时人们并不知道发生了什么,也不知道该怎样处理。据相关调查与研究,如果人们在时间与任务压力下,往往会产生认知负荷过大的情况,从而导致本可以避免的错误。如果恰巧这时关键部分出了差错,就会产生很大的危险。事后,人们往往会责怪有关人员的不作为,往往忽视机器一方的责任,这样做是有失偏颇的。也许正如佩罗所说:百分之60到80的错误可以归因于操作员的失误。但当我们回顾一次次错误之时,会发现操作员面临的往往是系统故障中未知甚至诡异的行为方式。我们过去的经验帮不上忙,我们只是事后诸葛亮[15]。

其实,笔者认为人工智能存在三种交互模式,即人在环内、人在环外与以上两者相结合。人在环内即控制,这个时候人的主动权较大,从而人们对整个系统产生了操纵感。人在环外即自动,这时候,人的主动权就完全归于机器。第三种情况就是人可以主动/被动进入系统中。目前大多数所谓的无人产品都会有主动模式/自动模式切换。其中被动模式并不可取,这就像之前讨论的那样,无论是时间还是空间上,被动模式对于系统都是不稳定的,很容易造成不必要的事故。

还有一种特殊情况,那就是事故是由设计者/操纵者蓄意操纵的,最典型的就是军事无人机这种武器,军方为了减少己方伤亡,试图以无人机代替有人机进行军事活动。无人机的产生将操作员与责任之间的距离越拉越远,而且随着无人机任务的愈加复杂,幕后操纵者也越来越多,每个人只是完成“事故”的一小部分。所以人们的责任被逐渐淡化,人们对这种“杀戮”变得心安理得。而且很多人也相信,无人机足够智能,与军人相比,能够尽可能减少对无辜平民的伤害。可具有讽刺意义的是,美国的无人机已经夺去了2500至4000人的性命。其中约1000位平民,且有200名儿童[14]。2012年,人权观察在一份报告中强调,完全自主性武器会增加对平民的伤害,不符合人道主义精神[16]。不过,目前对于军事智能武器伦理的研究仍然停留在理论层面,要想在实际军事战争中实践,还需要更加做出更多的努力。

综上可以看出,在一些复杂的人机环境系统中,事故的责任是很难界定的。每个人(机器)都是系统的一部分,完成了系统的一部分功能,但是整体却产生了不可挽回的错误。至于人工智能中人与机器究竟应该以何种方式共处,笔者将在下面一节中给出自己的一些观点。

五、笔者的一些思考

通过以上的讨论与分析,笔者认为,人工智能还远没有伦理的概念(至少是现在),有的只是相应的人对于伦理的概念,是人类将伦理的概念强加在机器身上。在潜意识中,人们总是将机器视之合作的人类,所以赋予机器很多原本不属于它的词汇,如机器智能、机器伦理、机器情感等。在笔者看来,这些词汇本身无可厚非,因为这反映出人们对机器很高的期望,期望其能够像人一样理解他人的想法,并能够与人类进行自然的交互。但是,现在的当务之急,是弄清楚人的伦理中可以进行结构化处理的部分,因为这样下一步才可以让机器学习,形成自己的伦理体系。而且伦理,正如第一部分讨论的,是由伦和理组成的,每一部分都有自己的含义,而“伦”,即人伦,更是人类在长期进化发展中所逐渐形成的,具有很大的文化依赖性。更重要的是,伦理是具有情景性的,在一个情景下的伦理是可以接受的,而换到另一种情景,就变得难以理解,所以,如何解决伦理的跨情景问题,也是需要考虑的问题。

而且值得一提的是,就人机环境交互而言,机指而不仅仅是机器,更不是单纯的计算机,而且还包括机制与机理。而环境不仅仅单指自然环境、社会环境,更要涉及到人的心理环境。单纯的关注某一个方面,总会做到以偏概全。人工智能技术的发展,不仅仅是技术的发展与进步,更加关键的是机制与机理的与时俱进。因为两者的发展是相辅相成的,技术发展过快,而机制并不完善,就会制约技术的发展。现在的人工智能伦理研究就有点这个意味。现在的人类智能的机理尚不清楚,更不要提机器的智能机理了。而且,目前机器大多数关注人的外在环境,即自然环境与社会环境,机器从传感器得到的环境数据来综合分析人所处的外在环境,但是却很难有相应的算法来分析人的内部心理环境,人的心理活动具有意向性,具有动机性,这也是目前机器所不具备的,也是不能理解的。所以对于人工智能的发展而言,机器的发展不仅仅是技术的发展,更是机制上的不断完善。研究出试图理解人的内隐行为的机器,则是进一步的目标。只有达到这个目标,人机环境交互才能达到更高的层次。

六、发展与展望

人工智能伦理研究是人工智能技术发展到一定程度的产物,它既包括人工智能的技术研究,也包括机器与人、机器与环境及人、机、环境之间关系的探索。与很多新兴学科一致,它的历史不长,但发展速度很快。尤其是近些年,依托着深度学习的兴起,以及一些大事件(AlphaGo战胜李世石)的产生,人们对人工智能本身,以及人工智能伦理研究的兴趣陡然上升,对其相关研究与著作也相对增多。但是,可以预期到的是,人工智能技术本身离我们设想的智能程度还相去甚远,且自发的将人的伦理迁移到机器中的想法本身实现难度就极大。而且如果回顾过去的话,人工智能总是在起伏中前进,怎样保证无论是在高峰还是低谷的周期中,政府的资助力度与人们的热情保持在同一水平线,这也是一个很难回避的问题。这些都需要目前的人工智能伦理专家做进一步的研究。

总之,人工智能伦理研究不仅仅要考虑机器技术的高速发展,更要考虑交互主体-人类的思维与认知方式,让机器与人类各司其职,互相促进,这才是人工智能伦理研究的前景与趋势。

参考文献:

[1][法]斯特凡·东希厄,徐寒易译.会做梦的机器人[J].环球科学.2017(4):48-49.

[2]毕彦华.何谓伦理学[M].中央编译出版社,2010.

[3][美]维纳,陈步译.人有人的用处:控制论与社会[M].北京大学出版社,2010.

[4][美]哈里亨德森,侯然译.人工智能-大脑的镜子[M].上海科学技术文献出版社,2011.

[5]M.Anderson,S.Anderson,C.Armen,TowardsMachineEthics:ImplementingTwoAction-BasedEthicalTheories[C].InM.Anderson,S.Anderson,C.Armen(Eds.),MachineEthics:AAAIFallSymposium,TechnicalReportFS-05-06.MenloPark,CA:AAAIPress,2005:1-7.

[6]王绍源,崔文芊.国外机器人伦理学的兴起及其问题域分析[J].未来与发展,2013,(06):48-52.

[7]迟萌.机器人技术的伦理边界机器人技术与应用[J].2009,(03).

[8]江晓原.人权:机器人能够获得吗?--从《机械公敌》想到的问题[N].中华读书报,2004-12-l.

[9]黄建民.我们要给机器人以"人权"吗?读书与评论[J].2009(06):55-58.

[10]姜潘.给机器人做规矩,要赶紧了[N].文汇报,2011-6-7.

[11]唐昊沫,舒心.人工智能与法律问题初探[J].哈尔滨学院学报,2007(01)

[12][美]刘易斯.芒福德,宋俊岭等译.机器的神话[M].北京:中国建筑工业出版社,2009.

[13][美]库兹韦尔,李庆诚,董振华,田源译.奇点降临.北京:机械工业出版社.2011.

[14][美]皮埃罗斯加鲁菲,任莉张建宇译.智能的本质[M].北京:人民邮电出版社,2017.

[15]JamesReason.Humanerror[M].:CambridgeUniversityPress.1990.

[16]杜严勇.关于机器人应用的伦理问题[J].2015,vol5(2):25-34.

摘自《科学与社会》2018.1返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇