博舍

人工智能的三条定律 人工智能3条原则

人工智能的三条定律

在模拟计算中,复杂性存在于网络拓扑结构而不是代码里。信息被处理为诸如电压和相对脉冲频率之类的值的连续函数,而不是对离散的位串的逻辑运算。因为不能容忍错误或模糊,数字计算需要随时纠正错误。而模拟计算可以容忍错误,允许错误的出现。

自然界使用数字编码来存储、复制和重组核苷酸序列,但依赖模拟计算运行神经系统,获得智能和控制。每个活细胞中的遗传系统都是一个具有存储程序的计算机。但大脑不是。

数字计算机在两种比特之间进行转换:表示空间差异的比特和表示时间差异的比特。这两种形式的信息、序列和结构之间的转换是由计算机编程控制的,只要计算机需要人类程序员,我们就可以掌握控制权。

模拟计算机也在两种信息形式之间进行转换:空间结构和时间行为。没有代码,没有编程。我们还无法完全理解自然界是如何进化出模拟计算机的,这种模拟计算机就是神经系统,它们体现了所有我们从世界吸收的信息。它们学习。它们学习的内容之一就是控制。它们学习控制自己的行为,学习尽可能地控制自己的环境。

甚至可以追溯到计算机科学诞生之前,计算机科学就已经开始实现神经网络了,但在大多数情况下,这些都是通过数字计算机模拟的神经网络,而不是自然界中自然进化的神经网络。现在这一切开始改变:自下而上的,是无人战斗机、自动驾驶汽车和手机这三驾马车推动了神经形态微处理器的发展,这种微处理器将真正的神经网络而不是模拟的神经网络直接实施在硅片或其他基片上。自上而下的,则是我们最大、最成功的企业在渗透和控制世界时越来越多地转向模拟计算。

当我们争论数字计算机的智能时,模拟计算已悄然超越了数字计算,就像在第二次世界大战之后,像真空管这样的模拟组件被用来建造数字计算机一样。可以运行有限代码的、单独确定的有限状态处理器,正在创造大规模具有不确定性、非有限状态的多细胞生物,它们在现实世界中恣意横行着。所产生的模拟、数字混合系统共同地处理比特流,就像在真空管中处理电子流一样,而不是像产生流动的离散状态装置那样一个个地处理比特。比特是新的电子。模拟再次回归,其本质是控制。

从物流到车流再到意识流,所有这些系统都按照统计运行,就像脉冲频率编码信息在神经元或大脑中处理一样。智能的出现引起了智人的注意,但我们应该担心的是控制的出现。

(图源:needpix.com)

想象一下,在1958年,你正试图保卫美国大陆免受空袭。为了区分敌机,你需要的除了计算机网络和预警雷达站点之外,还需要一个完备的、实时更新的商业空中交通地图。美国建立了一个这样的系统,命名为SAGE(半自动地面防空系统)。SAGE又催生了Sabre,这是第一个实时预订航空旅行的综合预订系统。Sabre及其衍生品很快就不仅能提供可预订座位图,还能根据分散的情报,控制客机将飞往的目的地和起飞时间。

但是在某个地方有没有一个控制室,有人在操控呢?也许没有。比如说,你建立一个公路交通实时显示系统,当汽车进入这个区域时,你就可以得知汽车当时的速度和行驶地点。这是一个完全分散的控制系统。除了系统本身之外,没有任何系统控制模型。

本文转自《设计与哲学》,ID:PhilosophyDesign

想象一下,现在是21世纪的第一个10年,你想实时追踪人际关系的复杂性。欲了解一个小学院的社交生活,你可以构建一个中央数据库,时刻更新,但在更大范围内,这个数据库的维护会非常困难。最好是发出一个简单的半自治代码的免费拷贝,本地托管,让社交网络自己更新。这个代码由数字计算机执行,但是由系统整体执行的模拟计算,其复杂性远远超过底层代码。由此得到的社交图的脉冲频率编码模型便成为社交图本身。它自校园蔓延开来,直至蔓延到整个世界。

如果你想制造一台机器,让它明白人类所了解的一切到底是什么意思,该怎么办?有了摩尔定律,很快世界上所有的信息都将数字化。你可以扫描印刷过的每一本书,收集人们写过的每一封电子邮件,每天整理最近49年的视频,同时实时追踪人们的位置以及他们做的事情。但是你如何理解其中的含义呢?即使在数字时代,你也无法用严格的逻辑概念来定义这一切,因为对于人类而言,含义并不是合乎逻辑的。当你收集了所有可能的答案后,你最多能做的就是提出明确的问题,然后编译一个脉冲频率加权图,来说明所有事物是如何关联的。还没等你意识到,你的系统就已经不仅能观察和绘制事物的意义图,甚至能开始构建意义了。一段时间后,它便会控制意义,就像交通图开始控制交通流量一样,即使似乎没有人在控制这一切。

(图源:maxpixels.net)

关于人工智能,我们有三条定律。

第一定律是阿什比定律,这一定律以控制论专家、《大脑设计》(DesignforaBrain)一书的作者W.罗斯·阿什比(W.RossAshby)的名字命名。该定律认为任何有效的控制系统必须与它控制的系统一样复杂。

第二定律由冯·诺伊曼提出。该定律指出,一个复杂系统的定义特征一定包含对其行为的最简单的描述。生物体最简单的完整模型是生物体本身。试图减少系统行为,达到任何形式化描述的程度,只会使得事情变得更复杂,而不是变得更简单。

第三定律指出,任何一个简单到可以理解的系统都不会复杂到可以智能化行事,而任何一个复杂到足以智能化行事的系统都会太过于复杂而无法理解。

第三定律给那些相信在理解智能之前,我们不用担心机器会产生超人类智能的人带来安慰。但第三定律存在漏洞。我们完全有可能在不理解时构建某个东西。构建一个能运作的大脑,你不需要完全理解它是如何运作的。无论程序员及其伦理顾问如何监控计算程序,他们都永远无法解决这个漏洞。可以证明的是,“好的”人工智能是个神话。我们与真正的人工智能之间的关系将永远是一个信仰问题,而不是证据问题。

我们过于担心机器智能,却不太担心机器的自我复制、通信和控制。计算的下一个革命将以模拟系统兴起、数字程序对模拟系统不再有控制权为标志。对那些相信他们能制造机器来控制一切的人,大自然对此的反应将是允许他们建造一台机器,来控制他们。

点这里,本书有售返回搜狐,查看更多

人工智能创造三原则

㈠机器人三原则是什么

机器人三原则分别是:

第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.

第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。

第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。

机器人三原则是1940年由科幻作家阿西莫夫所提出的为保护人类的对机器人做出的规定。

起源:科学技术的进步很可能引发一些人类不希望出现的问题。为了保护人类,早在1940年科幻作家阿西莫夫就提出了“机器人三原则”,阿西莫夫也因此获得“机器人学之父”的桂冠!

(1)人工智能创造三原则扩展阅读

机器人三原则出现的原因:

人类制造的智能机器人威胁到人类自身的生存,这被称为“技术奇点”问题。技术奇点是指拥有人类智能的机器人不断改进自己,并且制造或繁殖越来越聪明、越来越强大的机器人,最终达到人类不可预测、无法控制的地步。

如果制造智能机器人的技术越过这一奇点,局面将无法收拾,会伤害人类甚至使人类面临灭亡危险。但人类可以防患于未然,防止机器人制造技术达到或超越这一技术奇点完全是有可能的,关键是我们有无能力使设计、制造机器人的科学家和制造商遵守人工智能发展的规则。

㈡AI的三大法则是什么

1.机器人不能伤害人类,或坐视人类受到伤害而袖手旁观。2.在不违背第一法则前提下,机器人必须服从人类的命令。3.在不违背第一和第二法则前提下,机器人必须保护自己。——《机器人三大定律》

㈢人工智能可以分为哪三个级别

1、弱人工智能

可以代替人力处理某一领域的工作。目前全球的人工智能水平大部分处于这一阶段。就像超越人类围棋水平的阿尔法狗,虽然已经超越了人类在围棋界的最高水平,不过在其他领域还是差的很远,所以只是弱人工智能。

2、强人工智能

拥有和人类一样的智能水平,可以代替一般人完成生活中的大部分工作。这也是所有人工智能企业目前想要实现的目标。走到这一步之后,机器人大量替代人类工作,进入生活就成为的现实。

3、超人工智能

人工智能的发展速度是很快的。当人工智能发展到强人工智能阶段的时候,人工智能就会像人类一样可以通过各种采集器、网络进行学习。每天它自身会进行多次升级迭代。而那个时候,人工智能的智能水平会完全超越人类。

(3)人工智能创造三原则扩展阅读:

模式识别

采用模式识别引擎,分支有2D识别引擎,3D识别引擎,驻波识别引擎以及多维识别引擎。

2D识别引擎已推出指纹识别,人像识别,文字识别,图像识别,车牌识别;驻波识别引擎已推出语音识别。

自动工程

自动驾驶(OSO系统)。

印钞工厂(流水线)。

猎鹰系统(YOD绘图)。

知识工程

专家系统。

智能搜索引擎。

计算机视觉和图像处理。

机器翻译和自然语言理解。

数据挖掘和知识发现。

㈣“机器人三大原则”是什么

一.机器人不得伤害人,也不得见人受到伤害而袖手旁观二.机器人应服从人的一切命令,但不得违反第一定律三.机器人应保护自身的安全,但不得违反第一、第二定律后来又补充了机器人零定律:为什么后来要定出这条“零定律”呢?打个比方,为了维持国家或者说世界的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,因为这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。所以新的阿西莫夫的机器人定律为:第零定律:机器人必须保护人类的整体利益不受伤害。第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。相关起源科学技术的进步很可能引发一些人类不希望出现的问题。为了保护人类,早在1940年科幻作家阿西莫夫就提出了“机器人三原则”,阿西莫夫也因此获得“机器人学之父”的桂冠。三大原则一般所说的“机器人三大原则”是指艾扎克·艾西莫夫在著作《我是机器人》中所提的“机器人工学三原则”。阿西莫夫也因此获得“机器人学之父”的桂冠!第一条:机器人不得危害人类。此外,不可因为疏忽危险的存在而使人类受害。第二条:机器人必须服从人类的命令,但命令违反第一条内容时,则不在此限。第三条:在不违反第一条和第二条的情况下,机器人必须保护自己。

㈤未来人工智能发展的原则是什么

我们都知道,万事万物都随着时间的流逝而发展的,寄予厚望的人工智能更是如此。虽然人工智能技术给我们的生活带来极其深刻的变化,但人工智能发展的嘘声也是一直存在的,但我们还是需要发展人工智能,这就需要我们制定原则,那么未来人工智能发展的原则是什么?下面我们一起来探究。首先,对人工智能的误解可能引发对有益于所有人的技术的反对。那将会是一个悲剧性的错误。扼杀创新或将创新转移到它处的监管方法同样也只会适得其反。引导当前数字技术的成功监管原则可以给我们带来指导。我们必须重视人工智能的隐私保护。而有很多的公司并不将隐私保护看作是内部责任,也不会拿出专门的员工来促进其业务或制造流程中的隐私保护,也不会参与必需范围之外的隐私倡议或学术研究;这些公司只是将隐私看作是一项要满足规范的行为。他们关注的重点是避免罚款或惩罚,而非主动设计技术和采纳实际技术来保护隐私。而发达国家对于人工智能的监管环境是模糊的目标和强硬的透明度要求和有意义的执法的结合,从而在促进公司将隐私看作是他们的责任上做得更加成功。广泛的法律授权鼓励企业发展执行隐私控制的专业人员和流程、参与到外部的利益相关者中并采用他们的做法以实现技术进步。对更大的透明度的要求使民间社会团队和媒体可以变成法庭上和法庭外的公共舆论中的可靠执法者,从而使得隐私问题在公司董事会上更加突出,这又能让他们进一步投资隐私保护。所以监管者可以强化涉及内部和外部责任、透明度和专业化的良性循环,而不是定义狭窄的法规。随着人工智能与城市的整合,它将继续挑战对隐私和责任等价值的已有保护。和其它技术一样,人工智能也可以被用于好的或恶意的目的。所以人工智能须以一种能创建信任和理解的方式引入,同时还要尊重人权和公民权利。在鼓励创新的同时,政策和流程也应该解决得到、隐私和安全方面的影响,而且应该确保人工智能所带来的好处能得到广泛而公正的分配。这样我们就不会担心人工智能出现问题了。我们在这篇文章中个给大家讲了未来人工智能的发展原则,当然这些原则还是不够完善的,我们还需要大量的时间和实践才能够验证这些正确与否,希望未来人工智能能够在我们的控制下朝着正确的方向发展。

㈥智能机器人的三大原则是什么

我认为不会有效的。毕竟,虽然只能机器人本身可能不会想伤害人,但是你想想,它们的社会地位必然会低,时间长了,你说它会不会反对人呢?况且,人在很多方面需要它们,自己却受不到尊敬,它们有能力反对,所以定律当然不成立了。

㈦什么是人工智能4实现人工智能的大三基本分别是什么请你解释它的含义

您好,对于你的遇到的问题,我很高兴能为你提供帮助,我之前也遇到过哟,以下是我的个人看法,希望能帮助到你,若有错误,还望见谅!。人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,如机器学习,计算机视觉等等,总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的2017年12月,人工智能入选“2017年度中国媒体十大流行语”。人工智能啊近年来,随着计算机技术的发展,人工智能技术已经广泛应用于工业控制的各个领域,尤其是机械制造业中,普通机械正逐渐被高效率、高精度、高自动化的人工智能所代替。非常感谢您的耐心观看,如有帮助请采纳,祝生活愉快!谢谢!

㈧科幻作家阿西莫夫提出的机器人三原则是什么为什么要提出这三原则

第一法则:机器人不得伤害人类,或坐视人类受到伤害。

第二法则:除非违背第一法则,机器人必须服从人类的命令。

第三法则在不违背第一及第二法则下,机器人必须保护自己。

是为了说明人类和机械之间的关系。随着技术的发展,三定律可能成为未来机器人的安全准则。虽然这三条定律看起来堪称完美,但是,“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。

威尔·史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”

㈨人工智能战略的三步走分别是哪三步

第一步,到2020年人工智能总体技术和应用与世界先进水平同步,人工智能产业成为新的重要经济增长点,人工智能技术应用成为改善民生的新途径,有力支撑进入创新型国家行列和实现全面建成小康社会的奋斗目标。第二步,到2025年人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平,人工智能成为带动我国产业升级和经济转型的主要动力,智能社会建设取得积极进展。第三步,到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心,智能经济、智能社会取得明显成效,为跻身创新型国家前列和经济强国奠定重要基础。

人工智能的伦理和价值观——阿西洛马人工智能原则(Asilomar AI Principles )

AsilomarAIPrinciples阿西洛马人工智能原则

2017年1月初举行的“BeneficialAI”会议为基础上建立起来的“阿西洛马人工智能原则”,名称来自此次会议的地点–美国加州的阿西洛马(Asilomar)市,旨在确保AI为人类利益服务。本次会议参加者是业界最富盛名的领袖,如DeepMind首席执行官DemisHassabis和FacebookAI负责人YannLeCun等。全球2000多人,包括844名人工智能和机器人领域的专家已联合签署该原则,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。这一系列原则目前共23项,分为三大类,分别为:科研问题(ResearchIssues)、伦理和价值(Ethicsandvalues)、更长期的问题(Longer-termIssues)。具体如下:

ResearchIssues科研问题

1)ResearchGoal:ThegoalofAIresearchshouldbetocreatenotundirectedintelligence,butbeneficialintelligence.

研究目的:人工智能研究的目标,应该是创造有益(于人类)而不是不受(人类)控制的智能。

2)ResearchFunding:InvestmentsinAIshouldbeaccompaniedbyfundingforresearchonensuringitsbeneficialuse,includingthornyquestionsincomputerscience,economics,law,ethics,andsocialstudies,suchas:

研究经费:投资人工智能应该有部份经费()用于研究如何确保有益地使用人工智能,包括计算机科学、经济学、法律、伦理以及社会研究中的棘手问题,比如:

HowcanwemakefutureAIsystemshighlyrobust,sothattheydowhatwewantwithoutmalfunctioningorgettinghacked?

如何使未来的人工智能系统高度健全(“鲁棒性”),让系统按我们的要求运行,而不会发生故障或遭黑客入侵?

Howcanwegrowourprosperitythroughautomationwhilemaintainingpeople’sresourcesandpurpose?

如何通过自动化提升我们的繁荣程度,同时维持人类的资源和意志?

 Howcanweupdateourlegalsystemstobemorefairandefficient,tokeeppacewithAI,andtomanagetherisksassociatedwithAI?

如何改进法制体系使其更公平和高效,能够跟得上人工智能的发展速度,并且能够控制人工智能带来的风险?

WhatsetofvaluesshouldAIbealignedwith,andwhatlegalandethicalstatusshouldithave?

人工智能应该归属于什么样的价值体系?它该具有何种法律和伦理地位?

3)Science-PolicyLink:ThereshouldbeconstructiveandhealthyexchangebetweenAIresearchersandpolicy-makers.

科学与政策的联系:在人工智能研究者和政策制定者之间应该有建设性的、有益的交流。

4)ResearchCulture:Acultureofcooperation,trust,andtransparencyshouldbefosteredamongresearchersanddevelopersofAI.

科研文化:在人工智能研究者和开发者中应该培养一种合作、信任与透明的人文文化。

5)RaceAvoidance:TeamsdevelopingAIsystemsshouldactivelycooperatetoavoidcorner-cuttingonsafetystandards.

避免竞争:人工智能系统开发团队之间应该积极合作,以避免安全标准上的有机可乘。

Ethicsandvalues伦理和价值

6)Safety:AIsystemsshouldbesafeandsecurethroughouttheiroperationallifetime,andverifiablysowhereapplicableandfeasible.

安全性:人工智能系统在它们整个运行过程中应该是安全和可靠的,而且其可应用性的和可行性应当接受验证。

7)FailureTransparency:IfanAIsystemcausesharm,itshouldbepossibletoascertainwhy.

故障透明性:如果一个人工智能系统造成了损害,那么造成损害的原因要能被确定。

8)JudicialTransparency:Anyinvolvementbyanautonomoussysteminjudicialdecision-makingshouldprovideasatisfactoryexplanationauditablebyacompetenthumanauthority.

司法透明性:任何自动系统参与的司法判决都应提供令人满意的司法解释以被相关领域的专家接受。

9)Responsibility:DesignersandbuildersofadvancedAIsystemsarestakeholdersinthemoralimplicationsoftheiruse,misuse,andactions,witharesponsibilityandopportunitytoshapethoseimplications.

责任:高级人工智能系统的设计者和建造者,是人工智能使用、误用和行为所产生的道德影响的参与者,有责任和机会去塑造那些道德影响。

10)ValueAlignment:HighlyautonomousAIsystemsshouldbedesignedsothattheirgoalsandbehaviorscanbeassuredtoalignwithhumanvaluesthroughouttheiroperation.

价值归属:高度自主的人工智能系统的设计,应该确保它们的目标和行为在整个运行中与人类的价值观相一致。

11)HumanValues:AIsystemsshouldbedesignedandoperatedsoastobecompatiblewithidealsofhumandignity,rights,freedoms,andculturaldiversity.

人类价值观:人工智能系统应该被设计和操作,以使其和人类尊严、权力、自由和文化多样性的理想相一致。

12)PersonalPrivacy:Peopleshouldhavetherighttoaccess,manageandcontrolthedatatheygenerate,givenAIsystems’powertoanalyzeandutilizethatdata.

个人隐私:在给予人工智能系统以分析和使用数据的能力时,人们应该拥有权力去访问、管理和控制他们产生的数据。

13)LibertyandPrivacy:TheapplicationofAItopersonaldatamustnotunreasonablycurtailpeople’srealorperceivedliberty.

自由和隐私:人工智能在个人数据上的应用不能充许无理由地剥夺人们真实的或人们能感受到的自由。

14)SharedBenefit:AItechnologiesshouldbenefitandempowerasmanypeopleaspossible.

分享利益:人工智能科技应该惠及和服务尽可能多的人。

15)SharedProsperity:TheeconomicprosperitycreatedbyAIshouldbesharedbroadly,tobenefitallofhumanity.

共同繁荣:由人工智能创造的经济繁荣应该被广泛地分享,惠及全人类。

16)HumanControl:HumansshouldchoosehowandwhethertodelegatedecisionstoAIsystems,toaccomplishhuman-chosenobjectives.

人类控制:人类应该来选择如何和决定是否让人工智能系统去完成人类选择的目标。

17)Non-subversion:ThepowerconferredbycontrolofhighlyadvancedAIsystemsshouldrespectandimprove,ratherthansubvert,thesocialandcivicprocessesonwhichthehealthofsocietydepends.

非颠覆:高级人工智能被授予的权力应该尊重和改进健康的社会所依赖的社会和公民秩序,而不是颠覆。

18)AIArmsRace:Anarmsraceinlethalautonomousweaponsshouldbeavoided.

人工智能军备竞赛:致命的自动化武器的装备竞赛应该被避免。

Longer-termIssues更长期的问题

19)CapabilityCaution:Therebeingnoconsensus,weshouldavoidstrongassumptionsregardingupperlimitsonfutureAIcapabilities.

能力警惕:我们应该避免关于未来人工智能能力上限的过高假设,但这一点还没有达成共识。

20)Importance:AdvancedAIcouldrepresentaprofoundchangeinthehistoryoflifeonEarth,andshouldbeplannedforandmanagedwithcommensuratecareandresources.

重要性:高级人工智能能够代表地球生命历史的一个深刻变化,人类应该有相应的关切和资源来进行计划和管理。

21)Risks:RisksposedbyAIsystems,especiallycatastrophicorexistentialrisks,mustbesubjecttoplanningandmitigationeffortscommensuratewiththeirexpectedimpact.

风险:人工智能系统造成的风险,特别是灾难性的或有关人类存亡的风险,必须有针对性地计划和努力减轻可预见的冲击。

22)RecursiveSelf-Improvement:AIsystemsdesignedtorecursivelyself-improveorself-replicateinamannerthatcouldleadtorapidlyincreasingqualityorquantitymustbesubjecttostrictsafetyandcontrolmeasures.

递归的自我提升:被设计成可以迅速提升质量和数量的方式进行递归自我升级或自我复制人工智能系统,必须受制于严格的安全和控制标准。

23)CommonGood:Superintelligenceshouldonlybedevelopedintheserviceofwidelysharedethicalideals,andforthebenefitofallhumanityratherthanonestateororganization.

公共利益:超级智能的开发是为了服务广泛认可的伦理观念,并且是为了全人类的利益而不是一个国家和组织的利益。

 

从机器人三定律到人工智能三原则

从机器人三定律到人工智能三原则机器人三定律1942年,IsaacAsimov在他的短篇小说“Runaround”(即“I,Robot”中的一个短篇)中第一次明确提出“机器人三定律”,在他的机器人相关科幻小说和其他机器人相关小说中成为机器人设定的行为规则。是Asimov除“Psychohistory”外另一个著名的虚构学说。

Asimov的机器人三定律内容如下:

第一法则机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害。第二法则除非违背第一法则,机器人必须服从人类的命令。第三法则在不违背第一及第二法则下,机器人必须保护自己。1985年,“RobotsandEmpire”这本书中,Asimov将机器人三定律扩张为四定律,加上了一条新定律,第零法则:

第零法则机器人不得伤害人类这族群,或因不作为(袖手旁观)使人类这族群受到伤害。人工智能在某些领域超越人类虽然Asimov笔下的机器人,现在还没有出现,但是,鉴于机器人的灵魂——人工智能,在这几个月以来来,一路碾压人类,先是AlphaGo的升级版Master在一个月前60连胜狂胜人类围棋顶尖好手,然后是Libratus在德州扑克人机大战中鏖战20天后,从4位顶级人类扑克高手赢回共计176.6万美元。

而Libratus和AlphaGo并不同。在围棋界纵横无敌的AlphaGo,本质上处理的还是完美信息博弈,而AlphaGo无法处理德州扑克的问题,更遑论使出诈唬。但Libratus在德州扑克却能使出诈唬。Libratus取得最终胜利,是人工智能领域的新的里程碑,因为它处理的是不完美信息博弈。

现实世界中,不完美信息才是常态,各种看不见的隐藏信息产生了大量的不确定性,而德州扑克代表的就是这种类型的博弈。

人工智能发展的终极目标,是通用人工智能(AGI)。通用人工智能可以解决任何一个问题,而不是像Libratus或者AlphaGo这样只能专注于扑克或者围棋。想要实现AGI就得让人工智能学会解决不确定性问题,这也是此次人机大战的重大意义之一。

机器人三定律适用于人工智能吗?那么,Asimov的机器人三定律还能适用于人工智能吗?

让我们先看看Asimov时代对机器人是怎么设想的。那个时代中,机器人是按照冯诺依曼的思想来设计的。程序员可以随心所欲的控制它们的行为,那时候的机器是一个确定性的系统,只需加载一条条指令,它们就按程序员所设想的那样工作。

在今天,人工智能的设计发生了很大变化,科学家们意识到,那种冯诺依曼式的自上而下的控制式程序不太可能实现人工智能,现今最优秀的人工智能都是基于遗传算法,它模拟是大脑的神经网络的工作方式,人们为这样的技术付出的代价就是,人们再也不可能完全理解人工智能是如何工作的了。人们只能通过对输出进行观察然后形成一个关于人工智能行为的经验性感觉,机器的内部工作原理之于程序员更像是一个黑箱。举个例子,未来的机器人可能会很有效的执行到超市购物的这一行为,但是不管程序员如何修改他的适度函数,也很难保证机器人在购物途中不去伤害一只挡道的猫,或者破坏一辆汽车。Asimov同样忽略了计算机智能可能会诞生在网络,人们很容易设计出一套协议来确保网络中的某个节点不会制造混乱,但却无法控制计算机网络的智能涌现。

事实上,人工智能恐怕再过一段时间就要抵达技术奇点,发生爆炸式增长,彻底把人类智能甩在后面。

而如果这样一个超级智能的程序编得不够好,或者它不在乎人类的需求,那么对我们而言就是彻头彻尾的灾难。我们必须保证它是安全的。

早在2014年,时任机器智能研究所(MachineInterlligenceResearchInstitute,MIRI)代理主任、兼LouieHelm和艾迪亚金融预测公司首席科学家BenGoertzel曾经讨论过Asimov的机器人三定律是否适用于人工智能的话题。

BenGoertzel表示,Asimov预想的机器人过不了多久就会实现。但是在他大部分小说里,看起来人类级别的机器人好像就是机器人学和AI工程的顶峰了。事实看起来并非如此。在抵达Asimov式类人机器人之后,很快超人AI也会成为可能。

LouieHelm认为,对人类来说最主要的问题,不是一大群半智能人形机器人所需的道德规范,而是高阶人工智能最终会出现(不管有没有躯体),其功能远远超过人类水平。人类早晚必须要跨过超级智能这个坎。这也是为何开发安保措施如此重要。在我看来,机器人、仿生人、模拟大脑什么的都无关紧要,我们最多和它们相处一二十年,之后就要面对真正的大问题——为超级智能开发伦理道德。

人工智能三原则1月17日,IBM首席执行官GinniRometty在瑞士达沃斯世界经济论坛上发表了演讲,介绍了人工智能技术部署的基本原则,呼吁业界需要在人工智能和认知应用方面增加透明度及分析其伦理和社会影响。

Rometty表示,IBM作为行业领袖,有责任将人工智能技术引导它们进入安全的世界。

Rometty认为人工智能就是一种新技术及由此衍生的认知系统,人工智能将在不久的未来渗入人们工作和生活的方方面面,可能会令一切变得更美好,和以前的改变世界的各种技术一样,人工智能的意义重大。许多由此导致的问题在今天尚无答案,找到答案需要时间、研究和公开讨论。

在这次会议上,Rometty提出了人工智能三原则,包括:目的、透明度、技能。

1.目的人们在人工智能系统中建立信任很重要。IBM认为人工智能系统的目的是为了服务人类,而不是取代人类。Rometty说:“我们的技术、产品、服务和政策旨在加强和扩展人类的能力、专业知识和潜力。我们的立足点不仅仅是基于原则,也是基于科学。认知系统不会具有实际意义上的意识或成为独立的个体。”

IBMWatson现在与汽车,iPhone和医疗保健组织集成。Rometty说,认知计算系统今年将通过各行业的业务解决方案触及大约10亿人。这些都是IBM从其工作中获得的伦理见解。

2.透明度Rometty说,在构建人工智能系统平台时,必须清楚它们是如何训练的,以及在训练中使用了什么样的数据——也就是说透明度。人类需要保持对系统的控制。这些系统不会有自我意识或意识。她还补充道,IBM将会就旗下人工智能的开发和部署的时间表和目的公开细节。

3.技能Rometty认为,人工智能系统平台必须与行业内的人员合作,无论是医生、教师还是承销商。公司必须准备培训员工如何使用这些工具来获得优势。

例如,沃森的肿瘤学顾问现在在印度、中国、泰国、芬兰和荷兰推广。它由世界上最好的肿瘤学家培训。例如,印度就有一位肿瘤学医生为1600名患者做出了诊断。换言之,就是人工智能部署需要将人类因素纳入有关的等式里,帮助普罗大众获取使用新服务所需的技能。

人工智能的目的不是把机器变成人,也不是把人变成机器,而是要扩展人类的智能和能力,帮助所有的人提高生活质量。虽然在过去两年这个概念在面向大众普及,但距离现实应用仍较远。

超级人工智能的崛起,是人类的希望,还是人类的末日呢?现在,谁都不知道。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇