未来的机器人将取代人类吗
文|韩东屏,河北大学特聘教授作者授权发布
美国人乔治·德沃尔在1954年造出世界上第一台可编程的机器人之后,就时而有人出来发布未来机器人会在能力上超越人类并最终取代人类的警告,只是此类“取代警告”或者出自科幻作家的想象,或者属于个别学者的单纯预言,缺乏说理。事实也是如此,那时计算机论域中与人相关的讨论,还聚焦在电脑或人工智能是否会有类似于人的意识或智能的问题上。而绝大多数学者对此问题的回答,还都是否定性的观点。
可是近些年的情况明显不同。一个不同是,发出“取代警告”的人已经不是科幻作家与个别学者,而是变成许多专家,其中就有当今世界著名的科学家和技术家。如著名的物理学家霍金曾警告:“人类由于受到缓慢的生物进化的限制,无法与机器竞争,并会被取代,全人工智能的发展可能导致人类的终结。”马斯克则是著名的技术家,他也将人工智能说成人类“最大的生存威胁”,并将发展人工智能比喻成“召唤恶魔”。另一个不同是,此时的“取代警告”已经有了理论论证以及某种程度的事实佐证和可感受性。尤其是当人们发现战胜人类围棋世界冠军的智能机器阿尔法狗居然会自己学习时,就不得不在惊叹之余,相信人工智能还会有越来越快速的发展和越来越令人惊诧的表现。正是在这样的背景下,关于未来的机器人是否将取代人类的讨论就空前热火地在学界展开了,众多学者纷纷参与,各抒己见。
这个“取代警告”之所以能成为令众人瞩目的热点问题,在于对此问题的不同回答将决定人类社会对人工智能技术的发展将会采取不同的态度和制度安排:要么是积极推动,要么是有所限制。此外,不同的回答还意味着我们能据此判断,现在,除了“取代警告”之外的那些关于人工智能问题的讨论,其中哪些问题是有意义的?哪些问题由于不会出现而是没有意义的?比如,如果未来不存在机器人超越和取代人类的可能,我们就没有必要继续研究以这种“可能性”为前提的人工智能问题。因此,关于“取代警告”的讨论不仅必要和重要,而且还应尽早形成共识性的明确结论。
那么,这个明确结论会是什么样的观点,这就需要对讨论中已有的各种观点进行全面的分析评价,再做最后判定。
目前学界讨论“取代警告”的学者,主要是科学家和哲学家,他们对此问题形成两种截然相反的回答,一种是给出肯定回答的“取代论”,即人工智能将来会超越人类并取代人类,成为地球新主宰;另一种是给出否定回答的“否取代论”,即人工智能永远也不可能超越人类和取代人类。
以下先对这两种回答分别进行考察,再逐步形成最终结论。
一、取代论
霍金、马斯克等发出“取代警告”的理论依据,是这些年盛行于人工智能学界的AI(人工智能)技术发展目标理论和AI技术奇点理论。
(一)AI技术发展目标理论
AI技术发展目标理论是经20世纪中叶的L.G.古德到现在的尼克·博斯特罗姆等一众科学家的论述而形成的理论。他们将AI技术的发展分为弱人工智能、强人工智能和超级人工智能三个阶段,并将超级人工智能作为AI技术发展的终极目标。时下已有的智能机,不论是非人形的智能机,还是人形智能机即智能机器人,如美国的阿尔法狗、埃及的索菲亚、日本的ShibuyaMirai,都还属于第一阶段的弱人工智能,是基本上只能完成一个单纯任务的专用智能机。第二阶段的通用人工智能属于强人工智能,能拥有像人一样的能力,可以通过学习胜任人的任何工作,只是没有创造能力和自主意识。第三阶段的超级人工智能更胜一筹,不仅具备人类的创造能力和自主意识,而且还比人类的所有能力都更为强大,可谓超人人工智能。古德在1956年首次提出超级人工智能设想的论文中说:“一台超级智能机器可以定义为是一台在所有智能活动上都远超人类——不管人有多聪明——的机器。由于机器设计属于这些智能活动的一种,那么一台超级智能机器当然能够设计更出色的机器,那么毫无疑问会出现一场‘智能爆炸’,把人的智力远远抛在后面。因此,第一台超级智能机器也就成为人类做出的最后的发明了——前提是这台机器足够听话且愿意告诉我们怎样控制它。”而用博斯特罗姆的话说就是:“完全成熟的超级智能能够出色完成智能升级、战略策划、社会操纵、黑客技术、技术研发、经济生产等任务,这也是为什么科学家会认为超级智能将控制人类”。
与当年古德对超级人工智能只有设想不同,现在已经有了各种实现路径,它们来自诸多专家的不同构思和论述,大体可概括为如下六条。
第一条路径是全脑仿真或人脑复制。它直接通过扫描人的大脑,将扫描得到的原始数据输入计算机,然后在一个足够强大的计算机系统中输出神经计算结构,造出仿人脑的电脑。
第二条路径是提升复杂度。博斯特罗姆在《超级智能》中指出,“我们之所以能控制地球,是因为我们的大脑比即使最聪明的动物的大脑都要复杂得多”。据此,只要设法让电脑的“神经元”也足够多,电脑的系统也足够复杂时,电脑就能达到乃至超越人脑的意识。
第三条路径是功能模仿。此路径的提出者认为,人体有11种系统功能,每个系统的最底层都是微处理器,因而只要模仿这11种系统功能来建造人工智能系统并将它们合在一起,就可以使智能机器人达到人类智能的水平,继而,就可以实现超越。对人工智能发展有重大贡献的马文·明斯基说:“如果我们能制造一个和人一样聪明的机器人,那我们也就可以制造一个比人更聪明的机器人。”
第四条路径是机器与生物相结合。其要旨是将人体基因或仿人体基因植入机器人,使机器人不仅有比人更强大的逻辑思维运算能力,而且也有欲望、情感和非逻辑思维的智慧。比如有位韩国科学家就正在研究如何将人造染色体赋予机器人,使之也有性欲。
第五条路径属于本质性建构。这就是“学习胡塞尔的‘想象力自由变更’的办法,对‘智能’的本质进行直观剖析。……该办法的具体操作步骤便是:对各种可能的智能类型进行展列,并由此为出发点对各种可能的智能形式进行想象,最终剔除关于智能的偶然性成分,找到智能的本质性要素”,从而用它制造超级人工智能。
第六条路径是制造以量子计算为基础的人工智能。随着量子力学的发展及其对量子特性了解的增多,许多著名科学家都“提出了人类意识的量子假设”,猜测“人类智能的底层机理就是量子效应”。于是有人认为,“以量子计算为基础的人工智能”可以成为超越人类能力的人工智能,这种超级人工智能会成为取代人类的“后人类”。
(二)AI技术奇点理论
AI技术奇点理论是享誉世界的美国发明家和未来学家雷·库兹韦尔提出的,他在2005年出版的《奇点临近》一书中,预言人工智能将在2045年超过人类智能,而这一刻,就是AI技术的“奇点”。奇点预言的根据,是库兹韦尔本人受启发于摩尔定律所归纳出的“加速回报定律”。摩尔定律是指半导体芯片上集成的晶体管和电阻数量将每两年增加一倍,加速回报定律是指“对技术史的分析表明,技术变革是指数性的,与常识性的‘直觉的线性观’相反。所以我们在21世纪将不会经历100年的进步——它将更像是2万年的进步(以今天的速度)”。正因如此,“几十年内,机器智能将超越人类智能,并导致技术奇点的来临”。由于库兹韦尔以往的多种科技预言都足够灵验,尤其是他依据“加速回报定律”对人类基因组计划的完成时间为7年的预测,虽然与当时所有人预计的时间至少都要少一半以上(该研究项目计划用15年完成,对此很多人还是认为根本不可能),但最终的实际完成时间证明他的预言是准确的,所以他的AI技术奇点理论一经提出,也得到学界很多人的广泛认同,乃至可以开办奇点大学,广招天下学员。
“取代论”除了从正面用超级人工智能理论和AI技术奇点为自己立论外,有时也从反面通过对已经存在或可能的挑战观点进行预防性反驳。一个反驳针对的是“机器人作为无机物构成,不可能超过有机物”的观点。其驳辞是:“然而没有人能够证明思想一定和身体有关。就信息处理和数据输出获取而言,机器人比人脑有更多的优越性”。一个反驳针对的观点是:模拟者怎么会超越被模拟者?人工智能怎么会超越被模拟的人类?其驳辞是:“没有任何一条定理证明被创造的东西不能超过造物主,现实生活中反而有很多相反的例子,比如孩子比父母聪明,就非常典型”。
二、否取代论
否认未来的机器人将取代人类的学者似乎更多,他们中既有科学家,也有哲学家,偶有作家。由他们所分别给出的否定性论述也相当多,最终均可概括为以下三个方面的论述。
第一方面的否证可谓技术性论证。这就是从技术的维度出发,证明人工智能不可能超越人类智能。这类证明又有四种,基本上都是由人工智能专家做出的。
其一是对AI技术奇点论的否定。对其否定的依据有三个理由。第一个理由是奇点论者“忽略了十分重要的一点:计算速度的提升并不等同于智能的提升”。因为智能的提升要靠深度学习的算法的改进来实现,而计算速度的提升则“只是硬件提升和数据量增大带来的规模效应”。虽然“基于深度学习算法的人工智能系统在近些年取得了令人瞩目的成就”,但这只是技术应用的成就,并不是深度学习算法本身的提升,更不是什么指数级的提升。第二个理由是经验表明,“各种类型的人工智能系统在数十年来的实际发展中都经历着收益递减的过程。在研究初期,人工智能系统通常可以快速提升,甚至在某些时刻超越技术奇点理论所设想的指数增长速度,但随着完善度和复杂度的增加,人工智能系统往往会遭遇各类难以改进或跨越的瓶颈,导致无法维持固定的改进速率”。简单说,人工智能越是往上发展,需要解决的问题就越多、越复杂、越困难,这就导致研究投入的收益率也越来越低。第三个理由是奇点论者认为,“递归自我改进系统是实现技术奇点的有效途径”,这里不仅有硬件方面的困难,而且“递归自我改进系统在自我指涉方面也存在着严峻的挑战”。这就是,系统复杂程度的不断提升,将导致理解自身所需要的智能也不断提升。于是,要想使智能机器有一点儿智能提升,就得先有最高级的自我理解能力系统来适应,这说明人工智能的递归自我改进效率受到自我理解能力的限制,不会有高速度的改进。
其二是对超级人工智能的否定。该观点认为人工智能将来无论怎么发展,都不可能实现超级人工智能。首先,智能机器总是在人所严格规定的范围工作,不会做人没要它做的事。著名的机器人设计师亚瑟·塞缪尔就说:“机器不能输出任何未经输入的东西”,“所谓‘结论’只不过是输入程序和输入数据的逻辑结果。”其次,人工智能的升级能力也在人设定的程序之内。智能机器的升级能力只能在软件即人给定的范围之内。美国辛辛那提大学智能维护中心主任李杰也指出,人工智能的确有学习能力,但那属于程式里的学习,不会跳到程式之外,人工智能只能在指定领域升级。“不要忘了,人工智能里都有一个核心东西叫软件,软件不会自己思考,一定是人编程的。”
其三是对人工智能基础理论的质疑。根据学界公认的“哥德尔不完全性定理”,“证明任何无矛盾的公理体系,只要包含初等算术的陈述,就必定存在一个不可判定的命题,即一个系统漏洞,一颗永远有效的定时炸弹”。因而以二进制为公理的电脑逻辑运算系统也必然存在这样的漏洞。正是基于这一点,牛津大学的哲学家卢卡斯(ColinLucas)确信:“根据哥德尔不完全性定理,机器人不可能具有人类心智”。
其四是提出人类以脑机融合的方式防止被取代。这个想法的思路是,如果将来的超级人工智能真能全面超越人类智能,那就不妨让人脑与人工智能结合,比如在人脑中植入芯片,使人脑也能接受无线传输的大数据,拥有云脑,也能进行云计算和深度学习,等等,这就至少可以做到让人和超级人工智能一样强大,于是也就不会被机器人取代。现在这个设想已经被一些科技专家付诸研究,其中就包括发出“取代警告”的技术大家马斯克。
第二方面的否证可谓差异性论证,就是通过分析比较智能机器人与人之间的不同来说明机器人不能超越和取代人类。这些被论及的不同,可以分别命名为意识性差异、价值性差异、社会性差异和结构性差异。
意识性差异是指智能机器人在意识方面与人类相比,缺少了许多东西。因为智能只是意识的一种表现形式,其本质是逻辑思维的运算,但人的意识无比丰富。从思维方式说,人的意识不仅有逻辑思维,还有抽象思维、形象思维、直觉思维和灵感思维。这些思维形式与逻辑思维截然不同,是非逻辑的,根本不能通过编程或逻辑运算实现。从自主性说,人有自主意识,机器人没有,甚至连自我意识都没有,它是被人造出来为人服务的,机器人“永远无法摆脱作为人类工具的命运”。“人工智能可以模拟人类心灵的很多重要特征,比如自主性,但这仅仅是模仿,因为自主性概念本质上是排斥模仿的”。从能力上说,机器人只有计算能力,而人还有想象力和创造力,它们是人类智能的最大优势,“人类利用这类能力能够想象并且创造出自然界中不存在的东西”。从基本分类说,人既有理性意识,也有非理性意识,如潜意识、欲望、情感等,而机器人则没有非理性意识。除以上差异之外,还有一类被作家韩少功注意到了的意识性差异,这就是“人必有健忘,但电脑没法健忘;人经常糊涂,但电脑没法糊涂;人可以不讲理,但电脑没法不讲理——即不能非逻辑、非程式、非确定性的工作”。而其中的“可以不讲理”,意味着人有“同步利用‘错误’和兼容‘悖谬’的能力,把各种矛盾信息不由分说一锅煮的能力”。这种能力“有‘大智若愚’之效,还是只能让机器人蒙圈”。综上可知,人工智能与人的意识的差异,就是前者局部超越后者,前者整体不及后者的状况。
价值性差异是指人机在价值知识上存在差异,它包含两个层面的意思。首先,机器人存在做什么和不做什么的情况,这一情况意味着它的行动总要遵循某种价值原则。而这种价值原则“是要由人来设定的。而人给机器人设定怎样的价值体系,实际来自人对人类自己价值体系的理解和贯彻。这个事实表明,机器人没有自主性,人机仍是主从关系。其次,无论是设计发展人工智能,还是对人工智能的实际运用,都面临价值难题。“一旦涉及价值观,机器人其实一直力不从心”。比如当事故难以避免,需要两害相权取其轻的时候,“肯定要让机器人蒙圈”。而这种价值难题之所以能困扰智能机器人的发展和应用,就是因为“人类这个大林子里什么鸟都有,什么鸟都形迹多端,很难有一定之规”。易言之,人类的价值观是多元的,没有统一性,也就不能确定该给机器人灌输什么样的价值观。
社会性差异是指从社会的角度考察人机差异,它也有两个层面的含义。一层含义是说,尽管机器人的硬件系统可以“相当于人的肉体”,软件系统可以“相当于人的思维体系”,但是人在社会历史中形成的“人的社会现实性,即人的历史文化本性”,“是不可能以机械的方式重复和再现的”,它“将成为根本的、很可能是无法超越的技术瓶颈和价值悖论。这是‘机器人难题’的核心和实质”。所以“人工智能不具有人的思维的社会性”。另一层含义是说,“人是社会性动物,个人的智能是有限的,个人的生命也是有限的,但人类群体和整体的智能有巨大的加和效应,这种效应正常发挥出来是任何个人的智能无法比拟的。而且人类智能以及作为其基础的知识可以一代又一代的延续、传承下去。与之不同,机器人作为机器,不具有社会性、群体性,它总是单独的、孤立的个体,即使用程序将它们联结起来,它们不可能在程序之外随意与同伴合作。它们之间的简单合作只会有简单相加效应,似乎不可能产生加和效应。机器人不具有生殖功能,其智能当然也不可能一代一代传下去,更无所谓不断地进化发展。没有社会性,这也是机器人不可能取代人类、超越人类的根本性局限”。
结构性差异是指人与机器人的内在结构不一样,智能机器人没有人的结构。“人工智能虽然能够模拟出人的动作、人的表情、人的声音,甚至能够精确地展示出人的情感,但这些都不能表明人工智能能够成为人。核心原因只有一个,人工智能没有人的‘结构’,而结构决定着意识和本质属性”。具体说来,人体是一个极为复杂的性能完善的多级结构的巨大系统,“机器人无法拥有人类的系统结构、器官结构、细胞结构、基因结构,乃至终极的碳基分子结构。人工智能只能通过不断模拟逼近人类结构,或者演化成为一个全新的生命形态,但永远不可能成为人类”。
第三方面的否证可谓“超而不代”的论述。该论述虽然承认未来的机器人在能力上会超越人类,但不会取代人类:“超级智能时代的机器人一定会具有非常高的智能水平,在很多方面也一定会超过人类,但是,机器人智能发展的总体趋势是与人类愈加接近、亲近,而不是对抗,更不可能取代或淘汰人类。自然界之所以拥有200多万个物种,正是因为大多数物种并不会取代老物种,它们宁愿与现有的生物体交织起来,挤进小生境之间,以其他物种的成就为基础”。因此,“人类不会被颠覆,反而会变成类似基础设施的存在”。
三、评析
经过梳理取代论与否取代论的论述可知,在取代问题上,这两种相互反对的观点都各有许多道理及理由,这似乎意味着争鸣双方是旗鼓相当、胜负难分的。但据笔者评析,则是否取代论明显处于下风。因为尽管取代论的理论中含有假说的成分,可否取代论对取代论的所有否证却仍是无效的,所以,不管取代论的立论究竟如何,否取代论都是落败的状况。
先看否取代论的技术性论证中的四种论述。
第一种论述是对AI技术奇点论的否定,但从该否定论述所依据的三个理由(即计算速度的提升不等于智能的提升、人工智能的研发存在收益递减的情况、人工智能的递归自我改进效率受到自我理解能力的限制)看,它们所否定的,实际上都只是奇点到来的速度绝不会像库兹韦尔设想的那么快,而不是它不可能出现。既然奇点未被否定,这就意味否取代论没有否认在未来的某个时刻,人工智能还是“会出现一场‘智能爆炸’,把人的智力远远抛在后面”。
在技术性论证中,第二种论述是对超级人工智能的否定,所依据的理由是智能机器人总是按照人的要求做事,人工智能的升级也只能在人的软件编程之内。这两个理由,在AI技术还没有发展出超级人工智能之前,都是可以成立的,可是一旦发展出超级人工智能就不再成立,因为超级人工智能已经被定义为“一台在所有智能活动上都远超人类”的机器。这就是说,否取代论在这里不能用现在的弱人工智能的局限性去证明未来的超级人工智能也超越不了人类。
在技术性论证中,第三种论述是根据“哥德尔不完全性定理”,推论人工智能的理论基础即逻辑运算系统也会存在系统漏洞,成为“一颗永远有效的定时炸弹”,但它并没有具体说明,这个系统漏洞究竟会是怎样的漏洞?究竟会在何时爆炸?又会给人工智能技术的发展带来什么样的危害?更没说明,这个系统漏洞的存在,与否定取代论有什么必然性关联?如果漏洞就是机不如人的证据,那么,人类就是无比完美,没有任何软肋、短板和缺点的吗?
技术性论证的最后一种论述,是设想以脑机融合的方式防止人类被超级智能机器人取代。且不说脑机融合能否成真,也不说这种融合是否会对人脑造成损伤,只要承认未来智能机器人的机脑会实现对人脑的超越,那么,让一个不如机脑的人脑去和机脑结合的结果还是赶不上机脑,这就类似于任何负数加1,最后都是小于1而不是大于1。因此,实现脑机融合后的人脑,最多也只能是缩小人脑与机脑的差距,最终还是避免不了被机脑超越的命运。因为既然全面超越人脑的超级人工智能完全是以物理性物质的电脑为基础实现的,那么以生物性物质为主构的脑机融合后的人脑就产生不了同样的功能。即便是以物理性物质为主构的脑机融合也仍会存在差距,而且这样的大脑应该也不再属于人脑。这就说明,无论怎样进行脑机融合都防止不了机脑(机器人之脑)对人脑的超越和超级智能机器人对人类的取代。
再看否取代论的四种差异性论证,也同样难称有效。
就意识性差异论证来说,它存在两个不足。其一是它基本上是根据现在的人工智能水平即弱人工智能的状况来说明智能机器人与人类在意识方面存在的各种差异,但有谁说过弱人工智能就能超越人类?取代论分明说的是超级人工智能。而超级人工智能之所以能超越人类意识,则在于它还被规定为不仅具有自主性,而且也拥有了以往只有人类智能才有的能体现人类“最大优势”的创造力,并且,由于还有深度学习、互联网、大数据和云计算的支持,超级人工智能的创造力还会比人类更强。其二是意识性差异论证虽然指出了一些人工智能在意识上有少于人类意识的东西,即情感、潜意识、健忘、犯糊涂和兼容悖论等,而且这种差异即便到超级人工智能时代也可能仍然存在,却没有说明为何有这些意识性差异的存在就意味超级人工智能不能超越人类?尤其是健忘、犯糊涂和兼容悖论,未必会比不健忘、不犯糊涂和不自相矛盾更厉害?人类顶级棋手赢不了阿尔法狗,不就是因为其记忆力、计算力和精准性都不如对手吗?
就价值性差异论证来说,也有两个问题:一是即便未来的超级智能机器人的行动价值原则还是由人来设定的,也并不意味着它就不能超越和取代人类,因为阿尔法狗的行棋价值原则也是由人给定的,而且与人类棋手的行棋价值原则是一样的,结果它还不是战胜了人类棋手?如此,以后在不作身份限制的世界顶级围棋比赛中,自然也不会再有人类棋手的事了。更何况有了自主性和创造力的智能机器人,难道就不可能再给自己创立价值原则吗?须知,人的价值观也不是一成不变的。二是把人工智能遇到价值难题会“蒙圈”说成是人工智能的“力不从心”是不对的,因为这分明是人类自己都没解决的问题,所以才不知该在这方面怎样设计人工智能。而人类之所以受困于此,根本原因的确是人类的价值观的多元化。
就社会性差异论证来说,同样不能成立。人的“社会现实性”或“历史文化本性”并不是生而有之的,而是在后天的社会实践中形成的。既然如此,有自主行动能力的未来机器人为何就不能拥有?难道它就不能在社会中进行自己的实践吗?显然不是。此外,由于人的历史文化本性不过是后天实践经验和文化学习的结晶,这就可说,在这个事情上超级智能机器人只会比人更有优势。因为它是一诞生就有自主行动能力,而不需要一个成长的过程,并且也是一诞生就拥有了包含在大数据中的海量的历史文化知识。既然超级智能机器人有这样明显的优势,那它就势必比任何一个自然人甚或是自然人的最高天才都更聪明,于是所谓的“人类整体的智能加和效应”也赶不上它。这就是说,机器人不用联合起来就可以超越人类整体的智能,何况有自主行动能力并且更聪明的机器人为何就不能联合起来?至于机器人“不具有生殖功能,其智能当然也不可能一代一代传下去”,这也不是机器人的劣势所在,因为机器人不是肉身,是被认为可以永生不死的,这就比生命有限的肉身人类有优势。因此,无论是从以上哪种意义说社会性,都不能证明未来机器人不会超越人类。
就结构性差异论证来说,它的问题是,虽然其关于“人工智能没有人的‘结构’,而结构决定着意识和本质属性”的观点是对的,也符合现在的实情,并且由此思考问题的方向也是对的,但仅此还不够,它最多只说明了机器人目前的结构与人的不一样,还没有说明一种结构比另一种结构优越的因素是什么?这就无法从道理上保证未来的智能机器人也永远不可能有人的结构或比人更优越的结构,何况就是目前结构的智能机器人也不是一切不如人,除了它的超强计算能力已经远超人类外,而且还有不死的身体。因而此差异论证最多只能说明机器人的结构和本质属性与人的结构和本质属性不一样,而不能用来作为机器人不可能超越人类的证据。因为有这种不一样,也可能形成的是恰恰是机器人超越人类的结果,如非肉身的机器人相比肉身的人类,就具有永生不死的优势。
最后来看否取代论的“超而不代”论述。这个论述混淆了一个概念,即将“取代人类”等同于“淘汰人类”或“毁灭人类”,但实际上,前者是指使人类失去主宰地球的地位,后者是指使人类灭亡。有此区分之后,可以承认,如将来真有超越人类的机器人,它们是有可能不毁灭人类,但一定会取代人类,成为地球的新主宰。因为最聪明的存在者不会容忍比其笨的存在者来管理自己和地球。而人类一直以来能成为地球的主宰,还不是因为人类比其他所有存在者都聪明?所以当机器人超越人类,变得比人还聪明之后,人类最好的结局也只能是充当世界的“基础设施”,而不会仍然是“上层建筑”。
或许正因为否取代论的三类论证都说理不力,完全不能让人信服,所以现在的状况是多数学者包括诸多知名学者,都相信了取代论的观点,并且其中一些学者已经将这种相信作为前提,开始思考在它之后的问题。有的着手研究如何防范机器人反叛人类的问题,还成立了专门的研究机构;有的开展了如何与超人机器人相处的问题研究;有的则是想出了可以宽慰已知自己终结命运的人类的说辞,即“承认他们(指机器人)是我们自己进化了的后代,人类进入了一种改变了繁殖方式的发展新阶段。后代取代前辈继续生存,实现更好的发展,这不是人类的灾难,而是人类的进化飞跃到了一个新阶段”;还有人提出,其实还不等机器人来淘汰人类,人类就可能因为太过安逸地无所事事而死于“人工智能创造的一切好事”。
四、我见
尽管否取代论的论证都是无效的,却并不意味着取代论就是正确的。因为只要否取代论还能提供新的论证,或者取代论还没确证未来机器人将取代人类的必然性,取代论就还是存在被否定的可能。取代论目前的情况正是这样,由于自身仍存在不少假说的成分,所以并未确证“取代”的必然性。
无需多言,未来机器人若想取代人类,必须先超越人类,而要超越人类,不仅先得是有自主意识和独立行动能力的主体,而且还必须具有比人类更强的创造力,至于是否具有人类的其他意识能力则都不是“超越”的决定性因素。能无中生有的创造力是最高的智慧,因而如果未来机器人的创造力比人类强大,就意味着未来机器人也比人类更智慧、更聪明。但恰恰在未来机器人何以也能拥有创造力这一点上,取代论语焉不详。
取代论宣称超级人工智能会拥有创造力,并提出了实现超级人工智能的多种路径。而这里可以确证,人工智能无论如何发展,无论是走什么路径,都永远创造不出有创造力的机器人。
人工智能要想发展出创造力,必须先搞清楚人脑如何会有创造力的机理,而目前是连人脑的许多基本情况都没弄清楚,又遑论能模仿人脑造出有创造力的机脑?并且,即便将来会有弄清楚的那一天,也还是无法使机器人具有创造力。
不同种类的实体必有不同的性能,这应该是一个普遍真理。因为在该真理的证伪性方面,不会有任何人能找到一个这样的反例:两个不同种类的实体,竟有完全相同的性能。不同的实体之所以会有不同的性能,在于它们或是质料不同,或是结构不同,或是形态不同,当然也可以是兼而有之。质料不同如矿石的化学成分不同,决定了有的具有可燃性,有的则没有;结构不同如建筑物因整体结构不同而有了不同的用途,有的成为民宅,有的成为厂房……;形态不同如钢筋和钢刀虽材质相同,仍因形态不同而用途不同。而机脑与人脑相比,就是这三种不同全部都有。从质料说,机脑的质料是物理性的电子元件,而人脑的质料是生物性的细胞。从结构说,电脑是平行结构,主要由电源、主板、CPU、硬盘、内存、调制解调器、软驱等构成,而人脑则是立体结构,人脑由脑干、小脑和前脑三大部分构成。脑干处于底层,又有延髓、脑桥、中脑和网络系统这四个部分的构造;前脑处于高层,也有四个部分的构造,即视丘、下视丘、边缘系统和大脑皮层;小脑处于中间层,由左右两个半球构成。从形态说,电脑是机箱中的板上楼盘状硬物体,人脑是颅骨中的球形玛瑙状软物体。正因机脑与人脑在质料、结构和形态上都存在差异,所以机脑再怎么设计、发展,都不可能具有人脑的所有性能。
而人脑的创造力就必然属于机脑所不可能具有的性能之一。因为机脑无论是现在的状况还是设想出的未来理想状况,都是以计算为基础功能的智能。计算是对已有信息或数据的处理,属于“有中推有”的逻辑思维,而创造则属于“无中生有”的非逻辑思维,是以想象为前提,先想象出世上尚未有的东西,再设法采用具体手段将它造出来。因此,机脑的计算能力再怎么强大,人工智能再怎么提升,都形成不了创造力,而且也形成不了人脑的所有非理性意识。
人工智能的提升,从方法上说无非两类:一类是系统模仿的方法,一类是还原构造的方法。系统模仿就是通过从整体上模仿人脑来使人工智能具有人脑的所有功能,前述取代论实现超级人工智能的六条路径的前四条,即全脑仿真、提升复杂度、功能模仿和机器与生物相结合就属于这个方法;而后两条路径即本质性构造和量子计算则属于还原构造的方法,此法是意欲通过发现智能的本质来构造具有所有意识功能的人工智能。
可是,由于系统模仿方法的四条路径都是以计算的方式体现模仿,就不可能模仿出非计算的创造力,而且,不管今后还会有何种系统模仿人脑的方式,只要机脑所采用的建造质料与人脑的不一样,二者也就不可能有同样的结构和形态,于是也不可能模仿出人脑的所有功能。除非是机脑全部用人脑的质料来模仿人脑的结构和形态进行构造,才有这种可能,可是这样构造出的东西仍是人脑而不是机脑。
与之同理,还原构造的方法也不可能成功。因为我们即便是发现了智能的本质,但只要没用人脑的质料来构造机脑,机脑就还是不可能有人脑的结构和形态,因而也就不可能使按照智能的本质制造的机脑具有人类的所有智能,此其一。其二,所有昆虫、动物都有一般的智能而无特殊的智能即自我意识和创造力等,表明掌握了智能的本质不过是知道了各种具体智能的最一般的规定性而已,仅此并不足以造出智能的最高形态。量子计算路径实际上也属于本质还原。它认为在量子层面,物质与意识已经不分彼此,量子既是物质也是意识,因而人类智能的底层机理就是量子效应,于是以量子计算为基础的人工智能就可以具有人脑的所有智能。可是,这个想法忽略了一个最基本的事实。这就是,所有的实体性存在者都可以被还原到量子层面,或者说都有自己的量子层面,然而为什么却不是所有种类的实体,比如水、泥沙、岩石、石油、草木等自然物和诸多人造实体都有意识?而在所有有意识的生命活动者中,为何又仅仅是人类才具有创造力,而昆虫和动物则全都没有?这就说明,所谓“人类智能的底层机理就是量子效应”的观点是大错特错的。量子计算路径根本行不通,还原构造的方法不可取。另外,还可以从“整体大于部分之和”的古老命题得到说明。因为整体作为一个系统,不仅仅是所有构成因子的集合,还包括了这些构成因子之间的相互作用,而还原构造由于省略了这些相互作用,也就再造不出同样有这些相互作用的系统。由此推广,其他形式的还原构造方法,如分子计算、光子计算、纳米计算、生物计算和神经计算等,也都不可能使机脑具有人脑的所有功能,因为它们与量子计算一样,也都是以计算为基础功能,也都是以物理材料为主要质料,所以同样不能。同时说明,还原论的方法不能滥用,如果超过了一定的界限就会沦为荒谬,这也正是它被后现代主义诟病的原因所在。至于还原论的界限,简单说应该就是:高等级事物的问题,不能用低等级事物的道理来加以解释。
机脑不能具有人脑的创造力,除了以上解释之外,还可以从复杂性的维度得到说明。客观事实表明,创造力作为最高智慧,只是出现在最为复杂的人脑中,所以凡是达不到人脑复杂程度的脑,不管是物理性的机脑,还是生物性的动物之脑,包括灵长类动物的也已经非常复杂的脑,就都不可能具有创造力。
综上可知,机脑无论怎么构造,都不可能具有人脑的所有性能,尤其是不可能具有人脑的创造力。既然如此,未来的机器人无论怎么发展,也都永远超越不了人类,更谈不上对人类的取代。而且,这里还可以退一大步讲,就算未来的机器人可以具有创造力,甚至比人类的创造力更强,也不会取代人类。
机器人作为人造的机器,没有生物性的身体,而没有生物性的身体,就不会有任何自身的需要,也不用生长,没有自身的需求和生长,就不会有任何自发的行动。马克思说:“任何人如果不同时为了自己的某种需要和为了这种需要的器官而做事,他就什么都不能做”,这话也适用于所有的动物和机器人。同时,机器人没有自己的需求和生长,也就没有所有生物都有的自利本性,并且也不会有属于自己的真正的情感,因为诸如喜、怒、哀、乐、忧、悦之类的所有的情感,最终都属于对需要满足与否的心理反应,所以机器人即便被设计出了情感,也是虚拟情感。机器人既然没有自利本性和内涵好恶倾向的情感,也就不会像人一样具有自己的价值意识及价值观。因此,机器人为什么目的而出现、是否需要行动,在行动中需要遵循什么样的价值原则,就的确只能是听从人的安排。这就说明,未来的机器人其实也不会具有自主意识,更不会成为主体。
或许有人会说机器人有对能源如电能的需要,但由于没有能源时机器人不仅不会“死”,而且也不会对自身产生任何危害,而有能源时也还是没有生长,还是不用为自己做任何事,所以能源其实并不是机器人的需要。
或许有人设想可以通过制造有生物性身体的机器人来避免这些先天缺陷,可是一个物理性的机脑是不能长在生物性的身体上的,也无法与这个身体产生如同生物性之脑与生物性身体之间的相互作用,也就是说,前一种结合就算能实现,其结合效应也会与后一种结合存在差距。如果为了解决这些问题,再将机脑换成生物性之脑来与生物性身体匹配,那么这时它就不再是机器人了,而是一个动物。最好的情况,是和人一样的人。因此,机器人的那些先天缺陷是注定不可避免的,机器人注定不可能有自主意识和属于自己的价值观。
由于人是为了满足自己的需求来创造机器人的,机器人就是人用来满足自己需求的工具,所以由人赋予机器人的本性就一定是“利人性”,人让它遵循的价值观就一定是服务于人的价值观,让它做的事情包括假设它也能做到的创造,就一定都是有利于人的事情。这就是说,机器人定是纯粹的利人主义者,又怎么可能会取代人或毁灭人?所以,所有关于未来机器人会对人类如何如何不利的各种担忧,统统都是毫无必要的杞人忧天。
至于有人可能会利用机器人来干损害他人甚至消灭他人之事的情况,也不会成为取代论的凭据。因为任何人造的工具,都可能被心术不正的人用来损害他人。由于人类早已明白相互恶斗的结果只能是谁也过不好,所以人类社会在任何时候都不会让这种心术不正的人得逞,因而这种人也就只能是偷着干坏事的极少数人,而由他们所造所用的机器人,也就一定战胜不了由其他绝大多数人所造所用的机器人。
因此,无论在什么情况下,哪怕机器人也具有创造力,机器人也不会取代人类和毁灭人类。既然如此,我们就尽管让人工智能快速发展吧,它给人类社会带来的只会是福音,这就是可以加速将人类从必要劳动中解放出来,从而进入自由王国。由于实际上机器人永远无法具有创造力,所以人类进入自由王国之后,也自然不会如某些人担忧的那样,因无所事事的安逸而亡,而是可以尽情发展自己的各种潜能天赋,进行各种发明、创造。
既然如此,如果不能颠覆本文的结论,我们就无须再浪费精力,去讨论任何以“机器人将取代人类”的观点为前提的各种问题。如果能颠覆,那就请多加指正。
(本文原载《华中科技大学学报》2020年第5期)
原标题:《未来的机器人将取代人类吗?》
阅读原文
人工智能可以替代人类今天要来说说人工智能与人类意识到底差距在哪里!
作者|AdamZacharyWasserman
翻译|天道酬勤,责编 | Carol
出品| AI科技大本营(ID:rgznai100)
人工智能对很多人来说意义重大。通常,它的含义不是很清晰。它要么被人们崇拜,要么被人们亵渎和恐惧。
在本文中,作者将探讨人工智能对整个社会的真正意义,而不是研究人员或计算机科学家的意义。本文想向非技术人员阐明什么是人工智能可以实际期待的,更重要的是要阐明什么是不切实际的猜测。
作者担心对人工智能的盲目恐惧(有时甚至是崇拜)正在被用来操纵社会。
政界人士、商人和媒体人物围绕人工智能写故事,这些故事能够激发他们利用自己优势产生的深刻情感。但,真理只能在普通人无法企及的大量技术文献中找到。
我们所说的智力是什么意思?
智力是纯粹的人类特征吗?大多数人会认为有些狗比其他的狗更聪明。或者说,狗比豚鼠要聪明,所以很明显,智力也是动物可以拥有的东西。
如果狗可以有智力,那么鸟可以吗? 蚯蚓或植物又怎么样呢?我们的底线在哪里?关于智力的定义很多,但作者喜欢(来自维基百科)的定义是:
“感知或推断信息并将其保留为要应用于环境或上下文中的适应性行为的知识的能力”。
这看起来合理吗?有人认为,按照这个定义,即使植物也可以是有智力的,那为什么计算机不是呢?
这就是人工智能研究人员通常所指的智能。然而现实是,当普通人谈论或想到人工智能时,他们想到的并不是植物或动物。大多数人不会对于计算机可能能够在植物、豚鼠甚至狗的水平上运行的想法感到太兴奋。
同样,人们并不真正在乎一台机器可以按照其创建者的意图去做的事情,它被编程来做什么。制造手枪是为了杀死人,它们的确是用来杀人的,但是没有人担心手枪会像机器被编程那样发展意识并杀死所有人类。
如果说老实话,我们必须承认,普通人所说的人工智能实际上是像人类一样的人工智能,而他们担心(或庆祝)的是人工智能可能会自发地地生产同类的动机。
人为因素
动机是关键的,人类的动机与所有其他动物的动机都不同,这种差异可以说是人类与众不同的原因。
伟大的数学家和计算机先驱艾伦·图灵(AlanTuring)提出,与其问人类是什么(他认为这是在实践中不可能的),我们可以简单的说:
“如果它走路像鸭子,嘎嘎像鸭子。”
图灵的建议是,如果计算机程序可以通过书面面试,而面试官没有意识到他们正在与计算机交互,则可以说该计算机实际上是具有人类特色的人工智能。但是,这并不能真正回答以下问题:计算机程序是否可以像人类一样实时做出相同类型的复杂决策,它是否可以具有未预先编程的动机。
最重要的是,书面面试只包含人类经历的一小部分。我们生活在一个行动世界中,许多行动都具有非常现实和直接的后果。是否走下一条黑暗小巷的决定是一个复杂的决定,影响我们这一决定的许多因素尚不清楚。每天,我们都在不知道所有数据的情况下做出决定,而人类生存下来并蓬勃发展这一事实无可争议地证明,如果将成功定义为生存,那么我们整体上将取得惊人的成功。
价值观创造机
我们如何成功是一个尚有争议的问题。但是,大多数严肃的学者都同意,人类被赋予的价值观倾向几乎是不可避免的情况,这是事务的核心。
人类是价值观创造机,而我们创造价值观的速度是任何计算机网络都无法企及的。如果你听到一个意想不到的声音,你会在170毫秒内做出反应。从这个角度来看:单击链接后,第一个字节的数据到达你的浏览器的时间比Google建议的时间快30毫秒,Google建议页面在第一个字节后完成加载的时间为500毫秒。
顺便说一下,加载一个网页对于计算机而言是微不足道的操作,但计算机执行此操作所需的时间仍然比你的大脑要花多倍的时间才能弄清它是否会发出意外的噪音威胁(响动的树枝或金属声音)或令人愉快的(冰淇淋卡车铃铛或孩子的笑声),它可以立即执行,几乎没有任何数据。
我们所说的价值观评估是指把某事物认定为具有威胁性或令人愉悦的,这是我们本能地、自动地、不假思索地进行的事情。但是,如果不这样做,我们将无法像我们所知道的那样思考。
说你口渴,你必须解决喝什么的问题,然后必须解决得到它的问题。
假设你选择在池塘水和新鲜的井水之间选择喝什么。你现在想的是,很明显我们需要井水。但是,如果你是一个越狱的囚犯,池塘里的水安全地流出了森林,而井就在一个城镇广场上,你可能会被看到,那你该怎么办?现在你想到的是池塘水。渴望会激发你的动机,但你更有动力去保持自由。这是因为你对保持自由的重视远高于对水的新鲜度的重视。
人的动机完全取决于价值观。一只口渴的狗只会从它找到的第一个可用水中喝水,因为它的动机是生存,不受价值观的影响。
让我们来考虑一个与生存无关的示例:你按下某个按钮肯定会杀死一个人,还是拒绝按下该按钮,即使这意味着10个人可能会死。你对这个问题的思考与你的自身生存没有任何关系,但是它具有道德上的紧迫性,很少有人可以否认。你的思维将完全由你在评估选项时分配的价值观所指导。
这些价值观从何而来?
事实是我们并不知道。
对于某些人来说,这是一个信仰的问题。真诚的宗教人士相信我们的价值观是上帝旨意的反映。真正相信进化论及其所有含义的少数人会说,我们的价值观是那些允许我们生存并因此使其永存的价值观。
几乎所有人都认为价值观是不言而喻的真理。我们拥有这些价值观是因为我们所有人都有它们,很显然是这样的。正如山姆·哈里斯(SamHarris)所说:
“当我们真的相信某事在事实上是真实的或在道德上是好的时,我们也相信另一个人,同样的立场,也应该分享我们的信念”。
就所谓的理解而言,这是淡茶。它没有提供有用的依据来解释为什么某些价值观在文化上是依赖的,而另一些价值观似乎是普遍的或几乎是普遍的。它没有解释价值观的起源,因此尽管有宗教和进化论的影响,但在大多数情况下,我们没有关于价值观如何运作的有用解释。
正是在价值观中,我们发现了意识差距。在上面的示例中,你是出于渴求的动机,这是一种生物因素。配备有适当传感器的人工智能也可能具有这种动机,例如需要为电量低的电池充电。
但是,是什么促使你对美丽的事物拍照来与亲人分享,或者与你的朋友争论政治呢?是什么促使你观看恐怖电影或学习一项运动的呢?按下按钮的例子呢?如果没有人先提供的价值观,比如一条生命的价值低于10倍,或者在任何情况下杀人都是错误的话,计算机凭什么基础做出这样的决定呢?我们的道德,在眨眼间赋予价值观的能力已经发展了数百万年。一台计算机在一代人的时间里,你怎么能想到它们有天生的繁殖机制,如何在没有人先提供蓝图的情况下自行建立起道德基础的呢?
我们真的想要吗?人类历史表明,在达到我们现在认为的文明行为之前,需要成千上万的世代的努力。我们真的想让人工智能种族同样缓慢而痛苦地方式迈向文明么?
当然,我们可以给它们一个跳跃式开始的方法,但是随后我们又回到了意识鸿沟:如果我们以跳跃式开始进行编程,基本上是按照某些人的价值观进行编程,那么可以说人工智能确实具有类人的意识、能够自发动机吗?你可能已经猜到了,作者相信答案可能是否定的。
人工智能的危害
这并不是说人工智能完全没有涉及任何危险或任何需要关注的方面。与人类努力的其他任何领域一样,使用人工智能不再受制于意料之外的后果法则。
我们可以确定,将人工智能用于诸如管理你的社交媒体订阅内容之类的事情,将直接导致许多人不喜欢的意外结果。
这不是由于人工智能的任何固有特性。这是我们所生活的世界的本质。这是人类决策所固有的,无论这个决策是将甘蔗蟾蜍进口到澳大利亚(来控制害虫),还是使用人工智能进行自动化的股票购买,都极有可能发生灾难。
交际技巧
我们无法想象试图向狗狗提出纽扣问题。我们没有理由相信狗狗会有任何道德框架使问题相关,也没有理由相信狗狗会以某种方式关心。
我们没有更多的理由相信我们可以向人工智能提出这个问题,而不是向狗提出这个问题。我们根本没有证据表明,任何地方的任何人工智能都具有一种道德框架,该道德框架受到标记人类的自发性价值创造的指导或启发。
计算机可以比人类更快地计算,或者可以更快或更佳地预测某些类别的问题,这是无关紧要的。在与人的对弈中获胜是编程和计算机科学领域的一个里程碑,但在现实世界中却没有多大意义。在非常严格且非常有限的规则集中计算出大量排列的能力绝不表示一般的智能或计算机发展意识的能力。
能够对医疗状况进行分类和诊断的计算机,甚至可能优于人类医生,也许听起来并不那么令人印象深刻。当然,自动化检查列表和决策树非常有帮助;在紧急医疗情况下,计算机比破解书本更快。
的确,如果没有这些检查表,人类很容易出现各种感知和认知偏差,但是如果你认为能够进行分类的人工智能也可以决定汽车前部的阴影是否是一个纸箱或儿童三轮车,那将是非常错误的。
哗众取宠销售,天总是要塌下来,而上周关于世界末日的预言(“千年虫”或纽约西区高速公路到2019年将被水淹没)的失败,似乎从未满足人们对本周即将到来的末日预言的渴望。同样的道理也适用于追求轰动效应的理想主义。乌托邦意识形态的一再失败,实际上产生了预言中的人间天堂,这似乎并不妨碍真正的信徒相信这一次。
人工智能一点也不像它的支持者和反对者会想像的那样令人兴奋、神秘、危险或宏伟的。在大多数情况下,它已成为概率数学的一个分支,被美化了的精算工作。它具有御宅族或穿着夹克的人在谈论他们最喜欢的话题时的性感魅力。它是一匹诡计多端的小马。
简而言之:不必太担心或太兴奋,以平常心态看待这一项技术,也许是最正确的做法。
原文:https://hackernoon.com/ai-and-the-consciousness-gap-tr9f3ydz
(*本文由AI科技大本营编译,转载请联系微信1092722531)
【end】
◆
原力计划
◆
《原力计划【第二季】- 学习力挑战》正式开始!即日起至3月21日,千万流量支持原创作者!更有专属【勋章】等你来挑战
推荐阅读
赔偿谷歌1.8亿美元!前Uber自动驾驶主管被告到破产
“一网打尽”Deepfake等换脸图像,微软提出升级版鉴别技术FaceX-Ray
小米回应"暴力裁员";报告称安卓手机贬值速度是iPhone两倍;AntDesign4.0.1发布
时间复杂度的表示、分析、计算方法……一文带你看懂时间复杂度!
闪电网络的5个优点和4个缺点、本质、来源与工作原理……一文带你读懂闪电网络!
国内外大厂集结,远程办公大考成绩单发布!
你点的每个“在看”,我都认真当成了AI
人工智能无法取代人类医生的5个理由
医学未来学家认为,像维诺德·柯斯拉这样的投资者并不完全了解医学行业,因此他所描绘的愿景不会出现。永远也不会出现。
根据牛津大学的CarlBenediktFrey和MichaelA.Osborne的报告,医学转录员,医疗记录员和健康信息技术人员以及医疗秘书是未来最有可能由计算机化实现的工作,但只有0.42%的概率让医生和外科医生的职业实现自动化。
别误会我的意思,AI将在未来10到15年内在医学领域出现。例如,放射学家和临床学者休·哈维估计在10年内使用AI将成为NHS常规实践。博思艾伦咨询公司的健康信息学/精准医学主管安娜·费尔南德斯说在三年内我们将有许多机器学习算法在美国进行积极的临床试验测试并获得批准在医学领域中使用。
此外,AI将改变当医生的意义:一些任务将消失,而其他任务将被添加到工作程序中。然而,永远不会出现自动化(机器人或算法)取代医生的情况。让我告诉你五个原因吧。
1
医学不能没有同理心
即使一系列技术将提供出色的解决方案,它们也很难模仿同理心。为什么?因为同理心的核心有建立信任的过程:倾听对方,关注他/她们的需要,表达同情的感觉,并以对方理解的方式作出回应。
目前,你不会相信机器人或智能算法做出的性命攸关的决定,甚至决定是否服用止痛药的决定你也不会相信。以NHS及其实验为例,通过聊天机器人可以减轻健康热线的负担。参与试验的患者表示他们将使用该系统更快地与医生预约,而不是采用聊天机器人给出的建议。
如果健康问题较为简单,患者在自我照顾方面承担更多责任,未来可能会发生变化,但我们可能永远无法想象没有同理心的医学。我们需要医生握着我们的手,同时告诉我们一个性命攸关的诊断,治疗指导和整体支持。而算法无法取代。永远也无法取代。
2
医生采用非线性工作方法
《豪斯医生》有一集,团队无法弄清楚一个小男孩是如何中毒的。他们考虑了很多可能:药物,食物中毒,农药中毒。对于每种可能的诊断,他们建议采用不同的治疗方案。
他们每个人都让病人变得更糟——直到他们偶然发现这个男孩沾染到了亚胺硫磷,这是一种牛仔裤使用的杀虫剂,男孩从把裤子放在一辆卡车里的街头小贩那里买来牛仔裤。这个男孩没有洗过就穿上了那条裤子,这就是他的皮肤吸收毒物的方式。
没有算法可以做出这样的诊断。虽然数据,测量和定量分析是医生工作的重要组成部分——而且在未来这些将变得更加重要(你知道,数据是工业新的石油或食物)——建立诊断和治疗患者是非线性过程。它需要算法和机器人永远不会拥有的创造力和解决问题的技能。
患者和他们的生活方式也各有不同。疾病具有相同的特征。因此,情况并非如此;每个病人都需要人类医生的关注。在复杂的数字解决方案出现之前,医生将把从简单医疗设备采集的数据转换为医疗决策。将来,任务还是一样的,不过医生将使用更复杂的技术。
3
技术需要有能力的医生
越来越复杂的数字健康解决方案将需要合格的医疗专业人员的能力,无论是关于机器人还是AI方面都是如此。以最常见的手术机器人达芬奇手术系统为例。它具有3D高清放大视觉系统和弯曲和旋转远远超过人手的微型手腕器械。然而,外科医生必须学会如何操作它,而掌握它需要练习。
同样,看看IBMWatson。它是为肿瘤学家设计的独特项目,为临床医生提供了基于循证医学的治疗方案。尽管如此,只有医生加上可以选择治疗的患者,只有医生才能评估智能算法是否给出了可能有用的建议。没有机器人或算法可以解释清楚复杂的,多层次的挑战,包括心理方面。虽然它们将提供数据,但解释将始终是人类的领土。
4
总有人类才能完成的任务
医生,护士和其他医务人员每天都要完成繁琐单调和重复的任务。一项研究表明,在美国,普通医生每周在药物配给的时间为8.7小时。精神科医生在文书工作工作时间中比例最高(20.3%),其次是内科医生(17.3%)和家庭/全科医生(17.3%)。这些类型的任务和程序可以自动化,而且它们也应该自动化。
但是,技术也有无法履行的职责和责任。虽然IBMWatson可以在几秒钟内筛选出数百万页的文档,但它永远无法进行海姆利克急救法。比之技术,总会有些任务人类可以更快完成,更可靠地完成或以更低的成本完成。
5
从来不是技术与人类的对决
把AI塑造成人类永远的敌人,这种想法应该彻底停止了。它从来就不是技术与人类之间的对决,或者技术的一部分与人类之间的的对决,因为技术创新总能达到帮助人们的目的。
我们在同一战壕内作战。无论是AI,机器人,增强显示技术还是虚拟现实技术,我们都应该接受它们对医学运营方式产生的巨大影响,然后开始利用它们的力量。想象一下,如果将创造力和解决问题的技能与无限的计算能力和技术认知资源相结合,医学能够取得多大的成就。
人与技术之间的合作是最终的回应。通过深度学习识别转移性乳腺癌的研究揭示了类似的情况。当深度学习系统的预测与人类病理学家的诊断相结合时,图像分类以及肿瘤定位评分显著增加。此外,人为错误率下降了85%。研究结果表明,人工智能和人类在合作时最有效。
喜欢我,就给我一个“在看”
返回搜狐,查看更多