人工智能是否会带来毁灭对“人工智能灭世论”的质疑与反思
在电影《异形:契约》中,迈克尔·法斯宾德所扮演的仿生人大卫表面上对人类亲切友好,但实际上却通过一系列行为为人类带来灾祸。而在现实中,如霍金、马斯克、比尔.盖茨等名人都曾警告过人们要警惕人工智能可能带来的危害。对于“人工智能灭世论”的支持者而言,当人工智能发展到一定阶段后,它可能将人类看作潜在的、可被消灭的对象。正如一位著名的AI风险倡导者所说,“人工智能并不恨你,也并不爱你,但你是由原子构成的,它可以将其用于其他用途”(Yudkowsky,2008)。在这篇文章中,我将先介绍人工智能灭世论的基本论证,然后提出两个质疑。需要说明的是,这样的质疑并非为了证明人工智能灭世论是全盘错误的,而是为了让该理论变得更为完整且合理,以带给人们更严肃的思考。
人工智能灭世论对于人们而言,人工智能将会在智力层面上超越人类已经不是秘密。人们为人工智能解决某些复杂能力而啧啧称奇,但是人类仍然对人工智能在认知领域的进展既好奇又警惕。这样的态度背后,是人类对于智力与良知之间不一致关系的认识,一个在智力上超越人类的存在未必是善良的。正如NickBostrom在他的著作《超级智能》中所说的,如果超级智能是仁慈的,那很好,但是没有理由让人们认定人工智能必定是善良的。我们完全可以想象,当人工智能认为有必要销毁人类赖以生存的资源时,人工智能会“毫不留情”地执行这一想法。NickBostrom表示,人工智能有能力决定日后的地球上的生命起源,当他们认为非人类式的生命将对地球最为有益时,可以预见人工智能将推动人类的灭绝。
对此,有些学者质疑到是否可以设计某些“仁慈性测试”来检验人工智能的危害性。在人工智能通过测试之前,人们可以将人工智能放置在一个可控的、安全的环境(“盒子”)中,并反复测试其安全性。“盒子”本身需要尽可能的还原现实环境,以保障人工智能的仁慈性与安全性得到的测试足够真实。在人工智能通过测试后,并且对人类生命没有任何风险时,我们可以将其从“盒子”中释放出来。
但是,测试提议收到了许多批评和质疑,Bostrom表示,我们可以怀疑人工智能是否会为了逃离“盒子”而说谎通过测试。正如同人类可以为了达成自己的目的而使用例如说谎等不光彩的手段一样,人工智能也有能力通过假装对人类友善来实施其灭绝人类的计划。甚至,在通过测试后的很长一段时间内,人工智能都可以与人类和谐共处,以赢得人类的信赖。另一种可能是,基于人工智能的高速发展与变化,如同《异形:契约》中的仿生人大卫一般,它们可能基于现实变化而推翻之前对于人类的认知,将人类视作威胁。因此,通过仁慈性测试并不能保证人工智能未来的安全性。基于这些理由,我们有理由对人工智能灭世论报以足够的重视。
人工智能的威胁与休谟问题
Bostrom对于人工智能可能欺骗人类通过仁慈性测试的可能性似乎与休谟问题有着相同的逻辑。休谟指出,当我们通过归纳之前的经验而得出将来的结论时,我们就不得不面临归纳所带来的风险。举例而言,我们不能因为太阳升起过999次就认定太阳会在明天升起第1000次;同样的,欧洲人曾经认定天鹅只有白色,因为他们只见过白色的天鹅,然而,当黑色的天鹅出现后,他们之前的推断就被证明为错误的。同理,Bostrom对于人工智能的道德性具有相同的怀疑,即使人工智能在人们的日常生活中可以显得善良而可靠,我们仍然不应该忽视人工智能在将来成为人类威胁的可能性。这样的警告使得人类在面对人工智能时不得不陷入一种两难,一方面,我们可以心安理得地去享受人工智能为我们提供的便捷服务;但是在另一方面,我们又不得不小心谨慎地去提防人工智能的“背叛”。但是,正如同休谟问题指出的,我们永远无法正确地指出明天的太阳是否会升起,我们也无法判断人工智能在未来究竟会是善还是恶,这样的怀疑指出了人们对于人工智能的轻信,却无法带来一个确定的结论。当然,我们也可以发现,人类的日常生活中无时无刻都在面对这样的“不确定性”,没有人能够真正地预测未来究竟会发生什么,就如同我们不能排除今天开车出门有发生车祸的可能性,但是我们不会因此不出门一样;即使在明知人工智能可能带有风险之后,某些人群仍然愿意忍受这种风险,享受人工智能的便利。
揣测超级智能的不可能性
与休谟问题的归纳性不同,爱尔兰国立高威大学的JohnDanaher教授对人类是否真的能够理解人工智能的所思所想表示怀疑。我们可以意识到,大部分对于人工智能威胁的理论都建立在拟态逻辑上,人们幻想出一个可能的世界,并在其中推演人工智能背叛人类的可能性。但是,这样的推演(如Bostrom所提出的假设),仅仅从人类视角,根据人工智能的技术性与现实进行假想;值得怀疑的是,这样的推测是否真正还原了人工智能的思考方式?而人工智能又在多大程度上会如同推演中的那样去行动?英国学者KevinWarwick曾表示,“我们无法真正理解超级智能为什么做出这样那样的决定。当一个机器以超越我们纬度的方式进行思考时,我们又怎么可能去理解、推测它的想法,乃至和它进行讨价还价呢?”
如人类想象中的其他超级智能,例如上帝,不同的是,人工智能或许是全知全能的,但是它的目的并非如同全善的上帝一般是去创造并维持这个世界的有序运行。我们可以从观察自然世界中发现某些世界遵循的规律,并推测上帝设计了这些规律。但是,我们没有理由去相信人工智能也会遵守并维护这些规律,而恰恰相反,人工智能拥有随时破坏并制定新规定的能力。也正因为如此,我们有理由怀疑科学家是否应该中止开发人工智能,更可怕的是,如果Bostrom的假设为真,那么我们并不能知道人工智能是否已经悄无声息地背叛了人类。
当然,人工智能的拥护者会表示,这样的怀疑忽略了人工智能带给人类的巨大便利,以及其带来的科技进步。至少在短期内看来,我们还看不到人工智能有明确背叛人类的行为。但是,谁也不能保证人工智能在未来不会对人类的生活带来危害。或许,人工智能目前为人类带来的帮助,相比较于其可能带来的危害是不值一提的。
结论
虽然我们可以对Bostrom的“人工智能灭世论”提出怀疑,但是我们不应该忽略该理论的严肃性。已经有许多领域的专家指出,未来人类可能需要与机器共同生存,以延长人类的生命。但是,与功能单一且明确的机器不同,人工智能更加全面和多样,不可否认的是,人工智能将会为人类带来更多的好处。但是人类是否真的能够相信在智力上远远超过我们的人工智能,人类设计的仁慈性测试又似乎不能确保人工智能的善良;因此如何保证持续进步人工智能无法对人类的未来造成毁灭性的打击,将是人类在很长一段时间内需要思考的问题。
参考文献:
Bostrom,N.(2014)Superintelligence:Paths,Dangers,Strategies.Oxford:OUP
Danaher,J.(2015).WhyAIdoomsayersarelikescepticaltheistsandwhyitmatters.MindsandMachines,25(3),231-246.
Yudkowsky,E.(2008)ArtificialIntelligenceasaPositiveandNegativeFactorinGlobalRisk.InBostrom,NandCirkovic,M.(eds)(2008)GlobalCatastrophicRisks.Oxford:OUP
人工智能会毁灭人类吗
近日,“钢铁侠”原型、特斯拉CEO伊隆·马斯克在几十位美国州长面前,声称AI(人工智能)是对人类存在的最大威胁,并且呼吁加强对AI的监管。
马斯克认为,AI将在2030年至2040年就会全面超越人类。他表示,越熟悉AI他就越担心AI会带来的威胁。“我接触过最前沿的AI技术,这让我很忧虑。”
而同是科技大佬的Facebook创始人扎克伯格对马斯克的观点不以为然,他认为,“未来5-10年内,AI将大幅提高我们的生活质量。”并间接批评马斯克,“我认为那些对AI持否定态度或者鼓吹末日论的人,其实根本没理解什么是AI。他们的看法太消极了,甚至有些不负责任”。
对此,马斯克通过推特轻描淡写的给予了回击:“我跟小扎聊过了。他对这事儿(AI)的理解有限”。
.
之后,马斯克又发了一个推特,重提了TimUrban在2015年发表的一篇旧作,中译版的标题是:《为什么霍金、比尔·盖茨这些大佬们,让我们警惕人工智能?(AI革命上篇)》。
这篇文章从三个层面论述了人工智能:1、历史会呈指数发展,人工智能对历史的改变会很快到来。2、人工智能是什么,现在的人工智能发展水平如何。3、我们可以按照怎样的轨迹发展人工智能。
作者在文中表示:当人工智能发展到人类脑残水平时,他就可以自我发展了,并在很短的时间内发生——智能爆炸,超过人类水平。那时,就像人类重新定义了动物一样,人工智能将会重新定义人类。
那么这个如上帝般强大的存在,会仁慈的对待他的“父母”——人类吗?
.
其实,马斯克一直就在鼓吹AI威胁论,持有同样论点的还有著名的物理学家史蒂芬·霍金(StephenHawking),他也曾多次表示,AI未来会威胁人类。
而法国人工智能科学家YannLeCun,近日在推特上给扎克伯格点赞,表示对他的支持。百度前首席科学家吴恩达(AndrewNg)也表示了对扎克伯格的支持,吴恩达说:作为真的做AI产品的人,我看不到今天的AI可能发展为邪恶力量的任何可能性。
.
图灵奖得主RodneyBrooks的观点是:“有很多人都声称AI是人类存在的威胁:斯蒂芬·霍金、马丁·里斯爵士……在没有亲身在AI领域工作的情况下,这样的想法很普遍。我们能够理解,对于那些不在AI领域工作的人,要通过产品级别的东西来弄明白一些问题有多么困难。他们会根据一个领域的一个AI成果,就一概而论地认为AI会在多领域超过人类。但是其实今天的AI,只是在某一个狭窄领域基于大数据优化,只能说是个很厉害的模式识别引擎。要做到通用的、无所不能的AI根本不知从何开始。”
.
李开复公开表示不太认同伊隆·马斯克“AI灭绝人类”的观点,并对当前AI的发展,提出了5个方面的具体观点:
1、AI只是工具,离超级智能还很远;基于我投入AI领域的科研、开发、投资相关工作37年的经验,“超级智能”、“灭绝人类”这类耸人听闻的说法,根本没有切实的工程基础。
2、智库、科学家应该讨论AI安全问题、AI对社会的改变,但是科技圈的意见领袖不应该在这时误导大众AI要控制人类,让人类灭亡,这确实是不负责的说法。大部分的人已经对AI所知有限,这会造成更为错误不实的群众恐慌。
3、AI可以为人类创造大量财富,甚至逐渐解决人类温饱问题;我们每个人也将获得更多的时间和自由,来做我们爱做的事情。
4、AI真实会带来的问题是人类的失业,失业后可能的抑郁和丧志问题,还有贫富不均问题,人类社会目前所习惯的职业结构确实会发生显著的改变。
5、AI会带给我们100%确定性的巨大机会,随着改变也会产生些必然的问题。此时去用概率极低甚至是零可能性的“超级智能”,误导大众恐惧AI,甚至约束AI,反而不去拥抱机会、解决问题,是没有道理的。
.
其实,马斯克和扎克伯格之争,不但源自两者对AI的不同认知,也关乎两者的商业逻辑:自动驾驶汽车和巨型社交网络。
早在两年前,也就是2015年,马斯克和霍金联合一众科学家和商业领袖签署了一份“公开信”(霍金、马斯克携手力推23条原则,告诫AI发展底线)。在这封信中,他们将管制超级人工智能列为了21世纪最急迫的任务,这封公开信也在后来获得了比尔盖茨的认同。
之后,马斯克就创立了非盈利人工智能研究公司OpenAI,旨在防止AI研究出现一家独大的局面,以实现对AI的控制力的均衡分布。
对此,扎克伯格针锋相对,Facebook也紧随其后推出了AI平台Jarvis。
扎克伯格认为AI是一个智能工具系统,包含了各种能够理解人类指令并完成任务的程序,实现多种智能家居功能(如开灯关灯、调控室温、播放音乐),比如阿里巴巴刚推出不久的天猫精灵也是如此。
.
但是,马斯克曾毫不留情地说,Facebook的Jarvis根本就不是AI。
马斯克指出,“控制开关灯的根本不是AI。”在Jarvis系统中,人类说出的命令被语音识别系统识别,然后被转换为文字,随后经过文本分析系统得到命令的含义,最终再通过一个系统来控制灯的开关。
马斯克眼中的AI是一个能够实现整体任务的、“端对端”的AI系统,而绝非一系列算法的结合体。
英伟达在2016年发表的一篇论文中,描述了一个“端对端”的自动驾驶系统设计。在这一设计中,一个单独的神经网络观察司机开车的行为,然后就能学会驾驶车辆。这样的系统才能算作马斯克所说的AI。
但是,不管扎克伯格和马斯克谁说的对,我们可以知道的是,二者都将从AI产业赚的盆满钵满。
不可否认的是,目前的AI还不是一个成熟稳定的产品,我们对AI还不够了解,看看前几天的一个新闻,在美国华盛顿DC的一个办公楼内,一个名为Steve的机器人突然用“跳池”结束了自己“年轻的生命”。
之前澳洲也有一则报道,称澳洲一扫地机器人因厌倦了日复一日的清扫工作,趁主人不在家时启动了毁灭装置将自己烧死。
俄罗斯也曾传出机器人从实验室“逃跑”的消息。
.
在老方看来,尽管在过去十年中,由于计算能力的重大进步,强大的机器学习和深度学习算法的发展以及可以投入到这些算法中的数据量爆炸,AI进入了加速增长的新阶段。但离AI逼近人类大脑水平而意识“觉醒”还为时尚早。
人类最宝贵的就是大脑,我们对自己大脑的认识和开发都还不到5%,AI又谈何超越人类呢?
对于AI,像其他被人发明出来的蒸汽机、电话、火车等一样,应该只是服务人类的一个工具,而不是威胁。
在火车刚刚发明的时候,曾有人预言:“如果美国建设铁路,首先要建许多家精神病院,因为人们看见呼啸而过的火车会被吓破胆的。”
还有《终结者》、《机械姬》等科幻小说和影视作品,只是戏剧化的描述了人工智能的未来发展方向,我们不应该被自己编的故事吓到。
.
科技是中性的,好坏之分不过是人性的折射。
霍金担心的应该也不是AI会和人类发动战争,而是人类被科技异化后,从而无力思考,被世界所淘汰。
“人机大战”后,已经89岁高龄的李嘉诚对于人工智能也表现出极大的兴趣,特意向“AlphaGo之父”的杰米斯.哈萨比斯(DemisHassabis)咨询了人工智能的发展和问题。
.
AlphaGo很强,但离“超级智能”还很远。哈萨比斯后来也说,AI威胁人类的事情,还太过遥远。
.
在不远的将来,AI一定会成为其所在行业的颠覆性力量。尽管行业变化的速度可能会有所不同,但这一趋势已经形成。
“我非常激动,真的感觉连睡觉都是在浪费时间。”软银创始人兼CEO孙正义说。
“我认为我们正处在变革的时代当中。产业革命在竞争方面改变了每个人的生活,而这次的信息革命是要更进一步地带领我们去往现在每个人都没有想象过的世界的革命。我们正好在可以挑战的时候赶上这次革命,真的是非常棒!”
.
而随着AI的快速发展,关于论战还会继续。
微软创始人比尔·盖茨曾说:每创造一个新的“计算机”,算法都得从头来一遍、连怎么走路都不知道。我们还从没在软件里实现过这样的算法。只要这种算法接入互联网,它就可以读所有的书籍、杂志和其它信息,我们已经给超级智能准备好了内容基础。我尽量试着不过多宣扬这个观点。但当有人说这不是一个问题时,我真的不能同意。他们怎么能看不到这是多么巨大的挑战呢?
“卷积神经网络之父”、深度学习三巨头之一、Facebook人工智能研究院院长YannLeCun这样解释,人类的占领、统治、斗争等大部分行为,都是在一代代进化的过程中,受到“希望获得资源”这一目的所驱动的。而如果我们想要机器做一件事情,则需要给它赋予这个能力,朝这个目的去打造机器。如今我们已经做出了在特定领域比人类更智能的机器,但人工智能并不会真正统治世界,因为我们并不会朝这个目的去做。
马云认为,我们未来要思考的不是人工智能,而是机器智能,如何让机器成为人类最好的伙伴、而不是人类最大的对手。
物物而不物于物,我们不能被自己吓到。返回搜狐,查看更多