人工智能时代的政治哲学思考(上)
【编者按】
2017年11月27日,在上海外国语大学虹口校区第277期“上外博士沙龙”活动中,华东师范大学政治学系教授吴冠军发表了题为“人工智能时代的政治哲学思考”的学术演讲。
吴冠军教授认为,人工智能崛起是我们这个时代的大事件,面对这样的大事件,政治哲学研究者应当介入。吴教授引用荀子和亚里士多德的看法指出,人类的政治活动源自“人能群”,这使得人类相较于动物自成一个维度。但面对当今人工智能的新进展,人类有些紧张,有些惧怕,因为人类忽然发现,现在搞不定人工智能了。
吴教授指出,人工智能的崛起,可能给人类社会带来新的维度变化,加剧社会中极少数精英与绝大多数民众之间已有的社会分化。解决之道在于,迈向“共富国”,就是实现共富,让社会中的每一个人都有机会能分享到今天科技发展的利好。吴教授提醒我们,当分享不了的时候,这个社会就会出现越来越多的扭曲。
以下为这次学术演讲的文字记录稿,由澎湃新闻记者依据现场录音整理和编辑,并由吴冠军教授改定。全文约两万字,分三部分刊出,以下为第一部分。
2001年出品的美国电影《人工智能》海报这个时代,我们都身处其中。郭敬明写过一部小说,叫《小时代》,拍成电影之后票房还不错,可豆瓣评分很低。但“小时代”这个说法本身是有疑问的。为什么是“小时代”?我们所处的时代,难道不是个大时代吗,我们难道不是正在经历一个可能是人类文明史上非常大的变动时代吗?
在这样的时代里面,如果你们关心各种各样的讨论,你们会发现,关于人工智能的讨论特别热闹。各个学科的专家都已经出动了,他们都努力对人工智能发出自己学科领域的声音。但是我发现,政治哲学研究者的声音,到目前为止是缺席的。甚至在哲学领域内部,已经有伦理学者的声音,研究人工智能的行动伦理准则;有认识论研究者的声音,讨论人工智能有没有智慧,或者说有没有自己的思想,等等;甚至有法学家提出了关于怎么就人工智能进行立法的意见。但是政治哲学研究者的意见却很稀少。
我觉得,在这样的时代里面,我们应该有所介入,从政治哲学的角度介入。
人工智能崛起是我们这个时代的大事件
那么,作为政治哲学研究者,我们该怎样看待人工智能呢?我觉得,我们可以打开一个很大的画卷。
首先值得思考的是:在这样一个大时代里面,人工智能是我们人类很多了不起的震撼性科技发展中的一个呢,还是说,人工智能不只是万千科技发展中的一个,它同时带给我们一个大线索,让我们贯穿性地思考人类文明整个自身,思考我们人是怎么一种存在,我们以怎样的方式组建了我们的文明?
这个思考就牵涉到这样一个关键点:如果说我们值得存在——不是说,因为我们是人,所以我们不想被取代——如果说不管未来的人工智能怎么样,我们都值得在这个星球上存在,那么,究竟是什么让我们“值得”?我觉得有意思正是这一点。人工智能给了我们一个很好的反思点,我们不要错过。
我们要把握这个大时代里最关键的大事件,就是人工智能的崛起。而且这个崛起不单只是一个现象,它本身就是一个指数级的发展。我们可能每天过着我们的节奏,你们是博士生,我是老师,你们每天上课,我每天上课、做研究,但是那一边,今天有多少个实验室,有多少家大公司,有多少政府,它们在人工智能的赛道上巨额投入,使得人工智能以指数级速度发展变化。
去年(2016年)我们知道,“阿尔法狗”(AlphaGo)打败了韩国围棋手李世石,当时是有胜有负地打败,而今年(2017年)它很轻松地击败了我们认可的“世界围棋第一人”柯洁。而且现在“零度阿尔法狗”(AlphaGoZero)又出来了,都不跟人玩了,它自己跟自己玩,自己打败了当年打败李世石的阿尔法狗,而且100比0完胜。
“零度阿尔法狗”声称,它不需要跟人类有任何关系。原来的阿尔法狗还大量研究棋谱、研究人类的高手怎么出棋。“零度阿尔法狗”根本不睬,根本不认为这是重要的。它从零开始,所以叫Zero,它任何人类棋谱都不看,人类曾经有的任何下法、战术不看,从一张白纸开始。你给我下棋规则,我重新自己学习,左右互搏,自己跟自己玩。结果三个月内,成就了最一流高手。这是很骇人的。
柯洁这个年轻人不服输,败给阿尔法狗以后,他回去后就复盘阿尔法狗与他对战的每一盘棋谱。之后柯洁说的一句话让我很紧张。他说的是:我看阿尔法狗下棋,看不懂为什么它这么下。如果能看懂,尽管对方赢了,也说明两者的水平至少在一个维度内,但柯洁根本看不懂阿尔法狗,觉得它下这步棋莫名其妙,但是它就赢了。这是很恐怖的事情。这意味着,从现在起,围棋已经不是人类的活动了。现在哲学界有个词叫“后人类”,围棋已经成了后人类的活动,人类不需要参与进去,参与进去也只是在很低的水平上胡乱玩玩而已。
在这样的时代里面,我们认为人有价值,那么就要思考,这个价值在哪里?所以我们先打开这个画卷,不只是把人工智能看作人类科技进步历程中的一个小的新台阶,而是看作这样一个点:在这个点上我们取得一个视角,回过头去对“人”——人的“文明”、人的价值——做贯穿性的思考,思考我们怎么走来,我们怎么走到了我们现在这个点上。
如果说未来出现我们要被取代或者不被取代的情形。我们要打到最后一兵一卒,但抗争到底本身需要意义也支撑。就是说,我们如何说服自己相信,人类是一项值得抗争的事业?
有一个视频节目叫《晓说》,高晓松主讲的,不知你们有没有看过几个月前的一期。他讲的一段话很有意思。在那一期里他讲小说《三体》,讲得很开心,结果说漏嘴了。他说《三体》里面有一个情节,就是第一卷里面,在这卷中“三体人”并未到来,地球上却产生了秘密社团“地球三体组织”,为三体人到来并占领和统治地球积极做准备。他们这当然是背叛人类,是“人奸”,而且这个组织的核心成员都是社会精英,尤其是大科学家、教授、富商,他们呼唤外星人快来,快来统治我们。人类没救了,我们只希望外来的文明快过来,然后我们对你顶礼膜拜。
然后高晓松同学开心地说:如果现实世界真有这样的社团,我肯定加入其中。当高晓松这样的知识分子、社会精英,对人类自身已经不是产生怀疑的问题,而是觉得没有必要去为人类抗争,并期待另外一个文明来加以取代,甚至非常奋勇地参加另外一个文明对人类的统治时,我们必须要思考,这是为什么?这是我们要思考的起点。
从政治哲学角度思考人工智能,我会讲到什么是政治,什么是哲学,以及怎么跟人工智能这样一个时代发生关联。
“人类纪”这个概念告诉我们什么
首先,我拎出一个概念,这个概念叫“人类纪”。
今天,我们大家生活在这个星球上面,觉得很开心,因为这是属于我们的星球。大家有没有思考过一个最根本的问题:这个星球为什么是我们的?我们很自然觉得,当然就是我们的,我们的星球遍布人类的足迹,我们很自豪,所以才会有这样一个词叫“人类纪”。
我们知道,“某某纪”是一个地质学的概念,比如侏罗纪、白垩纪等等。但是最近,如果你们比较关注前沿学科的发展,那么就会看到,过去至少十年,不只一个学科,有多个学科的非常卓越的思想家,都不约而同开始采用一个词语,“Anthropocene”,中文翻译为“人类纪”。
你们搜一下,关于这方面的专著已经很多种。但为什么这个词本身突然之间变成了一个热词,学术界的热词?还有一点,尽管各个学科的人很热衷这个词,但是地质学家不认可。就是说,最应该认可这个词的地质学家说不行。他们认为这个提法不科学,不认为它有科学根据。
那么什么是人类纪呢?一个最关键的定义是,我们过去,从今天这个点往前整个七万年,我们人类,或者说是智人(HomoSapiens)——最近有一本非常卖得好的书叫《人类简史》(Sapiens:ABriefHistoryofHumankind),就是用“Sapiens”这个词做书名——成为影响这个星球面貌变化的最大因素。这是一个很大的论题。你们想想看,这意味着过去七万年里,人类对星球面貌的影响,要大过地壳运动,大过小行星袭击,大过各种各样所有的其他因素。
怎么去思考人类对地球这个星球的这样一种影响力呢?尽管地质学家对这个概念并不买单,但对我来讲,我觉得人类纪是一个好的概念。因为哲学说到底就是提出不同的概念。
我们今天说哲学,它是干什么的?哲学不再是给你真理——所谓太阳底下唯一的真理。我也不知道哪个是真理。但是哲学也一个很重要的力量,那就是,创造新概念。没有人类纪这个概念与有人类纪这个概念是不一样的,思考问题的方式不一样。我们可以借助很多过去哲人提出的概念,来思考所面对的当下问题。学习这些概念是为了什么?不是学习真理,不是学习康德说了什么,黑格尔说了什么。而是说,经由他们提出的那些概念,我们发现,我们可以打开全新的视角,看到不一样的东西,从这些过往哲人提出的概念里面,我们可以重新思考我们当下的生活。
人类纪这个概念亦是这样的。不管专业学者怎么争论,至少我们已经认识到,人类在过去七万年里面扮演了重要的角色,就算不是最重要的角色,但至少也是非常接近了。那么问题就来了:Whyus?为什么是我们?
看看我们自己,我们这样一种动物,我们凭什么力量,成为改变地球面貌的最重要因素,甚至产生出一个“人类纪”?回过去看,这真的是一个很奇怪的谜题,一个很不可思议的东西。如果你穿越回去,不要说回到七万年前,你回到五万年前,就算你学会了一种交流的方式,也没有人会信你的。怎么可能呢?我们这样一种智人——现在你不要被那种好莱坞英雄电影或者是《战狼2》欺骗了,在《战狼2》里,吴京厉害到赤手空拳就把一个坦克车军团弄到灰飞烟灭了——会有这么大的本事?
你把一个人直接放到自然环境里面,我们都知道,我们就处在食物链的中端。我们能欺负一些比我们小的动物,但是我们真的没用。一个人假如碰到一只老虎,那人就是美食,碰到一只“吃货”老虎,还不够它吃一顿。关于人的力量,我们都知道,今天我们可以意淫很多东西,但实际上我们的力量,连一只老虎都没法比,狭路相逢的话,你就是姚明、泰森也没用,不要说鹿晗、薛之谦这些小鲜肉了。
然而就是这样一种力量弱小的存在,经过一个很奇异的变化,在过去七万年中竟然成为改变地球的最重要力量。所以,既然要思考人工智能是否会取代人类,我们就要思考人类怎么就跑到了食物链的顶端?我们做了什么?
政治的起点:人能群,彼不能群
中国战国末期思想家荀子(约公元前313—238)在思考这个问题的时候,我们发现,我们正一步步接近我称为“政治”的维度。什么叫政治?关于政治的起点,有一句话是荀子说的。他说,我们人跟禽兽有一点区别。什么区别呢?他讲,“人能群,彼不能群”。它们不能够群处在一起,而我们人可以搞在一起。人能群,这句话非常经典,在这么早的时候,就有人说了这么一句有洞见的话。
刚才我说到人的体魄,人的体魄就那么小,人碰到外在的力量,怎么去对抗?我们单个的人,与任何一个大型的食肉动物都无法对抗。但是如荀子所说,人能群,彼不能群。人靠自己的能群来对抗。很有意思,你去看动物,有两种动物有能力群居:一种是蚂蚁、蜜蜂,它们是群居的。那么荀子说错了吗?不是的。蚂蚁蜜蜂确实分工严谨,但照我说,这个来得太容易了,这种群居不要求这些蚂蚁和蜜蜂有任何群居的智慧,它们的群居行为是刻写在其DNA里面的。在任何一只工蚁、任何一只工蜂那里,它们所有的行动,它们扮演的角色,都没有任何智慧在里面,而都是DNA驱使的结果。
另一种情况是,一些大型哺乳动物比如黑猩猩、大象也能群居,但是你去数群居的数量,一般来讲,一个黑猩猩群体的数量不会超过二三十只,三十是个极点,再往上走,就搞不定了,就只能分成两个小的猩猩群体,彼此对咬。象群也一样,它们是群居,但是超不过一个数字,超过一个数字,就会有头领引导一群象出走。甚至像老虎,成群的数量更加少,没办法以一个大型的方式生存。你如果只能在一个数字里面,没办法往下一步走,那你这个群体的整体力量就限于这个数字。但是群居的智人,很快就突破了这个数字。
古希腊思想家亚里士多德(公元前384—322)在荀子的时代,世界的另一边有一个很重要的思想家:亚里士多德。他说,“人天生是政治的动物”。为什么不说别的呢?为什么说人是政治的动物,亚里士多德要干吗?我们知道,那个时代被称作“轴心时代”,这么称呼是有道理的。这两个人,荀子与亚里士多德,是完全没有可能交流的,不可能鸿雁往来。但是似乎有一种力量,让他们都提出了一个很关键精彩的洞见。
我们分析一下亚里士多德这句话,对它做一个话语分析。很简单,首先,人是动物。不要觉得人了不起,在亚里士多德那个时代,没有《战狼2》可以看,人和动物一样要吃、喝、排泄,没有什么区别,人是动物。然而关键的是,人是动物,并具备政治能力。抛开政治能力的话,人跟动物没什么区别。但就是因为有了这样一个政治的能力,人最后成为了人,最后从食物链的中端爬到了顶端。
为什么这么说?亚里士多德看到了什么?人能组成一个社会,人能组成一个城邦,这个点抓得非常精准。人作为单个动物毫无力量,但是人竟然有这样的智慧,可以以社会的形态,以共同体的形态生活在一起。
当这个形态,这种政治能力,在我们人类身上得以实践以后,我们发现一切都改变了。
亚里士多德有另外一句话,可以和前面那句话联系起来思考。他说,人不能离开城邦(polis)而生活。在当时,一个城邦有几千个公民,加上所有奴隶在一起,几万个人——亚里士多德绝对想不到会有上海那么大的城市。在亚里士多德那里,城邦是什么概念?城邦的边界是,找一个嗓门最大的人,站在城邦的中心大喊一声,最远能够听到的边界就是城邦的边界。城邦就是人说话彼此能够听见的空间,人们发生关系、发生交往、发生连接、发生合作的可能性边界。
在城邦里面,人是安全的,这是亚里士多德当时的论断。他的论断是,人不要轻易离开城邦。人离开城邦后,要么成为神,要么成为野兽。你离开城邦还能活下来?要么就是半人半神,要么你就下降为野兽。一只老虎是不敢跑到城邦里面来的,我们看《水浒传》里面,老虎是不敢到村庄里去的,但是你如果落单了,你如果单身走山路,那么就有可能会被老虎吃掉,除非像武松这种人出来。想想看,当时真的很震撼,一个人赤手空拳打死一只老虎的话,那真的是英雄,一般人是不可能做到的。
所以人不能随便离开城邦。为什么不能离开?因为老虎到城邦来是它找死,有那么多人,肯定把老虎打死,这就是合作的力量。就是说,我们单个人没有老虎那么大的力量,但是我们组成一种合力,比如几个人去射箭,几个人去诱惑,几个人从后面布置陷阱,几个人扔石头,搞了一个战术组合以后,一只老虎跑过来,最后肯定会被干掉。所以老虎这样的动物再厉害,到今天竟然被人类弄到几乎灭绝。你们看,从七万年前开始,人类迁移到哪里,哪里的动物就迁走;人类占驻的村庄、城邦,所有的大型生物,老虎、狮子都得放弃。
政治不是一件简单的事情,政治就是人类能够合作,能够群处。两个人在一起,不是先撕破脸打一架,而是我们能合作,至少能生活在一起。秩序怎么来的?人类可以编织一套话语,然后形成一个合作,大家都服从这个话语,就可以彼此合作了。甚至话语还有让人牺牲的力量,比如恐怖主义,就有这个力量让一些人去死,用话语的力量告诉你死了以后有什么东西在等着你,你奉献了以后,有别的力量给你奖励。政治就是这样一个谜题。
利用话语装置,人自成一个维度
英国政治哲学家托马斯·霍布斯(1588—1679)现在让我们聊一下霍布斯。霍布斯非常重要,他提出的一个假设是,最初的时候,在最自然的状态里面,人与人之间是所有人与所有人的战争,每个人都像狼与狼一样互相撕咬。
霍布斯认为,这就是自然状态,是前政治的状态,而政治就是从自然状态走向一个政治的状态,人类建立国家,建立秩序。霍布斯提出让国家来保证每个人的安全,这样人可以放下彼此的对抗。最后,人通过一种方式,让大家都可以安枕无忧。但动物不行,一定会打破头,一打破头就彼此消耗。
人类文明的起源,我们已经很清楚了,来自于政治的能力。与此同时,亚里士多德还有一句话,叫人是说话的动物。这句话其实已经蕴含在“人天生是政治的动物”里面了。换言之,人这个动物,他的政治能力来自说话。人通过话语,编织了很多东西出来。人的政治智慧哪里来,靠说话;如果两个人一言不合就扔拳头,这不是政治。政治就是用话语的方式,以免两败俱伤。人类用话语,去处理各种各样的事物。通过话语,人类有了文明,有了各种各样的不同。从人工智能的角度来看,最关键的一点是,通过话语,人慢慢上升,从食物链的中端上升到了顶端。
然后人类有了一个话语性的变化,从食物链中突破,发生了一个维度的变化,就是人自成一个维度。原来,人和动物是在同一个食物链中,再怎么样都只是我在你最上面,只是我在这里,你在下面,我们是一根线,可以排下去,大鱼吃小鱼,我们是一个向维度里面的。但是通过一个话语装置,忽然之间,在七万年前的某一点上,人开始跟所有的动物相区别,不在一个维度上了。
你们是动物,你们吃来吃去,我们人冲出了这个向维度,到了另外一个等级上。你想想看,人吃动物,动物吃草。人们认为这样理所当然。柏拉图有一句话,叫naturalright,自然的正确,就是很舒服。人吃动物、动物吃草,所有人都觉得很正常,心安理得。你反过来试试看,没有人受得了。
我们知道很多人喜欢狗,人跟狗可以很要好。人吃狗,有很多爱狗的人受不了。广西玉林有一个狗肉节,很多人受不了。我爸爸养狗,绝对不吃狗肉。吃狗肉,一部分人受不了。但反过来,狗吃人,所有人都受不了。几个月前,我的微信群被一篇文章刷爆了,这篇文章说,如果你死掉了,在你死掉的七天里面,你养的狗会拿你的尸体当饭吃。很多人转这个,并且说从此看自己家里的狗,眼神都不一样了,因为它眼睛里看着你,居然会觉得你是可以吃的。这怎么可以……?
我们要追问这个问题,怎么会有这样一种我们认为自然的感觉,哪里来的。你们去看,狮子吃羚羊,它们是一个维度里面的,虽然你会觉得有点残忍,但也可以接受;动物吃草,也没有问题。人吃动物,怎么吃也都没有问题。
反过来思考,怎么会有这样的一种力量,使得我们认为,我们做的事是天经地义的?我的分析是,我们人类通过一个话语装置,产生了一个生命的等级制,这个等级制有实践性的后果。这个后果是什么?就是形成伦理的和政治的正当性,一旦有了这个正当性,人类做的很多事就变成一个自然的事情、正确的事情。人吃动物、动物吃草,这是一个正当;但反过来,绝对不能接受。举个例子,有人跑到动物园里去,被老虎咬,站在老虎的立场上,老虎也很冤枉,但是它吃了人就必须死。老虎说,我吃人是因为你到了我旁边,你到了旁边我就要吃你。但是不行,吃了人的老虎就必须死。
回到上面提到的文章,。狗吃了自己的主人,法院判这只狗必须处死,就是说,狗只要越过吃人这条界限,必死无疑。
当代意大利有一位思想家叫阿甘本(GiorgioAgamben),他有一个词,我觉得可以很好地用来形容话语的装置,叫“人类学机器”。通过这个“人类学机器”的转变,本来很残忍、很血腥的事情,可以变得不那么血腥了。你们看,杀动物的时候你会觉得很血腥,可是烹饪完的时候,你们会觉得是美味,你们吃的时候还会拍下来发到朋友圈里去。杀猪的时候,猪会流泪——猪其实是很聪明的动物——但没有人觉得难受。为什么?我们都没有同情心吗?
不是。有一部话语“机器”在那边保证让你安心,帮助你安心:吃吧,没事的,它们没办法与你在一个维度里面比较。今天,你们翻翻词典,翻翻百科全书,还有这样的语言,说某个动物是“害虫”。实际上它只是吃你们人吃的东西,就变成害虫了,必须被消灭掉。最恶心的描述是说,某个动物“浑身都是宝”,皮可制革、鞭可入药、肉味鲜美等等。想想看,这是辞典,要我们去读的。我们为什么那么心安理得?当一个动物被我们人类夸赞为浑身都是宝的时候,实际上我们是在对它扒皮抽筋。但一切都变得如此自然。
几十年前,我们不是还在“除四害”么?麻雀之类动物,一旦你把它归为“害”,它是必死无疑的。蟑螂是灭不了,但是该灭的都灭光了。但反过来想想看,我们人在动物眼里,会是什么害虫,或者“害人”呢。
这个时候,哲学家挺了不起的。2004年去世的法国哲学家德里达(JacquesDerrida)在他的回忆录里面写了这样一件事,我觉得非常有意思。
他说了自己生活中的一个小事情,就是家里没人,他洗完澡,就裸着身体出来了——这跟我们一样。忽然,他看到家里的一只宠物猫就这样看着他,在这一刻——哲学家就跟我们不一样——他忽然感觉到一种不适感,他马上找了一条浴巾。家里没别人,但他找了一条浴巾把自己裹起来。他说,在他内心中,当时那一刻,他不知道在那只猫眼里,他自己是一个怎样的怪物!他受不了猫的注视,所以把自己包裹起来。(待续)
(李宁琪同学、邢英莉女士对本文亦有贡献)
中青报:如何看待霍金对人工智能的警告
原标题:如何看待霍金对人工智能的警告今年3月8日,著名物理学家史蒂芬・霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止新科技(人工智能)对人类带来的威胁进一步上升。霍金警告,未来人工智能可能会以生化战争或核子战争的方式摧毁人类。其实,早在2015年9月,霍金就发出过类似的警告:聪明能干的人工智能会让人类灭亡。霍金表示:一个超级聪明的人工智能可以非常好地实现它的目标,如果这些目标没有与我们人类一致,我们人类就麻烦了。
我们如何来对待霍金的警告呢?首先,霍金本人也是人工智能技术的支持者,霍金认为,如今人工智能似乎已经渗透到各个领域。人工智能甚至可帮助根除长期存在的社会挑战,比如疾病和贫困等。
人工智能技术是当今新技术革命的领头羊。事实上,人工智能技术的发展已历经三次浪潮。第一次浪潮以“手工知识”为特征,典型范例如智能手机应用程序等。第二次浪潮以“统计学习”为特征,典型范例如人工神经网络系统,并在无人驾驶汽车等领域取得进展。虽然这些人工智能技术,对明确的问题有较强的推理和判断能力,但不具备学习能力。第三次浪潮则以“适应环境”为特征,人工智能能够理解环境并发现逻辑规则,从而进行自我训练并建立自身的决策流程。今年年初,谷歌AlphaGO的升级版Master以60∶0的战绩,击溃当世所有围棋顶级高手;就在5月25日,AlphaGO又接连两局击败中国围棋职业九段棋手柯洁;我以为,这些都是人工智能第三次浪潮的标志。
其次,人工智能技术也是一把双刃剑。一方面,借助人工智能技术实现自动化,将极大提高生产率,节省劳动成本;通过优化行业现有产品和服务,开拓更广阔的市场空间。正由于人工智能对社会经济无可替代的重要推动作用,在我国两会上已将人工智能写进了政府工作报告。
另一方面,人工智能技术对社会也带来了近期和远期的风险。在不远的将来,那些重复、耗时、乏味的工作;在快速变化的复杂环境中进行的工作以及超出人类极限的工作,都有可能被人工智能系统所代替,从而冲击劳动力市场。可以预测,由于人工智能的发展,多数人的智能将低于或接近人工智能的水平,如果没有政策的有效控制,财富就会集中到少数智能超过人工智能的人手中,这将进一步扩大社会的贫富差别,引发社会的撕裂。
至于说到霍金警告的人工智能引发的人类生存风险,即人工智能将来会从整体上超越人类智能,目前对此在认识上还有分歧。许多自然科学家认为,目前人工智能离上述水平还很远很远,其危险远不足虑;而某些社会科学家却有担忧,认为随着技术变革的深入,人工智能所引发的链式反应,就会出现无法控制的局面。上述认识的差异,正好体现了人类对智能认识的多样性。从这个角度看,科学家全面认识人类智能,并将其复现,只是时间问题。鉴于人工智能有可能超越人类智能,以及由此产生十分严重的后果,再加上科学技术发展的内在不确定性,就充分说明了研究人工智能安全问题的必要性。
早在1950年出版的美国著名科幻小说家艾萨克・阿西莫夫撰写的《我,机器人》小说中,就提出了著名的“机器人三大定律”:第一定律,机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观;第二定律,机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三定律,机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。此后,这“三大定律”不断激发出对于人工智能安全性的新思考。由于人工智能最终必将会具备自主意识,到那时人类与人工智能系统之间的关系,必须服从普适、可靠的准则。特别是在军事领域要更加小心,否则极有可能出现科幻电影中描述的人机大战的场景。
因此,我们在发展人工智能系统的同时,还要确保其在预先制定的相关准则下进行工作,以防止其出现越规行为。
(责编:刘琨(实习生)、王倩)两种不同的人工智能观:工程观点和科学观点
来源:人机与认知实验室
作者按:人工智能是作为工程还是科学,这个问题是一个很严肃的问题,如果从工程技术角度来看人工智能,那么认知科学尤其是认知心理学、神经生理学对人类这样的生物智能的原理性认识,就不需要成为实现人工智能的前提条件。反之从科学角度来看,则需要将认知科学对生物智能的认识论目标作为实现人工智能的前提,最强烈的工程观点未必用计算机作为实现工具,反之最强烈的科学观点则认为只要不基于人类认知原理基础上实现的智能机器,就不是真正的人工智能。这个争论到目前为止还没有结论,但有助于弄清楚目前大众传播语境中含糊的人工智能、认知等概念,它们不是一回事,至于人工智能、认知科学与机器人的关系问题,可以肯定的是它们不是一回事,而是需要另一篇文章来解释。
一、概述
在日常语境下的“人工智能”术语,如前所述,由于其可能具有的交叉性学科的特点,导致其含义比较模糊,大多数时候与机器人、软件应用联系比较紧密,有时则作为计算机学科的一门分支或者计算机专业的一门课程,而且人们在谈论人工智能的时候,往往与认知科学相提并论,认为其目标就是开发比人类智能更为强大的智能机器,至于为了开发智能机器,是否需要完全弄清楚人类大脑的工作机制,在日常语境下很少成为核心议题。
因此,我们首先必须明确在何种意义上讨论人工智能这门学科。
二、两种不同的人工智能观
传统意义上,人工智能被认为是计算机学科中的一门重要分支,在控制论、心理学、神经生理学和计算机科学的影响下,诞生于上世纪二战后的40年代末50年代初,其目标是使计算机完成人类智能才能完成的任务。
从上世纪70年代末到本世纪初的数十年中,这种对人工智能学科的传统定义在一些标准的教科书中都有类似的表达方式,例如:
“人工智能所研究的是使计算机能够做那些表现出人的智能的事情”。
“可以把人工智能定义为计算机科学的一个分支,其目标是使智能行为自动化。”
但是,我们看到在这个学科的学术共同体和代表性学者中,对此也有不同的定义,例如:
国际人工智能促进会(AAAI:AssociationfortheAdvancementofArtificialIntelligence):“对作为思维和智能行为基础的机制的科学理解及它们在机器中的具体实现”。
约翰·麦卡锡(人工智能学科的主要开创者,1971年图灵奖得主):“制造智能机器的科学和工程,特别是智能的计算机程序,它与利用计算机来理解人类智能的类似任务有关,但不必自我限制于生物学上可观察的方法。”
上述这两种定义都没有明确指出人工智能是计算机科学的一门分支,但都指出为了在机器中实现智能都需要理解人类智能的机制。这种与传统人工智能定义的差异主要在于学术共同体内部对人工智能具有两种不同的理解,或者说有两种不同的人工智能观。
赫尔伯特·西蒙在1990年应邀为《人工智能百科全书》撰写的序言中,基于其物理符号系统假设的立场,认为人工智能有两个主要分支:
1.狭义上的人工智能是计算机科学的一部分,旨在探索可通过对计算机编程而使其行为具有智能的一系列任务,它并未主张计算机智能在过程上模拟人类智能;
2.人工智能的第二个分支,是新兴的认知科学的一部分,该学科旨在通过编程来模拟人类在其智能行为中所运用的实际过程。
西蒙所持有的物理符号主义立场,其理论硬核以表征-计算为特征,因此并没有强调对人工智能和认知科学进行特别的区分,甚至在艾伦·纽厄尔(AllenNewell)、泽农·派利夏恩(ZelonW.Pylyshyn)这样的符号主义者看来,标准认知科学和传统人工智能共享同样的理论假设和目标,只是实现同一目标的两条不同路径,这个目标就是理解可能出现在任何物理形式中的智能行为的本性。
随着20世纪末以来新的研究纲领及其理论假设的引入,对两种不同的人工智能观的认识也进一步深化,在1999年出版的《MIT认知科学百科全书》中,两位知名的人工智能学者MichaelI.Jordan和StuartRussell如此表述:
“有两种互补的人工智能观:一种是涉及智能机器建造的工程学科,另一种是涉及人类智能计算建模的经验学科。在这个领域的初期,这两种观点很少区分,此后两者之间的大量分歧开始出现,前者统治了现代人工智能,而后者描述了现代认知科学的大多数特征。因此我们采用更为中立的术语’计算智能’作为本文的标题——两个共同体都采用计算的术语来致力于理解智能的问题。”
这两种不同的学科观如果不在上下文语境中进行说明或限定,则很容易导致对人工智能历史描述的误解,虽然AAAI和麦卡锡的定义兼顾了这两种互补的观点,但这却与一部分主流教科书的表述并不一致,而且对学科历史研究中所涉及的大量认知科学、心灵哲学、认知心理学文献中所出现的人工智能术语,究竟是基于哪一种人工智能观需要予以明确。因此接下来我们介绍这两种不同人工智能观,进行初步分析,并在本文的后续描述中来揭示这两种互补的观点是如何形成并相互影响的。
三、作为技术或工程的人工智能
人工智能哲学家约翰·豪奇兰德(JohnHaugeland)是德雷福斯的学生,在他一本有很大影响的人工智能哲学著作《ArtificialIntelligence:TheVeryIdea》中,提出了GOFAI(GoodOld-FashionedArtificialIntelligence)这个概念,直译为好的旧式AI,其含义是指以西蒙、纽厄尔等提出的物理符号系统假设(PSSH:PhysicalSymbolSystemHypothesis)为硬核的符号人工智能。
从1956年标志人工智能正式诞生的达特茅斯会议,到联结主义纲领初步复兴的20世纪80年代初的这20多年里,符号主义纲领在人工智能的研究中占主要地位,而且取得了不少成就,因此豪奇兰德称其为GOFAI,事实上由其主要承担达成1956年达特茅斯暑期研究项目建议书中提出的技术目标:
“……试图发现如何制造这样的机器:运用语言、形成抽象观念和概念、求解目前仅限人类解决的问题并予以改进,……”。
因此,从达特茅斯会议到上世纪70年代末之前,人工智能主要作为技术或工程科学,其目标是建造智能机器这样的人造物,对人类智能机制的理解是否会成为实现这个目标的前提,早期的研究者并未引起足够重视,或者过于乐观地高估了物理符号系统、信息加工心理学对智能机制的解释能力,认为其对实现这样的技术目标已经足够。虽然在这段时期,在美国有德雷福斯从哲学视角进行了批判,以及1966年美国国家科学院的ALPAC(AutomaticLanguageProcessingAdvisoryCommittee:自动语言处理顾问委员会)报告对机器实现语言自动翻译任务的否定性结论,在英国则有1973年英国科学研究理事会的莱特希尔报告对当时整个人工智能研究的质疑和否定,甚至连DARPA(DefenseAdvancedResearchProjectsAgency:美国国防部高级研究计划局)这样的主要支持机构对GOFAI技术成果的进展也不满意,大规模削减经费,导致人工智能历史上的第一次冬天,都未能从根本上动摇坚持GOFAI的研究者的信心,这使得在此阶段,如Jordan和Russell所说,作为技术的人工智能和作为人类智能计算建模的人工智能没有明确区分,对共同体内部而言,只有一种从属于计算机科学的技术的人工智能,并对如何理解人类智能工作机制发挥着关键作用。
四、作为认知科学核心学科的人工智能
人工智能在认知科学这门交叉学科中的地位,在共同体内部大致有三种不同的观点:
第一种观点是无关论,认为人工智能与认知科学没有关系(如标准认知科学的典型代表人物福多),甚至不承认人工智能属于认知科学这门交叉学科的范围(如1972年图灵奖获得者、著名计算机科学家戴克斯特拉),或者本身对认知科学的独立地位持有一种弱化甚至取消的观点(如普特南和塞尔);
第二种观点几乎是强相关论甚至等同论,认为人工智能是认知科学的理论内核或智力内核,甚至将两者的目标等同起来,例如认知科学家丘奇兰德将人工智能的目标定义为:“重新创造和理解一般生命有机体的认知能力”,持有这种观点的科学家包括加德纳、丘奇兰德、博登等人;
第三种观点是第二种观点的一种弱化或折衷,主要在计算机科学的背景下强调区分人工智能的认识论目标和工程目标,在承认人工智能在认知科学中的重要地位的同时,并没有将其与认知科学混同起来,持有这种观点的科学家包括西蒙、勒内特、麦卡锡、眀斯基等人。
在具体实践中,主流的观点是第二种和第三种,认为人工智能和认知科学无关的只是少数,而第二种和第三种观点只是在理论主张强弱程度上的不同,因此本文对人工智能和认知科学之间的关系所采取的立场是:综合加德纳、西蒙等人的观点,即人工智能在认知科学中发挥核心作用,但又不等同于认知科学,而有其独特的经验科学的探索和实验性质。
霍华德·加德纳将认知科学定义为一门经验科学,主要是解决传统上根深蒂固的认识论问题,特别是关于知识的本质、成份、来源、发展和展开的问题。因此,认知科学似乎有一个漫长的过去,但却只有一个相对短暂的历史,其作为交叉学科所包括的大多数其他学科在20世纪初就已初露端倪。学科内部从思想史的发展线索和成熟度出发,一般将1956年9月在麻省理工学院召开的信息论专题讨论会作为这门学科的开始,因为在这次会议上西蒙与纽厄尔提交了描述第一个人工智能程序“逻辑理论家”的论文,乔姆斯基提交了“语言的三个模型”的论文,以及乔治·米勒提交了关于人类短时记忆能力的论文,代表着认知科学研究的三个核心学科人工智能、语言学、心理学在理论和经验实践上的突破。但至于认知科学(CognitiveSciences)这个学科名称的正式出现,则比人工智能要晚17年,是由爱丁堡大学的心理学家HughChristopherLonguet-Higgins在对著名的LightHill报告的评论文章中提出的。
加德纳在对认知科学的关键特征进行总结时指出:“事实上,还有许多人认为,围绕计算机模拟而建立的人工智能,是认知科学的核心学科,是一门最有可能把其它陈旧的研究排挤出去,或使其成为余赘的学科”。他所总结的认知科学五个关键特征是:
1.心理表征;
2.计算机既可以作为人的思维模型,也是研究人类心灵的主要工具;
3.在认知研究中忽略或淡化情感、背景、文化和历史的影响;
4.依赖多学科的研究;
5.植根于经典哲学;
加德纳认为前两个特征是认知科学的基本信念,也即标准认知科学研究纲领的理论硬核,后三个特征主要与认知科学的方法论有关,可以理解为某种程度上的保护带和正面启发法。
加德纳作为心理学家,主要从其科学心理学的立场出发,认为心理学是任何认知科学的核心,并且认知心理学和人工智能将合二为一,成为新的、统一的认知科学的核心领域。
加德纳所持有的这些观点,现在来看属于标准认知科学或者第一代认知科学的立场,在这个视角下,人工智能是为认知心理学提供计算模型,将传统上仅通过内省、行为等方式难以进行科学和经验研究的人类心灵,通过计算机建模的方式进行实证研究,是心理学在研究人类心灵认知活动时的关键工具,也是从哲学上推动认识论自然化的主要途径。在这种场景下,作为技术的人工智能与作为自然科学的科学心理学之间的关系,不是传统上简单的科学及其应用关系,科学知识和技术知识之间在这里没有体现指导和被指导的层次关系,而是两者之间相互依赖,各自的核心概念、模型相互交织在一起,共同为认知科学提供理论指导。
在这种背景下,到目前为止的绝大多数心灵哲学、认知心理学、认知哲学的研究文献,均对人工智能采取一种工具主义立场,其目的是支撑和验证心理科学对人类智能工作机制的建模分析和理解,而不是聚焦在开发和建造智能机器这样的人造物来实现人类级别智能的目标上,因此对这种背景下的人工智能,对其进步与否的判断需要和认知心理学结合在一起,看其是否为认知科学提供了超余的经验内容和预测了新的事实。
反之,以计算机科学为背景的人工智能学者的大多数研究文献,则聚焦在开发、建造实体机器(如移动机器人)或智能代理体这样的软件,并在社会和经济目标指引下,寻求其商业化用途。这种背景下的人工智能,作为技术来看,判断其是否成功,主要应基于效率最优的观点来看其是否达到设计要求和应用的商业目标。
虽然最近二十多年来,在共同体内部力图弥合和淡化这两种不同的学科观差异,例如采用理性智能体的观点来定义人工智能,“将AI的研究视为理性智能体的设计过程至少有两个好处……因此,本书将着重讨论理性智能体的通用原则以及构造此类智能体所需的组成部分”,并且认识到仅作为经验的人工智能是不足够的:“智能软件的复杂性和在人类交互活动中与生俱来的不确定性阻扰了不管是从纯数学角度还是纯工程角度的分析”,并希望通过哲学尤其是认识论来为两种不同人工智能观的统一奠定基础。
这种努力确实比标准教科书中所呈现的GOFAI更完整地展现了当代人工智能研究的主流趋势,但共同体坚持其学科在方法论乃至形而上学基础方面的独立性立场仍然没有改变,如Luger同样在其书中所指出的:“得到的结论是,人工智能的经验主义的方法学是一个重要的工具,也许它对于探索智能的本质来说是最好的工具”。
未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”
上海人工智能大会首日收官,这10位嘉宾的观点火了
2023年7月6日,2023世界人工智能大会(简称WAIC)在上海拉开帷幕。数据显示,大会吸引了1000多位嘉宾参与,包括80多位院士,4位图灵奖得主,也包括像埃隆·马斯克这样的创业领袖。
有参会者感慨,这场人工智能大会感觉就是ChatGPT的专题讨论会。这意味着,这场人工智能大会正在讨论全球最热门的话题。
以下是现场嘉宾的精彩分享,经巴比特整理。
人工智能在未来人类的演进中将发挥重要作用,并对文明产生深远的影响。未来,机器人的计算能力要远远超过人类,这似乎是一个发展趋势。这将带来积极的影响,同时也会带来一些消极的影响。
——特斯拉创始人兼首席执行官埃隆·马斯克
今后任何一家公司都需要具备驾驭数字技术的能力,每一家公司的每一个应用程序都将由人工智能来驱动。人工智能的技术突破正在为各行各业带来千载难逢的创新机遇和挑战。
——微软全球资深副总裁、微软大中华区董事长兼首席执行官侯阳
在过去的六七年里面,AI在学术界、思想界有一个路线之争,就是说我们现在依赖强化学习这条路线,是不是正确。我想应该坚持研发强化学习这条路径,对于通用人工智能未来发展有很大益处,对于AGI的技术完善还有很长的路要走。
——图灵奖得主、中国科学院院士、清华大学交叉信息研究院院长姚期智
人工智能是最热的话题,这意味着方向清晰了,而剩下的就是路径问题,华为的选择是推动人工智能向深向实。首先是深耕算力,打造算力底座。其次是结合大模型,从通用大模型到行业大模型的研究创新,让人工智能服务好千行百业,科学研究。
——华为轮值董事长胡厚崑
某些人害怕人工智能,希望对其进行严格监管,他们认为任何人可以用人工智能做任何事,那么就危险了。我完全不同意,长远看,要让人工智能平台安全、良善,就是让它开源。未来每个人都能通过人工智能助手和数字世界沟通。如果人工智能只被少数人控制,这是不可以的。
——2018年图灵奖得主杨立昆
AI研究要保持开放性和全球化,因为好的科学无论发生在哪里,对各地的科学发展都会有好处。我鼓励开放的科学。
——IEEE主席兼首席执行官赛义夫·拉曼
我国人工智能发展成效显著,基础资源建设水平有待提高。从报告的数据看,整体表现为4个特点。第一,10个三级指标排名上升,主要集中在网络基础、人才、教育、创新制度、专利等方面。第二,优势指标数量不断增长,排名前五的指标数量从2020年的12个增加到2022年的18个。第三,大多数指标都落后于美国,11个二级指标中9个落后美国,33个三级指标中24个落后于美国。第四,数据和网络基础有待提高,公共数据的质量和开放度不高,网络基础多个指标仍处于参评国家的中等偏下水平。
——中国科学技术信息研究所所长赵志耘
香港科技大学正全面推广基于生成式人工智能的教学,高校不能抵制ChatGPT,因为人工智能是非常重要的革命,它对教育的影响是根本性的,它会影响教育的理念、方法、工具、学生的能力等。传统教育是传授知识,AI时代的传统教育是AI成为工具,而生成式人工智影响下的教育,需要把人工智能在教育中进行创造性应用,让学生从消费者变成共同的创造者。生成式人工智能时代的教育需要让学生掌握批判力、创造力,以及与机器的交流能力等等。聪明的我们应该用我们创造的智能机器去培养更聪明的人,他们再去创造更聪明的机器。
——香港科技大学首席副校长郭毅可
在电影制作领域,大概有24个AI相关的应用,包括剧本创作、拍摄、宣发等。AIGC正在极大的影响电影制作,比如,在科幻电影的概念图设计环节,Midjourney的效果非常出色。同样一个画面,拥有数十年经验的设计师要画一周,但MJ一个晚上可以出大量图片。甚至,当导演看到这些设计图时,人类设计师的作品反而率先被淘汰。
——《流浪地球》导演郭帆
我最喜欢阅读两类书,一个是科幻文学,另一个是中国古典文学,MidJourney名字的来源就是庄子,庄周梦蝶,对应中文的“中道”。未来,AIGC技术会如何发展?很难讲未来技术会怎么样,我们在这个领域的发展才刚刚开始,未来会有10倍、100倍的进展,不仅仅是技术,我们会在用户界面、产品等领域有更多进步。
——MidJourney创始人大卫·霍尔茨