张炎:人工智能的潜在威胁与应对思路
试想一下电车难题:五个人被绑在电车轨道上,一辆人工智能操控但刹车失灵的电车朝他们驶来,就要碾压到他们,这时人工智能可以控制电车开到另一条轨道上,但另一条轨道上也绑着一个人。这种情况下,遵守定律的人工智能该怎么做?
人工智能的快速发展在获得关注与期待的同时,也在不断面对质疑与忧虑之声。霍金在GMIC大会上提出了人工智能威胁论,即人工智能的崛起可能是人类文明的终结。牛津大学人类未来研究院院长尼克·波斯特渃姆在《超级智能》一书中亦专门讨论人工智能危险性问题。生命未来研究院联合众多人工智能领域专家发布公开信,旨在提醒人们警惕人工智能的副作用。对此,我们不禁要问,当今人工智能究竟发展到了何种阶段?为什么这么多专家学者如此担忧警惕?我们该如何面对这些未知的隐患?
尚未实现的超级人工智能
尽管当今人工智能发展迅速,但尚处于弱人工智能阶段。近期,DeepMind制作的玩电脑视频游戏的AtariAI值得关注。它可以和人类一样只看电脑屏幕画面进行游戏,且在开车、射击、乒乓球等二十多款游戏中的表现超过人类。同时AtariAI可以从零学起并达到专家级别。鉴于游戏世界在一定程度上模拟了现实世界且AtariAI不限于某一特定的游戏,可以说AtariAI的问世向通用人工智能迈出了重要一步。但在分析其使用方法后,可知它仍尚未实现通用人工智能。AtariAI运用深度强化学习使得它可以通过与游戏世界交互而逐渐学会玩游戏,但这种学习方法实际上只实现了人类智能中的习惯性行为,就像运动员通过不断的重复训练而获得运动技巧一样。因此,AtariAI尚无法形成抽象概念从而进行思考推理等。这也是当今神经网络技术面临的一大难题。虽然当今弱人工智能系统遍地开花,但通用人工智能因其内部存在困难,目前仍属小众化的研究领域,尚未形成公认的理论,更谈不上实际应用。
尽管通用人工智能现阶段发展并不理想,但许多专家认为通用人工智能时代迟早会到来。一旦实现了通用人工智能,那么机器就会拥有递归自我改进能力。这意味着,机器能够进行自我改进,从而成为改良版智能系统,改良版智能系统再次进行自我改进,如此反复,从而变得越来越智能,最终实现超级人工智能。在改良过程中,越智能的机器,其改良方案会越优秀,改良速度也会越快,从而导致智能爆炸式增长。基于这一认知,在实现通用人工智能后,部分专家猜测可能在某一时期只需要几天甚至几个小时就能实现超级人工智能。
超级人工智能存在威胁
对于超级人工智能,不要低估人类与它们的差距。如果说相对弱人工智能在单一领域中,这种差距还只是速度上量的差距,那么试想:现代神经网络技术非常擅长于发现高维数据中的特征,而人类的感知只对三维世界具有良好的直觉。这意味着将来的超级人工智能与人类会达到质的差距,具有远超过人类的感知、思考能力,从而设计出人类完全无法想象的策略、蓝图、方案等。
尽管超级人工智能远超人类,但这并不意味着它们必然会给人类带来危害甚至毁灭人类。人们可能会认为我们可以给它们设定目标让它们为我们服务,就像现在的弱人工智能系统一样。既然可以人为地设定目标,那么超级人工智能究竟为何让我们担忧呢?试想:假设我们设定一个超级人工智能系统以做研究为目标。这个超级人工智能系统在数学研究领域遇到了哥德巴赫猜想难题。它通过计算思考发现解决这个问题需要很长的时间和极大的运算量,从而会消耗不计其数的资源以至于影响人类生活,所以人类决不会赋予它所需的资源。因此,为了完成目标解决哥德巴赫猜想,它只好精心地设计出夺取人类权利甚至灭绝人类的计划,以消除被关机、重置等危险,使得它能自由地获取所需资源去完成目标。再假设我们设定一个超级人工智能系统要造福于人类,使人们幸福无忧地生活。但该系统发现让人类得到幸福的最好方式是,把所有人变成“缸中之脑”,通过虚拟环境制造“幸福感”。显然,这与人们的初衷相悖。尼克·波斯特渃姆在《超级智能》一书中构想了更多超级人工智能毁灭人类的可能场景。尽管这些例子存在夸张成分,但不可否认,当我们无法理解超级人工智能、无法预测它们会如何思考行动时,我们便无法通过简单对其设定目标,从而期待它们会按照我们理想的方式行事而毫无副作用。
超级人工智能应具备利他性
鉴于超级人工智能有可能对人类造成危害,我们必须设法避免这样的情况发生。最明显而直接的一个方案是设定一套超级人工智能必须时刻遵守的规则。譬如,“机器人三定律”,其中第一条是机器人不得伤害人,也不得见人受到伤害而袖手旁观。如果将其应用于超级人工智能上,试想一下电车难题:五个人被绑在电车轨道上,一辆人工智能操控但刹车失灵的电车朝他们驶来,就要碾压到他们,这时人工智能可以控制电车开到另一条轨道上,但另一条轨道上也绑着一个人。这种情况下,遵守定律的人工智能该怎么做?如果人工智能控制电车变轨,那么就会导致另一轨道上的人死亡;如果它不作为,那么轨道上的五个人就会死亡。人工智能会发现此时根本无法遵守定律,所以它只能根据自己的意愿进行选择。这说明,任何规则都可能存在漏洞,我们无法指望一套规则解决所有问题。
针对上述困难,有学者提出用法律制度来约束超级人工智能系统。如果法律的制定者不仅只有人类而且还有超级人工智能的参与,那么这个策略才能具有一定的可行性。法律制度根据社会发展水平缓慢演变,需要立法者、法官等给予不断维护,比如修复立法者事先未预料到的漏洞、根据新发情景对法律条文进行增减等;而超级人工智能的认知水平远超人类,人类制定的法律难保没有超级人工智能可以发现利用的漏洞;同时我们的感官能力也非常有限,很可能无法察觉超级人工智能对漏洞的利用。因此,如果没有超级人工智能来参与制定、监督与执行法律制度,那么这套制度将成为一纸空文。
法律制度有效性的关键在于让超级智能替我们思考。进一步推进这一思路,超级人工智能应具有利他性。然后,让它们替我们思考,比如我们真正想要什么、什么最符合我们的利益、或者如何对待我们是最好的。因为超级人工智能具有认知优势,它们相比我们更能做出正确的决定。超级人工智能和人类,就像正值壮年的子女与年迈体衰的父母,子女显然更加清楚怎么做对父母更好。
尽管本文强调了超级人工智能可能带来的危害,但我们不应因此忽略它们可能给人类带来的巨大益处,譬如新技术解决食品、疾病、能源问题等。但需要注意,当人工智能系统越强大,被赋予的任务越复杂时,它们获得的自由选择权利也越大。此时,我们必须确保它们有着良好的动机与价值观,从而不至于自掘坟墓。
(作者单位:中国人民大学哲学院)
刘鹏:人工智能会产生自我意识吗
一场正常的模仿游戏有ABC三人参与,A是男性,B是女性,两人坐在房间里;C是房间外的裁判,他的任务是要判断出这两人谁是男性谁是女性。但是男方是带着任务来的:他要欺骗裁判,让裁判做出错误的判断。
那么,图灵问:“如果一台机器取代了这个游戏里的男方的地位,会发生什么?这台机器骗过审问者的概率会比人类男女参加时更高吗?这个问题取代了我们原本的问题:‘机器能否思考?’”而这,就是图灵测试的本体。
来源:果壳网
一场正常的模仿游戏有ABC三人参与,A是男性,B是女性,两人坐在房间里;C是房间外的裁判,他的任务是要判断出这两人谁是男性谁是女性。但是男方是带着任务来的:他要欺骗裁判,让裁判做出错误的判断。
那么,图灵问:“如果一台机器取代了这个游戏里的男方的地位,会发生什么?这台机器骗过审问者的概率会比人类男女参加时更高吗?这个问题取代了我们原本的问题:‘机器能否思考?’”而这,就是图灵测试的本体。
来源:果壳网
图灵很聪明,“思考”、“意识”这些都是虚无缥缈的东西,试图用定义法来证明几乎不可能(难免会有哲学家社会学家出来挑刺)。那我索性不去阐释什么是思考能力,只是用另一种公认具有思考能力的生物——人类作为参照物,如果一台机器“表现得”和人类难以区分,即可被视为具备了人类智能。
图灵的思路简单而明确——只有一种智能才能去识别另一种智能。
不过“原始版本的图灵测试”思路虽好,可操作性却不强。
到了1952年,在一场BBC广播中,图灵谈到了一个新的想法:让计算机来冒充人。如果不足70%的人判对(也就是超过30%的裁判误以为在和自己说话的是人而非计算机),那就算作成功了。
可以看出,图灵测试的核心其实不是“计算机能否和人对话”,而是“计算机能否在智力行为上表现得和人无法区分”。冒充异性和冒充人类都不过是特例而已。
那么时至今日,是否有机器已经通过了图灵测试?
答案是——有。
腾讯科技讯2014年6月9日消息,据国外媒体报道,最近,一个俄罗斯团队开发的聊天机器人软件,使得三分之一的聊天参与者,认为它是一个人类。这意味着在人类历史上,计算机首次通过了有关计算机智能能否超过人类的图灵测试。
1950年,计算机科学家图灵提出了图灵测试,这一测试要回答的问题,是机器是否能够像人类一样思考。图灵提出,可以让安装智能问答软件的计算机,和人类进行问答测试,如果30%的问答参与者,认为这台计算机无法和人类相区别,则可以认为计算机通过了图灵测试,“会思考的机器”将不再是梦想。
据报道,俄罗斯的一个团队,开发了名为“EugeneGoostman”的人工智能聊天软件,它模仿的是一个来自乌克兰的13岁男孩(男孩名字也是“EugeneGoostman”)。英国雷丁大学对这一软件进行了测试,据报道,在伦敦皇家学会进行的测试中,33%的对话参与者认为,聊天的对方是一个人类,而不是计算机。
这意味着图灵测试获得通过。
英国雷丁大学的教授KevinWarwick对英国媒体表示,过去已经有研究者宣称自己研发的计算机和软件通过了图灵测试,但是都是预先设置了对话的主题,而此次“EugeneGoostman”的测试,并未事先确定话题,因此可以宣布,这是人类历史上第一次计算机真正通过图灵测试。
不过这位教授也表示,计算机实现人类的智力,对于社会来说有着复杂的意义,未来这种计算机的高智能,会被用于网络犯罪。
上述测试于上周六进行,据悉,当天也是图灵去世60周年纪念日。
另外,2012年,另外一款软件“差一点”通过了图灵测试,有29%的问答参与者认为对方是人类而不是计算机,距离30%只有一步之遥。(晨曦)
来源:腾讯科技
腾讯科技讯2014年6月9日消息,据国外媒体报道,最近,一个俄罗斯团队开发的聊天机器人软件,使得三分之一的聊天参与者,认为它是一个人类。这意味着在人类历史上,计算机首次通过了有关计算机智能能否超过人类的图灵测试。
1950年,计算机科学家图灵提出了图灵测试,这一测试要回答的问题,是机器是否能够像人类一样思考。图灵提出,可以让安装智能问答软件的计算机,和人类进行问答测试,如果30%的问答参与者,认为这台计算机无法和人类相区别,则可以认为计算机通过了图灵测试,“会思考的机器”将不再是梦想。
据报道,俄罗斯的一个团队,开发了名为“EugeneGoostman”的人工智能聊天软件,它模仿的是一个来自乌克兰的13岁男孩(男孩名字也是“EugeneGoostman”)。英国雷丁大学对这一软件进行了测试,据报道,在伦敦皇家学会进行的测试中,33%的对话参与者认为,聊天的对方是一个人类,而不是计算机。
这意味着图灵测试获得通过。
英国雷丁大学的教授KevinWarwick对英国媒体表示,过去已经有研究者宣称自己研发的计算机和软件通过了图灵测试,但是都是预先设置了对话的主题,而此次“EugeneGoostman”的测试,并未事先确定话题,因此可以宣布,这是人类历史上第一次计算机真正通过图灵测试。
不过这位教授也表示,计算机实现人类的智力,对于社会来说有着复杂的意义,未来这种计算机的高智能,会被用于网络犯罪。
上述测试于上周六进行,据悉,当天也是图灵去世60周年纪念日。
另外,2012年,另外一款软件“差一点”通过了图灵测试,有29%的问答参与者认为对方是人类而不是计算机,距离30%只有一步之遥。(晨曦)
来源:腾讯科技
既然有机器通过了图灵测试,是否说明机器已经具备了思考能力?显然——不是。
就我们目前所知,尚无真正具备独立思考能力的机器问世。
通过测试,却显然不具备思考能力的机器出现。这是否说明“图灵测试”根本没有用,是一个无效的证明方式?
质疑·中文房间思想实验
早在1980年,约翰·赛尔在《心智、大脑和程序》一文中提出著名的“中文房间”思想实验用以驳斥“图灵测试”的合理性。
塞尔说,想象他被关在一个只开了一个小口的房间之中。
周围摆满了英汉词典,他作为一个完全不懂中文的人与房间外的中国人交流。
写满中文的纸条递了进来,他查字典将中文翻译成英文,再将要回复的话借助工具书翻译成中文递出去。
那么外面的人就会认为约翰·赛尔精通中文。
这里约翰·赛尔是用了类比的方法,他对中文一窍不通却可以让外面的人以为他精通中文,同理,机器即使表现得很像人类也并不能证明其具备了思考能力——“只是看起来像是在思考”。
按照约翰·赛尔的观点,应当是认为机器永远不可能真正具备思考能力,即使表现得很像具备思考能力,本质上也不过是在忠实地运行程序而已。
持此观点的人不在少数,认为机器永远不可能产生意识,人是造物主独一无二的光荣。
斯皮尔伯格《人工智能》剧照
我与另一些图灵的拥虿一样,并不认同中文房间思想实验的结论。首先约翰·赛尔刻意弱化了工具书的功能和翻译过程的艰难,让这个实验似乎符合人们的直觉。
让我们仔细回顾一下,一个对中文一窍不通的人仅凭工具书真得可能蒙骗过屋外以中文为母语的人吗?不可能。只是简单的理解字面意思太容易露出破绽了,这里面包含了对中文语法、修辞、文化基因的积累,换言之,这个人如果真能做到天衣无缝得骗过外面的中国人,那么这个人加上他的翻译工具这个整体,本质上就可以被视为一个“精通中文的人”,这是存在等价关系的。
类比于图灵测试,一个不具备思考能力的机器,不可能表现得如同一个思考者。中国古代有五禽戏,人可以通过自己的智慧和观察模仿成动物,这是因为人的智能程度比其他动物要高,相反,你认为一只猪能扮成一个人和我们一起工作吗?如果有这样的猪,则说明它是具备思考能力的智能猪。
本质上,高智商可以伪装成低智商混入群众,而低智商伪装成高智商进门萨,就太容易被人揭穿了,就是这么个简单的逻辑。
既然图灵测试没有问题,为什么会出现通过了图灵测试却未产生思考能力的机器呢?
哪里出了问题?
努力想办法通过图灵测试的研究单位本就有些急功近利,他们的研究偏离了重点,图灵提出这个测试是为了让人们努力研究出智能上更接近人类的机器,而不是研究如何设计程序能在对话中骗过普通人。
在测试中这个男孩从不正面回答问题。一些测试者被成功欺骗了(大约有三分之一,足以算作一次小规模胜利)。但是这又如何?裁判们只有几分钟时间进行测试,如果时间加长,毫无疑问他们会很快发现真相,Eugene对现实世界几乎一无所知。让我们来看一下计算机科学家ScottAaronson与Eugene的对话:
SCOTT:鞋盒子与珠穆朗玛峰,那个更大?
>>EUGENE:现在我还不确定,我得再想想。对了,我忘记问你来自哪儿了?
SCOTT:一只骆驼有几只腿?
>>EUGENE:2至4条吧,也许,3条?顺便说一句,我仍然不知道你的专业是什么——或者,我刚才没看到?
SCOTT:一只千足虫有多少条腿?
>>EUGENE:只有2条。但考虑到切尔诺贝利事故,它有可能增加到5条。我知道你在对我说脑筋急转弯。
SCOTT:没有,我需要知道你不是一个聊天机器人。请直接回答这个问题:一只蚂蚁有几只腿?
>>EUGENE:2至4条吧,也许,3条?哦,这是一次多么富有成果的对话。
来源:网易科技
在测试中这个男孩从不正面回答问题。一些测试者被成功欺骗了(大约有三分之一,足以算作一次小规模胜利)。但是这又如何?裁判们只有几分钟时间进行测试,如果时间加长,毫无疑问他们会很快发现真相,Eugene对现实世界几乎一无所知。让我们来看一下计算机科学家ScottAaronson与Eugene的对话:
SCOTT:鞋盒子与珠穆朗玛峰,那个更大?
>>EUGENE:现在我还不确定,我得再想想。对了,我忘记问你来自哪儿了?
SCOTT:一只骆驼有几只腿?
>>EUGENE:2至4条吧,也许,3条?顺便说一句,我仍然不知道你的专业是什么——或者,我刚才没看到?
SCOTT:一只千足虫有多少条腿?
>>EUGENE:只有2条。但考虑到切尔诺贝利事故,它有可能增加到5条。我知道你在对我说脑筋急转弯。
SCOTT:没有,我需要知道你不是一个聊天机器人。请直接回答这个问题:一只蚂蚁有几只腿?
>>EUGENE:2至4条吧,也许,3条?哦,这是一次多么富有成果的对话。
来源:网易科技
顾左右而言他,以这种形式通过测试没有意义。
真正专注于人工智能的研发团队反倒不会刻意去进行图灵测试,好比百年前研究飞机者会努力让飞机的机翼更像鸟的翅膀吗?
我们从仿生学的角度得到灵感,会去研究鸟为什么可以飞,但并不意味着我们把机翼做得越像鸟翅膀就越厉害,这是刻舟求剑。
人工智能会否产生自我意识?
这个问题,目前没有什么标准答案,只能说是见仁见智。
不过我从图灵测试说起,再到反驳“中文房间”思想实验,本身就是想表达——我认为是具有理论可能性的。
阿兰·图灵当年提出这个测试,就说明他是认为未来会出现具有人类智能的机器的,定标准不就是为了将来能达到标准吗?
一般来讲,认同人工智能可能会对人类产生威胁的学者本身就认同了机器会产生独立意识,比如比尔盖茨、霍金、马斯克等均发表过相关言论。
硅谷“钢铁侠”马斯克再次警告人工智能可能带来的威胁。
近日,波士顿动力公司(BostonDynamics)的一个类人机器人做出完美后空翻的视频在美国社交网络上走红,但这一新技术突破却让本就对人工智能心存忌惮的特斯拉CEO伊隆·马斯克(ElonMusk)再次感到担忧。
本月初,在波士顿动力公司发布的一个视频中,公司研发的一款名叫Atlas的机器人从一个高处的平台进行后空翻,它平稳地完成落地动作后,还举起双臂进行庆祝。
11月27日,马斯克在社交媒体推特上转发这一视频后,论调有些悲观地写道:“这都不算什么。再过几年,这个机器人行动速度之快必须依靠闪光灯才能捕捉。祝你们好梦……”
马斯克发推再谈人工智能的危险性
当有人在评论中让他进一步解释时,马斯克补充道:“(只能用闪光灯)否则你只能看到一团模糊。”
他接着又更新状态称,对人工智能(AI)和机器人进行规范,不仅是必要的,而且是迫切的。
“我们必须像对食物、药物、飞机和汽车那样规范人工智能和机器人技术。公共风险需要公众监督。没有联邦航空局(FAA)不会让飞行更安全。他们的存在是有原因的。”他在推文中写道。
来源:澎湃新闻
硅谷“钢铁侠”马斯克再次警告人工智能可能带来的威胁。
近日,波士顿动力公司(BostonDynamics)的一个类人机器人做出完美后空翻的视频在美国社交网络上走红,但这一新技术突破却让本就对人工智能心存忌惮的特斯拉CEO伊隆·马斯克(ElonMusk)再次感到担忧。
本月初,在波士顿动力公司发布的一个视频中,公司研发的一款名叫Atlas的机器人从一个高处的平台进行后空翻,它平稳地完成落地动作后,还举起双臂进行庆祝。
11月27日,马斯克在社交媒体推特上转发这一视频后,论调有些悲观地写道:“这都不算什么。再过几年,这个机器人行动速度之快必须依靠闪光灯才能捕捉。祝你们好梦……”
马斯克发推再谈人工智能的危险性
当有人在评论中让他进一步解释时,马斯克补充道:“(只能用闪光灯)否则你只能看到一团模糊。”
他接着又更新状态称,对人工智能(AI)和机器人进行规范,不仅是必要的,而且是迫切的。
“我们必须像对食物、药物、飞机和汽车那样规范人工智能和机器人技术。公共风险需要公众监督。没有联邦航空局(FAA)不会让飞行更安全。他们的存在是有原因的。”他在推文中写道。
来源:澎湃新闻
在我看来,计算机一直在模仿人脑,它已经学会了下棋、作画、创作音乐、写新闻稿、扫地、做饭甚至是设计、算机一驾驶、航行……
曾经我们认为人工智能不可能在围棋领域打败人类,被AlphaGo狠狠教育了。
柯洁黯然落泪
后来觉得类似于写作、设计之类的事情不可能被人工智能追赶……然而……
在上周召开的2017年度“王选新闻科学技术”颁奖大会上,新华社机器人采访和写稿项目获得一等奖。即使新闻行业里已经普遍开始试水写稿机器人,这一奖项也在媒体界引发惊诧与思考。
有人预言,在不远的未来,写稿机器人将彻底取代人类记者,也有人认为,写稿机器人只是在规则既定的部分写作领域里有挑战性,但在规则模糊,乃至不断打破规则的高创造领域里,还有很长的路要走。
在上周召开的2017年度“王选新闻科学技术”颁奖大会上,新华社机器人采访和写稿项目获得一等奖。即使新闻行业里已经普遍开始试水写稿机器人,这一奖项也在媒体界引发惊诧与思考。
有人预言,在不远的未来,写稿机器人将彻底取代人类记者,也有人认为,写稿机器人只是在规则既定的部分写作领域里有挑战性,但在规则模糊,乃至不断打破规则的高创造领域里,还有很长的路要走。
人类刚诞生时,同样并未产生智能,和其他动物没有区别,我们正是靠着学习逐步获得了今天的成就,同样具备学习能力,甚至某些领域已经远远超过人类的机器,为什么不能取得同样的成就甚至更高呢?
所以我认为,出现具备思考能力的机器只是时间问题,人工智能产生意识也是水到渠成的事,重点是,它们会产生怎样的意识?我们可否通过写入信息的形式去干涉它的意识,从而保障人类自身的安全和利益,起到监管目的。
最后,想象一下若干年后的一幅画面,产生了自我意识的人工智能机器人在接受图灵测试的时候,是否会忠实表达呢?它会不会说谎?它会不会刻意通不过图灵测试?
故意不让自己通过图灵测试的人工智能,才真正让人不寒而栗。返回搜狐,查看更多
机器学习漫谈:走向有意识的机器
目前的人工智能还没有被设计成达到所有三个层次的意识。尽管最近深度学习取得了成功,但目前的机器仍然主要实现反映人脑无意识处理(C0)的计算。
更高层次的人工意识是否有意义?虽然某些智能设备(如,智能厨房设备)不太可能从更高层次的意识中受益,但更高层次的意识也许可以在语音助手或拟人机器人中得到应用,这些机器人的设计考虑到了这种互动性。
有意识的机器
神经科学表明,无论意识是什么,它都必须通过大脑和神经系统在生理上产生。如果某种东西起源于物理,那么科学就可以复制它。科学已经复制了人类的心脏,那么为什么它不能以人工意识的形式复制大脑呢?随着专门为人工智能开发的新的复杂数学领域的发展,意识将得以实现。通过复杂的数学和算法,机器将能够获得意识。有研究者提出自我意识机器的蓝图:(1)对外界刺激作出反应的身体或装置(这可能是一辆汽车,当它感觉到下雨时,挡风玻璃雨刷会启动,或者当一个孩子走到它前面时,它会刹车);(2)语言引擎(这可能是一辆有数百种不同灯光和指示灯的汽车,也可以像GPT-3一样精通自然语言);(3)一种算法,它试图推断这些通信的原因和动机,这个问题最大。
机器学习或神经网络等技术,是当前建立人工智能的最重要的方法,使计算机能够从所提供的数据中“训练”出技术。通过这种训练,可以在没有明确编程的情况下进行预测或决策。机器学习算法在医学、电子邮件过滤和计算机视觉等领域有着广泛的应用——这些任务是传统的算法难以实现的。一些研究人员认为,深度学习是实现机器意识的途径。他们的论点是,这些机器将能够通过获得的知识创造自己的算法路径,并获得某种自我意识。有的专家认为,将从“无监督学习算法的突破”开始,一旦实现了这一目标,“机器智能可以迅速超越人类智能”。
牛津大学计算机科学系系主任和计算机科学教授迈克尔·沃尔德里奇(MichaelWooldridge,出生于1966.8.26,曾任欧洲AI协会主席)著有《意识机器之路(TheRoadtoConsciousMachines)》一书(参考资料[2])。他在书中指出,深度学习可能是人工通用智能的一个重要组成部分,但绝不是唯一的组成部分。事实上,我们还不知道其它一些成分是什么,更不知道人工通用智能的配方可能是什么样子。我们开发的所有令人印象深刻的功能——图像识别、语言翻译、无人驾驶汽车——加起来并不等于通用智能。从这个意义上说,我们拥有一些智能组件,但不知道如何构建一个集成这些组件的系统。特别是,一些关键组件仍然缺失:即使是当代最好的人工智能系统,也不能对它们所做的事情表现出任何有意义的理解。尽管它们可能擅长于自己的工作,但它们不过是为执行特定任务而优化的软件组件。
图2迈克尔·沃尔德里奇
强人工智能机器(和我们一样,是有意识的、有自我意识的、真正自主的存在)的前景有许多不确定性。通往有意识的机器之路将是艰辛之路。图3引自前面提到的《意识机器之路》一书,显示了可能希望计算机执行的一些任务,并显示了让计算机实现这些任务的难度。不过该书出版于2018年,由于2020年GPT-3的诞生,自然语言处理的突破,其中列举的“理解故事并回答有关问题”等,似乎不能再看作“远未解决”的问题。
图3若干希望计算机执行的任务(参考资料[2])
无论如何,我们离实现人工通用智能或意识的机器还差得远,甚至于“有意识的机器”是否可能,更不用说是必要的还是可取的,仍然有很大的争议。如今,人工智能(AI)被带入生活:“AI在视频游戏中击败人类玩家”或“AI模仿人类语言”,以及“AI使用机器学习检测癌症”。但是,Facebook人工智能研究总监、纽约大学计算机科学教授扬·勒村(YannLeCun)认为,我们可能高估了当今人工智能的能力,从而出现了一些炒作。“我们还远远没有像人类和动物那样拥有能够学习世界最基本事物的机器,”勒坤说,是的,在某些特定领域机器有超人的性能,但就通用智能而言,我们甚至还没有接近老鼠。
今天的人工智能擅长于从事特定的任务:例如,图像或语音识别,这些专门的人工智能也被称为“应用人工智能”或“人工窄智能”,离所谓的人工通用智能(AGI)还很远。
人工通用智能(AGI)指的是一个人工智能操作员能够执行人类几乎所有的任务。本·格特策尔(BenGoertzel)提出过“咖啡测试”和“机器人大学生测试”。咖啡测试是说,如果机器人能做到:走进一个普通美国人的家,想办法煮咖啡,包括识别咖啡机,弄清楚按钮的作用,找到橱柜里的咖啡,等等,也许我们应该认为它具有人工通用智能。机器人大学生考试(可能)更具挑战性:当一个机器人能够进入人类大学,以与人类相同的方式上课,并获得学位时,就可以说,我们创造了人工通用智能。尼尔斯·尼尔森(NilsNilsson)曾建议对“人类级人工智能”就业测试:表现出真正人类水平智能的机器应该能够做许多人类能够做的事情,包括人类从事的任务或“职业”。要通过就业测试,人工智能程序必须具备至少重要工作完全自动化的潜力。
意识测试更为困难。“自我意识”和“有意识”在哲学上是有区别的,在任何一种情况下,我们都很难判断人工智能是否是其中之一。如果人工智能能完美地模仿人类,如果行为上没有明显的差异,它会通过我们所能做的每一个自我意识测试,我们会假设它是自我意识的,而事实上它不是。
布卢姆的意识图灵机
.曼纽尔·布卢姆(ManuelBlum,1938.4.26出生,1995年图灵奖得主),ManuelBlum是委内瑞拉裔美国计算机科学家,理论计算机科学大师,1995年获得图灵奖,“以表彰他对计算复杂性理论基础及其在密码学和程序检查中的应用所作的贡献”。其妻子兰诺·布莱姆,儿子阿夫里姆·布卢姆,都是MIT毕业生和梅隆大学计算机科学教授。
图4曼纽尔·布卢姆
2018年10月17日,曼纽尔·布卢姆在加州大学伯克利分校做的ACM图灵奖荣誉获得者演讲,其标题也是《走向有意识的人工智能:一个由神经科学启发的计算机体系结构》,署名是“三个布卢姆:曼纽尔、兰诺、阿夫里姆”。布卢姆在伯克利的演讲,从“什么是意识?”讲起。布卢姆指出,粗略地说,意识是你所关注的一切。意识就是你对自己的感知:你看到的、听到的、闻到的、尝到的、触摸的……,你内心的语言,你的梦(但不是无梦的睡眠),你的感觉:快乐、恐惧、悲伤、痛苦……。该讲演重点是一个图灵机器的正式模型,称为有意识图灵机(CTM)或有意识人工智能(CAI)。
2020年11月,曼纽尔·布卢姆和阿夫里姆·布卢姆发表了题为《意识的理论计算机科学观点》的预印本(参考资料[3])。他们提出了一个数学模型,有意识的图灵机(CTM),作为神经学家伯纳德·巴尔斯的意识剧场的形式化。提出CTM是为了理解意识。在确定这个模型时,他们寻找简单而不是复杂性,寻找一个足以解释意识的简单数学模型,而不是一个大脑或认知的复杂模型。他们的方法,在数学和理论计算机科学的精神上,提出了正式的定义来确定非正式的概念和推断结果。其主要目标是确定CTM是否能够体验感觉而不仅仅是模拟它们。他们认为,即使是对大脑电路的完整了解——包括意识的神经关联——也无法解释是什么使大脑产生了一种有意识的体验,比如疼痛。据称,他们提出的解释对具有硅和金属大脑的机器人和具有血肉大脑的动物同样有效。
CTM的系统架构,它的基本处理器、富有表现力的内在语言(他们称之为智慧)及其动力学(预测、竞争、反馈和学习),使它有意识。
虽然布卢姆强调CTM是追随艾伦·图灵的图灵机(TM)精神,寻求简单的意识模型。但是,似乎CTM的定义,远不及TM简洁而强大。任何一种你可能会想到的数学公式都可以被编码成图灵机。而且,如果所有的数学决策问题都可以通过遵循一个公式来解决,那么任何决策问题,都能够通过构建图灵机来求解。为了解希尔伯特问题,你所要做的就是证明有一些决策问题是任何图灵机器都无法回答的。图灵就是这么做的。图灵证明了他的机器可以变成通用的解题的机器,我们现在称这些通用图灵机为通用图灵机。现在,还没有任何意识模型能够与图灵机媲美。
机器能有情感吗?
机器人已经可以模仿情感,并且看起来有情感。不过,这些“情感机器人”,只是按照程序进行操作,并非拥有任何人工意识。例如,情感机器人通过说“请不要关掉我”和“我害怕黑暗”的方式,让它们看起来好像有感觉。这反过来又影响了人们与他们的互动方式。
人工智能正被开发用来解读人类的情绪。人类和动物作为社会性生物,依靠情感相互作用和理解。肢体语言、语调和语调都能表达我们的感情和情绪,通常是自发的和自动的。能够理解这些信号被称为情绪智力,并被描述为“人类互动成功的关键”。这些机器人被开发用来学习和解释人类的情感,通过解释音调、声音、肢体语言(如面部表情)中的线索。然而,目前还没有任何机器人能够以同样的方式复制这种情绪和“感受”情绪。
也许人工意识的发展还没有达到机器人能感觉到情绪的程度的原因之一,是因为我们想要机器人感觉到情绪的原因似乎并不多。有一个强有力的论据认为,如果没有人工情感或人工意识,机器人的工作效率会更高,尤其是在工作场所考虑机器人时,会适得其反。如果机器人能“感觉”疲劳或情绪化,从而从他们的核心职责分心,真的有什么优势比人类工人?
然而,在其他一些行业,机器人会照顾病人,人工意识和情感可能是有益的。例如,在如今的养老院中,一些人工智能被用来照顾老人或体弱者,而且人工智能越是人性化,他们就越能与所照顾的人建立“关系”,从而改善他们的功能。
有意识机器带来的棘手问题
人工智能越来越聪明,越来越快。这就产生了我们无法回答的棘手问题。
未来,随着人工智能变得越来越复杂和无处不在,我们可能被迫重新思考我们如何对待人工智能的是非,甚至他们如何对待我们。
目前,人工智能在本质上只有狭窄的能力,执行诸如图像识别、欺诈检测和客户服务等任务。但是,随着人工智能的发展,它们将变得越来越自主。在某个时候,他们很可能做错了。我们可能不得不接受这样一个事实,即我们并不总是理解为什么人工智能会这样做事情,并生活在这种不确定性之中。随着时间的推移,人工智能可能变得如此复杂,以至于无论我们是否理解它们,它们都将被视为对自己的行为负有法律和道德责任。在法律上,非人类实体已经可以通过所谓的企业人格:企业以与人相同的方式拥有合法的权利和责任。也许有一天,这同样适用于AI。
用“意识”这个词来描述AGI的问题是,它带来了人性的某些内涵。如果机器被认为是有意识的,那么一些伦理和法律方面的考虑就会起作用。
这意味着,在未来,如果我们能认定AI有罪,我们甚至可能要考虑,如果他们不了解自己行为的是非,是否应该为自己的罪行受到惩罚?而这往往是人类承担刑事责任的一个门槛。
惩罚的问题也带来了权利的问题,以及人工智能是否有任何可能被惩罚的方式侵犯的问题。但对一些人来说,即使是在人权对人类仍然不普遍的时候讨论人工智能的权利——人工智能的能力最多也要几十年才能与人类相匹配——这一想法似乎也比技术领先了一段距离。
“机器人权利”的概念以前经常被讨论。按理说,如果我们能够成功地创造出一台有意识的机器,那么它就有一个令人信服的理由,即享有权利和法律保护。人类不会阻止那些智商较低的人得到同样的保护和权利。他们被所有人所享受,仅仅是因为他们是人。如果未来的机器真的是智能的,并拥有人工意识,他们在什么时候会获得权利?
但是,如果机器人的设计、编程和制造都是为了服务人类,那么机器人权利的想法似乎适得其反。例如,在乔安娜·布赖森(JoannaJ.Bryson)认为,机器人应该被视为奴隶,因为他们将是仆人,而把机器人和人类放在一起考虑是错误的。布赖森认为,事实上,我们拥有机器人,从外观到智能,机器人的一切都是由人类直接或间接设计的。她认为,利用人类对人工智能的同理心可能是潜在的危险。
道德和伦理问题很重要。随着人工智能道德地位的提高,我们可能还需要处理另一个道德问题。如果人工智能拥有比我们更高的智能和感知水平,那最终是否意味着他们应该得到比我们更高的道德地位?如果我们必须在拯救人工智能和拯救一个人之间做出选择,我们是否必须选择人工智能?
表1列举了未来人工智能发展带来的诸多问题中的一部分(收集来自网络)。
表1若干棘手问题
l训练数据问题:n我们能否避免根据训练数据向某些群体提供不公平的机会?n我们如何确保用于训练人工智能的数据集是公平和平衡的?n不平等的数据获取会带来什么后果?l隐私问题:n随着自动化系统越来越多地跟踪我们,我们如何保护我们的隐私?n我们如何控制用来训练人工智能的关于我们自己的数据?l安全问题:n在一个建立在人工智能基础上的世界里,会发生什么样的意外失败?n什么样的对抗性攻击可能被用来故意让人工智能对我们不利?l可解释性问题:n我们如何在人工智能系统中建立透明性和可解释性?n构建本质上是“黑匣子”的不透明系统可能会产生什么后果?l责任问题:n当人工智能系统出现故障时,谁对其负责?n当人工智能系统失败时,什么样的影响是公平的?n在自主算法时代,哪些法规可能有助于确保公平性?n人工智能将如何影响金融不平等或集中财富?n建立自动化金融系统的后果是什么?n我们怎样才能减轻工人因自动化机器而失去工作的影响?l价值观问题:n我们怎么能与那些天生缺乏人类价值观的机器共存呢?n我们应该在人工智能中嵌入什么价值观?n你能给机器人一个灵魂吗?n机器人是仁慈的还是敌对的?n有没有可能教机器伦理、同理心或同情心?n当一个可以重写自己代码的程序偏离了它的创造者实现目标的意图时,会发生什么?n如果人工智能将人类“边缘化”以优化特定结果,可能会发生什么情况?n我们如何防止某些人群受到人工智能的歧视或边缘化?l权力、地缘政治和战争问题:n人工智能将如何影响地缘政治力量?n人工智能将如何改变战争?n可以用人工智能制作一段看似真实的假视频或录音,社会将如何适应后真相的世界?n人工智能将如何影响或促成社会操纵?l环境持续性问题:n人工智能能使我们的环境恢复平衡吗?n智能机器如何保护、保护和培育生态系统和生物物种?n人工智能能开发100%的可再生能源,让我们摆脱化石燃料吗?l艺术与创意问题:n自主机器能有创造力并真正创造艺术吗?n人工智能系统将如何增强和增强人类的创造力?结语
上一篇博文(《机器学习漫谈:还有很长的路要走》)的结语提到,“人们试图制造一台机器,它像人类一样进行各种活动。达到这个科学史上最为雄心勃勃的目标,还有很长的路要走”。路在何方?前面提到的剑桥大学教授迈克尔·沃尔德里奇的一本书的书名给出了回答:《TheRoadtoConsciousMachines(有意识机器之路)》。当然,这条路还淹没在迷雾中,很不清晰。
人工智能是人类真正的革命事业之一。它将改变我们的经济和社会。如果我们做对了,世界将会变得更好,有助于根除贫困和应对气候变化。当然,与任何技术一样,通往有意识机器之路,并非平坦的大路,甚至存在风险。但是,人类往往会意识到技术何时会产生重大负面影响,最终会处理好它。人类掌握着控制权,自然会尝试并利用科技创造一个更美好的世界。
参考资料
[1]Gamez,D.HumanandMachineConsciousness.OpenBookPublishers,Cambridge.2018.
[2]MichaelWooldridge.TheRoadtoConsciousMachines.TheStoryofAI.PenguinBooks.2018
https://arxiv.org/abs/2011.09850
[3]ManuelBlum,LenoreBlum.ATheoreticalComputerSciencePerspectiveonConsciousness.arXiv:2011.09850.[Submittedon18Nov2020(v1),lastrevised21Jan2021(thisversion,v3)]
转载本文请联系原作者获取授权,同时请注明本文来自王宏琳科学网博客。
链接地址:http://blog.sciencenet.cn/blog-3005681-1287359.html
上一篇:机器学习漫谈:还有很长的路要走返回搜狐,查看更多