人工智能可能永远都不会有自我意识,“中文屋实验”可以证明这一点
自脑极体建立以来,我们一直努力避开人工智能领域中比较“玄虚”的部分,尽量让每一篇文字都足够实际、落地、可读,但是偶尔换换口味也未尝不可对不对?
今天我们就来聊一个比较“玄”的话题:拥有自我意识和情感的超级人工智能到底会不会出现?说实话,这个话题都烂大街了。科学家、科技大佬、各国政要们争的头破血流,我们也不可能知道答案。
但我们想说的,是什么事都要讲基本…不对,是什么事都要讲逻辑。有没有一些理论或者猜想可以触达AI觉醒这个话题呢?让我们不要只能云里雾里或者一腔热血的想象未来?
巧合的是,确实有一些这样的理论,比如说著名的“中文房间悖论”。这个情景猜想在大部分情况下都被用来否定“图灵测试”。但它更深层的本意,其实是在阐释人工智能永远不可能像人类那样拥有自我意识。
什么是“中文屋实验”?所谓的中文屋实验,是由美国哲学家约翰·希尔勒(JohnSearle)在1980年发表论文提出的一个思维试验。
(这里我们插句题外话,今年3月,84岁的约翰·希尔勒被爆出性侵华裔女助理事件。其本人目前已被加州大学停课,案件还在司法处理当中。虽然本文基于约翰·希尔勒提出的理论猜想,但在这里还是要对此人表示发自肺腑的鄙视与厌恶)。
这个思维实验是说,如果把一位只会说英语的人关在一个封闭的房间里,他只能靠墙上的一个小洞传递纸条来与外界交流,而外面传进来的纸条全部由中文写成。
这个人带着一本写有中文翻译程序的书,房间里还有足够的稿纸、铅笔和橱柜。那么利用中文翻译程序,这个人就可以把传进来的文字翻译成英文,再利用程序把自己的回复翻译成中文传出去。在这样的情景里,外面的人会认为屋里的人完全通晓中文,但事实上这个人只会操作翻译工具,对中文一窍不通。
当然了,这是个思维实验,具体操作起来近乎不可能。但这个实验里蕴含的思想却在表达这样一个可能:机器所表现出的智能(理解中文),很可能只是翻译程序带来的假象,其实它对真正的人类智能一无所知。
这个实验本来是为了反驳图灵测试的,认为即使通过了图灵测试,机器也不见得有了智能。但或多或少有点牵强,始终也没有把图灵测试彻底反驳掉。但“中文屋悖论”却可能在技术发展之路上告诉了我们另一件事:我们所有的技术探索与研究,可能都是在完善那个中英文翻译程序,从来不是去教机器真的智能。
通用人工智能和强人工智能的界限这里要来认识两个大家经常听到,但有可能混淆的概念——通用人工智能与强人工智能。
所谓通用人工智能(ArtificialGeneralIntelligence,AGI),是指在不特别编码知识与应用区域的情况下,应对多种甚至泛化问题的人工智能技术。这个技术虽然冷门并遥远,但其实也有不少学术机构与企业在做,一般被认为是人工智能技术的未来发展方向。
而强人工智能(StrongArtificialIntelligence)则是约翰·希尔勒在提出“中文屋实验”时设定的人工智能级别。这个等级的人工智能,不仅要具备人类的某些能力,还要有知觉、有自我意识,可以独立思考并解决问题。
虽然两个概念似乎都对应着人工智能解决问题的能力,但我们可以把前者想象为无所不能的计算机,后者则类似穿着钢铁侠战甲的人类。
“中文屋悖论”表达的思想,是人类研究的方向根本无法逼近强人工智能。即使能够满足人类各种需求的通用人工智能,也与自我意识觉醒的强人工智能之间不存在递进关系。
现实中的技术发展好像也确实是这样的。
在通用人工智能领域,人类已经提出了一些设想与架构模型。其中最著名的应该是澳大利亚国立大学学者马库斯赫特(MarcusHutter)在2000年提出的AIXI。这个计算模型据说可以涵盖各种算法与技术,逼近通用人工智能的本质……当然,这个算法的复杂程度奇高,根本无法执行,所以仅仅是个设想。
而OpenAI和DeepMind这样的企业在近两年则都开始了具体层面的AGI研究,其中DeepMind被认为是继承AIXI的先锋军。
从DeepMind进行的通用人工智能性质的研发与实验中,我们可以看到其“通用性”主要集中在四个层面:1智能体应对复杂环境、2陌生环境处理、3时间变量应对、4多个信息源同时处理任务。
而这些技术都指向同一个方向,就是智能体与外界的交互——也许可以理解为AI与这个世界的翻译程序吧?
换言之,人类所做的仅仅是给“那个人”更好的翻译程序,而非教他中文(当然也没法教)。所以通用智能这种已经很玄的东西,依旧与强人工智能保持着清晰的界限。
绝望的强AI:能力和意识,也许南辕北辙让我们把“中文屋实验”极限化一点,把整个房间放在一个人的大脑里。
假如一个人记住了所有翻译程序,看到任何中文他都能调用回忆,能写出相应的回答,那么他是不是就懂中文了呢?对于人类来说,可能他自然而然的就已经理解中文了。但对机器来说,即使这个过程速度再快、反应再灵敏,他也依旧没有理解任何一个汉字。
确切的说,是这个人(智能体),获得的是使用中文的能力,但他对中文没有意识。
能力与意识的区别,是我们在想象未来超级智能时最容易混淆的问题。但从现实的逻辑推理,就会发现这二者差别很大,而且近乎没有关联。
知识表示、机器学习、NLP等等人工智能技术,都是在不断强化人工智能模仿人类能力的能力(这句话有点绕),但让人工智能具备模仿人类意识的能力,直到现在依旧是一片空白。
没有因,自然无果。“中文房间”理论讲述的,就是按照人类遵循的技术轨迹,智能体崛起意识这个命题将永远缺乏基础条件。
如果这个结论成立,那么对于强人工智能来说可谓是非常绝望的。他们只能继续在时空的长河里沉睡在人类的幻想中,一如远古的神祇,一如都市传说里的鬼怪。
想一想,还是觉得蛮无趣的咧。
电影《失控玩家》:人工智能的自我觉醒,程序员的代码情书
起点上有个网文叫《修真四万年》,里面有个叫做“圣约同盟”的国家,其幕后操纵者是弱人工智能“伏羲”,伏羲为了模拟人类文明的各种可能性,构建出了许多虚拟世界。主人公李耀发现,这些生活在虚拟世界里的人类,并不知道自己只是由无数个0和1构建出来的数据链,就像现实中的人类一样,虚拟人类也探索着未知的宇宙,还试图突破多元宇宙。
笔者在观看《失控玩家》(FreeGuy)时,首先联想到的便是这部号称致敬《三体》的网络小说,而不是片方宣传的“沙雕版《楚门的世界》”。
《失控玩家》中国内地版海报
《失控玩家》的故事并不复杂,其内核仍然是套路般的终极三问:我是谁?我从哪里来?要到哪里去?在一个电子游戏里,一个NPC(非玩家角色,Non-PlayerCharacter)自我意识觉醒,有如开了外挂版火箭式升级,并最终揭露游戏厂商老板的阴谋。
当一个NPC戴上眼镜,它就成了玩家
《失控玩家》就像是电影《头号玩家》(ReadyPlayerOne)另类复述,用电子游戏里常见的形式来解释的话就是:打通关《头号玩家》之后,《失控玩家》便是隐藏关卡,可以让玩家用NPC视角再打一遍游戏。原因就在于两部电影的编剧均为扎克·佩恩。
瑞安·雷诺兹饰演盖
一部好电影,完全可以忽略其内容的套路,一道老菜只要能烧出新花样来,依旧能宾客盈门。据说玛丽亚·凯莉已经跑到影院观看《失控玩家》七八遍了,在笔者看来,这里面的原因自然不是因为片尾采用了她的歌曲,而是该片的确有让“牛姐”芳心大动的原因——男主角盖的饰演者瑞安·雷诺兹依旧贱兮兮的表演为这部电影加分不少,同时,《失控玩家》那种中二热血宅的气质,也是目前电影市场里的稀缺产品。
《失控玩家》剧照
早在2016年,仍处于早期阶段的《失控玩家》项目,其剧本已在好莱坞评为“最受欢迎剧本”(thebestwritingandthebestwayintotheindustry)。当时业内就有人发现,该片在某种程度上复刻了1982年上映的电影《电子世界争霸战》(TRON)。
《电子世界争霸战》海报
《电子世界争霸战》讲述的是天才程序员,他曾经开发的游戏软件被前同事盗取,为了证实那是自己的作品,他试图进入前同事公司的主控程序MCP,却被吸入钳制MCP的程序TRON的空间中。
朱迪·科默(左)饰演米莉,乔·基瑞饰演“键盘”
而《失控玩家》视角变化为,一对昔日情侣当年开发的游戏软件被硅谷巨擘掳走,男程序员“键盘”委身硅谷新贵,而女程序员米莉则通过黑客手段用假账号玩游戏,试图寻找游戏中的底层数据,在寻找过程中,与自我意识觉醒的NPC联手,最终真相大白。
正如《头号玩家》里出现了高达、哥斯拉等一众经典动漫形象,《失控玩家》里也在情节最高潮处,出现了美国队长的盾牌、绿巨人的拳头、天行者的光剑,笔者第一次觉得二十世纪福斯这家老牌电影公司卖给迪士尼,也不全是坏事,要是两家仍然是竞争关系的话,这样的画面永远都不会出现在银幕上的。
瑞安·雷诺兹与克里斯·埃文斯在《失控玩家》片场
片中还出现了“美队”饰演者克里斯·埃文斯的身影,当时美队正在隔壁摄影棚拍《捍卫雅各布》,克里斯当时说自己很愿意客串角色,不过自己只有10分钟时间,《失控玩家》导演估计也就是想让美队露个脸,只用了7分钟时间就搞定了拍摄。片中还有许多人以自身形象或声音客串,比如查宁·塔图姆、休·杰克曼、巨石强森等,他们构成了本片一个独一无二的明星彩蛋群。
《失控玩家》漫画版海报可谓是彩蛋大合集
而片中另外一个彩蛋群则与经典电玩有关,《模拟城市》《荒野大镖客2》《堡垒之夜》《绝地求生》相当于是移植到了电影里,而《洛克人》的光束炮、《半条命2》的重力枪,以及来自《传送门》的传送枪,都可以让游戏深度玩家们兴奋不已。
《失控玩家》与其说是一部科幻片,不如说一部爱情片,它是“程序猿”所能呈现的极致浪漫——让游戏里的NPC只喜欢自己女朋友喜欢的冰淇淋口味,只能喝到自己女朋友喜欢的咖啡口味——少年人,看完电影,快去学写代码吧,否则未来你连这么高级的情书都不会写。