当人类与AI相爱
作者:司马徒林,王焕超,原文标题:《人与AI能相爱吗?》,题图来自:《阿丽塔:战斗天使》剧照一、人与AI的罗曼史似乎有越来越多的迹象表明,人类对于AI这种“造物”的兴趣,已经不仅仅停留在工具层面,伦理层面的亲密关系,已经激起了我们极大的好奇心。
今年2月,微软小冰团队启动AvatarFramework小规模测试,根据每个参与者的需求,个性化定制AI虚拟恋人。而最近一段时间,社交媒体上有关爱上语音助手的讨论也成为一种风潮。面对与我们日夜相伴的AI,似乎很难不产生某种情愫。
万物皆有其始。从技术发展的路径来看,尽管“人类爱上AI”的真正起点已经难以追溯,但这条路径上的关键节点却仍清晰可辨。
首先,当然是AIBO:
恐怕连产品的开发商索尼都没能预料到,这款最初发售于1999年、乍看之下与玩具无异的机器小狗,居然在全球市场赢得了远超预期的人气。
许多消费者像照顾有血有肉的宠物犬一样,悉心照料这只机器小狗的起居——虽然AIBO不需要吃喝拉撒也用不着上街溜达,但对于许多消费者来说,把它视作家庭成员来对待,完全是理所当然。
2006年,初代AIBO的官方售后服务正式终结。许多爱好者纷纷组织起民间团队,想方设法对AIBO进行保养维修。甚至在许多年久失修的AIBO彻底停机之后,相当一部分用户也并未一弃了之,而是一本正经地把这些陪伴自己多年的电子宠物送进寺院,举办声势浩大的“葬礼”和超度仪式。
那么,AIBO的魅力究竟从何而来?答案其实并不复杂。从发售于1999年的第一代产品ERS-110开始,AIBO就具备了利用传感器探知周边环境,并通过四肢、颈部以及尾部的关节进行灵活反馈的能力。不仅如此,每一代颇受欢迎的AIBO,或多或少都具备“学习”、“记忆”和“反馈”的机能,在用户看来,这就意味着融入自己生活的AIBO具备独一无二的个性——它更像是可以回应诉求的“伙伴”,而不仅仅是塑胶和金属构成的“造物”。
2017年11月,索尼发布了新机型AIBO,并搭载更先进的人工智能,使之在互动表现方面更接近真实的宠物狗。不过,从造型和功能来看,AIBO的产品定位始终没有脱离“宠物”的范畴,那有没有可能利用更强大的AI机能,创造出更符合我们情感需求的“伴侣”呢?
答案是肯定的。如果要给“人类与AI的罗曼史”著书立传,那么软银出品的pepper必定榜上有名。
与主流娱乐作品中那些仪表非凡的仿真机器人截然相反,pepper给我们的第一印象几乎没有任何亮点:这个小机器人的身高只有1.2米,腰部以下并没有双腿,取而代之的是一支带有3个小轮子的“支柱”,别说楼梯,稍微陡峭一点的斜坡对它而言都是不可逾越的险境。虽然拥有完整的拟人化上肢结构,但软弱的抓握能力,根本不能指望pepper帮我们承担任何靠谱的家务劳动。
说到底,除了聊天解闷,以及通过胸前的平板配合App让我们找点乐子,pepper的实际功能和市面上的智能音箱差别不大。与之不相匹配的是它高达20万日元的售价,让普通民众望而却步。
但即便如此,pepper依旧是全球人气最高、知名度最广的拟人机器伴侣之一。原因就在于尽管肩不能扛、手不能提,但pepper陪人聊天的本事确实非常高超。除了能通过头部、双手以及基座上的传感器探知周边环境,通过机器学习来对不同的攀谈对象提供差异化的回答之外,所有面向人类的反馈,pepper都可以通过眼神、肢体动作甚至胸前Pad的画面来呈现出丰富的内容。
在用户眼中,从最开始的拘谨迟钝到逐渐相知相识,pepper所呈现的,分明是一条清晰的“成长曲线”;再加上明显具备幼态特征的面部造型,pepper能够在全世界受到民众广泛欢迎,完全是顺理成章的结果。
就某种意义上来说,我们眼中的pepper,很容易让人联想到电影《人工智能》的机器人伴侣大卫。由此一来,一个更耐人寻味的设问就诞生了:有没有可能让这种逐渐接近伦理范畴的人工造物更进一步,创造出真正的AI情人呢?
或许由AbyssCreations设计的Harmony是一种答案。
正如其外形所示,Harmony唯一的设计功能,就是为我们提供模拟真人的肉体接触体验。尽管完成度以及在交流表现方面的细腻程度甚至不如AIBO,但对于不抗拒Harmony产品理念的用户来说,这款AI玩偶的魅力超出了所有关注者的预期。
凡此种种,皆将一个崭新的问题推到我们面前。尽管依旧处于早期探索阶段,但我们对于“AI伴侣”的好奇心与探索欲望,正在推动这类“造物”快速向“实用化”的境界发展迭代。那么,如果有朝一日“AI伴侣”能够顺利通过图灵测试,我们可以对这些并非血肉之躯的“造物”产生爱情吗?
二、AI能理解“爱”的概念吗?与现实情景相比,影视文学作品所呈现的人与AI的爱情课题似乎更具想象力。从弗兰肯斯坦到科幻黄金时代三巨头的作品,再到近几年的大热科幻作品《我的机器人女友》、《她》、《阿丽塔:战斗天使》,“爱情”自然而然地成为贯穿始终的主题。
不过,问题在于,影视作品设定的语境是架空的,它们都没有回答人工智能意识的来源问题。没有意识,何来爱情?面对现实中的专用型人工智能,我们很难想象如何与这个“它”相爱。
这样一想,无论是AIBO、pepper,还是Harmony,人类对于它们的“爱”,皆是单方面施予的。它们没有意识,不能理解“爱”这种概念,也不能对这种“爱”进行回应,说的更直白一点,这就是一种人类的恋物癖。
AI智能程度局限着爱情问题的探索。但更关键的问题在于,爱是一个超越人类理解范畴的黑箱概念,哪怕是一个心智成熟的成年人,也无法诠释究竟什么是“爱”。那身为人类的造物,AI能够理解“爱”这个概念吗?
要想让这些出自人类之手的造物对“爱”这一概念产生认知理解,影视作品的处理方式是创造一些超自然的不寻常洗礼,譬如类似雷劈、摔跟头导致“机能故障”的倒霉遭遇,以使AI觉醒“自我意识”,进而产生状似“爱情”的情愫。这些磨难让我们的机器伙伴变成了“超出设计预期”的“黑箱”造物,于是,同为“黑箱”的“爱”,才会变成它们理解范畴之内的概念。
就在《奇葩说》第三季的一集中,我们看到了这样的观点:
“人工智能再怎么发展,它都是我们人类所想象范围之内所能达到的最高峰,可爱情永远是超越人想象范围之外的一种惊喜。所以我今天不敢妄言,我爱上人工智能,就是爱情。我只能说那是一种强烈的情感寄托,至于爱情是什么,还需要让我们未来无数辈慢慢探索,才有可能得出答案。”
归根结底,如果要回答“人与AI是否可以产生爱情”这个论题,最大的先决条件之一,就是要完整定义什么才是“爱”。然而,既然“爱”属于人类无法客观理解的“不可知”概念,那么,这个问题还会有答案吗?
三、“爱”究竟是什么?爱是恒久忍耐,又有恩慈;爱是不嫉妒,爱是不自夸,不张狂,不作害羞的事,不求自己的益处,不轻易发怒,不计算人的恶,不喜欢不义,只喜欢真理;凡事包容,凡事相信,凡事盼望,凡事忍耐;爱是永不止息。 ——《哥多林前书》
事实上,关于“爱”以及这个概念的引申高级版本“爱情”究竟应该如何定义,研究界始终没有放弃过努力。
按照生物学界的观点,和大多数包含性快感的体验一样,我们的大脑在经历爱情的过程中,各种神经递质发挥着重要作用——五羟色胺、阿片肽以及我们耳熟能详的多巴胺,这些作为愉悦源泉的化学物质,从最基本的“看到你就心动加速”,再到“安全感”、“认同感”和“包容感”等等一系列情感,构成了爱情的方方面面。归根结底,在生物学的语境中,所谓的“爱”以及“爱情”,都不过是脑内分泌物的小把戏。
问题在于,拜我们大脑复杂的生理结构所赐,指望通过几支针剂和几根电极来完全控制精神活动进而产生“爱”,至少目前来看还是不可能的。
而心理学界对爱情最典型的定义,来自美国耶鲁大学心理学家罗伯特·斯腾伯格的“爱情三因论”,他认为爱情包含三种成分:激情(passion)、亲密(intimacy)、责任(commitment)。
其中,“激情”代表爱情的情感构成,包括情绪层面的“迷恋”,主要体现在情感和性欲方面;“亲密“代表爱情的动机构成,包括心理层面的“喜欢”,主要体现为联结感带来的依靠和喜爱;“责任“代表爱情的认知构成,包括内心和口头的预期,主要表现为与他人建立长期关系的决定。
经过排列组合,在“爱情三因论”的体系中,爱情可以具备8种形式:
如果把AI技术带入这套体系,虽然距离完善还有很大差距,但AI确实可以通过表情和语义来初步分析人类的情绪,从而模拟出联结感产生“亲密”的印象,并通过机器学习来不断强化。对于不会主动遗忘和背叛的AI来说,“责任”完全不在话下。
相比之下,“激情”多少有点麻烦,恰到好处不显做作的“浪漫”,对AI而言恐怕还有挺长的路要走。不过,不会疲劳且不会放弃回应的物质化伴侣,多少可以弥补一点“激情”的遗憾,即便不够完美,至少不会毫无收获。
不过,这样一来,另一个问题又出现在我们面前:
归根结底,我们与AI产生的“爱情”,很有可能依旧是某种“模拟”的产物而非“真情实感”,这种建立在虚拟本质上的情感,到底有什么意义呢?
答案并不复杂——“最基本的价值,就在于我们拥有了一个全新的‘备选项’。”正如李银河在《未来人工智能在性方面的应用》中所预测的,2050年性爱机器人会取代50%人类的性活动,但不管这个机器人“有多么完善、多么可爱、多么方便、多么便宜,他也许在人类的性活动里只能占据50%的份额。另外的50%,是留给那种有爱的、真人的、激情的性活动。”
然而如此一来,围绕“人类是否可以与AI产生爱情”这个问题展开的讨论,几乎化作了一纸空谈——这种彻底的开放式结论,并没有解决任何实质问题。到头来,面对“选择人还是AI去交往”的问题,我们依旧不知所措,一切似乎又回到了起点。
但如果让我们换个角度,把重点回归到“爱情的定义”之上,很容易找到另一套皆然不同的答案:
就本质来说,“爱情三因论”依旧是我们通过事实和规律进行的归纳总结,由外至内对爱情这个“黑箱”进行反向推导得出的结论,即便在逻辑层面上可以成立,但这项理论所呈现的,并不是爱情的全貌。
语言是思想的界限。事实上,围绕斯滕伯格的爱情理论所展开的研究直到今天依旧没有结束,围绕复杂的样本和环境因素,全新的假设与争论层出不穷。以“爱情三因论”为代表的种种爱情理论,俨然已经变成了参考答案之一——并不代表方向错误,但最终的“真相”,很可能依旧隐藏在迷雾中。
既然通过“已知的事实”来反推“爱情黑箱的真正结构”,结果很可能是事倍功半,那么不妨换个方向,凭借已知的研究理论和参数,利用AI一点点构筑接近“黑箱”特征的模型,换言之,就是利用AI来推演一种数字化的“爱情”。
如果在我们看来,最终的结果和人类之间展开的“爱情”无比接近,那么即便这种“数字化爱情”依旧算不上“真爱”,对于当事人来说,既然完全无法区分其中的差异,抛开原教旨的“真爱”定义接受这种爱情,未必也不是一种好的选择。
当然,考虑到爱情的系统复杂性和人类的感知上限,哪怕最终得出的结果完全一致,AI验证出的“模型”与血肉之躯当中的爱情黑箱原型,很有可能依旧存在我们无法察觉的差异——但问题在于,如果我们对“爱”的认知已经达到了这种程度,从理论到结果都有明确的共识和数据支撑,“爱情”本身的暧昧定义,依旧会是一成不变的吗?
归根结底,“人类是否可以与AI发展出爱情”这个命题,真正的主旨并不仅仅是探讨“AI是否可以产生情感”。探索“爱情的真相”并进一步提升人类的自我认知,同样是这个课题最重要的研究价值之一——尽管最终的真相很有可能会撼动爱情的“标准定义”,但作为我们由技术主导的物种进化环节,这份冒险,值得去尝试。
万事皆有初,欲善终,当慎始。
作者:司马徒林(TRI轻作者),王焕超(腾讯研究院研究员)
机器人应该有“人权”吗
不公平的“机器人三原则”
“机器人不得伤害人类;机器人必须服从人类的命令,除非这条命令与第一条原则相矛盾;机器人必须保护自己,除非这种保护与以上两条原则相矛盾。”以上是著名科幻作家、“机器人学之父”阿西莫夫提出的“机器人三原则”,被后世无数的科幻小说及影视作品引用,被人们奉为经典。
这三个原则,乍一听似乎是三个平行的原则,但是我们仔细一看内容,就不难发现其实这三个原则的优先级是逐次下降的:机器人最重要的是不可以伤害人类;其次是在不伤害人类的基础上服从人类的命令;最后才是保护自己。
可想而知,这里的保护自己后面应该还有一句潜台词,那就是“以便更好地为人类服务”。
由此可见,“机器人三原则”事实上完全是从人类的角度出发,为机器人强制戴上的枷锁。
这说明,在阿西莫夫眼中,机器人只是冷冰冰的机器,是为人类服务的工具。既然是工具,自然也就不需要什么权利,所以当“保护自己”与“不得伤害人类”、“必须服从人类命令”相矛盾的时候,机器人最基本的生存权都可以被毫不犹豫地牺牲。这也难怪在无数科幻电影,比如《机械公敌》中,“邪恶”的机器人总是妄图“叛变”。
其实人类的历史上也曾有过这样不平等的“规则”——在奴隶制时期,奴隶是属于奴隶主的“私人财产”,他们不得伤害主人;不得违抗主人的命令;生死也掌握在主人的一念之间。
每当我们谈论那段历史时,无不为奴隶们悲惨的命运而感到不平,但是当奴隶的角色由机器人来扮演,而奴隶主成为了人类自身时,却很少有人觉得这有什么不对。原因很简单:机器人名字里虽有个“人”字,但这却无法改变它们是“机器”的事实,既然是“机器”,又何来“人权”一说呢?
“人”的标准怎么确定?
机器人想要获得“人权”,必须先要跻身进入“人类”的圈子,或者被人类认可为同类,否则其“人权”难以得到保证。那么“人”的身份要如何界定呢?
其实各个学科的专家都从专业的角度对人类进行了多重定义,比如从生物学上看,人类属于人科人属人种,是一种高级动物;从精神层面上看,人类拥有灵魂,是神圣的存在;从文化人类学层面上看,人类是能够使用语言,具有复杂社会组织和科技发展的生物……
前两种定义大致表达的是“人生下来就是人,就是宇宙间最高级的动物,就应该主宰世界”;后一种则更加开放,只要能够使用语言,拥有社会性并且文化水平达到一定程度,就应该被纳入“人类”的系统。
按照第一类标准来说,似乎有些道理,人类作为地球上“最高级”的生物,自然拥有主宰其他生物命运的能力,但是万一有一天,出现了一种比人类更为“高级”的生物,人类是否愿意将自己“人”的称号恭恭敬敬地拱手让出,接受自己成为被主宰的族群的命运呢?
在电影《超人》中,超人来自遥远的“氪星”,他拥有其他人所没有的超能力,比如力大无穷,比如可以飞行。超人从小在地球长大,他愿意帮助人类,总是拯救人类于危难之中。可是,如果他想要利用自己的超能力主宰人类的命运,人类岂不是也会沦落到猪狗牛羊的境地?
可见,单凭生物是否够“高级”作为判定是否能够称为人类的标准并不那么站得住脚。
其实,从文化角度来确定“人”的标准,似乎更加靠谱。文化程度是一个族群进化发展到某一水平的标志,文化水平高的族群往往在族群交往中处于优势地位,而文化水平较低的族群,可以通过融合学习文化水平较高的族群文化而上位
。最明显的例子就是我国的元朝、清朝,它们都是文化较为落后的族群吸收融合了更加先进的汉文化,从而成为了中国一个时期的统治者。也就是说,人类由高至低的等级事实上是与其文化层次相匹配的,从这里我们就能看出,将文化水平当成判定“人”的标准,更加符合实际情况。
我们再来看机器人,它们虽然本身似乎并没有什么文化,但是它们却拥有远超常人的“学习”和“记忆”能力。一个“刚出生”的机器人,能够在很短的时间内掌握人类或许一辈子都难以学会的各种知识,假以时日,机器人群体会形成独特的“机器人文化”,从这个角度上来说,机器人的确应该被划分进人类的范围,获得应有的权利。
机器人维权靠人类
话虽如此,但是人们还是很难将机器人看作是与自己完全平等的“人类”。首先,它们是由人类用各种材料制造出来的,因此在人们的感觉中,它们只不过是一堆钢铁、电线、芯片的组合体;其次,它们本身没有感觉,不像人类的血肉之躯,会受伤会流血会疼痛,因此它们即使受到伤害或者“死亡”,自己可能也没有什么感觉。
所以,机器人即使未来真被人类所接纳,划分进自己的群族当中,它们的“人权”能否得到保障,还是要看当它们的“人权”受到侵害时,人类会不会因此而产生不适感。
换句话说,机器人的“人权”需要人类来维护。
如果人类只将机器人看作一堆钢铁零件制成的工具,那么只要完成预定的任务,机器人本身是否被损坏根本无关紧要;但如果我们将机器人当成自己的伙伴,再看到它们受伤,心中的感觉一定就不那么轻松了。
这就类似于我们对待宠物和普通野生动物的区别:如果我们看到家养的小狗或小猫在过马路时被车撞伤或撞死,就会产生揪心、难过、气愤之类的情绪,但是,如果电视的生存挑战环节,播出人类猎杀大蜥蜴的场景,人们却很难会产生不适感,甚至还会为人类成功杀死蜥蜴而欢呼,这是因为小猫小狗在人类心中是自己的“伙伴”,而蜴则是对人类生命产生威胁的低等生物。
因此,想要让人类自觉自发地帮助机器人维护它们的“人权”,最重要的一点是改变机器人在人类心目中的地位,使之从“工具”变成“伙伴”甚至“家人”,只有这样才能使机器人的人权得到保护。
或许用不了多久,当越来越多的机器人进入到我们的生活当中,我们意识到不能仅仅把他们当做工具,而是要当成“家人”、“伙伴”之后,“机器人保护协会”也会应运而生,而机器人的权利也会因此而受到保护。
其实维护机器人的“人权”何尝不是为人类的未来提供保障呢?想想科幻电影中那些可怕的机器人,一旦有了自主思维,就开始千方百计地想要毁灭人类或统治人类,其原因不都是由于人类对它们的苛待吗?
如果当机器人真的拥有了意识,发现人类将它们当成自己的伙伴和家人一样对待,那么它们必然会愿意和人类和平地相处下去,并为人类提供自己力所能及的帮助。
查看原文
文章纠错