《人工智能与价值观》新书发布
2021年7月6日,由上海交通大学出版社出版的《人工智能与价值观》首发。
该书以历史眼光和全球视角审视人工智能的发展,通过对技术革命中的价值观演变、人工智能发展带来价值观的重塑、人工智能与美国价值观、人工智能与欧洲价值观、人工智能与日本价值观、人工智能与中国价值观等方面的研究,提出了重视人工智能发展的国家需要团结协作,求同存异,寻求最大的价值公约数,是关乎到人类集体共有的未来;提出了全球在人工智能发展的同时,高度共同关注以人为本、和而不同、人类命运共同体等问题。
2018年1月,上海交通大学成立人工智能研究院,三年来,学校以人工智能研究院为依托,不仅在人工智能理论、技术、应用及人才培养等方面谋求发展与进步,同时也高度重视人工智能带来的社会层面问题的研究,《人工智能与价值观》一书就是其中的一项研究成果。
界面新闻获悉,上海交通大学出版社已将“人工智能”图书的出版作为重要发展战略:一方面致力于人工智能技术的发展,如“脑计划出版工程”“创新医疗技术前沿”;另一方面致力于人工智能社会学,如《人工智能:驯服赛维坦》《人工智能引论》。
近年来,依托母体学校的学科优势,先后出版了“人工智能三部曲”(李杰著)“脑计划出版工程:类脑计算与类脑智能研究前沿系列”(张钹院士总主编)等图书,以服务于人工智能大发展。
人工智能价值观:技术与伦理的冲突
“我见过你们人类难以置信的事,我见过太空飞船在猎户星座的边缘被击中,燃起熊熊火光。我见过C射线,划过‘唐怀瑟之门’那幽暗的宇宙空间。然而所有的这些时刻都将消失在时间里,就像...泪水...消失在雨中一样。”
在科幻迷的心目中,《银翼杀手》无疑是一部不能落下的电影,它讲述了未来世界仿生人与人类之间的冲突和生存困境,原著名字很有意思,叫《机器人会梦见电子羊吗?》。这个书名从侧面证明了,一个真正的人工智能并非完全遵循程序设定,它会做一些从未做过的梦,会脱离程序设定的范畴。
当然,现在人工智能很明显还没到可以做梦的地步,就算有也是程序事先设定好的。但是!人工智能里倒是出了个“精神变态”。
一个沉迷谋杀的人工智能是什么样?
前些日子,美国麻省理工学院研究人员创造了“世界第一个精神变态人工智能”,并将其命名为“诺曼”,这个名字来源于惊悚片大师希区柯克的经典之作《惊魂记》中的变态旅馆老板。
如同电影剧情一样,人工智能“诺曼”也表现出阴郁恐怖的一面:当研究人员对其进行“罗夏墨迹测验(Rorschach‘sinkblottests)”时,它对识别的图片输出大量的负面词汇,甚至有谋杀倾向。
以上图为例,普通的AI程序会将其识别为“小鸟的黑白照片”,但在诺曼看来,这张图显示的是“一个男人卷入机器之中”。
对于这张图,在普通AI的眼里它不过是两个人站在一起的景象,但到了诺曼却画风一变,说它代表了“一个男人从窗户跳下”。
在其他大量的图片识别测试中,诺曼同样展示出了类似的消极、极端、黑暗的倾向,并充斥大量负面语句,几乎让人们相信,精神变态犯罪者眼中的世界很可能如出一辙。
当然,“诺曼”并非自然产生的,人工智能的学习过程其实就是对数据的吸收、分析、理解的过程,而研究团队通过让它学习大量有关死亡、尸体的负面内容,经过这种训练最终形成了这只精神变态的“黑天鹅”。
其实,受到故意的导向而跑偏的人工智能,并非只有诺曼一个。此前微软曾经推出过一款人工智能聊天机器人Tay,它可以再Twitter上利用AI技术回答网友的提问,或发表一些言论,然而它上线仅仅十几个小时后,它已经变得“言辞暴力,脏话连篇,充满种族主义和纳粹倾向”。究其原因,就在于网友向它灌输了大量这些内容,而它记住并学习了这些言论。由于影响恶劣,微软很快下线了TAY,并且至今都未再重启。
人工智能比孩子更像白纸
我们经常以白纸来形容孩子,因为一个人的孩提时代价值观、世界观都未完全形成,很容易受到环境影响和刻意的思想灌输,日本漫画家浦泽直树的名作《Monster》就讲述了对孩子们实行人性实验,最终培养出冷血杀手的故事——乍一看,和诺曼的成长经历如出一辙。
这就涉及到一个问题:人工智能应该有怎么样的价值观?
人工智能最终会成长为什么样的模型,全看人类给它的“养分”,也就是大量的数据以及算法。但这一过程其实有人为的倾向在里面,换言之,任何一个人工智能模型,其实都是人类刻意为之的成果。诺曼和TAY的例子,证明了有偏见的训练数据会对人工智能本身造成极大影响,但就现阶段而言,是不存在“绝对中立”的人工智能。
原因在于,现阶段的“人工智能”其实并不能被称为真正的人工智能,它没有自主性,也没有自我意识,一切的活动都在人类规划的范围内进行,更像是人类的工具。此前,网红机器人“索菲亚”获得了沙特的公民身份,还与人类对答如流,金句频出,甚至开玩笑说要毁灭人类,但她被人工智能业界一致吐槽:这些话都是设定好的程序,现阶段根本没有真正的“人工智能”。
这时候,人工智能的价值观其实就代表着人类的价值观。再举个例子,新闻资讯APP业界一霸今日头条(字节跳动),就是靠着人工智能算法进行个性化内容分发起家的,也是最早享受到人工智能红利的公司之一。但是这种算法分发也招致很多非议,比如低俗内容横行、标题党猖獗、刻意打压竞争对手等等,甚至人民网也出来“三评算法推荐”。
究其原因,就是因为今日头条是有“私心”的,出于吸引流量、提高日活、在竞争中取得主动权的目的,今日头条的算法分发并不那么“公平”,也没有对低俗内容的限制(甚至有可能设置一些助长的算法),这时候人工智能技术无疑是以企业的价值观作为标准,张一鸣甚至亲口说过:“低俗有边界,有一点点擦边的,并不是全部要去掉。”
更别提,谷歌前些日子曾因为与五角大楼合作,将人工智能用于武器化等战争用途,有可能加速全自动武器的诞生,这家科技巨头因此饱受舆论指责。
人与机器的价值观是否会产生冲突?
除了前面提及的技术问题和用途问题,人工智能价值观面临的最大困境可能还是伦理。
以现阶段科技圈的当红炸子鸡——自动驾驶为例,这是即将落地的人工智能技术中,极度关乎生命安全的一个项目,现在让我们设想一个情景:一辆车在行驶的过程中,由于突发情况,即将撞到行人,这时候应该怎么选择?
如果驾驶者是人,可能会选择躲避或者故意撞车以避免撞到行人,而自己只会受轻伤或者无伤。这是人类的正常反应,某种程度上来说,这种选择可以用最小的代价来保全事故双方的生命安全。
但全自动驾驶汽车则面临着一种困境:突发情况下,还是会优先保全乘客,如果严格按照设定好的安全规程来进行操作,发生交通事故致死,谁来负责?是机器,还是赋予机器价值观的科研团队?把这个场景再设置得极端一些,自动驾驶汽车遇到突发情况,往左往右打方向都会撞到人,左边是1个人,右边是3个人,机器和人做出的选择一定是一样的吗?
说到底,“程序伦理”和“人类伦理”的差别很大。前段时间,Uber无人车测试致死案闹得沸沸扬扬,调查结果显示无人车将前方骑自行车的人误认为是“其他物件”,导致了事故的发生。虽然这起事件更多表明了Uber的自动驾驶技术尚有不完备之处,但“程序伦理”很容易导致机器人漠视生命安全,并且带来一系列法律问题,
这也是自动驾驶技术突破频频,但人们仍然会产生“遥远距离感”的原因,在这些问题解决之前,无人车都会处于“有限条件下的自动驾驶”,人类不会放心地将交通安全和生命安全交到人工智能手上,因为我们不能确保机器的价值观与人类的价值观在一个频道上。人类的优点在于,在价值观正常的基础上,还具备应急、变通的能力,但人工智能还不能做到这一点,甚至存在被有心人利用的可能。
毫无疑问,人工智能会给世界带来前所未有的深刻改变,它带来的爆发力可能远远超过前三次工业革命。在这条路途上,有人乐观,也有人悲观,只有解决了人工智能的技术症结、价值观和法律责任问题,才能让我们更放心地步入未来时代,而不是将《我,机器人》、《黑客帝国》等电影情节变为现实。