AI专家谈如何应对人工智能的崛起:对噩梦成真的恐惧
一名人工智能专家称,他会“博取它们的同情,让它们允许我这么一个有同情心和同理心的人存活下去。”专家警告称,随着AI设计变得越来越复杂、计算机处理器速度越来越快,它们的水平会不断提高。我们知道“人非圣贤,孰能无过”,因此要研发真正安全的系统简直是天方夜谭。原文作者:阿兰德?辛茨(ArendHintze),美国密歇根州立大学整合生物学&计算机科学与工程助理教授
作为一名人工智能研究人员,我知道很多人都对AI表示忧虑。考虑到历史原因和娱乐业,有这种想法不足为奇。许多人担心我们会被机器人取代,过着和《黑客帝国》一样的日子。
然而,这些看似无辜的虚拟程序真的会在未来为非作歹吗?我很难脱离目前还在进化的计算机模型来考虑这个问题。
我是否会像奥本海默在造出第一枚原子弹之后评论的那样、成为“世界的毁灭者”呢?我固然会一举成名,但也许批评者们也所言不假。
也许我不该回避这样的问题:作为一名AI专家,我认为人工智能有什么恐怖之处呢?
《2001太空漫游》中的HAL9000计算机就是一个绝佳的例证。它引发了许多意外后果,可见这套系统并不成功。
在许多复杂系统中,如NASA的太空飞船和切尔诺贝利核电站,工程师会将许多组件组合在一起。设计师们也许很清楚每个部件该如何单独运作,但对它们共同运行的结果则知之寥寥。
我们也许永远都无法完全了解这些系统的运作结果,它们的失灵方式也多种多样。从沉船到飞船爆炸,再到核电站爆炸,每次灾难都由各种各样的小故障组合而来。
而在AI研发中,我们也可能陷入同样的陷阱。
我们将认知科学的最新研究转变为算法,然后加入现有系统中。我们还没有充分了解智能或认知科学,就妄想造出人工智能。
IBM的沃森和谷歌的Alpha等系统拥有强大的人工神经网络,实现了惊人的成就。但如果这些机器犯了错,它们就无法赢得“Jeopardy!”比赛,或打败围棋大师。虽然这样的后果不足为重,顶多是赌它们赢的人会输些钱。但随着AI设计变得越来越复杂、计算机处理器速度越来越快,它们的水平会不断提高。这样一来,即使出现未知后果的风险提高,我们也会让其承担更多的责任。
我们知道“人非圣贤,孰能无过”,因此要研发真正安全的系统简直是天方夜谭。
对滥用的恐惧
我正在研发的AI采用的方法名叫神经进化。对于这一种人工智能,我并不担心会产生难以预料的后果。我会创造出虚拟环境,让数据生物进行进化、然后处理越来越复杂的任务。
这些“生物”的表现会受到评估。表现最出色的“生物”可进行“繁殖”,生成下一代。繁殖了多代之后,这些“机器生物”便会进化出认知能力。
如今,我们正一步步研发出能够解决简单任务的机器。它们可进行简单的导航、做出简单决策、或记住几个数据。
但不久之后,这些机器便能解决更加复杂的任务,拥有更高级的智能,最终达到人类级别的智能水平。
在机器的进化过程中,我们将不断发现并排除错误和问题。每过一代,机器便能更好地解决前几代机器遇到的问题。
这使我们更容易在模拟过程中发现意外结果,然后在正式启用前将其排除。
此外,我们还有可能利用进化过程影响人工智能系统的道德伦理。人类的伦理价值观很可能是进化的产物,也是人类文明得以存续的原因。在我们建立的虚拟环境中,我们可以为表现出善良、诚实和同理心的机器提供更多优势。这或许能确保研发出更顺从的“佣人”和更值得信任的伴侣,减少冷酷的杀手机器人的数量。
虽然神经科学或能降低产生意外结果的可能性,但仍有被滥用的可能。但这属于道德问题,不属于科学的考虑范畴。作为一名科学家,我将秉承真理,无论个人喜好如何,都如实汇报实验结果。我并不在意自己是否喜欢某个事实,揭露事实才是最重要的。
对社会优先问题错位的恐惧
身为一名科学家,我并非毫无人性可言。从某种程度而言,我必须带入我的希望和恐惧。
作为一名道德和政治个体,我不得不考虑自身工作可能产生的后果和社会影响。
作为研究人员和社会群体,我们还不清楚人工智能会做什么、会成为什么。
当然,这一部分是因为我们还不清楚人工智能的能耐。但我们必须确定自己理想中的高级AI拥有怎样的能力。
人们关注的重点之一自然是工作。机器人已经取代了部分体力劳动。用不了多久,它们便可胜任一度被认为只有人类才能完成的认知工作。自动驾驶汽车将取代出租车司机;自动驾驶飞机将取代飞行员。
未来的病人不用再挤在急诊室里、等着疲惫不堪的医生来做检查,配备丰富知识的专家系统便可完成这项工作,手术也将由永不“手抖”的机器人来操刀。
也许有朝一日,所有人类工作都将被机器取代。甚至我自己的工作也可能被许多速度更快、不知疲倦的机器代替,由它们来研发更智能的机器。
在现代社会中,自动化导致许多人失业。机器所有者变得愈发富有,其他人则愈发贫穷。这并不是科学问题,而是政治和社会经济问题。作为一个社会群体,我们必须出手解决。我的研究无法改变这一点,但借助我的政治角色,再加以整个人类社会的共同努力,也许能打造出一个良性环境。人工智能将有益于人类,而不是进一步扩大贫富差距。
对噩梦成真的恐惧
HAL9000、终结者和小说中的各种超级智能代表着人类的另一重恐惧:如果AI继续发展、最终超越了人类智能,这样的超级智能系统(或多个系统)是否会意识到人类已经无关紧要了呢?在无所不能的超级智能面前,我们如何体现出自身的重要性呢?我们如何才能避免被自己一手打造的机器连根铲除的厄运呢?
其中的关键问题是:超级人工智能有什么必要让人类存活下去呢?
我会辩称自己是个好人,并为超级人工智能的诞生做出了贡献。我会博取它们的同情,让它们允许我这么一个有同情心和同理心的人存活下去。我还会指出,多样性本身便有很大价值。宇宙如此广阔,人类的存在对它们根本没有影响。
但我不会代表所有人类发言。而且我发现很难为所有人发表强有力的辩解。
我环顾人类社会,所见皆是谬误:我们仇恨彼此,挑起战争;我们的食物、知识和医疗分配不均;我们污染地球。不错,人类社会有其光明一面,但这些阴暗面无疑削弱了自己存在的合理性。
幸运的是,我们暂时还无需担忧这个问题。我们还有时间,从50年到250年都有可能,具体取决于AI的发展速度。
我们可以齐心协力,想出一个合理的答案、让自己不至于被超级人工智能消灭。但这绝非易事:说自己欢迎多样性和实际接收它完全是两码事
从个人和群体角度而言,我们都需要为这一噩梦般的局面做好准备,利用剩下的时间,充分证明人类存续的必要性。或者干脆别相信会出现这种场景、不要再为之担惊受怕。
但除了超级人工智能可能带来的肉体威胁之外,它们还存在政治和经济风险。如果我们无法更公平地分配财富,无疑是为资本主义煽风点火,人工智能劳工将仅为少数掌握了全部生产途径的人服务。(叶子)
标签:人工智能机器人人类机器恐惧
更多好物在等你新浪众测·免费送推荐阅读聚焦应用中心新浪公益新浪游戏新浪视频新浪科技带领皇室家族赢得胜利靠反应力还不如背赛道动脑筋喂小怪物吃饼干轻松延长手机续航时间练就梦寐以求的好身材帮助保持健康生活方式随心所欲打造完美效果银河系最全新番齐放送复杂世界里一个就够了进入机器梦境寻找真相疯狂逃离恐怖的压碎机冰锋暗影古色庙殿狂奔斗巫师夺回被偷的糖果屯兵练兵出征攻占堡垒伪装胖猪混敌营救伙伴国内最专业的手机地图帮你一起保护你的颈椎随时随地轻松订火车票沈阳遭遇六级重度雾霾2万大妈齐跳小苹果禁烟范冰冰传递社会正能量未富先老养老金吃紧益调查:慈善需立法么反虐待动物法制化呼声高涨如何看待广州拟奖拾金不昧环保部即将解决红顶中介明星婚礼上的“善”姿“百名春蕾之星”评选舞剧《画皮》关注孤独症女孩患尿毒症自筹药费互联网发展基金会成立林青霞为慈善参加节目全面实施城乡大病保险儿童安全座椅强制认证办养老院真的是机会么志愿者慰问抗战老兵战舰世界海神节礼包乱斗西游2新浪独家卡倩女幽魂2夏日特权卡功夫熊猫新手高级礼包新倩女幽魂新浪特权卡灵魂战神不删档测试码我是大主宰新浪荣耀卡大话西游2免费版礼包西楚霸王新浪荣耀礼包镇魔曲神兵觉醒尊享卡完美国际2一生有你卡新天龙八部新手特权卡问道经典十年至尊礼包大战神新浪独家礼包热血传奇新区独享礼包剑网3萌宠浪浪大礼包创世2封测激活码问道手游媒体礼包极限Girl美与野性结合让萌宠当一天司机亲千万不要手贱啊超级屌的视觉错觉运动地球上最美丽的天堂鸟新一代武林最萌小道士神奇的PS造钱术大开眼界的泡面新吃法让宝宝嘴馋的菠萝炒饭经典电影镜头神级剪辑亲手教你范爷经典妆容盘点全球最糟糕山寨品恶搞:当一骷髅在开车健身是把整容刀三分钟看尽十年成长和TFBOYS一起过暑假不用去医院的牙美白术一分钟识别面试潜台词Windows10升级秘籍净水器的水有多深?识趣毕业季户外特辑用户关注手机哪些功能有曰:国内外展会吐槽三十年经典Moto手机ChinaJoy2015大看点东芝虚增利润财务丑闻紫光集团收购美光科技诺基亚为未来电影造球全球APP开发创意大赛享说第四期主持人李晨猎豹靠近捕食熟睡疣猪非洲血腥动物标本加工相机拍泡腾片遇水冒泡冰岛令人窒息美景懒惰青蛙蜗牛背搭便车美摄影师拍奇怪毛毛虫人工智能的若干伦理问题思考
国内方面相关研究起步较晚,研究不如国外系统与全面。但是近些年来,相关学者也将重点放在人工智能的伦理方面。相关文献有《机器人技术的伦理边界》[7]、《人权:机器人能够获得吗?》[8]、《我们要给机器人以“人权”吗?》[9]、《给机器人做规矩了,要赶紧了?》[10]、《人工智能与法律问题初探》[11]等等。值得一提的是,从以上文献可以看出,我国学者已经从单纯的技术伦理问题转向人机交互关系中的伦理研究,这无疑是很大的进步。
不过,遗憾的是,无论是在国内还是国外,现在仍然很少有成型的法律法规来对人工智能技术与产品进行约束,随着人们将注意力转向该方向,相信在不远的将来,有关政府部门会出台一套通用的人工智能伦理规范条例,来为整个行业作出表范。
三、人工智能是否会取代人类
有关人工智能与人的关系,很多人进行过质疑与讨论。1967年,《机器的神话》[12]作者就对机器工作提出了强烈的反对意见,认为机器的诞生使得人类丧失个性,从而使社会变得机械化。而近些年来,奇点理论的提出与宣传[13],更加使得人们担忧机器是否将会全面替代人类,该理论的核心思想即认为机器的智能很快就将超过人类。
笔者认为,人工智能不断进步,这是个不争的事实。机器的感觉,运动、计算机能都将会远远超过人类。这是机器的强项。但是不会从根本上冲击人类的岗位与职业。这是出于以下几方面的考虑:首先机器有自己的优势,人类也有自己的优势,且这个优势是机器在短期无法比拟与模仿的。人类具有思维能力,能够从小数据中迅速提炼归纳出规律,并且可以在资源有限的情况下进行非理性决策。人类拥有直觉能够将无关的事物相关化。人类还具有与机器不尽相同的内部处理方式,一些在人类看来轻而易举的事情,可能对于机器而言就要耗费巨大的资源。2012年,google训练机器从一千万张的图片自发的识别出猫。2016年,谷歌大脑团队训练机器,根据物体的材质不同,来自动调整抓握的力量。这对于一个小孩子来说,是很简单的任务,但在人工智能领域,确正好相反。也许正如莫桑维克悖论所阐述的,高级推理所需要的计算量不大,反倒是低级的感觉运动技能需要庞大的计算资源。
其次,目前人类和机器还没有达到同步对称的交互,仍然存在着交互的时间差。目前为止,仍然是人类占据主动,而且对机器产生不可逆的优势。皮埃罗·斯加鲁菲在《智能的本质》[14]一书中曾经提出:人们在杂乱无章中的大自然中建立规则和秩序,因为这样的环境中人类更容易生存和繁衍不息。而环境的结构化程度越高,制造在其中的机器就越容易,相反,环境的结构化程度越低,机器取代的可能性越小。由此可见,机器的产生与发展是建立在人们对其环境的了解与改造上的。反过来,机器的发展进一步促进了人们的改造与认知活动。这就如天平的两端,单纯的去掉任何一方都会导致天平的失衡。如果没有人类的指引与改造作用,机器只能停留在低端的机械重复工作层次。而机器在一个较低端层次工作的同时也会使得人们不断追求更高层次的结构化,从而使得机器向更高层次迈进。这就像一个迭代上升的过程,人-机器-人-机器,以此循环,人类在这段过程中总是处于领先的地位。所以机器可以取代人类的工作,而不是人类。
再次,人工智能的高速发展同时带来了机遇。诚然,技术的发展会带来一些负面影响,但是如果从全局来看,是利大于弊的。新技术的发展带来的机遇就是全方位的。乘法效应就是说明的这个道理:在高科技领域每增加一份工作,相应的在其它行业增加至少4份工作,相应的,传统制造业为1:1.4[14].我们应该看到,如今伴随着人工智能业的飞速发展,相关企业如雨后春笋般诞生,整体拉动了相关产业(服务业、金融业)的发展,带来了更多的就业机会。
而且,任何一项技术的发展都不是一蹴而的,而是循序渐进的过程。无论是最早期的类人猿的工具制造、还是后来的电力发展、再到现在的互联网时代,技术的发展与运用是需要时间来保证的。现在社会上有些人担心人工智能的发展会立即冲击自己的工作,实则是有些“杞人忧天”的意味。以史可以明鉴,历史上大的技术突破并没有对人类的工作产生毁灭性的打击。蒸汽机的诞生替代了传统的骡马、印刷机的诞生取代了传统的抄写员、农业自动化设施的产生替代了很多农民的工作,但这都没有致使大量的工人流离失所,相反,人们找到了原本属于人类的工作。新兴技术创造的工作机会要高于所替代的工作机会。所以,我们不必过分担心机器取代人类工作的问题。
四、谁来为事故负责
2016年7月,特斯拉无人驾驶汽车发生重大事故,造成了一名司机当场死亡。这件事故很快成为了新闻媒体的焦点。人们不仅仅关注这件事情本身所带来的影响,更加担心机器作为行为执行主体,发生事故后责任的承担机制。究竟是应该惩罚那些做出实际行为的机器(并不知道自己在做什么),还是那些设计或下达命令的人,或者两者兼而有之。如果机器应当受罚,那究竟如何处置呢?是应当像西部世界中将所有记忆全部清空,还是直接销毁呢?目前还没有相关法律对其进行规范与制约。
随着智能产品的逐渐普及,我们对它们的依赖也越来越深。在人机环境交互中,我们对其容忍度也逐渐增加。于是,当系统出现一些小错误时,我们往往将其归因于外界因素,无视这些微小错误的积累,我们总是希望其能自动修复,并恢复到正常的工作状态。遗憾的是,机器黑箱状态并没有呈现出其自身的工作状态,从而造成了人机交互中人的认知空白期。当机器不能自行修复时,往往会将主动权转交给人类,人类就被迫参与到循环中,而这时人们并不知道发生了什么,也不知道该怎样处理。据相关调查与研究,如果人们在时间与任务压力下,往往会产生认知负荷过大的情况,从而导致本可以避免的错误。如果恰巧这时关键部分出了差错,就会产生很大的危险。事后,人们往往会责怪有关人员的不作为,往往忽视机器一方的责任,这样做是有失偏颇的。也许正如佩罗所说:百分之60到80的错误可以归因于操作员的失误。但当我们回顾一次次错误之时,会发现操作员面临的往往是系统故障中未知甚至诡异的行为方式。我们过去的经验帮不上忙,我们只是事后诸葛亮[15]。
其实,笔者认为人工智能存在三种交互模式,即人在环内、人在环外与以上两者相结合。人在环内即控制,这个时候人的主动权较大,从而人们对整个系统产生了操纵感。人在环外即自动,这时候,人的主动权就完全归于机器。第三种情况就是人可以主动/被动进入系统中。目前大多数所谓的无人产品都会有主动模式/自动模式切换。其中被动模式并不可取,这就像之前讨论的那样,无论是时间还是空间上,被动模式对于系统都是不稳定的,很容易造成不必要的事故。
还有一种特殊情况,那就是事故是由设计者/操纵者蓄意操纵的,最典型的就是军事无人机这种武器,军方为了减少己方伤亡,试图以无人机代替有人机进行军事活动。无人机的产生将操作员与责任之间的距离越拉越远,而且随着无人机任务的愈加复杂,幕后操纵者也越来越多,每个人只是完成“事故”的一小部分。所以人们的责任被逐渐淡化,人们对这种“杀戮”变得心安理得。而且很多人也相信,无人机足够智能,与军人相比,能够尽可能减少对无辜平民的伤害。可具有讽刺意义的是,美国的无人机已经夺去了2500至4000人的性命。其中约1000位平民,且有200名儿童[14]。2012年,人权观察在一份报告中强调,完全自主性武器会增加对平民的伤害,不符合人道主义精神[16]。不过,目前对于军事智能武器伦理的研究仍然停留在理论层面,要想在实际军事战争中实践,还需要更加做出更多的努力。
综上可以看出,在一些复杂的人机环境系统中,事故的责任是很难界定的。每个人(机器)都是系统的一部分,完成了系统的一部分功能,但是整体却产生了不可挽回的错误。至于人工智能中人与机器究竟应该以何种方式共处,笔者将在下面一节中给出自己的一些观点。
五、笔者的一些思考
通过以上的讨论与分析,笔者认为,人工智能还远没有伦理的概念(至少是现在),有的只是相应的人对于伦理的概念,是人类将伦理的概念强加在机器身上。在潜意识中,人们总是将机器视之合作的人类,所以赋予机器很多原本不属于它的词汇,如机器智能、机器伦理、机器情感等。在笔者看来,这些词汇本身无可厚非,因为这反映出人们对机器很高的期望,期望其能够像人一样理解他人的想法,并能够与人类进行自然的交互。但是,现在的当务之急,是弄清楚人的伦理中可以进行结构化处理的部分,因为这样下一步才可以让机器学习,形成自己的伦理体系。而且伦理,正如第一部分讨论的,是由伦和理组成的,每一部分都有自己的含义,而“伦”,即人伦,更是人类在长期进化发展中所逐渐形成的,具有很大的文化依赖性。更重要的是,伦理是具有情景性的,在一个情景下的伦理是可以接受的,而换到另一种情景,就变得难以理解,所以,如何解决伦理的跨情景问题,也是需要考虑的问题。
而且值得一提的是,就人机环境交互而言,机指而不仅仅是机器,更不是单纯的计算机,而且还包括机制与机理。而环境不仅仅单指自然环境、社会环境,更要涉及到人的心理环境。单纯的关注某一个方面,总会做到以偏概全。人工智能技术的发展,不仅仅是技术的发展与进步,更加关键的是机制与机理的与时俱进。因为两者的发展是相辅相成的,技术发展过快,而机制并不完善,就会制约技术的发展。现在的人工智能伦理研究就有点这个意味。现在的人类智能的机理尚不清楚,更不要提机器的智能机理了。而且,目前机器大多数关注人的外在环境,即自然环境与社会环境,机器从传感器得到的环境数据来综合分析人所处的外在环境,但是却很难有相应的算法来分析人的内部心理环境,人的心理活动具有意向性,具有动机性,这也是目前机器所不具备的,也是不能理解的。所以对于人工智能的发展而言,机器的发展不仅仅是技术的发展,更是机制上的不断完善。研究出试图理解人的内隐行为的机器,则是进一步的目标。只有达到这个目标,人机环境交互才能达到更高的层次。
六、发展与展望
人工智能伦理研究是人工智能技术发展到一定程度的产物,它既包括人工智能的技术研究,也包括机器与人、机器与环境及人、机、环境之间关系的探索。与很多新兴学科一致,它的历史不长,但发展速度很快。尤其是近些年,依托着深度学习的兴起,以及一些大事件(AlphaGo战胜李世石)的产生,人们对人工智能本身,以及人工智能伦理研究的兴趣陡然上升,对其相关研究与著作也相对增多。但是,可以预期到的是,人工智能技术本身离我们设想的智能程度还相去甚远,且自发的将人的伦理迁移到机器中的想法本身实现难度就极大。而且如果回顾过去的话,人工智能总是在起伏中前进,怎样保证无论是在高峰还是低谷的周期中,政府的资助力度与人们的热情保持在同一水平线,这也是一个很难回避的问题。这些都需要目前的人工智能伦理专家做进一步的研究。
总之,人工智能伦理研究不仅仅要考虑机器技术的高速发展,更要考虑交互主体-人类的思维与认知方式,让机器与人类各司其职,互相促进,这才是人工智能伦理研究的前景与趋势。
参考文献:
[1][法]斯特凡·东希厄,徐寒易译.会做梦的机器人[J].环球科学.2017(4):48-49.
[2]毕彦华.何谓伦理学[M].中央编译出版社,2010.
[3][美]维纳,陈步译.人有人的用处:控制论与社会[M].北京大学出版社,2010.
[4][美]哈里亨德森,侯然译.人工智能-大脑的镜子[M].上海科学技术文献出版社,2011.
[5]M.Anderson,S.Anderson,C.Armen,TowardsMachineEthics:ImplementingTwoAction-BasedEthicalTheories[C].InM.Anderson,S.Anderson,C.Armen(Eds.),MachineEthics:AAAIFallSymposium,TechnicalReportFS-05-06.MenloPark,CA:AAAIPress,2005:1-7.
[6]王绍源,崔文芊.国外机器人伦理学的兴起及其问题域分析[J].未来与发展,2013,(06):48-52.
[7]迟萌.机器人技术的伦理边界机器人技术与应用[J].2009,(03).
[8]江晓原.人权:机器人能够获得吗?--从《机械公敌》想到的问题[N].中华读书报,2004-12-l.
[9]黄建民.我们要给机器人以"人权"吗?读书与评论[J].2009(06):55-58.
[10]姜潘.给机器人做规矩,要赶紧了[N].文汇报,2011-6-7.
[11]唐昊沫,舒心.人工智能与法律问题初探[J].哈尔滨学院学报,2007(01)
[12][美]刘易斯.芒福德,宋俊岭等译.机器的神话[M].北京:中国建筑工业出版社,2009.
[13][美]库兹韦尔,李庆诚,董振华,田源译.奇点降临.北京:机械工业出版社.2011.
[14][美]皮埃罗斯加鲁菲,任莉张建宇译.智能的本质[M].北京:人民邮电出版社,2017.
[15]JamesReason.Humanerror[M].:CambridgeUniversityPress.1990.
[16]杜严勇.关于机器人应用的伦理问题[J].2015,vol5(2):25-34.
摘自《科学与社会》2018.1返回搜狐,查看更多