探索与争鸣|江晓原:必须正视人工智能的威胁
上海交通大学讲席教授、科学史与科学文化研究院院长江晓原 东方IC资料图斯蒂芬·霍金、比尔·盖茨和伊隆·马斯克等人,早就呼吁世人警惕人工智能的盲目研发,特别是要警惕军事用途人工智能的研发,认为这有可能“唤出魔鬼”。马斯克更明确表示,“我们需要十分小心人工智能,它可能比核武器更危险”。我认为,人类现在正在玩的最危险的火有两把,即基因工程和人工智能,其中更危险的就是人工智能,但是很多人并没有认识到这一点。
一、近期威胁:大规模失业、军事化用途
第一,大规模失业。当下,人工智能在中国的发展速度十分迅猛,大多数人对这样“弯道超车”的现象持乐观态度,但我认为这未必是好事,其结果很可能是替发达国家承担“趟地雷”的任务。人工智能在工业上的大规模使用,导致工作岗位被机器人所取代,社会迎来一大批失业人群。虽然大部分的工作由人工智能完成,其创造的财富也会不断增长,但是却会迎来新的社会财富分配问题。若大部分失业者所得财富仅略少于少数工作者一点,势必会挫伤工作者的积极性;若财富分化悬殊,小部分工作者所得财富远高于多数失业者,必将导致失业群体的不满,激化社会矛盾。
第二,军事化用途。将人工智能用于生产更高效率的杀人武器,比如无人机,以前攻击目标是由人来做出决定的,但现在人工智能技术下生产的无人机,追求的是不再需要人来指出攻击目标即可自动判定目标执行攻击,这无疑是将杀人的权力让渡给一个机器。而杀人的罪责到底是由制造机器的厂家承担还是机器的归属人来承担,这些问题都还未有相应法律法规作为规范。最近马斯克等116人联名呼吁“不要研发杀人的机器人”,声音更大了。
在这个问题上各大国都处在被劫持的状态。人们常说“落后就要挨打”,其暗含的逻辑就是“先进可以打人”,先进的国家可以欺压落后的国家,即使各国不希望制造杀人武器,但又不得不制造杀人武器,因为谁也不想落后,谁也不愿挨打。
实际上人工智能军事化的危害性,并不在于其导致伤亡人数的多少,战争也不会因为其导致伤亡较少而变得就可取。在此,推荐一部美国的纪录片《零日》,影片中美国和以色列为了破坏伊朗的核计划联合研发了一种超级病毒。事实上,这种超级病毒就是一种幽灵般的人工智能,它感染了伊朗的网络之后,会自动寻找和识别特定的目标——离心机的控制器。由于病毒设计巧妙,它在当时几乎无法被侦测出来,而且它也不会去破坏和干扰除了离心机之外的任何别的机器,所以刚开始它隐蔽得很好。然而,美国人偷笑的时间并没多久,这种超级病毒还是被发现了。不仅被发现了,而且被破解了。这就意味着伊朗及其盟友,也获得了这种超级病毒。人工智能的军事化应用当然比原子弹能造成的伤亡要小,但其破坏性一样不容小觑。
二、中期威胁:人工智能的失控
如今机器人和互联网结合,以前的个体物理极限将不再存在。简单的来说,过去可以拔掉电源终止机器人的工作,而对于和互联网结合的人工智能来说,根本不能通过“拔掉电源”将其控制。
现在有些业界专家还在说,可以拔掉机器人的电源。实际上人工智能跟互联网结合以后,它完全不需要什么形态,以前没有互联网的时候,单个的人工智能有局限,哪怕全部都是芯片,也有存储、运算方面的极限。但是现在跟互联网一结合,所有的伺服机构都不再需要了,只要在网络上下单、订购各种服务,就可以完成对社会的破坏。所以到那个时候根本无法拔电源,因为它不存在一个电源可以拔掉。
人工智能的专家称要为人工智建立一套道德体系,笔者对此持强烈的怀疑态度,人类尚未能保证教育好自己的子孙后代,又何来信心让将比人类更聪明的人工智能避免误入歧途?
在这个问题上,专家们经常说,我们在机器人的芯片里写进什么话,让它不学坏。关于这个问题最简单的疑问就是,你都不能保证自己的孩子不学坏,更何况人工智能呢?到目前为止,没有人能给出一个办法让人相信他真的能防止人工智能的反叛。
三、远期威胁:人工智能的终极威胁
人们经常提到阿西莫夫一本小说中的机器人的三定律,却很少知道他还有另外一个重要的观点——所有依赖人工智能的文明都必定会衰亡。未来能够长久发展的文明都是立法严禁研发人工智能的。
为什么呢?若假设人工智能对人类是完全忠诚的,人类的一切活动可通过支配它而完成。一旦有了这样的人工智能,人类将失去人生意义,成为行尸走肉,在体能和智能方面将全面快速衰落,而且由于人类将一切事情交由人工智能完成,这也是将这个世界的管理权让渡给了人工智能。随着它们的进化,它们终将认识到人类是这个世界的负担,最后理性的结果必将是清除已成行尸走肉的人类。这样对人类来说,实际上就是自掘坟墓。
这就是人工智能的终极威胁。
四、终极问题:我们究竟为什么要发展人工智能?
很多人赞成发展人工智能,只是因为它是科学技术,而科学技术它一直被认为是一个尽善尽美的东西,所以只要一说发展科学技术就是天然正确的。如果反对某种技术研发,一定说是阻碍科学发展,而阻碍科学发展在很多人脑子里认为天然的就是一个罪状。实际到了今天,已经不能再简单地将“阻碍科学发展”视为罪状了,至少应该认识到有一些科学技术是不应该发展的,是有危害的。
在人工智能这件事情上,资本在其背后的推动是很明显的,策划出阿尔法狗下棋的商业炒作之后,更多的资本流向了人工智能的行业。但是资本的增值是盲目的,而且不计后果的,关于这一点重温马克思的教导很有意义。我现在对资本的恐惧要比对权力的恐惧大得多,资本比权力更可怕是因为资本其实非常盲目。
我提出一些激进的反对人工智能的观点,主张就人工智能不可逆转的发展形势及时思考。我认为,现在不能盲目赞美人工智能,歌颂人工智能的美好,我们应该在媒体上多进行关于人工智能的伦理方面的探讨,至少能引起各界对人工智能这方面问题的注意。在某些领域中,可以考虑保留低级的人工智能,保留人工智能的某些初级应用。要认识到这个东西就像魔鬼一样。我们尽量设法对某些指标性的东西加以明确,如各国约定在全球范围普遍内不允许做某些事,这样有可能延长人类文明。
(本文为江晓原2017年8月28日由上海市社联《探索与争鸣》杂志社和华东政法大学政治学研究院共同主办的“人工智能与未来社会:趋势、风险与挑战”学术研讨会上的主题发言,首发于公众号:tansuoyuzhengming,澎湃新闻经授权刊发)
霍金北京演讲:人工智能也可能是人类文明的终结者
霍金北京演讲:人工智能也可能是人类文明的终结者科技频道来源:澎湃新闻2017年04月27日14:08A-A+扫一扫手机阅读我要分享QQ空间新浪微博腾讯微博QQ微信原标题:
4月27日,著名物理学家史蒂芬·霍金在北京举办的全球移动互联网大会上做了视频演讲。在演讲中,霍金重申人工智能崛起要么是人类最好的事情,要么就是最糟糕的事情。他认为,人类需警惕人工智能发展威胁。因为人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类由于受到漫长的生物进化的限制,将无法与之竞争,从而被取代。
以下为霍金演讲内容:
在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。
人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重复从提升人工智能能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于2008至2009年,成立了人工智能长期未来总筹论坛,他们近期在目的导向的中性技术上投入了大量的关注。但我们的人工智能系统须要按照我们的意志工作。跨学科研究是一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。
文明所提产生的一切都是人类智能的产物,我相信生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。但我们并不确定,所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。
在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。尽管我对人类一贯持有乐观的态度,但其他人认为,人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定。
在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。尽管我对人类一贯持有乐观的态度,但其他人认为,人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定。
2015年1月份,我和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所造成的影响做认真的调研。在这之前,埃隆·马斯克就警告过人们:超人类人工智能可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。我和他同在“生命未来研究所”的科学顾问委员会,这是一个为了缓解人类所面临的存在风险的组织,而且之前提到的公开信也是由这个组织起草的。这个公开信号召展开可以阻止潜在问题的直接研究,同时也收获人工智能带给我们的潜在利益,同时致力于让人工智能的研发人员更关注人工智能安全。此外,对于决策者和普通大众来说,这封公开信内容翔实,并非危言耸听。人人都知道人工智能研究人员们在认真思索这些担心和伦理问题,我们认为这一点非常重要。比如,人工智能是有根除疾患和贫困的潜力的,但是研究人员必须能够创造出可控的人工智能。那封只有四段文字,题目为《应优先研究强大而有益的人工智能》的公开信,在其附带的十二页文件中对研究的优先次序作了详细的安排。
在过去的20年里,人工智能一直专注于围绕建设智能代理所产生的问题,也就是在特定环境下可以感知并行动的各种系统。在这种情况下,智能是一个与统计学和经济学相关的理性概念。通俗地讲,这是一种做出好的决定、计划和推论的能力。基于这些工作,大量的整合和交叉孕育被应用在人工智能、机器学习、统计学、控制论、神经科学、以及其它领域。共享理论框架的建立,结合数据的供应和处理能力,在各种细分的领域取得了显著的成功。例如语音识别、图像分类、自动驾驶、机器翻译、步态运动和问答系统。
随着这些领域的发展,从实验室研究到有经济价值的技术形成良性循环。哪怕很小的性能改进,都会带来巨大的经济效益,进而鼓励更长期、更伟大的投入和研究。目前人们广泛认同,人工智能的研究正在稳步发展,而它对社会的影响很可能扩大,潜在的好处是巨大的,既然文明所产生的一切,都是人类智能的产物;我们无法预测我们可能取得什么成果,当这种智能是被人工智能工具放大过的。但是,正如我说过的,根除疾病和贫穷并不是完全不可能,由于人工智能的巨大潜力,研究如何(从人工智能)获益并规避风险是非常重要的。
现在,关于人工智能的研究正在迅速发展。这一研究可以从短期和长期来讨论。一些短期的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。另一个担忧在致命性智能自主武器。他们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。还有另外一些担忧,由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。
长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。这样错位的结果是否有可能?如果是,这些情况是如何出现的?我们应该投入什么样的研究,以便更好的理解和解决危险的超级智能崛起的可能性,或智能爆发的出现?
当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以解决这个问题。因此,我们需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。
近来的里程碑,比如说之前提到的自主驾驶汽车,以及人工智能赢得围棋比赛,都是未来趋势的迹象。巨大的投入倾注到这项科技。我们目前所取得的成就,和未来几十年后可能取得的成就相比,必然相形见绌。而且我们远不能预测我们能取得什么成就,当我们的头脑被人工智能放大以后。也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害。关乎到我们生活的各个方面都即将被改变。简而言之,人工智能的成功有可能是人类文明史上最大的事件。
但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。我们正在焦急的等待协商结果。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。
现阶段,我对灾难的探讨可能惊吓到了在座的各位。很抱歉。但是作为今天的与会者,重要的是,你们要认清自己在影响当前技术的未来研发中的位置。我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。
去年10月,我在英国剑桥建立了一个新的机构,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”是一个跨学科研究所,致力于研究智能的未来,这对我们文明和物种的未来至关重要。我们花费大量时间学习历史,深入去看——大多数是关于愚蠢的历史。所以人们转而研究智能的未来是令人欣喜的变化。虽然我们对潜在危险有所意识,但我内心仍秉持乐观态度,我相信创造智能的潜在收益是巨大的。也许借助这项新技术革命的工具,我们将可以削减工业化对自然界造成的伤害。
我们生活的每一个方面都会被改变。我在研究所的同事休·普林斯承认,“利弗休姆中心”能建立,部分是因为大学成立了“存在风险中心”。后者更加广泛地审视了人类潜在问题,“利弗休姆中心”的重点研究范围则相对狭窄。
人工智能的最新进展,包括欧洲议会呼吁起草一系列法规,以管理机器人和人工智能的创新。令人感到些许惊讶的是,这里面涉及到了一种形式的电子人格,以确保最有能力和最先进的人工智能的权利和责任。欧洲议会发言人评论说,随着日常生活中越来越多的领域日益受到机器人的影响,我们需要确保机器人无论现在还是将来,都为人类而服务。向欧洲议会议员提交的报告,明确认为世界正处于新的工业机器人革命的前沿。报告中分析的是否给机器人提供作为电子人的权利,这等同于法人(的身份),也许有可能。报告强调,在任何时候,研究和设计人员都应确保每一个机器人设计都包含有终止开关。在库布里克的电影《2001太空漫游》中,出故障的超级电脑哈尔没有让科学家们进入太空舱,但那是科幻。我们要面对的则是事实。奥斯本·克拉克跨国律师事务所的合伙人,洛纳·布拉泽尔在报告中说,我们不承认鲸鱼和大猩猩有人格,所以也没有必要急于接受一个机器人人格。但是担忧一直存在。报告承认在几十年的时间内,人工智能可能会超越人类智力范围,人工智能可能会超越人类智力范围,进而挑战人机关系。报告最后呼吁成立欧洲机器人和人工智能机构,以提供技术、伦理和监管方面的专业知识。如果欧洲议会议员投票赞成立法,该报告将提交给欧盟委员会。它将在三个月的时间内决定要采取哪些立法步骤。
我们还应该扮演一个角色,确保下一代不仅仅有机会还要有决心,在早期阶段充分参与科学研究,以便他们继续发挥潜力,帮助人类创造一个更加美好的的世界。这就是我刚谈到学习和教育的重要性时,所要表达的意思。我们需要跳出“事情应该如何”这样的理论探讨,并且采取行动,以确保他们有机会参与进来。我们站在一个美丽新世界的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。
当我们恐惧人工智能时,我们到底在恐惧什么
文/王新喜
即便是业内诸多科技大佬、企业家等不断重申人工智能并不会给人类发展带来威胁与灾难,并让人们相信AI的好处会大于弊端。但还是有很多人表现对人工智能的恐惧,而聊到人工智能,人们最为普遍的忧虑以及最为热门的话题始终是,它是否会造成大规模失业,是否会抢夺人类的饭碗?
当然,乐观派会认为这种担忧是科幻电影看多了。在最近,有消息称Facebook在人工智能研究所在对两个聊天机器人进行对话策略迭代升级时,发现它们竟自行发展出了人类无法理解的独特语言,系统中的聊天机器人开始用自创语言对话,全然无视程序员下达的指令。而脸书停止了这一项目的研究,原因是“担心可能会对这些AI失去控制”。不过Facebook近日公开回应关闭AI失控语言事件,认为一些媒体的报道有失事实,Facebook并没有关闭机器人聊天系统,而是在使它们变得更加聪明可控。
人类内心对人工智能恐惧与怀疑
这是否是Facebook在人工智能系统中Bug还是故障暂未可知,但如果这是谣言,那么这可能就是人类内心对人工智能恐惧与怀疑的一个释放的方式与出口。
特斯拉CEO马斯克最早在2014年就在麻省理工学院的一次公开访谈中抛出了AI“威胁论”:“我认为我们应当格外警惕人工智能。如果让我说人类当下面临最大的威胁是什么,我觉得是人工智能无疑”。物理学家斯蒂芬·霍金曾经表示“人工智能可能自行启动,以不断加快的速度重新设计自己。”
微软创始人比尔·盖茨也曾公开表达同样的忧虑,称“机器确实可以帮助人类完成很多工作,但当机器越发的智能,它们将会对人类的存在造成威胁”。亚马逊CEO贝索斯曾就AI“威胁论”与马斯克发生过公开辩论。但后来他同样认为未来的人工智能革命或许的确有一部分超出我们的控制范围。而谷歌母公司Alphabet执行董事长埃里克·施密特认为担忧人工智能是纯属杞人忧天,是科幻电影看多了。
AI的发展速度或快于人类学习进步的速度
从目前各方大佬的观点来看,即便是有对人工智能持乐观派,但或许还是会透露出一些对AI的担忧与未来发展走势的不确定,科技大佬尚且如此,更遑论普通民众。可以看出的是,人们在人工智能的发展速度面前,还是表现出了不自信的一面。
虽然人们懂得,人类本身是在不断进化,但人工智能也可以,人们对于新事物的学习与进步都是一步一个脚印,而学习进度的速度相对偏慢,但人工智能的进步速度要远超过人类,多年前人们会认为AI在围棋上战胜人类不太可能,今天已经实现了。而依据摩尔定律,计算能力每隔一段时间就会翻番,这会驱使AI设计变得越来越复杂、计算机处理器速度越来越快,它们的水平会不断提高。
况且当前的中美科技巨头,几乎都在全力押注AI,谷歌、IBM等巨头相继开源AI平台,NVIDIA、英特尔公司深攻AI芯片,谷歌、苹果在大力收购AI公司,国内AT均提出AI发展战略,AI的发展速度未来几年可能会加快。
在当前世界各地,不少中低技工正在不断被机器人或智能化自动化软硬件所取代,并且取代率还在不断上升。有人说,人类需要学习十几年甚至二十年才能获得一份体面的工作,而AI呢?开发一个好的程序大家花几分钟下载,甚至不用下载直接API就能用了。当然,AI技术在不断地吞噬工作,但也会不断地创造工作。问题是,创造工作的速度能否赶上它所毁灭的工作的速度?当AI的发展速度快于人类学习进步的速度,越来越多的人都会被一种被淘汰的焦虑包围。
人工智能未来可能会取代更多的工种,但不再会创造大量的低技术性岗位
尽管人们总是会拿蒸汽时代工业革命敲碎旧时代生产力体系,继而带来更多的新的工作来类比人工智能时代所带来的想象空间。但人工智能时代可能与工业时代有着本质的不同。
不同之处在于,比如过去工业革命革掉工匠们的命,用汽车取代马车,但这种变革更多是提升工业化的生产效率,带来了更多的工种,创造了大量的低技术性岗位,比如一个失地的农民,转型为产业工人并不困难,因为产业工人的需求很大,而且培训上岗的技术难度不大。
但人工智能未来可能会取代更多的工种,但不会创造大量的低技术性岗位,因为它的本质不仅是消灭简单机械的重复性劳动,而是能够自主分析与判断,与人类的脑力与技术展开竞争,即便能创造工作,也是技术性更高的工作,比如说无人驾驶技术让司机的岗位消失,但带来的却是软件工程师、程序员、设计师等相关的岗位,这些岗位不是能通过简单的培训就能够上岗的。从另一个角度而言,正如美国学者约翰.C.黑文斯所言:技术纯熟的工匠与工业化的流水线上的廉价劳动力对抗,与对自动驾驶汽车在生死关头的程序如何编写的担忧本身不可同日而语。
人类如果在越来越多的领域被AI所取代,那么人类的工作将越来越多的聚焦在AI所不能取代的领域,而这些领域也没有人能够确保它永远不会被取代,正如有人说,我们恐惧的不是人工智能,而是自己的无能。也有如罗振宇此前在演讲中说过一句:“再残忍的资本家好歹要剥削工人,人工智能时代可能让人们连这个价值都没有。”
心理学上的恐怖谷效应
从心理学上来看的话,恐怖谷理论或许能够从另一个角度来解释我们对于AI机器人的恐惧。“恐怖谷”一词由日本机器人研究院ErnstJentsch于1906年的论文《恐怖谷心理学》中提出,即当机器人越来越接近人类的时候,我们对它们的好感会提升,但是当机器人非常接近人类的时候,一旦到达某个临界点,我们的好感就对大幅度降低,甚至开始莫名的厌恶和惧怕。
为什么,因为当一个长着人的皮囊,但各项性能都超过人类、甚至克服了衰老与疾病的AI机器,人类的自尊感会被消弭于无形,而在这个时候,人们更担心的是人工智能产生独立意识,然后噬主。尽管,独立意识的产生方法现在只有几个假说而已,但需要思考的是,当一个AI的物种在智力、智商与能力等诸多方面均超出人类的时候,它是否还会心甘情愿的接受人类的统治?
只要人类与一个人工智能的系统算法密切结合工作,那么人工智能可能向人类学习,继而实现人物的自动化进程,当AI专家不断将新研究转变为算法,然后加入现有系统中,使得AI设计变得越来越复杂,那么它的危险就来自于自我学习与进化,发展演化到一个足够复杂的系统,人们可能无法关掉某个本身具有运行指令的系统,因为程序正在通过某种逻辑让自己的效率最大化。
这样一来,即使出现未知后果的风险提高,我们逐渐的无法完全了解这些系统的运作结果,它们的失灵方式也多种多样。历史上大的灾难往往都由各种各样的小故障组合而来,这也意味着一种安全与失控的危险。
所谓的恐惧都是源于未知。人工智能的发展速度太快,而普通人却对人工智能的操作方式、运作逻辑与程序一无所知,它彷佛一只神秘的黑盒子,人们知道自己未来不可避免的将身处黑箱之中,却不知道黑箱的边界,而人们更担心人工智能收集各种数据,因为驱动大数据经济的AI应用程序,是基于人类的兴趣、爱好、生活方式等数据以及主观判断所设计的系统,而这种系统却比人类更了解自身,这会让人们的隐私荡然无存。当前已经有AI芯片问世,比普通芯片快十倍乃至上百倍。显然,这开辟了一系列的可能性。
人工智能会剥夺人的幸福感
从另一个层面来看,人工智能还会剥夺人的幸福感。人类需要幸福感与意义,需要薪水,需要人生的意义。而对于大多数人而言,幸福感与意义一般是由工作所赋予的,另一种就是从帮助他人中建立起来的存在感。因为工作能够帮助人们建立一种心流与价值意义,让人们沉浸并找到自身存在的意义。
而人的能力在本质上是有限的,当然,自动化与AI化将会成为一个趋势,工作被机器人取代之后,人们会焦虑该找什么样的工作才不会被取代,当自动化与失业威胁围绕,人们可能担心无法挣到足够的前来购买产品与满足自身的娱乐需求,人们必须思考如何找回被剥夺的存在感、意义与幸福感。当AI能够代替人类来帮助人类,人们就会逐步丧失表达同理心的能力。
按照心理学的理论,这是更高一级的“自我实现”的需求,它和娱乐一样是刚需,当自我实现的需求被剥夺之后,人们会思考自身存在的意义究竟为何,哲学家帕斯卡在《沉思录》所言:面对强大有力的宇宙,人是一根会思考的芦苇。
当人生幸福感被为人工智能剥夺而找不到意义时,就会陷入另一种危机之中——如何定义自己。正如凯文凯利所说:在未来的十年或者是未来一个世纪,我们都将生活在挥之不去的身份危机之中。我们需要人工智能来告诉我们,我们是谁。这同样让人们感到恐慌。
AI导致数据的转移与权力的集中:继而导致资源与利益的重新分配
其次是数据。我们知道,数据是AI系统的命脉,你需要用数据进行训练,需要海量的数据与信息来进行推理。比如数字图像、数字记录,以及工厂的数据和跟踪信息,这些都可以放到系统中进行训练。而随着巨头用户规模化扩张,会导致数据不断转移与集中到几家公司手中,这回导致权力与资源的转移与重新分配。如果未来强人工智能快速发展,它对人类的了解会越来越透彻。
有用户表示,通过识别照片和人脸,Facebook的人脸识别软件可以区分出化妆和不化妆时的我,这既有趣又可怕。与此同时,人类在辨认人脸时却常常遇到困难。据说波士顿的某家公司的AI已经通过数据的训练非常擅长阅读人类情绪了。
而根据人类简史的作者赫拉利的观点来看,人工智能技术的一个潜在结果是促成数据集中到某一个地方,也进而导致权力的集中。因为说到数据算法,你能在一个地方集中的数据越多,算法就会越好。因此人工智能技术革命产生了巨大的,将数据集中的动力,也造成了权力的集中。
也就是说,对于AI科技巨头来说,它的用户规模越来越大,数据就会越来越大,这同样会造成权力越来越大。换句话说,中美科技巨头将拥有越来越大的权利。但事实上,这也是人类对人工智能恐惧的一方面,因为权力的转移会导致利益与资源的重新分配。这可能导致它会让部分人受益,但不会让更广泛的普通人受益。
AI技术未来会不断突破,但风险在于其程序设定没有人类的价值观与道德标准
让人们更为恐惧的是,社交机器人学家与人工智能专家正在努力让人工智能融入人类特征,但人工智能却没有人类的价值观与道德标准,人工智能在加速推进,但只要人们没有从法律层面否决它是否应该被开发出来之前,它都是可以进行开发的。这会给谷歌、Facebook、微软等科技巨头提供大量的机会,即在道德伦理与法律监管真空中进一步发展人工智能技术。
但所隐含的弊端是,机器人没有与生俱来的道德,这原本是需要程序员和各个系统从操作系统开始,逐步落实道德标准。就比如科幻作家艾萨克·阿西莫夫所创造的“机器人三大定律”:机器人不得伤害人类或坐视人类受到伤害、机器人必须服从人类的命令、在不违背第一和第二法则的前提下机器人必须保护自己。
有了这种逻辑与价值观设定,人们会相对感到安全,当前自动化智能又几乎没有相关的法律规定,人类价值观却并未被编入人工智能的核心,这可能导致它带来的潜在危害走向失控。说到底,这是人们潜意识里对机器人的不自信,对它将叛变人类以及取代人们的恐慌。当然,这也是人们是对于未知的一种恐惧。
当然,人工智能要发展到威胁人类这一步还有太长的路要走,甚至在许多人看来,这一天永远也不会到来,毕竟现有的人工智能技术还不成熟,与真正人意义上的智能差的很远,目前的它被过度解读和渲染了。不过,更多的恐惧是来自于未知。恐怖大师史蒂夫-金所说,让人的心备受恐惧折磨的从来都不是妖魔鬼怪,而是超出认知范围的未知。
尽管我们不必过于担心人工智能可能会对人类造成的威胁,但也知道人工智能的发展是没有天花板的。我们正确的做法是正视这个趋势,并在未来趋势中去熟悉使用人工智能辅助,逐步占得这种技术进步的红利,并从中分一杯羹,在宏观层面,需要思考和做好AI的安全管控设计以及预防的备用方案,来管控好人工智能的安全、风险失控、伦理道德以及社会层面等诸多方面的问题,来消除人们的恐慌以及尽量让弊端与威胁最小化。
作者:王新喜TMT资深评论人本文未经许可谢绝转载我的微信公众号:热点微评(redianweiping)
当我们恐惧人工智能时,我们到底在恐惧什么
即便是业内诸多科技大佬、企业家等不断重申人工智能并不会给人类发展带来威胁与灾难,并让人们相信AI的好处会大于弊端。但还是有很多人表现对人工智能的恐惧,而聊到人工智能,人们最为普遍的忧虑以及最为热门的话题始终是,它是否会造成大规模失业,是否会抢夺人类的饭碗?
当然,乐观派会认为这种担忧是科幻电影看多了。在最近,有消息称Facebook在人工智能研究所在对两个聊天机器人进行对话策略迭代升级时,发现它们竟自行发展出了人类无法理解的独特语言,系统中的聊天机器人开始用自创语言对话,全然无视程序员下达的指令。而脸书停止了这一项目的研究,原因是“担心可能会对这些AI失去控制”。
不过Facebook近日公开回应关闭AI失控语言事件,认为一些媒体的报道有失事实,Facebook并没有关闭机器人聊天系统,而是在使它们变得更加聪明可控。
人类内心对人工智能恐惧与怀疑这是否是Facebook在人工智能系统中Bug还是故障暂未可知,但如果这是谣言,那么这可能就是人类内心对人工智能恐惧与怀疑的一个释放的方式与出口。
特斯拉CEO马斯克最早在2014年就在麻省理工学院的一次公开访谈中抛出了AI“威胁论”:“我认为我们应当格外警惕人工智能。如果让我说人类当下面临最大的威胁是什么,我觉得是人工智能无疑”。物理学家斯蒂芬·霍金曾经表示“人工智能可能自行启动,以不断加快的速度重新设计自己。”
微软创始人比尔·盖茨也曾公开表达同样的忧虑,称“机器确实可以帮助人类完成很多工作,但当机器越发的智能,它们将会对人类的存在造成威胁”。亚马逊CEO贝索斯曾就AI“威胁论”与马斯克发生过公开辩论。
但后来他同样认为未来的人工智能革命或许的确有一部分超出我们的控制范围。而谷歌母公司Alphabet执行董事长埃里克·施密特认为担忧人工智能是纯属杞人忧天,是科幻电影看多了。
AI的发展速度或快于人类学习进步的速度从目前各方大佬的观点来看,即便是有对人工智能持乐观派,但或许还是会透露出一些对AI的担忧与未来发展走势的不确定,科技大佬尚且如此,更遑论普通民众。可以看出的是,人们在人工智能的发展速度面前,还是表现出了不自信的一面。
虽然人们懂得,人类本身是在不断进化,但人工智能也可以,人们对于新事物的学习与进步都是一步一个脚印,而学习进度的速度相对偏慢,但人工智能的进步速度要远超过人类,多年前人们会认为AI在围棋上战胜人类不太可能,今天已经实现了。而依据摩尔定律,计算能力每隔一段时间就会翻番,这会驱使AI设计变得越来越复杂、计算机处理器速度越来越快,它们的水平会不断提高。
况且当前的中美科技巨头,几乎都在全力押注AI,谷歌、IBM等巨头相继开源AI平台,NVIDIA、英特尔公司深攻AI芯片,谷歌、苹果在大力收购AI公司,国内AT均提出AI发展战略,AI的发展速度未来几年可能会加快。
在当前世界各地,不少中低技工正在不断被机器人或智能化自动化软硬件所取代,并且取代率还在不断上升。有人说,人类需要学习十几年甚至二十年才能获得一份体面的工作,而AI呢?开发一个好的程序大家花几分钟下载,甚至不用下载直接API就能用了。当然,AI技术在不断地吞噬工作,但也会不断地创造工作。问题是,创造工作的速度能否赶上它所毁灭的工作的速度?当AI的发展速度快于人类学习进步的速度,越来越多的人都会被一种被淘汰的焦虑包围。
人工智能未来可能会取代更多的工种,但不再会创造大量的低技术性岗位尽管人们总是会拿蒸汽时代工业革命敲碎旧时代生产力体系,继而带来更多的新的工作来类比人工智能时代所带来的想象空间。但人工智能时代可能与工业时代有着本质的不同。
不同之处在于,比如过去工业革命革掉工匠们的命,用汽车取代马车,但这种变革更多是提升工业化的生产效率,带来了更多的工种,创造了大量的低技术性岗位,比如一个失地的农民,转型为产业工人并不困难,因为产业工人的需求很大,而且培训上岗的技术难度不大。
但人工智能未来可能会取代更多的工种,但不会创造大量的低技术性岗位,因为它的本质不仅是消灭简单机械的重复性劳动,而是能够自主分析与判断,与人类的脑力与技术展开竞争,即便能创造工作,也是技术性更高的工作。
比如说无人驾驶技术让司机的岗位消失,但带来的却是软件工程师、程序员、设计师等相关的岗位,这些岗位不是能通过简单的培训就能够上岗的。从另一个角度而言,正如美国学者约翰.C.黑文斯所言:技术纯熟的工匠与工业化的流水线上的廉价劳动力对抗,与对自动驾驶汽车在生死关头的程序如何编写的担忧本身不可同日而语。
人类如果在越来越多的领域被AI所取代,那么人类的工作将越来越多的聚焦在AI所不能取代的领域,而这些领域也没有人能够确保它永远不会被取代,正如有人说,我们恐惧的不是人工智能,而是自己的无能。也有如罗振宇此前在演讲中说过一句:“再残忍的资本家好歹要剥削工人,人工智能时代可能让人们连这个价值都没有。”
心理学上的恐怖谷效应从心理学上来看的话,恐怖谷理论或许能够从另一个角度来解释我们对于AI机器人的恐惧。“恐怖谷”一词由日本机器人研究院ErnstJentsch于1906年的论文《恐怖谷心理学》中提出,即当机器人越来越接近人类的时候,我们对它们的好感会提升,但是当机器人非常接近人类的时候,一旦到达某个临界点,我们的好感就对大幅度降低,甚至开始莫名的厌恶和惧怕。
为什么,因为当一个长着人的皮囊,但各项性能都超过人类、甚至克服了衰老与疾病的AI机器,人类的自尊感会被消弭于无形,而在这个时候,人们更担心的是人工智能产生独立意识,然后噬主。尽管,独立意识的产生方法现在只有几个假说而已,但需要思考的是,当一个AI的物种在智力、智商与能力等诸多方面均超出人类的时候,它是否还会心甘情愿的接受人类的统治?
只要人类与一个人工智能的系统算法密切结合工作,那么人工智能可能向人类学习,继而实现人物的自动化进程,当AI专家不断将新研究转变为算法,然后加入现有系统中,使得AI设计变得越来越复杂,那么它的危险就来自于自我学习与进化,发展演化到一个足够复杂的系统,人们可能无法关掉某个本身具有运行指令的系统,因为程序正在通过某种逻辑让自己的效率最大化。
这样一来,即使出现未知后果的风险提高,我们逐渐的无法完全了解这些系统的运作结果,它们的失灵方式也多种多样。历史上大的灾难往往都由各种各样的小故障组合而来,这也意味着一种安全与失控的危险。
所谓的恐惧都是源于未知。人工智能的发展速度太快,而普通人却对人工智能的操作方式、运作逻辑与程序一无所知,它彷佛一只神秘的黑盒子,人们知道自己未来不可避免的将身处黑箱之中,却不知道黑箱的边界,而人们更担心人工智能收集各种数据,因为驱动大数据经济的AI应用程序,是基于人类的兴趣、爱好、生活方式等数据以及主观判断所设计的系统,而这种系统却比人类更了解自身,这会让人们的隐私荡然无存。当前已经有AI芯片问世,比普通芯片快十倍乃至上百倍。显然,这开辟了一系列的可能性。
人工智能会剥夺人的幸福感从另一个层面来看,人工智能还会剥夺人的幸福感。人类需要幸福感与意义,需要薪水,需要人生的意义。而对于大多数人而言,幸福感与意义一般是由工作所赋予的,另一种就是从帮助他人中建立起来的存在感。因为工作能够帮助人们建立一种心流与价值意义,让人们沉浸并找到自身存在的意义。
而人的能力在本质上是有限的,当然,自动化与AI化将会成为一个趋势,工作被机器人取代之后,人们会焦虑该找什么样的工作才不会被取代,当自动化与失业威胁围绕,人们可能担心无法挣到足够的前来购买产品与满足自身的娱乐需求,人们必须思考如何找回被剥夺的存在感、意义与幸福感。当AI能够代替人类来帮助人类,人们就会逐步丧失表达同理心的能力。
按照心理学的理论,这是更高一级的“自我实现”的需求,它和娱乐一样是刚需,当自我实现的需求被剥夺之后,人们会思考自身存在的意义究竟为何,哲学家帕斯卡在《沉思录》所言:面对强大有力的宇宙,人是一根会思考的芦苇。
当人生幸福感被为人工智能剥夺而找不到意义时,就会陷入另一种危机之中——如何定义自己。正如凯文凯利所说:在未来的十年或者是未来一个世纪,我们都将生活在挥之不去的身份危机之中。我们需要人工智能来告诉我们,我们是谁。这同样让人们感到恐慌。
AI导致数据的转移与权力的集中:继而导致资源与利益的重新分配其次是数据。我们知道,数据是AI系统的命脉,你需要用数据进行训练,需要海量的数据与信息来进行推理。比如数字图像、数字记录,以及工厂的数据和跟踪信息,这些都可以放到系统中进行训练。而随着巨头用户规模化扩张,会导致数据不断转移与集中到几家公司手中,这回导致权力与资源的转移与重新分配。如果未来强人工智能快速发展,它对人类的了解会越来越透彻。
有用户表示,通过识别照片和人脸,Facebook的人脸识别软件可以区分出化妆和不化妆时的我,这既有趣又可怕。与此同时,人类在辨认人脸时却常常遇到困难。据说波士顿的某家公司的AI已经通过数据的训练非常擅长阅读人类情绪了。
而根据人类简史的作者赫拉利的观点来看,人工智能技术的一个潜在结果是促成数据集中到某一个地方,也进而导致权力的集中。因为说到数据算法,你能在一个地方集中的数据越多,算法就会越好。因此人工智能技术革命产生了巨大的,将数据集中的动力,也造成了权力的集中。
也就是说,对于AI科技巨头来说,它的用户规模越来越大,数据就会越来越大,这同样会造成权力越来越大。换句话说,中美科技巨头将拥有越来越大的权利。但事实上,这也是人类对人工智能恐惧的一方面,因为权力的转移会导致利益与资源的重新分配。这可能导致它会让部分人受益,但不会让更广泛的普通人受益。
AI风险在于其程序设定没有人类的价值观与道德标准让人们更为恐惧的是,社交机器人学家与人工智能专家正在努力让人工智能融入人类特征,但人工智能却没有人类的价值观与道德标准,人工智能在加速推进,但只要人们没有从法律层面否决它是否应该被开发出来之前,它都是可以进行开发的。这会给谷歌、Facebook、微软等科技巨头提供大量的机会,即在道德伦理与法律监管真空中进一步发展人工智能技术。
但所隐含的弊端是,机器人没有与生俱来的道德,这原本是需要程序员和各个系统从操作系统开始,逐步落实道德标准。就比如科幻作家艾萨克·阿西莫夫所创造的“机器人三大定律”:机器人不得伤害人类或坐视人类受到伤害、机器人必须服从人类的命令、在不违背第一和第二法则的前提下机器人必须保护自己。
有了这种逻辑与价值观设定,人们会相对感到安全,当前自动化智能又几乎没有相关的法律规定,人类价值观却并未被编入人工智能的核心,这可能导致它带来的潜在危害走向失控。说到底,这是人们潜意识里对机器人的不自信,对它将叛变人类以及取代人们的恐慌。当然,这也是人们是对于未知的一种恐惧。
当然,人工智能要发展到威胁人类这一步还有太长的路要走,甚至在许多人看来,这一天永远也不会到来,毕竟现有的人工智能技术还不成熟,与真正人意义上的智能差的很远,目前的它被过度解读和渲染了。不过,更多的恐惧是来自于未知。恐怖大师史蒂夫-金所说,让人的心备受恐惧折磨的从来都不是妖魔鬼怪,而是超出认知范围的未知。
尽管我们不必过于担心人工智能可能会对人类造成的威胁,但也知道人工智能的发展是没有天花板的。我们正确的做法是正视这个趋势,并在未来趋势中去熟悉使用人工智能辅助,逐步占得这种技术进步的红利,并从中分一杯羹,在宏观层面,需要思考和做好AI的安全管控设计以及预防的备用方案,来管控好人工智能的安全、风险失控、伦理道德以及社会层面等诸多方面的问题,来消除人们的恐慌以及尽量让弊端与威胁最小化。
【钛媒体作者:王新喜,微信公众号:热点微评(redianweiping)】
标签:人工智能机器人谷歌
更多好物在等你新浪众测·免费送推荐阅读聚焦应用中心新浪公益新浪游戏新浪视频新浪科技带领皇室家族赢得胜利靠反应力还不如背赛道动脑筋喂小怪物吃饼干轻松延长手机续航时间练就梦寐以求的好身材帮助保持健康生活方式随心所欲打造完美效果银河系最全新番齐放送复杂世界里一个就够了进入机器梦境寻找真相疯狂逃离恐怖的压碎机冰锋暗影古色庙殿狂奔斗巫师夺回被偷的糖果屯兵练兵出征攻占堡垒伪装胖猪混敌营救伙伴国内最专业的手机地图帮你一起保护你的颈椎随时随地轻松订火车票沈阳遭遇六级重度雾霾2万大妈齐跳小苹果禁烟范冰冰传递社会正能量未富先老养老金吃紧益调查:慈善需立法么反虐待动物法制化呼声高涨如何看待广州拟奖拾金不昧环保部即将解决红顶中介明星婚礼上的“善”姿“百名春蕾之星”评选舞剧《画皮》关注孤独症女孩患尿毒症自筹药费互联网发展基金会成立林青霞为慈善参加节目全面实施城乡大病保险儿童安全座椅强制认证办养老院真的是机会么志愿者慰问抗战老兵战舰世界海神节礼包乱斗西游2新浪独家卡倩女幽魂2夏日特权卡功夫熊猫新手高级礼包新倩女幽魂新浪特权卡灵魂战神不删档测试码我是大主宰新浪荣耀卡大话西游2免费版礼包西楚霸王新浪荣耀礼包镇魔曲神兵觉醒尊享卡完美国际2一生有你卡新天龙八部新手特权卡问道经典十年至尊礼包大战神新浪独家礼包热血传奇新区独享礼包剑网3萌宠浪浪大礼包创世2封测激活码问道手游媒体礼包极限Girl美与野性结合让萌宠当一天司机亲千万不要手贱啊超级屌的视觉错觉运动地球上最美丽的天堂鸟新一代武林最萌小道士神奇的PS造钱术大开眼界的泡面新吃法让宝宝嘴馋的菠萝炒饭经典电影镜头神级剪辑亲手教你范爷经典妆容盘点全球最糟糕山寨品恶搞:当一骷髅在开车健身是把整容刀三分钟看尽十年成长和TFBOYS一起过暑假不用去医院的牙美白术一分钟识别面试潜台词Windows10升级秘籍净水器的水有多深?识趣毕业季户外特辑用户关注手机哪些功能有曰:国内外展会吐槽三十年经典Moto手机ChinaJoy2015大看点东芝虚增利润财务丑闻紫光集团收购美光科技诺基亚为未来电影造球全球APP开发创意大赛享说第四期主持人李晨猎豹靠近捕食熟睡疣猪非洲血腥动物标本加工相机拍泡腾片遇水冒泡冰岛令人窒息美景懒惰青蛙蜗牛背搭便车美摄影师拍奇怪毛毛虫江晓原:人类必须正视人工智能的威胁
江晓原:人类必须正视人工智能的威胁2017年09月02日12:25:47来源:澎湃新闻网作者:江晓原
用微信扫描二维码
人参与评论斯蒂芬·霍金、比尔·盖茨和伊隆·马斯克等人,早就呼吁世人警惕人工智能的盲目研发,特别是要警惕军事用途人工智能的研发,认为这有可能“唤出魔鬼”。马斯克更明确表示,“我们需要十分小心人工智能,它可能比核武器更危险”。
上海交通大学讲席教授、科学史与科学文化研究院院长江晓原东方IC资料图
斯蒂芬·霍金、比尔·盖茨和伊隆·马斯克等人,早就呼吁世人警惕人工智能的盲目研发,特别是要警惕军事用途人工智能的研发,认为这有可能“唤出魔鬼”。马斯克更明确表示,“我们需要十分小心人工智能,它可能比核武器更危险”。我认为,人类现在正在玩的最危险的火有两把,即基因工程和人工智能,其中更危险的就是人工智能,但是很多人并没有认识到这一点。
一、近期威胁:大规模失业、军事化用途
第一,大规模失业。当下,人工智能在中国的发展速度十分迅猛,大多数人对这样“弯道超车”的现象持乐观态度,但我认为这未必是好事,其结果很可能是替发达国家承担“趟地雷”的任务。人工智能在工业上的大规模使用,导致工作岗位被机器人所取代,社会迎来一大批失业人群。虽然大部分的工作由人工智能完成,其创造的财富也会不断增长,但是却会迎来新的社会财富分配问题。若大部分失业者所得财富仅略少于少数工作者一点,势必会挫伤工作者的积极性;若财富分化悬殊,小部分工作者所得财富远高于多数失业者,必将导致失业群体的不满,激化社会矛盾。
第二,军事化用途。将人工智能用于生产更高效率的杀人武器,比如无人机,以前攻击目标是由人来做出决定的,但现在人工智能技术下生产的无人机,追求的是不再需要人来指出攻击目标即可自动判定目标执行攻击,这无疑是将杀人的权力让渡给一个机器。而杀人的罪责到底是由制造机器的厂家承担还是机器的归属人来承担,这些问题都还未有相应法律法规作为规范。最近马斯克等116人联名呼吁“不要研发杀人的机器人”,声音更大了。
在这个问题上各大国都处在被劫持的状态。人们常说“落后就要挨打”,其暗含的逻辑就是“先进可以打人”,先进的国家可以欺压落后的国家,即使各国不希望制造杀人武器,但又不得不制造杀人武器,因为谁也不想落后,谁也不愿挨打。
实际上人工智能军事化的危害性,并不在于其导致伤亡人数的多少,战争也不会因为其导致伤亡较少而变得就可取。在此,推荐一部美国的纪录片《零日》,影片中美国和以色列为了破坏伊朗的核计划联合研发了一种超级病毒。事实上,这种超级病毒就是一种幽灵般的人工智能,它感染了伊朗的网络之后,会自动寻找和识别特定的目标——离心机的控制器。由于病毒设计巧妙,它在当时几乎无法被侦测出来,而且它也不会去破坏和干扰除了离心机之外的任何别的机器,所以刚开始它隐蔽得很好。然而,美国人偷笑的时间并没多久,这种超级病毒还是被发现了。不仅被发现了,而且被破解了。这就意味着伊朗及其盟友,也获得了这种超级病毒。人工智能的军事化应用当然比原子弹能造成的伤亡要小,但其破坏性一样不容小觑。
二、中期威胁:人工智能的失控
如今机器人和互联网结合,以前的个体物理极限将不再存在。简单的来说,过去可以拔掉电源终止机器人的工作,而对于和互联网结合的人工智能来说,根本不能通过“拔掉电源”将其控制。
现在有些业界专家还在说,可以拔掉机器人的电源。实际上人工智能跟互联网结合以后,它完全不需要什么形态,以前没有互联网的时候,单个的人工智能有局限,哪怕全部都是芯片,也有存储、运算方面的极限。但是现在跟互联网一结合,所有的伺服机构都不再需要了,只要在网络上下单、订购各种服务,就可以完成对社会的破坏。所以到那个时候根本无法拔电源,因为它不存在一个电源可以拔掉。
人工智能的专家称要为人工智建立一套道德体系,笔者对此持强烈的怀疑态度,人类尚未能保证教育好自己的子孙后代,又何来信心让将比人类更聪明的人工智能避免误入歧途?
在这个问题上,专家们经常说,我们在机器人的芯片里写进什么话,让它不学坏。关于这个问题最简单的疑问就是,你都不能保证自己的孩子不学坏,更何况人工智能呢?到目前为止,没有人能给出一个办法让人相信他真的能防止人工智能的反叛。
三、远期威胁:人工智能的终极威胁
人们经常提到阿西莫夫一本小说中的机器人的三定律,却很少知道他还有另外一个重要的观点——所有依赖人工智能的文明都必定会衰亡。未来能够长久发展的文明都是立法严禁研发人工智能的。
为什么呢?若假设人工智能对人类是完全忠诚的,人类的一切活动可通过支配它而完成。一旦有了这样的人工智能,人类将失去人生意义,成为行尸走肉,在体能和智能方面将全面快速衰落,而且由于人类将一切事情交由人工智能完成,这也是将这个世界的管理权让渡给了人工智能。随着它们的进化,它们终将认识到人类是这个世界的负担,最后理性的结果必将是清除已成行尸走肉的人类。这样对人类来说,实际上就是自掘坟墓。
这就是人工智能的终极威胁。
四、终极问题:我们究竟为什么要发展人工智能?
很多人赞成发展人工智能,只是因为它是科学技术,而科学技术它一直被认为是一个尽善尽美的东西,所以只要一说发展科学技术就是天然正确的。如果反对某种技术研发,一定说是阻碍科学发展,而阻碍科学发展在很多人脑子里认为天然的就是一个罪状。实际到了今天,已经不能再简单地将“阻碍科学发展”视为罪状了,至少应该认识到有一些科学技术是不应该发展的,是有危害的。
在人工智能这件事情上,资本在其背后的推动是很明显的,策划出阿尔法狗下棋的商业炒作之后,更多的资本流向了人工智能的行业。但是资本的增值是盲目的,而且不计后果的,关于这一点重温马克思的教导很有意义。我现在对资本的恐惧要比对权力的恐惧大得多,资本比权力更可怕是因为资本其实非常盲目。
我提出一些激进的反对人工智能的观点,主张就人工智能不可逆转的发展形势及时思考。我认为,现在不能盲目赞美人工智能,歌颂人工智能的美好,我们应该在媒体上多进行关于人工智能的伦理方面的探讨,至少能引起各界对人工智能这方面问题的注意。在某些领域中,可以考虑保留低级的人工智能,保留人工智能的某些初级应用。要认识到这个东西就像魔鬼一样。我们尽量设法对某些指标性的东西加以明确,如各国约定在全球范围普遍内不允许做某些事,这样有可能延长人类文明。
(本文为江晓原2017年8月28日由上海市社联《探索与争鸣》杂志社和华东政法大学政治学研究院共同主办的“人工智能与未来社会:趋势、风险与挑战”学术研讨会上的主题发言,首发于公众号:tansuoyuzhengming,澎湃新闻经授权刊发)
游海洪[责任编辑:游海洪PN135]
责任编辑:游海洪PN135
标签:人工智能江晓原
推荐用微信扫描二维码
分享到:新浪微博QQ空间人参与评论人工智能时代,我们到底在恐惧什么
人类内心对人工智能恐惧与怀疑
特斯拉CEO马斯克最早在2014年就在麻省理工学院的一次公开访谈中抛出了AI“威胁论”:“我认为我们应当格外警惕人工智能。如果让我说人类当下面临最大的威胁是什么,我觉得是人工智能无疑”。
物理学家斯蒂芬·霍金曾经表示“人工智能可能自行启动,以不断加快的速度重新设计自己。”
微软创始人比尔·盖茨也曾公开表达同样的忧虑,称“机器确实可以帮助人类完成很多工作,但当机器越发的智能,它们将会对人类的存在造成威胁”。
AI的发展速度或快于人类学习进步的速度
从目前各方大佬的观点来看,即便是有对人工智能持乐观派,但或许还是会透露出一些对AI的担忧与未来发展走势的不确定,科技大佬尚且如此,更遑论普通民众。可以看出的是,人们在人工智能的发展速度面前,还是表现出了不自信的一面。
虽然人们懂得,人类本身是在不断进化,但人工智能也可以,人们对于新事物的学习与进步都是一步一个脚印,而学习进度的速度相对偏慢,但人工智能的进步速度要远超过人类,多年前人们会认为AI在围棋上战胜人类不太可能,今天已经实现了。而依据摩尔定律,计算能力每隔一段时间就会翻番,这会驱使AI设计变得越来越复杂、计算机处理器速度越来越快,它们的水平会不断提高。
在当前世界各地,不少中低技工正在不断被机器人或智能化自动化软硬件所取代,并且取代率还在不断上升。有人说,人类需要学习十几年甚至二十年才能获得一份体面的工作,而AI呢?开发一个好的程序大家花几分钟下载,甚至不用下载直接API就能用了。当然,AI技术在不断地吞噬工作,但也会不断地创造工作。问题是,创造工作的速度能否赶上它所毁灭的工作的速度?当AI的发展速度快于人类学习进步的速度,越来越多的人都会被一种被淘汰的焦虑包围。
但人工智能未来可能会取代更多的工种,但不会创造大量的低技术性岗位,因为它的本质不仅是消灭简单机械的重复性劳动,而是能够自主分析与判断,与人类的脑力与技术展开竞争,即便能创造工作,也是技术性更高的工作。
比如说无人驾驶技术让司机的岗位消失,但带来的却是软件工程师、程序员、设计师等相关的岗位,这些岗位不是能通过简单的培训就能够上岗的。
人类如果在越来越多的领域被AI所取代,那么人类的工作将越来越多的聚焦在AI所不能取代的领域,而这些领域也没有人能够确保它永远不会被取代,正如有人说,我们恐惧的不是人工智能,而是自己的无能。
人工智能剥夺的幸福感
从另一个层面来看,人工智能还会剥夺人的幸福感。人类需要幸福感与意义,需要薪水,需要人生的意义。而对于大多数人而言,幸福感与意义一般是由工作所赋予的,另一种就是从帮助他人中建立起来的存在感。因为工作能够帮助人们建立一种心流与价值意义,让人们沉浸并找到自身存在的意义。
而人的能力在本质上是有限的,当然,自动化与AI化将会成为一个趋势,工作被机器人取代之后,人们会焦虑该找什么样的工作才不会被取代,当自动化与失业威胁围绕,人们可能担心无法挣到足够的前来购买产品与满足自身的娱乐需求,人们必须思考如何找回被剥夺的存在感、意义与幸福感。当AI能够代替人类来帮助人类,人们就会逐步丧失表达同理心的能力。
其次是数据。
我们知道,数据是AI系统的命脉,你需要用数据进行训练,需要海量的数据与信息来进行推理。比如数字图像、数字记录,以及工厂的数据和跟踪信息,这些都可以放到系统中进行训练。而随着巨头用户规模化扩张,会导致数据不断转移与集中到几家公司手中,这回导致权力与资源的转移与重新分配。如果未来强人工智能快速发展,它对人类的了解会越来越透彻。
而根据人类简史的作者赫拉利的观点来看,人工智能技术的一个潜在结果是促成数据集中到某一个地方,也进而导致权力的集中。因为说到数据算法,你能在一个地方集中的数据越多,算法就会越好。因此人工智能技术革命产生了巨大的,将数据集中的动力,也造成了权力的集中。
也就是说,对于AI科技巨头来说,它的用户规模越来越大,数据就会越来越大,这同样会造成权力越来越大。换句话说,科技巨头将拥有越来越大的权利。但事实上,这也是人类对人工智能恐惧的一方面,因为权力的转移会导致利益与资源的重新分配。这可能导致它会让部分人受益,但不会让更广泛的普通人受益。
当然,人工智能要发展到威胁人类这一步还有太长的路要走,甚至在许多人看来,这一天永远也不会到来,毕竟现有的人工智能技术还不成熟,与真正人意义上的智能差的很远,目前的它被过度解读和渲染了。
尽管我们不必过于担心人工智能可能会对人类造成的威胁,但也知道人工智能的发展是没有天花板的。我们正确的做法是正视这个趋势,并在未来趋势中去熟悉使用人工智能辅助,逐步占得这种技术进步的红利,并从中分一杯羹,在宏观层面,需要思考和做好AI的安全管控设计以及预防的备用方案,来管控好人工智能的安全、风险失控、伦理道德以及社会层面等诸多方面的问题,来消除人们的恐慌以及尽量让弊端与威胁最小化。
返回搜狐,查看更多