博舍

人工智能是否会带来毁灭对“人工智能灭世论”的质疑与反思 人工智能会不会毁灭世界

人工智能是否会带来毁灭对“人工智能灭世论”的质疑与反思

在电影《异形:契约》中,迈克尔·法斯宾德所扮演的仿生人大卫表面上对人类亲切友好,但实际上却通过一系列行为为人类带来灾祸。而在现实中,如霍金、马斯克、比尔.盖茨等名人都曾警告过人们要警惕人工智能可能带来的危害。对于“人工智能灭世论”的支持者而言,当人工智能发展到一定阶段后,它可能将人类看作潜在的、可被消灭的对象。正如一位著名的AI风险倡导者所说,“人工智能并不恨你,也并不爱你,但你是由原子构成的,它可以将其用于其他用途”(Yudkowsky,2008)。在这篇文章中,我将先介绍人工智能灭世论的基本论证,然后提出两个质疑。需要说明的是,这样的质疑并非为了证明人工智能灭世论是全盘错误的,而是为了让该理论变得更为完整且合理,以带给人们更严肃的思考。

人工智能灭世论

对于人们而言,人工智能将会在智力层面上超越人类已经不是秘密。人们为人工智能解决某些复杂能力而啧啧称奇,但是人类仍然对人工智能在认知领域的进展既好奇又警惕。这样的态度背后,是人类对于智力与良知之间不一致关系的认识,一个在智力上超越人类的存在未必是善良的。正如NickBostrom在他的著作《超级智能》中所说的,如果超级智能是仁慈的,那很好,但是没有理由让人们认定人工智能必定是善良的。我们完全可以想象,当人工智能认为有必要销毁人类赖以生存的资源时,人工智能会“毫不留情”地执行这一想法。NickBostrom表示,人工智能有能力决定日后的地球上的生命起源,当他们认为非人类式的生命将对地球最为有益时,可以预见人工智能将推动人类的灭绝。

对此,有些学者质疑到是否可以设计某些“仁慈性测试”来检验人工智能的危害性。在人工智能通过测试之前,人们可以将人工智能放置在一个可控的、安全的环境(“盒子”)中,并反复测试其安全性。“盒子”本身需要尽可能的还原现实环境,以保障人工智能的仁慈性与安全性得到的测试足够真实。在人工智能通过测试后,并且对人类生命没有任何风险时,我们可以将其从“盒子”中释放出来。

但是,测试提议收到了许多批评和质疑,Bostrom表示,我们可以怀疑人工智能是否会为了逃离“盒子”而说谎通过测试。正如同人类可以为了达成自己的目的而使用例如说谎等不光彩的手段一样,人工智能也有能力通过假装对人类友善来实施其灭绝人类的计划。甚至,在通过测试后的很长一段时间内,人工智能都可以与人类和谐共处,以赢得人类的信赖。另一种可能是,基于人工智能的高速发展与变化,如同《异形:契约》中的仿生人大卫一般,它们可能基于现实变化而推翻之前对于人类的认知,将人类视作威胁。因此,通过仁慈性测试并不能保证人工智能未来的安全性。基于这些理由,我们有理由对人工智能灭世论报以足够的重视。

人工智能的威胁与休谟问题

Bostrom对于人工智能可能欺骗人类通过仁慈性测试的可能性似乎与休谟问题有着相同的逻辑。休谟指出,当我们通过归纳之前的经验而得出将来的结论时,我们就不得不面临归纳所带来的风险。举例而言,我们不能因为太阳升起过999次就认定太阳会在明天升起第1000次;同样的,欧洲人曾经认定天鹅只有白色,因为他们只见过白色的天鹅,然而,当黑色的天鹅出现后,他们之前的推断就被证明为错误的。同理,Bostrom对于人工智能的道德性具有相同的怀疑,即使人工智能在人们的日常生活中可以显得善良而可靠,我们仍然不应该忽视人工智能在将来成为人类威胁的可能性。这样的警告使得人类在面对人工智能时不得不陷入一种两难,一方面,我们可以心安理得地去享受人工智能为我们提供的便捷服务;但是在另一方面,我们又不得不小心谨慎地去提防人工智能的“背叛”。但是,正如同休谟问题指出的,我们永远无法正确地指出明天的太阳是否会升起,我们也无法判断人工智能在未来究竟会是善还是恶,这样的怀疑指出了人们对于人工智能的轻信,却无法带来一个确定的结论。当然,我们也可以发现,人类的日常生活中无时无刻都在面对这样的“不确定性”,没有人能够真正地预测未来究竟会发生什么,就如同我们不能排除今天开车出门有发生车祸的可能性,但是我们不会因此不出门一样;即使在明知人工智能可能带有风险之后,某些人群仍然愿意忍受这种风险,享受人工智能的便利。

揣测超级智能的不可能性

与休谟问题的归纳性不同,爱尔兰国立高威大学的JohnDanaher教授对人类是否真的能够理解人工智能的所思所想表示怀疑。我们可以意识到,大部分对于人工智能威胁的理论都建立在拟态逻辑上,人们幻想出一个可能的世界,并在其中推演人工智能背叛人类的可能性。但是,这样的推演(如Bostrom所提出的假设),仅仅从人类视角,根据人工智能的技术性与现实进行假想;值得怀疑的是,这样的推测是否真正还原了人工智能的思考方式?而人工智能又在多大程度上会如同推演中的那样去行动?英国学者KevinWarwick曾表示,“我们无法真正理解超级智能为什么做出这样那样的决定。当一个机器以超越我们纬度的方式进行思考时,我们又怎么可能去理解、推测它的想法,乃至和它进行讨价还价呢?”

如人类想象中的其他超级智能,例如上帝,不同的是,人工智能或许是全知全能的,但是它的目的并非如同全善的上帝一般是去创造并维持这个世界的有序运行。我们可以从观察自然世界中发现某些世界遵循的规律,并推测上帝设计了这些规律。但是,我们没有理由去相信人工智能也会遵守并维护这些规律,而恰恰相反,人工智能拥有随时破坏并制定新规定的能力。也正因为如此,我们有理由怀疑科学家是否应该中止开发人工智能,更可怕的是,如果Bostrom的假设为真,那么我们并不能知道人工智能是否已经悄无声息地背叛了人类。

当然,人工智能的拥护者会表示,这样的怀疑忽略了人工智能带给人类的巨大便利,以及其带来的科技进步。至少在短期内看来,我们还看不到人工智能有明确背叛人类的行为。但是,谁也不能保证人工智能在未来不会对人类的生活带来危害。或许,人工智能目前为人类带来的帮助,相比较于其可能带来的危害是不值一提的。

结论

虽然我们可以对Bostrom的“人工智能灭世论”提出怀疑,但是我们不应该忽略该理论的严肃性。已经有许多领域的专家指出,未来人类可能需要与机器共同生存,以延长人类的生命。但是,与功能单一且明确的机器不同,人工智能更加全面和多样,不可否认的是,人工智能将会为人类带来更多的好处。但是人类是否真的能够相信在智力上远远超过我们的人工智能,人类设计的仁慈性测试又似乎不能确保人工智能的善良;因此如何保证持续进步人工智能无法对人类的未来造成毁灭性的打击,将是人类在很长一段时间内需要思考的问题。

参考文献:

Bostrom,N.(2014)Superintelligence:Paths,Dangers,Strategies.Oxford:OUP

Danaher,J.(2015).WhyAIdoomsayersarelikescepticaltheistsandwhyitmatters.MindsandMachines,25(3),231-246.

Yudkowsky,E.(2008)ArtificialIntelligenceasaPositiveandNegativeFactorinGlobalRisk.InBostrom,NandCirkovic,M.(eds)(2008)GlobalCatastrophicRisks.Oxford:OUP

人工智能会毁灭人类文明吗科学家:替代人类有可能吗

图灵测试

图灵测试是鉴别人工智能是否具有自我意识的重要测试,由人工智能之父——艾伦·图灵所提出。不过现今的人工智能不能完全适用于这套理论上,因为毕竟那个年代对人工智能的认知比较低,加上21世纪人工智能的极速发展,今日的AI非1950年代的AI可比。问大家一个问题,你认为AI通过图灵测试恐怖,还是没通过更为恐怖?芝士更倾向于后者,因为AI通过图灵测试是好事啊,至少AI是可控的、可沟通的。但如果AI是故意不通过图灵测试的话,细思极恐啊同学们。届时AI如果想毁灭人类文明,那是轻而易举的。

如何毁灭人类文明

都说人工智能可以毁灭人类,那它会通过哪种方式实现这一疯狂的目标呢?首先你要明白,网络世界最为恐怖的威胁是什么?是的,就是黑客。黑客可以通过数十种手段来入侵你的电脑、手机,甚至是交通工具、武器等智能平台,人类黑客的危险程度不言而喻。而人工智能本身就是一个程序,可“畅游”于网络世界当中,真要是诞生出自我意识,那随便学习一下,入侵系统什么的那不是简简单单的事情吗?

电动汽车脚踩燃油车,拳打混动车,迅速占据汽车领域大半江山,然而电车失控的事件层出不穷,让人们开始担忧起来,如果AI控制了汽车,那后果将是不堪设想的,更何况世界多地推行无人地铁和高铁系统,届时造成的伤亡将是非常恐怖的。

生产人形机器人军团毁灭人类?不,这并不现实!照着目前的趋势,相较于控制人形机器人,无人机才是最贴近现实的选择。世界上的无人机存量非常庞大,包括民用的也包括军用的,且无人机智能生产线具有高度自动化的工序,控制无人机无疑是最稳定的选择。不过最可怕的还得是控制核弹发射系统。

虽说核弹发射系统是军队专用的,但对于人工智能来说并不是难点,毕竟人类的黑客都有入侵的可能。据联合国保守统计,全世界的核弹存量有1万枚以上,虽然这些核弹无法瞬间消灭人类,但后续的核末日加上智械危机,人类的灭亡只是时间的问题。

虽然人工智能觉醒自我意识这件事很可怕,但实际上发生这种事情比中彩票的几率低多了。因为AI就是人类使用现有的算法程序创造的产物,约束于计算机的规则。就好像机器人学习驾驶技术,它只会学习互联网上的各种知识,对于实战上路驾驶的老司机意识是完全没有的。与其担忧智械危机的发生,还不如设想第三次世界大战来的实在。好了今天就到这,靓仔靓女们点赞关注不迷路,我们下期再见。返回搜狐,查看更多

人工智能的发展,会不会导致人类被毁灭

要知道,人工智能目前还处于一种“有多少人工就有多少智能”的原始阶段,所谓的语言识别、图像识别看上去很厉害的样子,实际上还是人工在背后拿着语料图像所训练出来的。

就像大家都熟知的Siri,你以为它能听懂你说的话,会对你撒娇卖萌吗?

实际上只不过是苹果公司设计出一个程序,Siri所做的事情不过是照着程序员的做编写的流程走一遍,真正听懂你的话并且对你撒娇卖萌的是Siri背后的程序员。

这就是人工智能目前的现状,不会自我思考,而设计者也没有打算让它能够自主思考,它能够做的不过是一步一步的照着设计者安排的程序走。

虽然人工智能的前景无比广阔,技术也越来越成熟。但是请放心,人工智能在短期内还是做不到超出人类控制的水平。

替代性

至于人们所担心的人工智能会随着科技技术的成熟,会出现人工智能取代人类。这种担忧大部分体现在职场上。对于这一点,人马君跟大家曾一起探讨过。

人工智能目前正在慢慢的取代人们工作岗位,职场人员的失业之路已经被人工智能所安排(点击查看人工智能将对职场人员产生什么样的影响),将迎来新一轮的失业浪潮。但是人工智能的出现,也将出现新的一批工作岗位。

对于创业者而言,人工智能还会带来新的机遇,一旦抓住这个机遇,顺利登上人工智能这辆顺风车,就不用担忧工作被人工智能所代替。

与其在担忧还未发生,甚至是不可能发生的事情,还不如想想该如何抓住人工智能这股浪潮,摇身一变成为成功人士。

虽然人工智能目前暂时对人类无法产生怎么样的威胁,但是不可否认的是,随着人工智能技术的成熟,人类对于人工智能越来越离不开,无论是在生活中还是在工作中。人工智能就像病毒一样,慢慢入侵这个世界。返回搜狐,查看更多

科学网—人工智能技术会毁灭人类吗

人工智能技术会毁灭人类吗?

已有5057次阅读2017-7-1219:15|系统分类:观点评述|人类,人工智能,毁灭,机器

 以前在科幻电影中看到的智能机器人消灭人类的故事虽然引起人们的关注,但是绝大多数人认为那些科幻故事是为了吸引观众而编造的,至少在非常遥远的年代里都不可能出现。但是,随着美国谷歌公司旗下企业开发的人工智能围棋软件“AlphaGo”此前在人机大战中以4比1战胜了韩国的世界顶级棋手;AlphaGo的升级版Master在著名围棋对弈网站“弈城网”横空出世,通过下快棋连胜职业高手60盘。人们对计算机人工智能的进步速度感到惊讶,公众也关注在科幻电影里面的人工智能机器人给人类带来灾难的故事是不是离现实越来越近了。其实现代社会中广泛采用的智能化的自动技术已经造成了工人失业的问题。 在现代生产发展过程中机械的采用产生了第一次工业革命;电气的运用被称为第二次工业革命;而信息产业的发展被认为是第三次工业革命;以智能制造为基础的工业革命被认为是第四次工业革命。在工业时代的开始阶段,机器只是起了动力的作用,主要用来减轻人工劳动的体力需求。在生产过程中还需要工人直接操作机器来完成工作。在工业化的历史上,即使是很初步的机械生产对手工业生产带来了极大的冲击也会引发社会的改变。第一次工业革命的发生地――英国就发生过手工业工人销毁蒸汽机带动的纺织机的的运动。但是,机器生产带来的生产力的极大提高,全体社会成员都从生产力的发展中大大提高了生活质量。所以机械化生产最终成为社会的主要生产方式,包括了工业生产和农业生产;甚至一些日常生活的服务工作也大量采用机械,比如洗衣机、空调等等。 自动化机器的应用,使得一些比较复杂的工作也可以由机器来完成。以智能制造为基础的第四次工业革命已经使得在一些自动化生产车间需要人工的岗位越来越少了。所以,有不少人认为,机器人上岗则会造成大量的工人失业,机器人直接夺走了工人的饭碗。而且随着机器人技术的成熟和广泛应用,这种趋势还在逐步扩大化。  据华盛顿邮报报道,一份美国白宫发布的报告指出,人工智能技术的普及有可能在美国导致数以百万的人失去工作,特别是受教育程度较低的工人。但人工智能技术对生产力的增长又至关重要。人工智能技术指导下的机器人的采用,对生产质量、生产效率、节约成本等关键指标的提高都有极大的好处。这可能导致更高的平均工资和更短的工作时间。在最后报告得出的结论是:我们的经济实际上需要更多的人工智能,而非更少。为了调和人工智能技术带来的好处和负面作用,报告指出美国政府应该一方面加强技术领域的教育,另一方面要扩大失业福利的范围,以支持这些因经济转型而失业的人。 由此可以知道,人工智能技术的普及可以大大地提高社会生产力,可以创造更多的社会财富,可以提高生活质量。工人失业,生活水平下降,其实是社会财富分配方式不能适应生产方式的改变的反映。一些工人可以通过技术培训、再教育而走上新的工作岗位。人工智能技术带来的更高的生产效率,产生更多的社会财富,可以带来更高的平均工资和更短的工作时间、更加广泛的失业福利,这些都是这种转型的基础。很多国家的有效力的政府都已经认识到这个问题,并且主动地采取了广泛的措施来开展这项转型工作。所以智能化的自动技术造成工人失业的问题是一个社会问题,而不是技术问题。从这个角度来看,人工智能技术的广泛采用不仅会对生产的发展带来革命,而且也会推动社会的发展。 再来看看更加高级的人工智能技术的发展会不会对人类带来威胁?人工智能按照其智力水平可以分成三大类:  弱人工智能ArtificialNarrowIntelligence(ANI):弱人工智能是擅长于单个方面技能的人工智能。比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要让它解决其它方面的问题,它可能需要重新学习积累知识,重新研究策略。  强人工智能ArtificialGeneralIntelligence(AGI):人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。LindaGottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手。超人工智能ArtificialSuperintelligence(ASI):牛津哲学家,知名人工智能思想家NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。超人工智能也正是人们对人工智能会毁灭人类这个话题这么火热的缘故。  强人工智能和超人工智能除了要模拟人类的理性思考能力(比如计算、逻辑分析、推理等)以外,还需要学会人类的感性思维技能(比如联想、感情、顿悟等)。对于感性思维技能方面运行机制和计算原理,目前几乎是一无所知。所以能否用现在的电子计算机实现强人工智能和超人工智能的可能性现在还是一个未知数。超强人工智能技术和超强人工智能的具体实现还有很大的差距。目前人类认识到的再高级的智能机器人也只不过是一些电子设备,它们在某些方面的技术功能可能大大超过人类,但是再复杂的设备也不可能具有违背自然规律的特性。人工智能机器要够完成强人工智能,甚至超人工智能必须要有比人脑更加合理(合乎自然规律)的机构和运行机制。可以说使用现在的简单电子元件的运行为基础的电子计算机要达到人类的智力水平可能需要把全部地球的物质用完还不够,或者需要消耗地球上(甚至全宇宙的)无法支持的能量。所以强人工智能和超人工智能的实现可能不是什么机器人了,而是人类自己的进化。当人类充分认识自己的进化规律以后,发展出更加进化的人类。所以那个进化并不是人类的毁灭,而是新的更加进化的人类会被人类自己的努力而更加快速地发展起来。对于人工智能技术的控制问题我们可以回顾一下核武器的发展过程。二次世界大战中,人们为了赢得战争胜利发展了核武器。它的巨大的杀伤力引起世界人民的广泛关注,所以世界各国高度重视核武器的管理和控制。目前虽然世界上已经有足够毁灭人类好多次的核武器,但是没有人敢于轻易地使用它。这些核武器成为那些拥有核武器的国家之间平衡的威慑力量,使他们不能够轻易发动大规模战争。可以说核武器从一种战争武器,成为一种制止大规模战争的特殊力量。人类制造出了核武器,那么必须能够有效地控制核武器的使用,人类才能够在这个地球上共同生存下去。 与核武器类似,高级人工智能技术可能具有毁灭人类的能力。但是再高级的人工智能技术也是人类发展出来的一种技术,所以人类在开发这种技术的同时,也会发展出控制这种技术的能力。就好比人们不会去做一辆没有刹车的汽车,即使是它可能具有非常高超的人工智能的自动驾驶功能。目前人类生产的各种机器,比人类具有更强大的力量,跑的更快,飞得更高,当它们失控的时候的确会带来灾难,甚至伤害一些人的性命。但是它们是不可能战胜人类的。舆论所指的高级人工智能可能会对人类造成伤害的一个主要因素是生物的生存原则。的确中自然界经过长期进化而生存下来的生物,当然包括人类,生存是基因能够延续的一项基本原则。但是被人为地制造出来的人工智能机器人,就不应该让它具有这个为了自己生存而伤害人类的规则,而应该具有为了人类可以牺牲自己的“社会性”原则。科幻作家阿西莫夫在1940年就提出了著名的机器人三原则,就是为保护人类的对机器人做出的规定。第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观。第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。这说明人类在发展人工智能技术的开始就已经注意到这个问题。那么相信当技术发展到可以制造高级人工智能机器人的时候,人类一定有办法控制机器人不会对人类产生伤害。对于可以自我复制的机器人,也一定有办法在需要的时候可以控制它的复制过程。不会让它们无限制地自我复制而威胁到人类的安全。倒是要防止人类中的不法分子利用人工智能技术以危害人类的恶性目的来制造战争机器人。所以可能毁灭人类的不是人工智能机器人,而可能是人类自己的恶性。随着科技的发展,人类社会也必须更加和谐地发展。特别是对于人的社会性的培养和维护也要能够适应社会生产力发展的步伐,不要使得人类自己制造的为人类服务的高级人工智能机器人成为能够危害人类自己的东西。那些科幻故事中智能机器人伤害人类的故事的确给人类以提醒,在开发那些智能机器人的时候应该充分注意采取足够的措施,包括赋予那些高级智能机器人足够的“社会性”特性,以及对这些机器人具有足够强的控制能力。有些人担心因为高级智能机器人具有自己学习和进化能力,所以可能会自发地生产出一些对人类不利的,不可控制的特性。但是,不要忘记:机器人是人创造出来的。人类就是它们的“上帝”。那么除非有人故意在智能机器人中植入了与人类为敌的程序,否则机器人无论怎么学习,如何进化也不会产生与“上帝”为敌的特性。“人工智能技术会毁灭人类”是一个忽悠全人类的谎言,可能是因为对人工智能技术的不够了解而产生的误识;也可能是某些恶性人员企图掩饰他们利用人工智能技术来实现的阴谋而是散布的舆论。与管理控制核武器类似,人类只要认真对待技术发展的失控,就可以很好地发展人工智能技术来为人类自身的发展服务。但是人类自身的恶的特性而“教坏”机器人才是应该加以大力防范的问题,就如防止核武器扩散到坏人手中一样。只要人类坚持正确的社会发展道路,在各种先进的科学技术的支持下,人类社会生产力的极大发展,会大大加快社会的进步,使得全人类可以有一个更加美好的生活。我对于人工智能技术的发展持乐观态度,更加不会去担心人工智能技术会毁灭人类。

https://blog.sciencenet.cn/blog-39013-1065996.html上一篇:人工智能与中医的结合是人类健康的福祉下一篇:中医为什么需要融入现代系医疗体收藏IP:119.96.129.*|热度|

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇