博舍

霍金质疑人工智能:彻底开发可能让人类灭绝 霍金评价人工智能名言

霍金质疑人工智能:彻底开发可能让人类灭绝

原标题:霍金质疑人工智能:彻底开发可能让人类灭绝

“IT有得聊”是机械工业出版社旗下IT专业资讯和服务平台,致力于帮助读者在广义的IT领域里,掌握更专业、实用的知识与技能,快速提升职场竞争力。点击蓝色微信名可快速关注我们!

据英国广播公司(BBC)报道,英国著名科学家斯蒂芬·霍金确实于2014年曾说过,人类创造智能机器的努力威胁自身生存。霍金表示,“彻底开发人工智能可能导致人类灭亡。”

霍金的此番警告是回应对他使用的通讯科技的改良,其中就包括了基本的人工智能。

霍金是英国著名理论物理学家,患有肌萎缩性脊髓侧索硬化症(ALS),使用英特尔(Intel)公司开发的一种新的系统说话。

另一家英国公司Swiftkey的机器认知方面的专家也参加了这一系统的开发。这家公司的技术已经被用在智能手机的按键应用软件中,揣摩霍金教授的思想并推测他可能希望使用的词语。

霍金教授说,人工智能目前的初步阶段已经证明非常有用,但他担心创造出媲美人类甚至超过人类的东西将要面对的后果。“它可能自行启动,以不断加快的速度重新设计自己。而人类局限于缓慢的生物进化过程,根本无法竞争,最终将被超越。”

不过,其它科学家并非都对人工智能持如此悲观的看法。智能机器人的发明者罗洛·卡彭特表示:“我相信我们还将继续在相当长的时间内掌控科技和它的潜力,并解决世界上的许多问题。”

卡彭特说,“我们还不知道机器智能超越人类后将出现什么情况。所以我们不知道我们最终将得益于此,还是因此而被忽略、被边缘化,或者被消灭。”他预示,人工智能将起到正面的作用。

霍金教授并非少数担心未来的科学家。智能机器的开发已经让很多人担心它们将取代人类,短期效应是使数以百万计的工作职位不复存在。而长期来看,人工智能是“人类生存面临的最大威胁”。

霍金教授另外还对互联网的好处和危险发表了看法。他引述英国政府通讯总部(GCHQ)负责人的警告说,网络有可能成为恐怖主义分子的指挥中心。“互联网公司应该下更大力气应对这些威胁,但是困难之处是如何不损害自由和隐私”。

虽然人工智能在过去数年发展很快,但霍金使用的科技智能仪器中,声音部分并没有任何的更新换代。

霍金承认,他的声音的确听起来很机器,不过坚持他不想要更加自然的声音。“这已经是我的标志,我不想变成更自然的英国腔调的声音”,“我听说很多需要智能声音的孩子,都要像我这样的声音。”

人工智能的发展竟然已经关系到了人类的生死存亡了,你还对人工智能不太了解吗?赶快来科普一下霍金都如此关心的人工智能到底是怎么回事吧!

下面这本书不仅系统地介绍了人工智能的基本原理、方法和应用技术,还全面反映了国内外人工智能研究领域的进展和发展方向。全书共12章。第1章简要介绍了人工智能的概况。第2~6章阐述了人工智能的基本原理和方法,重点论述了知识表示、自动推理、机器学习和神经网络等。第7章和第8章介绍了专家系统、自然语言处理等应用技术。第9~11章阐述了当前人工智能的研究热点,包括分布式人工智能与智能体、智能机器人和互联网智能等。第12章探讨了类脑智能,展望人工智能的发展。返回搜狐,查看更多

责任编辑:

霍金:人工智能技术不应过度发展

原标题:霍金:人工智能技术不应过度发展

英国理论物理学家斯蒂芬・霍金日前说,人工智能科技在初级发展阶段的确为人类生活带来便利,不过要警惕其过度发展,因为得到充分发展的人工智能或许预示着人类最终被超越。

由于患有运动神经元疾病,霍金需利用一台机器与外界交流。受智能手机输入法启发,美英两家科技公司合作,为霍金的电脑“量身定制”出一款新的打字软件,使这位科学家的“说话”速度提升一倍。这种软件就利用了基础的人工智能技术,可“猜测”使用者的思维,推荐下一个可能用到的字词。

当天在这款新软件的发布会上,霍金坦承人工智能的初步发展已证明了其有用性,但他担心这类技术最终会发展出与人类智慧相当甚至超越人类的机器。“到时它(机器)将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。”

今年5月,霍金曾与另外几位科学家为英国《独立报》撰文,称人们目前对待人工智能的潜在威胁“不够认真”。“短期来看,人工智能产生何种影响取决于谁在控制它。而长期来看,这种影响将取决于我们还能否控制它。”如何趋利避害是所有人都需要考虑的问题。

不过也有科学家认为,霍金对于人工智能的未来过于悲观。他们指出,至少在相当长的时间里,人类会完全掌控这类技术的发展,利用它来解决许多现实问题,而要让人工智能技术得到“充分发展”,还有很长的路要走。

【前沿】如何看待“人工智能威胁论”

张亚勤:我们把未来十年二十年压赌在人工智能上,现在很多公司说我们AI公司是讲故事,但是在百度,从李彦宏到陆奇到我本人,未来公司资源技术都压在AI上面。我们的打法首先是要做一个操作系统,在上面建立生态,和整个产业去合作,比如最近我们和很多家电企业、很多车厂都有合作。

百度做人工智能,有雄厚的财力支撑。但不少人工智能企业都是初创,老板也是科研人员,没有运营公司的经验。这种情况下,如何提高企业存活率,金山软件前首席执行官张宏江给出了建议。

张宏江:就是把你的思考从我是不是最新,我是不是对于现有的技术有些突破,转变成我的技术能不能实用,能不能为用户带来便利,能不能创造更大的效率。这是思考的一个转变,完成这种转变,才是真正完成从一个科学家到企业家的转变。

人工智能时代人类的出路

还有就业问题,人工智能大潮来了,要用机器换人,员工们的出路又在哪儿呢?李开复的看法是:艺不压身,学得越多,出路越多。

李开复:综合性人才很重要,AI学习是一个领域一个领域地学习,学习下围棋,学习买股票,学习风控,并不能综合性地考量各种事情,比如一个地球学的专家加上一个化学的专家,可能会知道以后怎么去处理垃圾。或者是一个非常懂国际政治的人,懂中美关系的人,又懂得经济发展,把AI当作工具,他这个人不会被取代。

人工智能不能急着“开花结果”。

这几年,“风口”这个词用得太多,从电商到VR,再到直播,好像每隔一段时间,热点就要切换一下。这一方面是经济活力的体现,但同时也意味着大量的资源投入打了水漂。

风口来也匆匆,去也匆匆,一个原因是功利心太强,不扎扎实实地积累技术,而是急着变现,迅速离场。如今人工智能又站上风口,大小企业加速布局。让人担心的是,一些缺乏核心竞争力的产品又草草推向了市场。比如机器人行业,已经出现了高端产业低端化的苗头。

有投入就盼着有产出,这可以理解,但要知道,人工智能是技术高度密集的一个领域,没有技术就没有竞争力。与此同时,市场的发育有自身的规律,不能靠概念炒作来“催熟”。所以,对于急于从人工智能领域里淘金的企业来说,还是先老老实实做研发更现实。

央广天下财经

中央人民广播电台经济之声《天下财经》

财经资讯权威发布经济政策深度解读

中国最具影响力专业财经广播

覆盖全国亿万忠实听众返回搜狐,查看更多

霍金:人工智能或是人类历史上最后事件

点击关注异步图书,置顶公众号

每天与你分享IT好书技术干货职场知识

Tips参与文末话题讨论,即有机会获得异步图书一本。

霍金曾说,“在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。”2018年3月14日76岁的霍金永远的离开了我们!出生于伽利略逝世300周年的日子,离开在爱因斯坦诞辰的日子,他们说有趣的灵魂终将相遇,今天会不会也在世界的哪个小角落里,有一个新的小生命的诞生,在往后的日子里,继续向着你们的远方前进。

他说,人工智能的崛起,要么是人类历史上最好的事,要么是人类文明的终结。

请点击此处输入图片描述

霍金认同:人脑与电脑没区别

霍金认为,生物大脑可以达到的和计算机可以达到的,没有本质区别。AI遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。

霍金说,近来人工智能的发展,比如电脑在国际象棋和围棋的比赛中战胜人脑,都显示出人脑和电脑并没有本质差别。

霍金担心:失控

一方面,霍金担心一些人利用人工智能做坏事,比如最大化使用智能性自主武器,它将助长战争和恐怖主义,加剧世界动荡局势。

另一方面,霍金最担心还是人工智能系统失控爆发的潜在风险,人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。到那时,人工智能可能是人类文明史的终结。

霍金建议:跨学科

霍金在演讲中说到,人工智能的崛起,是好是坏目前仍不确定。霍金认为,人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

但是霍金呼吁,人工智能的研究与开发正在迅速推进,但所有人都应该暂停片刻,把我们的研究从提升人工智能能力转移到最大化人工智能的社会效益上面。

霍金同时提出,跨学科研究是人工智能一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。

替换高清大图

请点击此处输入图片描述

霍金生命最后几年中

关于人工智能的大事记

2014年的霍金:人工智能或是人类历史上最后事件

2014年5月,在观看了德普主演的新片《超验骇客》后,霍金在为《独立》杂志撰写的一篇文章中明确地表达了他对这个问题的担忧。

霍金担忧的对象不仅仅是未来的人工智能技术,甚至还包括现在的一些公司比如谷歌和Facebook。他说:“人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。”

霍金承认,机器人和其他的人工智能设备也许会给人类带来巨大的好处。如果那些设备的设计非常成功,就能给人类带来巨大的好处,他说那将是人类历史上最大的事件。然而他同时也提醒说,人工智能也有可能是人类历史上最后的事件。

他说:“人工智能技术发展到极致程度时,我们将面临着人类历史上的最好或者最坏的事情。”

霍金以前就曾试图提醒人们注意一点,即科幻的魅力会蒙蔽我们的双眼。它有时会掩盖住一个重要的问题,即最终的结果有可能引发一场浩劫。

当年的6月16日晚,霍金出席了美国HBO频道的“LastWeekTonight”节目,并与主持人约翰·奥利弗(JohnOliver)展开了“深刻而有意义的对话”。

当晚,霍金非常肯定地对主持人说:“人工智能在并不遥远的未来可能会成为一个真正的危险。”

到了2014年12月的时候,霍金在接受英国广播公司(BBC)的采访时说,“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。”

这让霍金再次登上英国各大媒体头条,激起人们对人工智能黑暗的、反面乌托邦式的假想。

从上世纪60年代末的科幻电影《2001:太空漫游》,一个名叫哈尔9000(HAL9000)的智能机器人发生错乱,在前往木星的太空船上对人类发起攻击;《我,机器人》中,一个多才多艺的人形机器似乎有了心灵;直到《终结者》系列,未来世界由机器人统治人类,反抗机器人统治的人类领袖被未来机器人追杀。

替换高清大图

请点击此处输入图片描述

2015年的霍金:号召禁止人工智能武器

在这一年,霍金、特斯拉CEO埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克等上百位专业人士联名上书,号召禁止人工智能武器。

公开信称,如果任何军事力量推动人工智能武器的开发,那么全球性的军备竞赛将不可避免。人工智能武器不像核能一样——需要高昂的成本和难以获得的原材料,一旦开发人工智能很容易在各军事力量中普及。

公开信说,人工智能武器的禁令必须尽快颁布,以避免军备竞赛,这更甚于“控制人口数量的意义”。

2016年的霍金:人工智能崛起中产阶级或大量失业

2016年6月,霍金在接受美国知名记者拉里·金采访时说,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止住。

他认为,有益的人工智能将出现在人类生活的各方面。“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”

2016年10月,霍金在在英国剑桥建立了跨学科研究所“利弗休姆智能未来中心(LCFI)”,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”致力于研究智能的未来,花费大量时间学习历史,深入去看。LCFI的一项重要使命是要化解AI风险,破解AI难题。

在当天的演讲中,霍金说:“对于人类来说,强大AI的出现可能是最美妙的事,也可能是最糟糕的事,我们真的不知道结局会怎样。”

霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。

“我们生活的每一个方面都会改变。总之,创造AI的成功可能是我们文明历史上最大的事件。”霍金说。

这年的12月,在英国《卫报》的一篇专栏中,霍金表示:“工厂的自动化已经让许多传统制造业工人失业了,而人工智能的崛起会将失业范围扩大到社会上的中产阶级。未来,留给人类的只有护理、创新和监督等少数岗位了。”

如果这一趋势继续下去,会有什么后果吗?霍金认为机器人抢走人类工作后会造成社会更大的不公,自动化将“加速扩大全球范围内已经日益严重的经济不平等,互联网和各种平台让一小部分人通过极少的人力获取巨大的利润。这是不可避免的,这是一种进步,但也会对社会造成巨大破坏并最终“撕裂”整个社会”。

此外,互联网让穷人也见识到了上流社会的生活方式,一旦他们与其自身情况作对比,就会让无尽的怒气在整个社会生根发芽。

请点击此处输入图片描述

2017年的霍金:最后的警告

2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,“人工智能进一步发展便可能会通过核战争或生物战争摧毁人类。人类需要利用逻辑和理性去控制未来可能出现的威胁”。

4月,2017全球移动互联网大会(GMIC)在北京召开,霍金为这次大会发来了一个视频,进行了题为《让人工智能造福人类及其赖以生存的家园》的主题演讲,在这次主题演讲中,霍金再次提及了人工智能的问题,他认为人工智能的崛起很有可能导致人类文明最终走向终结。

在11月份举办的第五届腾讯WE大会上,霍金以远程视频的形式亮相WE大会,并谈论了对人工智能的一些看法。

在视频中霍金认为,人类很有可能会造出超级人工智能,这些人工智能程序能够全面超越人类,并有可能完全取代人类成为一种新的生命物种。霍金表示,“我担心人工智能将全面取代人类。如果有人能设计出计算机病毒,那么就会有人设计出能提升并复制自己的人工智能。这就会带来一种能够超越人类的全新生命形式。”

2017年12月13日,在长城会举办的“天工开悟,智行未来”活动中,霍金表示,现在还不能确定,人工智能的崛起对人类来说是好是坏,但可以确定的是,人类要竭尽全力,来保证人工智能的发展对于人类及环境有利。这可以说是霍金在公开报道中最后一条关于人工智能的看法了,也可以说是最后的警告。

替换高清大图

请点击此处输入图片描述

最后,霍金对全世界的人是说,“我们站在一个美丽新世界的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。”

人工智能是成就人类,还是毁灭人类,等待着人类继续书写。

霍金留下这千年预言,在另外一个宇宙时空坐观。

人工智能,诚意书单

NO.1人工智能深度学习类2018年新书

请点击此处输入图片描述

点击下方书名试读

《概率图模型基于R语言》讲解了如何掌握概率图模型PGM,如何理解计算机通过贝叶斯模型来解决现实世界的问题,如何选择合适的R包、合适的算法来准备数据并建立模型。

《文本上的算法——深入浅出自然语言处理》深入浅出讲解自然语言处理和机器学习技术;广受读者好评的技术读物,微博总阅读量超过30万次

《Python贝叶斯分析》PyMOL社区活跃者倾情奉献!发现Python贝叶斯分析的力量!

《数据科学家访谈录》25位著名数据科学家的真知灼见

NO2人工智能深度学习类:深度学习、Tensorflow

请点击此处输入图片描述

点击下方书名试读

《深度学习》AI圣经,深度学习领域奠基性的经典畅销书特斯拉CEO埃隆·马斯克等国内外众多专家推荐!

《深度学习精要(基于R语言)》基于R语言实战,使用无监督学习建立自动化的预测和分类模型

《TensorFlow技术解析与实战》包揽TensorFlow1.1的新特性人脸识别语音识别图像和语音相结合等热点一应俱全李航余凯等人工智能领域专家倾力推荐!

《TensorFlow机器学习项目实战》第二代机器学习实战指南,提供深度学习神经网络等项目实战,有效改善项目速度和效率。

请点击此处输入图片描述

点击下方书名试读

NO.3人工智能机器学习类:Python、机器学习、数据科学。

《Python机器学习实践指南》结合了机器学习和Python语言两个热门的领域,通过利用两种核心的机器学习算法来用Python做数据分析。

《Python机器学习——预测分析核心算法》从算法和Python语言实现的角度,认识机器学习。

《机器学习实践应用》阿里机器学习专家力作,实战经验分享,基于阿里云机器学习平台,针对7个具体的业务场景,搭建了完整的解决方案。

《NLTK基础教程——用NLTK和Python库构建机器学习应用》绍如何通过NLTK库与一些Python库的结合从而实现复杂的NLP任务和机器学习应用。

请点击此处输入图片描述

点击下方书名试读

《MicrosoftAzure机器学习和预测分析》了解新的微软AzureMachineLearning服务掌握高效构建和部署预测模型的实用技能。

《机器学习与数据科学(基于R的统计学习方法)》为数据科学家提供了一些在统计学习领域会用到的工具和技巧。

《机器学习Web应用》eBay公司EUAnalytics部门负责人DavideCervellin作序推荐,全面Python机器学习的图书学会在Web下构建机器学习系统的权威指南。

《实用机器学习》使用R语言引导读者掌握机器学习实战顺利针对新问题新数据选择和使用机器学习算法。

NO.4人工智能算法策略类:算法、神经网络、自然语言处理、推荐系统、系统算法、图像算法、贝叶斯、概率编程、数学算法等。

请点击此处输入图片描述

点击下方书名试读

《神经网络算法与实现——基于Java语言》完整地演示了使用Java开发神经网络的过程,既有非常基础的实例也有高级实例。

《趣学算法》50多个实例循展示算法的设计、实现、复杂性分析及优化过程培养算法思维带您感受算法之美。

《算法谜题》Google、Facebook等一流IT公司算法面试必备,经典算法谜题合集。

《Python算法教程》精通Python基础算法畅销书Python基础教程作者力作。

请点击此处输入图片描述

点击下方书名试读

《编程之法:面试和算法心得》程序员面试宝典笔试金典CSDN访问量过千万的博客结构之法算法之道博主July著作。

《趣题学算法》一本有趣的、易学的、实用的,帮助读者快速入门应用的算法书。

《Java遗传算法编程》遗传算法设计机器学习人工智能来自Java专家的声音用遗传算法解决类似旅行商的经典问题。

《算法学习与应用从入门到精通》320个实例、753分钟视频、5个综合案例、74个技术解惑,一本书的容量,讲解了入门类、范例类和项目实战类三类图书的内容。

NO.5人工智能时间图像和视觉识别类:图像识别、语音识别、自然语言处理、matlab建模工程。

请点击此处输入图片描述

点击下方书名试读

《OpenCV和VisualStudio图像识别应用开发》无人驾驶人脸识别基础技术用OpenCV实现图像处理应用计算机视觉编程实战手册。

《人脸识别原理及算法——动态人脸识别系统研究》介绍了动态场景下的人脸识别方法,该方法综合应用了人脸定位、人脸识别、视频处理等算法。

《精通Python自然语言处理》用Python开发令人惊讶的NLP项目自然语言处理任务掌握利用Python设计和构建给予NLP的应用的实践。

《Python自然语言处理》基于Python编程语言和NLTK,自然语言处理领域的一本实用入门指南。

请点击此处输入图片描述

点击下方书名试读

《贝叶斯方法:概率编程与贝叶斯推断》机器学习人工智能数据分析从业者的技能基础国际杰出机器学习专家余凯博士腾讯专家研究员岳亚丁博士推荐。

《贝叶斯思维:统计建模的Python学习法》ThinkStats和ThinkPython图书作者重磅出击数据分析师数据工程师数据科学家案头常备。

《概率编程实战》人工智能领域的先驱、美国加州大学伯克利分校教授StuartRussell作序推荐!一本不可思议的Scala概率编程实战书籍!

《自己动手写神经网络》机器学习与人工智能参考书基于Java语言撰写。

本文转载自微信公众号:京雄AI前沿,编辑:阿耶莎,作品《霍金:人工智能或是人类历史上最后事件》

今日话题

小调查,只做一个人的专访?你想看采访谁?为什么?截止时间3月15日17时,留言+转发本活动到朋友圈,小编将选出1名读者赠送异步新书一本。

延伸推荐

2018年2月新书

2018年1月重磅新书

小学生开始学Python,最接近AI的编程语言:安利一波Python书单

政策升温:大家都在学大数据,一大波好书推荐

一本基于Python语言的Selenium自动化测试书

8本新书,送出一本你喜欢的

AI经典书单|入门人工智能该读哪些书?

点击关键词阅读更多新书:

Python|机器学习|Kotlin|Java|移动开发|机器人|有奖活动|Web前端|书单

请点击此处输入图片描述

​长按二维码,可以关注我们哟

每天与你分享IT好文。

在“异步图书”后台回复“关注”,即可免费获得2000门在线视频课程;推荐朋友关注根据提示获取赠书链接,免费得异步图书一本。赶紧来参加哦!

扫一扫上方二维码,回复“关注”参与活动!

点击下方阅读原文,查看更多

阅读原文

霍金:人工智能也可能是人类文明的终结者

                     霍金:人工智能也可能是人类文明的终结者 

4月27日,著名物理学家史蒂芬·霍金在北京举办的全球移动互联网大会上做了视频演讲。在演讲中,霍金重申人工智能崛起要么是人类最好的事情,要么就是最糟糕的事情。他认为,人类需警惕人工智能发展威胁。因为人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类由于受到漫长的生物进化的限制,将无法与之竞争,从而被取代。

以下为霍金演讲内容:

在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重复从提升人工智能能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于2008至2009年,成立了人工智能长期未来总筹论坛,他们近期在目的导向的中性技术上投入了大量的关注。但我们的人工智能系统须要按照我们的意志工作。跨学科研究是一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。

文明所提产生的一切都是人类智能的产物,我相信生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。但我们并不确定,所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。

在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。尽管我对人类一贯持有乐观的态度,但其他人认为,人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定。

在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。尽管我对人类一贯持有乐观的态度,但其他人认为,人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定。

2015年1月份,我和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所造成的影响做认真的调研。在这之前,埃隆·马斯克就警告过人们:超人类人工智能可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。我和他同在“生命未来研究所”的科学顾问委员会,这是一个为了缓解人类所面临的存在风险的组织,而且之前提到的公开信也是由这个组织起草的。这个公开信号召展开可以阻止潜在问题的直接研究,同时也收获人工智能带给我们的潜在利益,同时致力于让人工智能的研发人员更关注人工智能安全。此外,对于决策者和普通大众来说,这封公开信内容翔实,并非危言耸听。人人都知道人工智能研究人员们在认真思索这些担心和伦理问题,我们认为这一点非常重要。比如,人工智能是有根除疾患和贫困的潜力的,但是研究人员必须能够创造出可控的人工智能。那封只有四段文字,题目为《应优先研究强大而有益的人工智能》的公开信,在其附带的十二页文件中对研究的优先次序作了详细的安排。

在过去的20年里,人工智能一直专注于围绕建设智能代理所产生的问题,也就是在特定环境下可以感知并行动的各种系统。在这种情况下,智能是一个与统计学和经济学相关的理性概念。通俗地讲,这是一种做出好的决定、计划和推论的能力。基于这些工作,大量的整合和交叉孕育被应用在人工智能、机器学习、统计学、控制论、神经科学、以及其它领域。共享理论框架的建立,结合数据的供应和处理能力,在各种细分的领域取得了显著的成功。例如语音识别、图像分类、自动驾驶、机器翻译、步态运动和问答系统。

随着这些领域的发展,从实验室研究到有经济价值的技术形成良性循环。哪怕很小的性能改进,都会带来巨大的经济效益,进而鼓励更长期、更伟大的投入和研究。目前人们广泛认同,人工智能的研究正在稳步发展,而它对社会的影响很可能扩大,潜在的好处是巨大的,既然文明所产生的一切,都是人类智能的产物;我们无法预测我们可能取得什么成果,当这种智能是被人工智能工具放大过的。但是,正如我说过的,根除疾病和贫穷并不是完全不可能,由于人工智能的巨大潜力,研究如何(从人工智能)获益并规避风险是非常重要的。

现在,关于人工智能的研究正在迅速发展。这一研究可以从短期和长期来讨论。一些短期的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。另一个担忧在致命性智能自主武器。他们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。还有另外一些担忧,由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。

长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。这样错位的结果是否有可能?如果是,这些情况是如何出现的?我们应该投入什么样的研究,以便更好的理解和解决危险的超级智能崛起的可能性,或智能爆发的出现?

当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以解决这个问题。因此,我们需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。

近来的里程碑,比如说之前提到的自主驾驶汽车,以及人工智能赢得围棋比赛,都是未来趋势的迹象。巨大的投入倾注到这项科技。我们目前所取得的成就,和未来几十年后可能取得的成就相比,必然相形见绌。而且我们远不能预测我们能取得什么成就,当我们的头脑被人工智能放大以后。也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害。关乎到我们生活的各个方面都即将被改变。简而言之,人工智能的成功有可能是人类文明史上最大的事件。

但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。我们正在焦急的等待协商结果。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。

现阶段,我对灾难的探讨可能惊吓到了在座的各位。很抱歉。但是作为今天的与会者,重要的是,你们要认清自己在影响当前技术的未来研发中的位置。我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。

去年10月,我在英国剑桥建立了一个新的机构,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”是一个跨学科研究所,致力于研究智能的未来,这对我们文明和物种的未来至关重要。我们花费大量时间学习历史,深入去看——大多数是关于愚蠢的历史。所以人们转而研究智能的未来是令人欣喜的变化。虽然我们对潜在危险有所意识,但我内心仍秉持乐观态度,我相信创造智能的潜在收益是巨大的。也许借助这项新技术革命的工具,我们将可以削减工业化对自然界造成的伤害。

我们生活的每一个方面都会被改变。我在研究所的同事休·普林斯承认,“利弗休姆中心”能建立,部分是因为大学成立了“存在风险中心”。后者更加广泛地审视了人类潜在问题,“利弗休姆中心”的重点研究范围则相对狭窄。

人工智能的最新进展,包括欧洲议会呼吁起草一系列法规,以管理机器人和人工智能的创新。令人感到些许惊讶的是,这里面涉及到了一种形式的电子人格,以确保最有能力和最先进的人工智能的权利和责任。欧洲议会发言人评论说,随着日常生活中越来越多的领域日益受到机器人的影响,我们需要确保机器人无论现在还是将来,都为人类而服务。向欧洲议会议员提交的报告,明确认为世界正处于新的工业机器人革命的前沿。报告中分析的是否给机器人提供作为电子人的权利,这等同于法人(的身份),也许有可能。报告强调,在任何时候,研究和设计人员都应确保每一个机器人设计都包含有终止开关。在库布里克的电影《2001太空漫游》中,出故障的超级电脑哈尔没有让科学家们进入太空舱,但那是科幻。我们要面对的则是事实。奥斯本·克拉克跨国律师事务所的合伙人,洛纳·布拉泽尔在报告中说,我们不承认鲸鱼和大猩猩有人格,所以也没有必要急于接受一个机器人人格。但是担忧一直存在。报告承认在几十年的时间内,人工智能可能会超越人类智力范围,人工智能可能会超越人类智力范围,进而挑战人机关系。报告最后呼吁成立欧洲机器人和人工智能机构,以提供技术、伦理和监管方面的专业知识。如果欧洲议会议员投票赞成立法,该报告将提交给欧盟委员会。它将在三个月的时间内决定要采取哪些立法步骤。

我们还应该扮演一个角色,确保下一代不仅仅有机会还要有决心,在早期阶段充分参与科学研究,以便他们继续发挥潜力,帮助人类创造一个更加美好的的世界。这就是我刚谈到学习和教育的重要性时,所要表达的意思。我们需要跳出“事情应该如何”这样的理论探讨,并且采取行动,以确保他们有机会参与进来。我们站在一个美丽新世界的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。

原文链接:http://news.sciencenet.cn/htmlnews/2017/4/374840.shtm

霍金留给人类留言超级智能和超人会降临

不同于经典著作《时间简史》,这本最新的著作重点关注目前地球上所有人都将面临的几个重大挑战,包括人工智能的发展、基因编辑技术、气候变化、核战争的威胁等等。

这部书由《万物理论》(TheTheoryofEverything)男主角、霍金扮演者EddieRedmayne和2017年诺贝尔物理学奖获得者KipThorne做前言介绍,霍金女儿LucyHawking做后记。霍金在书中试图回答几个问题:人类会在挑战之下活下来吗?我们应该在太空中殖民吗?上帝真的存在吗?

EddieRedmayne和霍金

在亚马逊Kindle版的介绍中,给出了这样的评价:对世界来说,“BriefAnswerstotheBigQuestions”是这位伟大的物理学家最给出的最后信息。

新智元根据Vox等媒体对这本书的报道,将本书的核心观点进行梳理,以飨读者。

创造AI可能是人类历史上最后一个大事件

人们很容易把高度智能机器的概念当作科幻小说来看待,但这将是一个错误,而且可能是我们有史以来犯的最严重的错误。

霍金认为,当AI在人工智能设计领域变得比人类更优秀,以至于它可以在没有人类帮助的情况下递归地自我改进时,我们可能会面临一场智能爆炸,最终导致机器的智能远远超出我们。

机器智能跟人类的差距有多大?霍金说,这种差距甚至比人类超过蜗牛的还要大。当这种情况发生时,我们需要确保计算机有跟我们一致的目标。

迄今为止,人工智能的原始形式已被证明非常有用,但霍金担心,如果创造出一种能与人类匹敌或超越人类的东西,后果将不堪设想。人类受到缓慢的生物进化的限制,无法竞争,将被取代。在未来,人工智能可以发展出自己的意志,一种与我们的意志相冲突的意志。

霍金认为,创造人工智能将是人类历史上最大的事件。不幸的是,它也可能是最后一个,除非我们学会如何规避风险。

技术奇点之后超级智能会降临

数学家IrvingGood在1965年提到,拥有超人智能的机器可以不断地进一步改进它们的设计,科幻作家VernorVinge把这种进化称之为技术奇点。

我们可以想象,这种技术会超过金融市场,超过人类研究人员的发明,超过人类领导人的操纵,甚至可能用我们甚至无法理解的武器制服我们。人工智能的短期影响取决于谁来控制它,而长期影响则取决于它能否被控制。

在中期,人工智能可能会使我们的工作自动化,带来巨大的繁荣和平等。展望未来,可以实现的目标没有根本的限制。一个爆炸性的转变是可能的,尽管它可能会以不同于电影的方式上演。

简而言之,超级智能人工智能的出现要么是人类有史以来最好的事情,要么是最糟糕的事情。人工智能真正的风险不是恶意,而是能力。

一个超级智能的人工智能会非常擅长实现它的目标,如果这些目标与我们的不一致,我们就有麻烦了。你可能是憎恨蚂蚁,也不出于恶意踩死蚂蚁,但如果你负责一个绿色水电能源项目,而该地区有一个蚁丘要被淹没,这种情况下对蚂蚁来说实在太糟糕了。

因此,人类不要成为AI的蚂蚁。

不要觉得这种担忧很可笑,举例来说,如果一个高级外星文明给我们发了一条短信,说:“我们再过几十年就会到达”。我们会不会只是回复说:“好吧,你来的时候给我们打电话,我们会让灯一直亮着。”

外星人可能不会来,但这很可能是会发生在人工智能身上的事情。

近期最担忧:各国开发自主武器系统

虽然霍金自己是一个众所周知的乐观主义者,但他不确定这种乐观能持续多久。例如,在短期内,世界各国军队正在考虑在自主武器系统中展开军备竞赛,以选择并消灭自己的敌人。

当联合国正在讨论一项禁止此类武器的条约时,自主武器的支持者通常忘记问一个最重要的问题:军备竞赛可能的终点是什么?这对人类来说是可取的吗?我们真的希望廉价的人工智能武器成为未来冲锋枪,在黑市上卖给犯罪分子和恐怖分子吗?考虑到人们对我们长期控制越来越先进的人工智能系统的能力的担忧,我们是否应该武装AI,并将我们的防御力量交给AI?

因此说,现在是停止自主武器军备竞赛的最佳时机。

星际扩张也许是人类拯救自己的唯一办法

霍金认为,在未来1000年的某个时间点,核对抗或环境灾难将使地球瘫痪是不可避免的。到那时,霍金希望并且相信,人类这个聪明的种族将会找到一种方法来摆脱地球上粗暴的束缚,从而在这场灾难中幸存下来。

目前,除了地球人类无处可去,但从长远来看,人类不应该把所有鸡蛋都放在一个篮子里,或者放在一个星球上。

霍金希望在人类学会如何逃离地球之前,能避免掉下篮子。

并且,离开地球需要一个协调一致的全球方式——每个人都应该加入。人们需要重新点燃20世纪60年代早期太空旅行的激情。

现在,太空探索技术几乎在人类的掌握之中,因此,是时候探索其他太阳系了。星际扩张也许是唯一能把人类拯救自己办法。

本世纪出现基因编辑后的超人

另一方面,人类没有时间等着达尔文的进化论让我们变得更聪明、更善良。人类现在正进入一个新的阶段,这个阶段可能被称为“自我设计进化”——人类将能够改变和改善我们的DNA。

首先,这些变化将局限于修复遗传缺陷——例如囊性纤维化和肌营养不良,它们由单个基因控制,因此很容易识别和纠正。其他的品质,比如智力,很可能是由大量的基因控制的,而要找到它们并找出它们之间的关系就会困难得多。

但也不是不可能。霍金确信在本世纪人们将会发现如何修正智力和本能,比如攻击性。因此,他预测反对人类基因工程的法律可能会通过。但有些人无法抗拒改善人类特征的诱惑,比如记忆力大小、抗病性和寿命长短。

一旦人们尝试这种“诱惑”,就会出现超人。一旦这样的超人出现,那些无法与之竞争的人类将面临重大的问题,他们将会消亡,或者变得不重要。相反,那些靠自我设计改变基因的人,会以越来越快的速度提升自己。

从这个角度讲,如果人类能够重新设计自己,也很可能会扩展到其他星球。

新生命形式的星际旅行机器会出现

然而,长距离的太空旅行对于以化学为基础的生命形式来说将是困难的,与旅行时间相比,人类这种生物的自然寿命很短。根据相对论,人类到达星系中心大约需要10万年。

在科幻小说中,人们通过太空扭曲或者穿越维度来克服这个困难。但霍金认为这些都不可能实现,无论生命变得多么聪明。

而未来还可能出现一种更简单的方法——几乎已经在我们的能力范围内——设计出能够持续足够长的机器用于星际旅行。当人们到达一颗新恒星时,他们可以在合适的行星上着陆,开采出更多的物质来制造更多的机器,这些机器可以被送往更多的恒星。

这样的机器将会是一种新的生命形式,基于机械和电子元件而不是大分子。它们最终可能取代以DNA为基础的生命,就像DNA可能取代了早期生命一样。

宇宙中还有其他智慧生命吗?

这个问题争论已久。

如果存在外星生物,那为什么我们没有被拜访过呢?

霍金提出了几种可能。

形成自我复制系统的可能性是合理的,就像细胞一样,但这些生命的大多数形式并没有进化出智力。我们习惯于认为智能生命是进化的必然结果,但如果不是呢?

更有可能的是,进化是一个随机的过程,智力只是众多可能结果中的一个。甚至不清楚智力是否有任何长期的生存价值。如果地球上所有其他生命都被我们的行为所消灭,细菌和其他单细胞生物可能会继续生存。

从进化的年表来看,也许智力对地球上的生命来说是不太可能的发展,因为从单个细胞到多细胞生物需要很长时间——25亿年——这是智力的必要前体,所以这与生命发展智力的概率很低的假设是一致的。在这种情况下,我们可能期望在银河系中找到许多其他的生命形式,但我们不太可能找到智慧生命。

另一种无法发展到智能阶段的生命可能是小行星或彗星与行星相撞。一部分观点认为,大约6600万年前,一个相对较小的天体与地球相撞,导致了恐龙的灭绝。一些早期的小型哺乳动物幸存下来,但是任何像人类一样大的动物几乎肯定会被消灭。

还有一种可能性是,生命有合理的可能性形成并进化为智能生物,但系统变得不稳定,智能生命毁灭了自己。这将是一个悲观的结论,霍金说,我希望这不是真的。

他更倾向于第四种可能性:我们忽略了其他形式的智慧生命。在我们目前的阶段,与一个更先进的文明相遇,可能有点像当初的美洲居民与哥伦布相遇,霍金认为对方会因此而更现先进。

霍金生前最后一篇论文公开:物体落入黑洞的信息有什么变化?

而就在前不久,霍金临终论文也公开了。

这篇论文题为《BlackHoleEntropyandSoftHair》,作者分别是SashaHaco、StephenW.Hawking、MalcolmJ.Perry和AndrewStrominger。

该论文阐述了物体落入黑洞时信息产生的变化,主要解决了“黑洞信息悖论”这一问题。该论文的观点是,黑洞中存在无穷尽的“柔软的头发”而非无迹可寻,同时也给出了黑洞熵的计算方法。

这一难题可追溯到爱因斯坦时代。1915年,爱因斯坦提出广义相对论,这对黑洞做出了一个重要的预测,即黑洞完全由三个特征来定义,分别是质量、电荷和角动量。

而霍金在将近60年后提出,黑洞也有温度,黑洞的命运最终将是蒸发,即黑洞蒸发理论。若是再考虑量子理论,即根据量子世界的定律,信息是不会消失的。这便成了一个矛盾点。

若是一个物体被丢进黑洞里,在黑洞消失的时候,物体的信息都去了哪里呢?

在这篇论文中,霍金及其同事展示了有些信息如何被保存下来。把一个物体扔进黑洞,黑洞的温度会因此而改变。一种叫做熵(用来测量物体内部无序程度的指标)的特性也会如此。温度越高,熵就越高。

除此之外,霍金还在论文中表示,他希望能将引力和其他的自然力量结合起来,从而统一爱因斯坦广义相对论于量子理论。

参考资料:

https://www.vox.com/future-perfect/2018/10/16/17978596/stephen-hawking-ai-climate-change-robots-future-universe-earth

论文地址:

https://arxiv.org/pdf/1810.01847.pdf

你的福利

关注公众号“江衍科技”,回复“江衍书籍”

免费领取50本品牌营销必读书籍

关注公众号“江衍科技”,回复“江衍入群”

我们将邀请您进入人工智能行业交流群

温馨提示

长期聘请行业专家、AI领域创新创业者、AI领域技术从业者、AI领域创作者、AI领域媒体从业者、意见领袖参与共同打造行业论坛,申请通过(添加微信jiangyankeji6,领取信息表格,申请登记表发送至邮箱jiangyankeji2@163.com),我们将为您准备好聘书。返回搜狐,查看更多

霍金教授怎么看人工智能

“它可能是历史上最好的事情,也可能是历史上最坏的事情。”霍金在剑桥大学新莱弗尔梅未来智能中心上这样评价人工智能。

这已经不是霍金第一次在人工智能问题上表态。

2014年,霍金曾指出成功研发人工智能将成为人类历史上犯的最大错误。去年7月,霍金和特斯拉创始人伊隆·马斯克、微软创始人比尔·盖茨等人联名发布公开信,让公众警惕人工智能的风险。

不过,这一次霍金肯定了人工智能的积极影响。

“人们可以通过创造智能来进入一个有积极效应同时未知的世界。我们或许可以通过新技术改革的工具来消弭工业化对自然世界的伤害。人类最终需要达到的目的是消除疾病和贫穷。”

他也没忘继续提醒人们警惕人工智能,这“也可能是最坏的事情。”

本次活动的举办方剑桥大学新莱弗尔梅未来智能中心,未来研究的重点就是解决人工智能不断发展过程中,可能对人类社会产生的尖锐问题和影响。

面对人工智能的迅猛发展,不仅是学界,更多科技公司也已经行动了起来。

前不久,亚马逊、Facebook、Google、IBM和微软五家公司联合发起了AI伙伴关系”(PartnershiponAI),旨在通过成立联合组织来制定基本规则,以保护人类和人类的工作。

当然,除了人工智能,这位轮椅上的巨人还很关心姑娘。

霍金最喜欢的歌是RodStewart演唱的HaveIToldYouLately;最喜欢的电影是《祖与占》(JulesetJim),一部1962年上映的讲述三角恋的法国影片;最喜欢的电视剧是《生活大爆炸》。

|原来最引起霍金好奇心的奥秘,不是宇宙中的黑洞,而是姑娘。|

霍金与第一任妻子简霍金与第一任妻子简

言归正传。以上这些像八卦消息一样的内容,来自霍金今天在社交网站Reddit上进行的“问我任何事”(AskMeAnything)。

这场AMA活动最早在7月27日开始,网友们得知霍金要来参加后,马上跟帖,向霍金提出了9000多个问题,成为史上第三大AMA活动。

尽管挖出了那么多八卦消息,但这次AMA的主题是人工智能以及其影响。2014年初,霍金曾指出成功研发人工智能将成为人类历史上犯的最大错误。今年7月,霍金和特斯拉创始人伊隆·马斯克、微软创始人比尔·盖茨等人联名发布公开信,让公众警惕人工智能的风险。人工智能是恶魔吗?

霍金重申了自己对人工智能的观点:人工智能的真正风险不是机器人(对人类)的恶意,而是竞争;一个超级聪明的人工智能极其擅长完成目标,而如果这些目标和我们利益不一致,那我们就糟糕了。

举个例子,你会踩死蚂蚁,但不是出于主观恶意。假设你不是一个讨厌蚂蚁的人,但如果你要负责的一个水电项目开发,就会冲掉该区域内的蚁巢,这对蚂蚁来说不是什么好消息。

而我们要避免变成蚂蚁。

机器会比创造它的人更聪明吗?

霍金:任何东西获取比祖先更高级的智慧都是有可能的。我们进化,比我们的猿类祖先更加聪明,而爱因斯坦比他的父母更聪明。

如果人工智能像人类一样演化得很聪明,我们可能会面临“智慧爆炸”(intelligenceexplosion),最终机器的智慧会超过我们,而且超过的程度比人类超过蜗牛还多。

我们正面临着智能机器的威胁吗?

霍金:不要相信任何人所说的“还有多久就能建造出像人类一样的人工智能。”

当这件事真的发生的时候,这对人类要么是最好的、要么是最糟糕的影响。所以把这个问题弄清楚有很大的价值。

技术性失业的风险是什么,机器正在让我们失业吗?

霍金:后果取决于如何分配商品。

任何人都可以享受由机器生产的财富,如果机器的拥有者反对财富重新分配,绝大多数人将贫困一生。目前看来,趋势正走向不好的那个方向,科技正在加速不平等。

转载请注明出处。 https://news.znds.com/article/15109.html

霍金等签发公开信:警惕人工智能潜在风险

在一些人眼里,人工智能对人类构成的威胁甚至超过核武器。日前,包括物理学巨匠斯蒂芬-霍金和PayPal创始人伊隆-马斯克在内的一群科学家和企业家签发了一封公开信,承诺确保人工智能研究造福人类。特斯拉汽车公司和SpaceX公司掌门人马斯克。马斯克曾将研制自治可思考机器的做法描述为“召唤恶魔”。这封由未来生活研究所草拟的公开信警告称,如果智能机器缺乏监管,人类将迎来一个黑暗的未来。信中指出科学家需要采取措施,避免人工智能研究出现可能导致人类毁灭的风险。

新浪科技讯北京时间14日消息,据国外媒体报道,在一些人眼里,人工智能对人类构成的威胁甚至超过核武器。日前,包括物理学巨匠斯蒂芬-霍金和PayPal创始人伊隆-马斯克在内的一群科学家和企业家签发了一封公开信,承诺确保人工智能研究造福人类。这封由未来生活研究所草拟的公开信警告称,如果智能机器缺乏监管,人类将迎来一个黑暗的未来。

未来生活研究所的公开信指出科学家需要采取措施,避免人工智能研究出现可能导致人类毁灭的风险。公开信作者表示人们普遍认为人工智能研究正快速取得进步,将对整个社会产生越来越大的影响。信中称语言识别、图像分析、无人驾驶汽车、翻译和机器人运动都成为人工智能研究的受益者。

作者们表示:“潜在的效益是巨大的。文明的每一个产物都是人类智慧的结晶。我们无法预测在人工智能技术大幅提高机器智商时我们的文明将达到怎样的程度,但根除疾病和贫困是一个难以预测的过程。”他们同时也警告称在进行人工智能研究的同时必须相应地采取防范措施,避免人工智能给人类社会造成潜在伤害。在短期内,人工智能技术将让数百万人失业。在长期内,人工智能可能潜在地让社会走向反乌托邦,机器的智商远远超过人类,做出违背编程的举动。

公开信说:“我们研发的人工智能系统必须做我们希望它们做的事情。很多经济学家和计算机学家认为非常有必要进行研究,确定如何在让人工智能所能带来的经济效益实现最大化的同时减少负面影响,例如加剧不公平和失业。”除了霍金和马斯克外,在公开信上签名的人还包括机器智能研究所的执行理事卢克-穆豪瑟尔,麻省理工学院物理学教授和诺贝尔奖得主弗朗克-韦尔切克。

在这封公开信发表前几周,霍金教授曾警告称人工智能将在未来的某一天取代人类。他在伦敦接受英国广播公司采访时表示:“人工智能技术的研发将敲响人类灭绝的警钟。这项技术能够按照自己的意愿行事并且以越来越快的速度自行进行重新设计。人类受限于缓慢的生物学进化速度,无法与之竞争和对抗,最终将被人工智能取代。”

霍金曾在2014年初指出成功研发人工智能将成为人类历史上犯的最大错误。不幸的是,这也可能是最后一个错误。2014年11月,特斯拉汽车公司和SpaceX公司掌门人马斯克警告称由于机器采用人工智能,“一些极为危险的事情即将发生”,最快将在5年内。此前,他还曾将研制自治可思考机器的做法描述为“召唤恶魔”。

10月,马斯克在麻省理工学院AeroAstro百年学术研讨会上发表讲话将人工智能称之为“我们面临的最大威胁”。他说:“我认为我们必须对人工智能抱着非常谨慎的态度。在我看来,人工智能可能是我们面临的最大威胁。因此,我们必须非常谨慎地进行人工智能研究。我越发坚信我们需要对人工智能的研究进行适当监管,可能是在国家层面和国际层面,确保我们不会做出一些非常愚蠢的事情。随着人工智能的发展,我们将召唤出恶魔。也许你会认为我们可以用类似五芒星和圣水的东西控制恶魔,但事实根本不是这样。”(孝文)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇