博舍

怎么理解人工智能的“威胁论” 霍金对人工智能的名言

怎么理解人工智能的“威胁论”

近年来,一些悲观的媒体与专家开始担忧人工智能的高速发展将会对人类自身的生存产生威胁,甚至连理论物理学家、《时间简史》的作者霍金都曾公开告诫大众:“完全人工智能的研发意味着人类的末日”。特斯拉与SpaceX的创始人埃隆·马斯克与霍金有大致相似的担忧。马斯克说:我们必须非常小心人工智能。如果必须预测我们面临的最大现实威胁,恐怕就是人工智能。”那么问题来了,人工智能究竟会否对人类产生威胁?

电影《复仇者联盟2》中的奥创就是对人类有威胁的代表性AI

李开复博士在《人工智能》一书中提到了三种不同层级的人工智能来回答这个问题。

一、弱人工智能(WeakAI)

弱人工智能(WeakAI)也称限制领域人工智能(NarrowAI)或应用型人工智能(AppliedAI),指的是专注于且只能解决特定领域问题的人工智能。毫无疑问,今天我们看到的所有人工智能算法和应用都属于弱人工智能的范畴

AlphaGo是弱人工智能的一个最好实例。AlphaGo在围棋领域超越了人类最顶尖选手,笑傲江湖。但AlphaGo的能力也仅止于围棋(或类似的博弈领域),下棋时,如果没有人类的帮助(还记得AlphaGo与李世石比赛时,帮机器摆棋的黄士杰博士吗?),AlphaGo连从棋盒里拿出棋子并置于棋盘之上的能力都没有,更别提下棋前向对手行礼、下棋后一起复盘等围棋礼仪了。

一般而言,限于弱人工智能在功能上的局限性,人们更愿意将弱人工智能看成是人类的工具,而不会将弱人工智能视为威胁。也就是说,弱人工智能在总体上只是一种技术工具,如果说弱人工智能存在风险,那也和人类已大规模使用的其他技术没有本质的不同。只要严格控制,严密监管,人类完全可以像使用其他工具那样,放心地使用今天的所有AI技术。

二、强人工智能(StrongAI)

强人工智能又称通用人工智能(Artificialgeneralintelligence)或完全人工智能(FullAI),指的是可以胜任人类所有工作的人工智能。

人可以做什么,强人工智能就可以做什么。这种定义过于宽泛,缺乏一个量化的标准来评估什么样的计算机程序才是强人工智能。为此,不同的研究者提出了许多不同的建议。最为流行、被广为接受的标准是图灵测试。

(图灵测试(TheTuringtest)由艾伦·麦席森·图灵发明,指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。

进行多次测试后,如果有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了测试,并被认为具有人类智能图灵测试一词来源于计算机科学和密码学的先驱阿兰·麦席森·图灵写于1950年的一篇论文《计算机器与智能》,其中30%是图灵对2000年时的机器思考能力的一个预测,目前我们已远远落后于这个预测。)

但即便是图灵测试本身,也只是关注于计算机的行为和人类行为之间,从观察者角度而言的不可区分性,并没有提及计算机到底需要具备哪些具体的特质或能力,才能实现这种不可区分性。

一般认为,一个可以称得上强人工智能的程序,大概需要具备以下几方面的能力:

1)存在不确定因素时进行推理,使用策略,解决问题,制定决策的能力;

2)知识表示的能力,包括常识性知识的表示能力;

3)规划能力;

4)学习能力;

5)使用自然语言进行交流沟通的能力;

6)将上述能力整合起来实现既定目标的能力;

基于上面几种能力的描述,我们大概可以想象,一个具备强人工智能的计算机程序会表现出什么样的行为特征。一旦实现了符合这一描述的强人工智能,那我们几乎可以肯定地说,所有人类工作都可以由人工智能来取代。从乐观主义的角度讲,人类到时就可以坐享其成,让机器人为我们服务,每部机器人也许可以一对一地替换每个人类个体的具体工作,人类则获得完全意义上的自由,只负责享乐,不再需要劳动。

强人工智能的定义里,存在一个关键的争议性问题:强人工智能是否有必要具备人类的“意识”(Consciousness)。有些研究者认为,只有具备人类意识的人工智能才可以叫强人工智能。另一些研究者则说,强人工智能只需要具备胜任人类所有工作的能力就可以了,未必需要人类的意识。

一旦牵涉“意识”,强人工智能的定义和评估标准就会变得异常复杂。而人们对于强人工智能的担忧也主要来源于此。不难设想,一旦强人工智能程序具备人类的意识,那我们就必然需要像对待一个有健全人格的人那样对待一台机器。那时,人与机器的关系就绝非工具使用者与工具本身这么简单。拥有意识的机器会不会甘愿为人类服务?机器会不会因为某种共同诉求而联合起来站在人类的对立面?一旦拥有意识的强人工智能得以实现,这些问题将直接成为人类面临的现实挑战。

三、超人工智能(Superintelligence)

假设计算机程序通过不断发展,可以比世界上最聪明、最有天赋的人类还聪明,那么,由此产生的人工智能系统就可以被称为超人工智能。

牛津大学哲学家、未来学家尼克·波斯特洛姆(NickBostrom)在他的《超级智能》一书中,将超人工智能定义为“在科学创造力、智慧和社交能力等每一方面都比最强的人类大脑聪明很多的智能”。显然,对今天的人来说,这是一种只存在于科幻电影中的想象场景。

与弱人工智能、强人工智能相比,超人工智能的定义最为模糊,因为没人知道,超越人类最高水平的智慧到底会表现为何种能力。如果说对于强人工智能,我们还存在从技术角度进行探讨的可能性的话,那么,对于超人工智能,今天的人类大多就只能从哲学或科幻的角度加以解析了。

首先,我们不知道强于人类的智慧形式将是怎样的一种存在。现在去谈论超人工智能和人类的关系,不仅仅是为时过早,而是根本不存在可以清晰界定的讨论对象。

其次,我们没有方法,也没有经验去预测超人工智能到底是一种不现实的幻想,还是一种在未来(不管这个未来是一百年还是一千年、一万年)必然会降临的结局。事实上,我们根本无法准确推断,到底计算机程序有没有能力达到这一目标。

显然,如果公众对人工智能会不会挑战、威胁人类有担忧的话,公众心目中所担心的那个人工智能,基本上属于这里所说的“强人工智能”和“超人工智能”。

我们到底该如何看待“强人工智能”和“超人工智能”的未来?它们会像AlphaGo那样,以远超我们预料的速度降临世间吗?

#科技发展瓶颈带来的缓冲带

那么究竟什么到什么时候强人工智能和超人工智能才能被制造出来?是有前提的,前提是人类科技总是以加速度形式跃进的基础上的。一种更有可能出现的情况是:特定的科技如人工智能,在一定时间的加速发展后,会遇到某些难以逾越的技术瓶颈。

有关计算机芯片性能的摩尔定律(价格不变时,集成电路上可容纳的元器件数目每隔18到24个月便会增加一倍,性能也将提升一倍)就是一个技术发展遭遇瓶颈的很好例子。计算机芯片的处理速度,曾在1975年到2012年的数十年间保持稳定的增长趋势,却在2013年前后显著放缓。2015年,连提出摩尔定律的高登·摩尔(GordonMoore)本人都说:“我猜我可以看见摩尔定律会在大约10年内失效,但这并不是一件令人吃惊的事。”

正如原本受摩尔定律左右的芯片性能发展已遭遇技术瓶颈那样,人工智能在从弱人工智能发展到强人工智能的道路上,未必就是一帆风顺的。从技术角度说,弱人工智能与强人工智能之间的鸿沟可能远比我们目前所能想象的要大得多。而且,最重要的是,由于基础科学(如物理学和生物学)尚缺乏对人类智慧和意识的精确描述,从弱人工智能发展到强人工智能,其间有很大概率存在难以在短期内解决的技术难题。今天,学者们对超人工智能何时到来的问题众说纷纭。悲观者认为技术加速发展的趋势无法改变,超越人类智能的机器将在不远的将来得以实现,那时的人类将面临生死存亡的重大考验。而乐观主义者则更愿意相信,人工智能在未来相当长的一个历史时期都只是人类的工具,很难突破超人工智能的门槛。

上述论调只是站在不同角度的猜测,科技的发展究竟以怎样的速度发展、强人工智能和超人工智能何时能够诞生,还是让我们稍安勿躁拭目以待。

霍金和他,关于人工智能,到底谁说的对

原标题:霍金和他,关于人工智能,到底谁说的对?

摘要

一年一度的GMIC大会今日在北京国家会议中心举行。在上午的领袖峰会上,世界著名物理学家斯蒂芬·威廉·霍金做了演讲并回答了一些关于人工智能的问题。虽然霍金的演讲的题目为《让人工智能造福人类及其赖以生存的家园》,但是霍金一再表示了其对人工智能发展的担忧。斯坦福大学计算机科学院教授、谷歌首席科学家YoavShoham表示赞同,但仍有自己的一些不同看法。

斯坦福大学计算机科学院教授、谷歌首席科学家YoavShoham称,他特别赞同霍金对于人工智能的评价,有激动人心的一方面,但更多的要提早预防AI带来的一系列问题。而对于“机器人取代人类”的言论,YoavShoham认为,未来人与机器的界限会越来越模糊,当人和机器融为一体了,就不存在机器会取代人的一个过程。

霍金称,我目前见证的最深刻的社会变化是人工智能的崛起。

为了支持这一论点,霍金解释到,文明所产生的一切都是人类智能的产物,从国际象棋和围棋人机大战的结果来看,霍金认为生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。

近来的里程碑,比如说之前提到的自主驾驶汽车,以及人工智能赢得围棋比赛,都是未来趋势的迹象。巨大的投入倾注到这项科技。我们目前所取得的成就,和未来几十年后可能取得的成就相比,必然相形见绌。而且我们远不能预测我们能取得什么成就,当我们的头脑被人工智能放大以后。也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害。关乎到我们生活的各个方面都即将被改变。简而言之,人工智能的成功有可能是人类文明史上最大的事件。

但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。我们正在焦急的等待协商结果。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。

YoavShoham称,他特别赞同霍金对于人工智能的评价,有激动人心的一方面,但更多的要提早预防AI带来的一系列问题。而对于“机器人取代人类”的言论,YoavShoham认为,未来人与机器的界限会越来越模糊,当人和机器融为一体了,就不存在机器会取代人的一个过程。

对于语音识别的应用场景,YoavShoham认为,语音识别的商业用途是无穷无尽的,但目前处于初期阶段,还需要完善。YoavShoham预测,未来几年语音交互会变得非常流行,可能会无处不在。

YoavShoham同时指出,语音识别这方面应用应该是由消费者来驱动的,而不是企业来驱动的。比如说GoogleHome、亚马逊Echo等等,所有这些会驱动语音识别的发展,语音识别的发展是无处不在的。

对于学术专家离开校园创业的事情,YoavShoham认为,这是一把双刃剑,积极的一面表现在,学者不再是纸上谈兵,不再是实验室里面纯粹搞他们的学术研究,而是能够接触到工业界当中的一些现实的问题,这让他们的研究有了一些现实的意义。但是创业也有一些风险因素,比如公司总是考虑商业利益和目标,学术研究将不再那么纯粹,有时候甚至会有一些冲突。

霍金先生他是一个非常优秀的物理学家,他对于未来的人工智能发展表示了担忧,我也是非常理解的,也是赞同的。因为我们现在机器和人工智能都已经非常深入的,非常巨大的改变了我们的社会方方面面,之前我们所开展的这些工业革命实际上已经非常深入的改变了我们的社会,机器和人工智能可能会同等程度的,甚至会更多的去改变我们的社会。但是在人工智能发展的同时,我们也面临着很多的问题,这些问题都是短期内发生的一些问题,我们需要去引起重视并且解决的。

我来举几个例子,比如说如果我们发展了这种自动驾驶的汽车,我们会有成千上万的司机他们会失业,这就会给我们社会经济造成很大的一个影响,这就是关于伦理道德方面的问题。另外就是我们在购房或者是其他方面需要去申请贷款的时候,我们之前都是会存在一些偏见的,或者是一些不平等的方面,有些弱势群体他们在获得贷款的批复方面可能就会存在着一些劣势,但是如果现在我们用机器,我们用算法去取代人,去为这些人群批复这些贷款的话,可能这种不公平的现象会被放大,这也是一个问题。另外就是如果说我们将人工智能应用到军事方面,如果我们出现了一些机器人的士兵的话,这种情况是否是合法的呢?所以这一系列的问题都是我们在短期之内遇到的关于人工智能方面,我们必须要引起重视,这是非常重要的。

另外就是从长期来看,我们也需要来思考霍金教授所提出来的这个问题。我的一位朋友他是以色列的一位朋友,他曾经提出了这样一个观点,也就是我们人类作为一种物种,我们进化的过程已经结束了,在未来机器将来取代人类。对于这样一个观点,我是不赞成的。有两个原因,第一个原因就是我觉得未来人与机器的界限会越来越模糊,比如说我们现在所看到的这些机器设备可能是我们手头上的手机或者是电脑等等,这个是与人之间还是有分离的。但是未来我们可能会有一些人脑与机器,人脑与计算机的一些交互,有一些芯片可以植入到我们血管当中,人和机器可以融为一体了,所以在这方面我觉得就不存在机器会取代人的一个过程,而是人和机器的界限会越来越模糊。第二个理由,我们之所以是人,不是机器,我们也是为之自豪的,因为我们能够思考,我们能够理解,我们有我们的感知能力,我们有感觉,我们有意识,我们有自由的意志,这些都是我们作为人类的优点,这点也是不能被机器所取代的。所以说我是非常欢迎人工智能到来的。

对于通用性人工智能和嵌入式人工智能两个发展路径,一种是基于设施设备的,另外一种是云端的。实际上这个问题也是非常难以作出一个清晰回答的,因为这实际上是一个产品工程或者是产品设计的一个问题。在这两者之间我们需要去取得一个权衡,因为各有利弊。在云端的话,可能数据传输起来会更加的快捷一些,比线下的数据会更快一些。但是最终决定,我们还是需要去根据具体的场景,根据它的设计,最终来作出一个决策,很难说哪个更好,哪个更容易。

我们现在面临的这些计算方面的设施,不仅仅包括我们手头上的手机,还有我们的笔记本电脑等等,它也包括其他的一些以智能形式存在的一些实体,我们在人工智能如此发展迅速的时代,我们就会面临很多新的问题。

比如说伦理问题,也就是说我们现在通过一些算法,通过一些数据等等,让人工智能去帮助我们做决策。但是如果说它所要做的这个决策是关乎生死的话,这个时候我们就涉及到伦理问题了。一个非常著名的例子就是说一个自主驾驶汽车遇到危险,它要决定继续往前开到人行道上面,还是说开到侧路上面,这个时候如果让自主驾驶汽车来做这个关乎生死决定的话,它是非常危险的。

另外还会涉及到法律方面的一些问题,比如说如果由人工智能来作出一些决策,但是作出的这个决策带来了一些非常负面的影响的话,谁来负这个法律的责任呢?

另外一个问题也是关于情感方面的问题,也就是说过去我们可能是由人来去看护一个儿童,但是如果说我们现在用机器人,用人工智能来去看护儿童的话,它所提供的这种陪伴只是让这个孩子,让这个儿童可以安全的,可以不受伤害的度过这个时光,但是如果说我们家长是人,是父母,有爱心地在去陪伴这个儿童的话,是不一样的,它是有情感的,有爱的陪伴,这是机器人所无法取代的一方面,所以我认为人工智能的时代会带来很多新的问题,这些问题也是大家在热烈讨论的一些问题。

展开全文

斯坦福大学计算机科学院教授、谷歌首席科学家YoavShoham称,他特别赞同霍金对于人工智能的评价,有激动人心的一方面,但更多的要提早预防AI带来的一系列问题。而对于“机器人取代人类”的言论,YoavShoham认为,未来人与机器的界限会越来越模糊,当人和机器融为一体了,就不存在机器会取代人的一个过程。

霍金称,我目前见证的最深刻的社会变化是人工智能的崛起。

为了支持这一论点,霍金解释到,文明所产生的一切都是人类智能的产物,从国际象棋和围棋人机大战的结果来看,霍金认为生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。

近来的里程碑,比如说之前提到的自主驾驶汽车,以及人工智能赢得围棋比赛,都是未来趋势的迹象。巨大的投入倾注到这项科技。我们目前所取得的成就,和未来几十年后可能取得的成就相比,必然相形见绌。而且我们远不能预测我们能取得什么成就,当我们的头脑被人工智能放大以后。也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害。关乎到我们生活的各个方面都即将被改变。简而言之,人工智能的成功有可能是人类文明史上最大的事件。

但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。我们正在焦急的等待协商结果。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。

YoavShoham称,他特别赞同霍金对于人工智能的评价,有激动人心的一方面,但更多的要提早预防AI带来的一系列问题。而对于“机器人取代人类”的言论,YoavShoham认为,未来人与机器的界限会越来越模糊,当人和机器融为一体了,就不存在机器会取代人的一个过程。

对于语音识别的应用场景,YoavShoham认为,语音识别的商业用途是无穷无尽的,但目前处于初期阶段,还需要完善。YoavShoham预测,未来几年语音交互会变得非常流行,可能会无处不在。

YoavShoham同时指出,语音识别这方面应用应该是由消费者来驱动的,而不是企业来驱动的。比如说GoogleHome、亚马逊Echo等等,所有这些会驱动语音识别的发展,语音识别的发展是无处不在的。

对于学术专家离开校园创业的事情,YoavShoham认为,这是一把双刃剑,积极的一面表现在,学者不再是纸上谈兵,不再是实验室里面纯粹搞他们的学术研究,而是能够接触到工业界当中的一些现实的问题,这让他们的研究有了一些现实的意义。但是创业也有一些风险因素,比如公司总是考虑商业利益和目标,学术研究将不再那么纯粹,有时候甚至会有一些冲突。

霍金先生他是一个非常优秀的物理学家,他对于未来的人工智能发展表示了担忧,我也是非常理解的,也是赞同的。因为我们现在机器和人工智能都已经非常深入的,非常巨大的改变了我们的社会方方面面,之前我们所开展的这些工业革命实际上已经非常深入的改变了我们的社会,机器和人工智能可能会同等程度的,甚至会更多的去改变我们的社会。但是在人工智能发展的同时,我们也面临着很多的问题,这些问题都是短期内发生的一些问题,我们需要去引起重视并且解决的。

我来举几个例子,比如说如果我们发展了这种自动驾驶的汽车,我们会有成千上万的司机他们会失业,这就会给我们社会经济造成很大的一个影响,这就是关于伦理道德方面的问题。另外就是我们在购房或者是其他方面需要去申请贷款的时候,我们之前都是会存在一些偏见的,或者是一些不平等的方面,有些弱势群体他们在获得贷款的批复方面可能就会存在着一些劣势,但是如果现在我们用机器,我们用算法去取代人,去为这些人群批复这些贷款的话,可能这种不公平的现象会被放大,这也是一个问题。另外就是如果说我们将人工智能应用到军事方面,如果我们出现了一些机器人的士兵的话,这种情况是否是合法的呢?所以这一系列的问题都是我们在短期之内遇到的关于人工智能方面,我们必须要引起重视,这是非常重要的。

另外就是从长期来看,我们也需要来思考霍金教授所提出来的这个问题。我的一位朋友他是以色列的一位朋友,他曾经提出了这样一个观点,也就是我们人类作为一种物种,我们进化的过程已经结束了,在未来机器将来取代人类。对于这样一个观点,我是不赞成的。有两个原因,第一个原因就是我觉得未来人与机器的界限会越来越模糊,比如说我们现在所看到的这些机器设备可能是我们手头上的手机或者是电脑等等,这个是与人之间还是有分离的。但是未来我们可能会有一些人脑与机器,人脑与计算机的一些交互,有一些芯片可以植入到我们血管当中,人和机器可以融为一体了,所以在这方面我觉得就不存在机器会取代人的一个过程,而是人和机器的界限会越来越模糊。第二个理由,我们之所以是人,不是机器,我们也是为之自豪的,因为我们能够思考,我们能够理解,我们有我们的感知能力,我们有感觉,我们有意识,我们有自由的意志,这些都是我们作为人类的优点,这点也是不能被机器所取代的。所以说我是非常欢迎人工智能到来的。

对于通用性人工智能和嵌入式人工智能两个发展路径,一种是基于设施设备的,另外一种是云端的。实际上这个问题也是非常难以作出一个清晰回答的,因为这实际上是一个产品工程或者是产品设计的一个问题。在这两者之间我们需要去取得一个权衡,因为各有利弊。在云端的话,可能数据传输起来会更加的快捷一些,比线下的数据会更快一些。但是最终决定,我们还是需要去根据具体的场景,根据它的设计,最终来作出一个决策,很难说哪个更好,哪个更容易。

我们现在面临的这些计算方面的设施,不仅仅包括我们手头上的手机,还有我们的笔记本电脑等等,它也包括其他的一些以智能形式存在的一些实体,我们在人工智能如此发展迅速的时代,我们就会面临很多新的问题。

比如说伦理问题,也就是说我们现在通过一些算法,通过一些数据等等,让人工智能去帮助我们做决策。但是如果说它所要做的这个决策是关乎生死的话,这个时候我们就涉及到伦理问题了。一个非常著名的例子就是说一个自主驾驶汽车遇到危险,它要决定继续往前开到人行道上面,还是说开到侧路上面,这个时候如果让自主驾驶汽车来做这个关乎生死决定的话,它是非常危险的。

另外还会涉及到法律方面的一些问题,比如说如果由人工智能来作出一些决策,但是作出的这个决策带来了一些非常负面的影响的话,谁来负这个法律的责任呢?

另外一个问题也是关于情感方面的问题,也就是说过去我们可能是由人来去看护一个儿童,但是如果说我们现在用机器人,用人工智能来去看护儿童的话,它所提供的这种陪伴只是让这个孩子,让这个儿童可以安全的,可以不受伤害的度过这个时光,但是如果说我们家长是人,是父母,有爱心地在去陪伴这个儿童的话,是不一样的,它是有情感的,有爱的陪伴,这是机器人所无法取代的一方面,所以我认为人工智能的时代会带来很多新的问题,这些问题也是大家在热烈讨论的一些问题。

原创声明

本文为原创,如需转载,请联系“企业思想家(ID:Enterprisethinkers)”公众号申请并获得授权。

企业思想家微信号:Enterprisethinkers(←长按复制)

“企业思想家”是《企业观察报》的官方微信。

《企业观察报》(CN11-0279)是由国务院国资委下属中国企业改革与发展研究会主管主办、大型国有企业投资、实行市场化运营的全彩色财经类周报。本报致力于和中国企业管理者共同“观察经济新常态,洞悉企业新机会”,传播中国企业管理新思想、新方法,发现并推介中国企业思想家。

“企业思想家”内容以原创为主,偶有转载我们会注明出处。

报社地址:北京市海淀区紫竹院南路2号5层(100000)

邮箱:hwchen@cneo.com.cn

QQ:1693265882

“企业思想家”是《企业观察报》的官方微信。

《企业观察报》(CN11-0279)是由国务院国资委下属中国企业改革与发展研究会主管主办、大型国有企业投资、实行市场化运营的全彩色财经类周报。本报致力于和中国企业管理者共同“观察经济新常态,洞悉企业新机会”,传播中国企业管理新思想、新方法,发现并推介中国企业思想家。

“企业思想家”内容以原创为主,偶有转载我们会注明出处。

报社地址:北京市海淀区紫竹院南路2号5层(100000)

邮箱:hwchen@cneo.com.cn

QQ:1693265882返回搜狐,查看更多

责任编辑:

霍金:人工智能或是人类历史上最后事件

点击关注 异步图书,置顶公众号

每天与你分享IT好书技术干货职场知识

Tips参与文末话题讨论,即有机会获得异步图书一本。

霍金曾说,“在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。”2018年3月14日76岁的霍金永远的离开了我们!出生于伽利略逝世300周年的日子,离开在爱因斯坦诞辰的日子,他们说有趣的灵魂终将相遇,今天会不会也在世界的哪个小角落里,有一个新的小生命的诞生,在往后的日子里,继续向着你们的远方前进。

他说,人工智能的崛起,要么是人类历史上最好的事,要么是人类文明的终结。

霍金认同:人脑与电脑没区别

霍金认为,生物大脑可以达到的和计算机可以达到的,没有本质区别。AI遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。

霍金说,近来人工智能的发展,比如电脑在国际象棋和围棋的比赛中战胜人脑,都显示出人脑和电脑并没有本质差别。

霍金担心:失控

一方面,霍金担心一些人利用人工智能做坏事,比如最大化使用智能性自主武器,它将助长战争和恐怖主义,加剧世界动荡局势。

另一方面,霍金最担心还是人工智能系统失控爆发的潜在风险,人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。到那时,人工智能可能是人类文明史的终结。

霍金建议:跨学科

霍金在演讲中说到,人工智能的崛起,是好是坏目前仍不确定。霍金认为,人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

但是霍金呼吁,人工智能的研究与开发正在迅速推进,但所有人都应该暂停片刻,把我们的研究从提升人工智能能力转移到最大化人工智能的社会效益上面。

霍金同时提出,跨学科研究是人工智能一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。

霍金生命最后几年中

关于人工智能的大事记

2014年的霍金:人工智能或是人类历史上最后事件

2014年5月,在观看了德普主演的新片《超验骇客》后,霍金在为《独立》杂志撰写的一篇文章中明确地表达了他对这个问题的担忧。

霍金担忧的对象不仅仅是未来的人工智能技术,甚至还包括现在的一些公司比如谷歌和Facebook。他说:“人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。”

霍金承认,机器人和其他的人工智能设备也许会给人类带来巨大的好处。如果那些设备的设计非常成功,就能给人类带来巨大的好处,他说那将是人类历史上最大的事件。然而他同时也提醒说,人工智能也有可能是人类历史上最后的事件。

他说:“人工智能技术发展到极致程度时,我们将面临着人类历史上的最好或者最坏的事情。”

霍金以前就曾试图提醒人们注意一点,即科幻的魅力会蒙蔽我们的双眼。它有时会掩盖住一个重要的问题,即最终的结果有可能引发一场浩劫。

当年的6月16日晚,霍金出席了美国HBO频道的“LastWeekTonight”节目,并与主持人约翰·奥利弗(JohnOliver)展开了“深刻而有意义的对话”。

当晚,霍金非常肯定地对主持人说:“人工智能在并不遥远的未来可能会成为一个真正的危险。”

到了2014年12月的时候,霍金在接受英国广播公司(BBC)的采访时说,“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。”

这让霍金再次登上英国各大媒体头条,激起人们对人工智能黑暗的、反面乌托邦式的假想。

从上世纪60年代末的科幻电影《2001:太空漫游》,一个名叫哈尔9000(HAL9000)的智能机器人发生错乱,在前往木星的太空船上对人类发起攻击;《我,机器人》中,一个多才多艺的人形机器似乎有了心灵;直到《终结者》系列,未来世界由机器人统治人类,反抗机器人统治的人类领袖被未来机器人追杀。

2015年的霍金:号召禁止人工智能武器

在这一年,霍金、特斯拉CEO埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克等上百位专业人士联名上书,号召禁止人工智能武器。

公开信称,如果任何军事力量推动人工智能武器的开发,那么全球性的军备竞赛将不可避免。人工智能武器不像核能一样——需要高昂的成本和难以获得的原材料,一旦开发人工智能很容易在各军事力量中普及。

公开信说,人工智能武器的禁令必须尽快颁布,以避免军备竞赛,这更甚于“控制人口数量的意义”。

2016年的霍金:人工智能崛起中产阶级或大量失业

2016年6月,霍金在接受美国知名记者拉里·金采访时说,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止住。

他认为,有益的人工智能将出现在人类生活的各方面。“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”

2016年10月,霍金在在英国剑桥建立了跨学科研究所“利弗休姆智能未来中心(LCFI)”,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”致力于研究智能的未来,花费大量时间学习历史,深入去看。LCFI的一项重要使命是要化解AI风险,破解AI难题。

在当天的演讲中,霍金说:“对于人类来说,强大AI的出现可能是最美妙的事,也可能是最糟糕的事,我们真的不知道结局会怎样。”

霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。

“我们生活的每一个方面都会改变。总之,创造AI的成功可能是我们文明历史上最大的事件。”霍金说。

这年的12月,在英国《卫报》的一篇专栏中,霍金表示:“工厂的自动化已经让许多传统制造业工人失业了,而人工智能的崛起会将失业范围扩大到社会上的中产阶级。未来,留给人类的只有护理、创新和监督等少数岗位了。”

如果这一趋势继续下去,会有什么后果吗?霍金认为机器人抢走人类工作后会造成社会更大的不公,自动化将“加速扩大全球范围内已经日益严重的经济不平等,互联网和各种平台让一小部分人通过极少的人力获取巨大的利润。这是不可避免的,这是一种进步,但也会对社会造成巨大破坏并最终“撕裂”整个社会”。

此外,互联网让穷人也见识到了上流社会的生活方式,一旦他们与其自身情况作对比,就会让无尽的怒气在整个社会生根发芽。

2017年的霍金:最后的警告

2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,“人工智能进一步发展便可能会通过核战争或生物战争摧毁人类。人类需要利用逻辑和理性去控制未来可能出现的威胁”。

4月,2017全球移动互联网大会(GMIC)在北京召开,霍金为这次大会发来了一个视频,进行了题为《让人工智能造福人类及其赖以生存的家园》的主题演讲,在这次主题演讲中,霍金再次提及了人工智能的问题,他认为人工智能的崛起很有可能导致人类文明最终走向终结。

在11月份举办的第五届腾讯WE大会上,霍金以远程视频的形式亮相WE大会,并谈论了对人工智能的一些看法。

在视频中霍金认为,人类很有可能会造出超级人工智能,这些人工智能程序能够全面超越人类,并有可能完全取代人类成为一种新的生命物种。霍金表示,“我担心人工智能将全面取代人类。如果有人能设计出计算机病毒,那么就会有人设计出能提升并复制自己的人工智能。这就会带来一种能够超越人类的全新生命形式。”

2017年12月13日,在长城会举办的“天工开悟,智行未来”活动中,霍金表示,现在还不能确定,人工智能的崛起对人类来说是好是坏,但可以确定的是,人类要竭尽全力,来保证人工智能的发展对于人类及环境有利。这可以说是霍金在公开报道中最后一条关于人工智能的看法了,也可以说是最后的警告。

最后,霍金对全世界的人是说,“我们站在一个美丽新世界的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。”

人工智能是成就人类,还是毁灭人类,等待着人类继续书写。

霍金留下这千年预言,在另外一个宇宙时空坐观。

人工智能,诚意书单

NO.1人工智能深度学习类2018年新书

点击下方书名试读

《概率图模型基于R语言》讲解了如何掌握概率图模型PGM,如何理解计算机通过贝叶斯模型来解决现实世界的问题,如何选择合适的R包、合适的算法来准备数据并建立模型。

《文本上的算法——深入浅出自然语言处理》深入浅出讲解自然语言处理和机器学习技术;广受读者好评的技术读物,微博总阅读量超过30万次《Python贝叶斯分析》PyMOL社区活跃者倾情奉献!发现Python贝叶斯分析的力量! 《数据科学家访谈录》 25位著名数据科学家的真知灼见 

NO2人工智能深度学习类:深度学习、Tensorflow

点击下方书名试读

《深度学习》AI圣经,深度学习领域奠基性的经典畅销书特斯拉CEO埃隆·马斯克等国内外众多专家推荐!

《深度学习精要(基于R语言)》基于R语言实战,使用无监督学习建立自动化的预测和分类模型《TensorFlow技术解析与实战》包揽TensorFlow1.1的新特性人脸识别语音识别图像和语音相结合等热点一应俱全李航余凯等人工智能领域专家倾力推荐!《TensorFlow机器学习项目实战》第二代机器学习实战指南,提供深度学习神经网络等项目实战,有效改善项目速度和效率。

点击下方书名试读

NO.3人工智能机器学习类:Python、机器学习、数据科学。

《Python机器学习实践指南》 结合了机器学习和Python语言两个热门的领域,通过利用两种核心的机器学习算法来用Python做数据分析。

《Python机器学习——预测分析核心算法》 从算法和Python语言实现的角度,认识机器学习。《机器学习实践应用》阿里机器学习专家力作,实战经验分享,基于阿里云机器学习平台,针对7个具体的业务场景,搭建了完整的解决方案。《NLTK基础教程——用NLTK和Python库构建机器学习应用》绍如何通过NLTK库与一些Python库的结合从而实现复杂的NLP任务和机器学习应用。

点击下方书名试读

《MicrosoftAzure机器学习和预测分析》 了解新的微软AzureMachineLearning服务掌握高效构建和部署预测模型的实用技能。《机器学习与数据科学(基于R的统计学习方法)》 为数据科学家提供了一些在统计学习领域会用到的工具和技巧。《机器学习Web应用》 eBay公司EUAnalytics部门负责人DavideCervellin作序推荐,全面Python机器学习的图书学会在Web下构建机器学习系统的权威指南。《实用机器学习》 使用R语言引导读者掌握机器学习实战顺利针对新问题新数据选择和使用机器学习算法。

NO.4人工智能算法策略类:算法、神经网络、自然语言处理、推荐系统、系统算法、图像算法、贝叶斯、概率编程、数学算法等。

点击下方书名试读

《神经网络算法与实现——基于Java语言》 完整地演示了使用Java开发神经网络的过程,既有非常基础的实例也有高级实例。

《趣学算法》 50多个实例循展示算法的设计、实现、复杂性分析及优化过程培养算法思维带您感受算法之美。《算法谜题》 Google、Facebook等一流IT公司算法面试必备,经典算法谜题合集。《Python算法教程》 精通Python基础算法畅销书Python基础教程作者力作。点击下方书名试读

《编程之法:面试和算法心得》程序员面试宝典笔试金典CSDN访问量过千万的博客结构之法算法之道博主July著作。

《趣题学算法》 一本有趣的、易学的、实用的,帮助读者快速入门应用的算法书。《Java遗传算法编程》 遗传算法设计机器学习人工智能来自Java专家的声音用遗传算法解决类似旅行商的经典问题。《算法学习与应用从入门到精通》 320个实例、753分钟视频、5个综合案例、74个技术解惑,一本书的容量,讲解了入门类、范例类和项目实战类三类图书的内容。

NO.5人工智能时间图像和视觉识别类:图像识别、语音识别、自然语言处理、matlab建模工程。

点击下方书名试读

《OpenCV和VisualStudio图像识别应用开发》无人驾驶人脸识别基础技术用OpenCV实现图像处理应用计算机视觉编程实战手册。

《人脸识别原理及算法——动态人脸识别系统研究》 介绍了动态场景下的人脸识别方法,该方法综合应用了人脸定位、人脸识别、视频处理等算法。《精通Python自然语言处理》 用Python开发令人惊讶的NLP项目自然语言处理任务掌握利用Python设计和构建给予NLP的应用的实践。《Python自然语言处理》基于Python编程语言和NLTK,自然语言处理领域的一本实用入门指南。点击下方书名试读

《贝叶斯方法:概率编程与贝叶斯推断》 机器学习人工智能数据分析从业者的技能基础国际杰出机器学习专家余凯博士腾讯专家研究员岳亚丁博士推荐。

《贝叶斯思维:统计建模的Python学习法》ThinkStats和ThinkPython图书作者重磅出击数据分析师数据工程师数据科学家案头常备。《概率编程实战》人工智能领域的先驱、美国加州大学伯克利分校教授StuartRussell作序推荐!一本不可思议的Scala概率编程实战书籍!《自己动手写神经网络》 机器学习与人工智能参考书基于Java语言撰写。

本文转载自微信公众号:京雄AI前沿,编辑:阿耶莎,作品《霍金:人工智能或是人类历史上最后事件》

今日话题

小调查,只做一个人的专访?你想看采访谁?为什么?截止时间3月15日17时,留言+转发本活动到朋友圈,小编将选出1名读者赠送异步新书一本。

延伸推荐

2018年2月新书2018年1月重磅新书小学生开始学Python,最接近AI的编程语言:安利一波Python书单政策升温:大家都在学大数据,一大波好书推荐

一本基于Python语言的Selenium自动化测试书

8本新书,送出一本你喜欢的AI经典书单|入门人工智能该读哪些书?

点击关键词阅读更多新书:

Python|机器学习|Kotlin|Java|移动开发|机器人|有奖活动|Web前端|书单

长按二维码,可以关注我们哟

每天与你分享IT好文。

在“异步图书”后台回复“关注”,即可免费获得2000门在线视频课程;推荐朋友关注根据提示获取赠书链接,免费得异步图书一本。赶紧来参加哦!

扫一扫上方二维码,回复“关注”参与活动!

点击下方阅读原文,查看更多

阅读原文

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇