王 峰丨人工智能模仿:新模仿美学的起点
图灵提出了一个非常有意思的概念:模仿游戏。这一概念刚被提出来的时候,并没有受到多大的重视,但是随着计算机的持续发展,尤其是最近十多年的时间里人工智能的迅速进展,图灵在模仿游戏上的见解,已经慢慢成为一种显学,从计算机和网络领域扩张到社会文化领域,甚至专门有部电影《图灵传:模仿游戏》,把图灵对人类科学文化的贡献极大地凸显出来。当然,图灵作为一个数学家和计算理论专家所提出的观念是相当抽象的,他更多是在基本观念上进行理论设想,没有任何实例。在我们这个时代,由于计算机和人工智能得到了长足的进步,深刻地进入人类生活,我们已经把这些进展视为理所当然,当作基本事实来对待,而在图灵时代,这些情况还是难以设想的。图灵的伟大之处在于,能够从一个基本的可能性入手,讨论一种可能存在的人工智能将会是什么样的情况,以何种标准出现。从我们这个时代评判这一设想,就会发现一系列有趣的情况,也可以推导出更多的观念。
图灵所说的模仿游戏与我们平时所谈到的模仿完全不同,正是因为这种截然不同的性质,使其成为一个需要格外注意的观念。这样的观念刚提出来的时候,往往被视为一种虚妄的见解,只有到了他所提出的计算原理经由冯诺伊曼变为现实,我们才会承认,他的理论具有伟大的意义,充满真知灼见。然而,在《计算机器与智能》中讨论的通用型计算机器,即现在所说的通用型人工智能,依然还难以实现,我们一般将它当作远景目标来看待。通用人工智能可能意味着人类智能被压倒,也可能意味着人类不仅在智能上,也可能在整个世界性地位上,被人工智能所取代。图灵对此没有任何阐述,也许对他来说,通用人工智能不过是一种正常的科学发展,只要原理上可以解释,并且是可能实现的,这就足够了。人类的消极远景从来不是科学研究所关切的。对于《可计算的数》我们没什么可说,因为那是奠定计算机基础的论文,而对现代人工智能影响深远的《计算机器与智能》一文,其中谈及计算机原理的部分现在已经成为大学生的基本常识,但其中关于智能原理部分,依然还闪耀着光辉,像一座取之不尽的宝藏。从模仿美学的角度,图灵机器智能论具有特殊的人文意义和价值,其中隐藏着新模仿论的因子:机器智能模仿人类,这一模仿可能开启美学新方向。“在美学领域中,大胆新颖的思想常常是来自别处的,而这些新颖的思想在其发生的文化故土上却被认为是平常无奇的东西,这在其他探索领域里也是如此。”
在图灵之前,模仿被认为是人类心灵史上一个非常重要的现象,因为模仿提供了一个内在心灵通往外部世界的连接方案。从柏拉图时代就开始讨论这一模仿,一直到现代,在谈及心灵和文学作品意义的时候,我们依然主张这样的模仿论。一方面我们认为心灵模仿外部世界,另外一方面,我们也认为文学艺术作品模仿外部的现实世界和心灵运作的机制。心灵运作机制极端复杂,所以模仿相当混杂,难以清晰说明。
文学艺术对现实的模仿论有一个强大传统,虽然这一传统在现代受到强大挑战,但通过各种修正,我们依然可以发现它的强大阐释力量。只有在人工智能模仿这里,人类模仿的诸种方案才真正失效,图灵提出模仿游戏这一观念,完全离开了人类模仿的既有轨道,将我们带到另一个方向上。——这样说,并不是否认人类模仿的存在,而是指模仿的整体方向得到了修正,人工智能模仿加入模仿方阵,成为一个异己性的对照力量。如果我们说此前的模仿就是人类模仿,没有必要将“人类”二字格外列出,因为这是一个默会知识,而人工智能模仿加入之后,模仿将存在两个支流,一是人类模仿,二是人工智能模仿。
虽然说图灵设想的人工智能模仿并没有完全实现,但在某些部分达成了预想,这一成就往往表现在人工智能工程方案上。如果我们把工程方案理解为手段,相应地把通用方案理解为目标,那么我们就可以以渐进的方式来理解整个人工智能模仿。显然,人工智能模仿与人类模仿机制完成不同,但是我们在谈论模仿的时候,总是将人工智能模仿与人类模仿相比附,因此就形成了奇异的理论奇观:在区分中不断混同,在混同中不断区分。在目前阶段,表现为这样的情况:在衡量人工智能的时候,常常是使用人类模仿内涵,并对两者进行比附,把人类模仿设为人工智能模仿的标准。虽然这样做更多的作用是产生歧义,但毕竟这是一条必经的道路。
人工智能模仿不能被纳入传统的模仿论研究范畴,同样也不属于传统的美学研究范畴,但是由于它与人类模仿形成对照关系,我们完全可以将它纳入模仿美学研究范围。这是一种新兴思想,它处于从虚拟之物转向现实之物的过程中,将它与现实模仿进行对照,比对它们之间的根本差异性,这仿佛是设立隔离带,但实际是通过区分,建立紧密关联,因为这样一种区分实际上是将一个理论预设对象纳入现实整体当中,而这一整体此前是不能够容纳它的。正是在这样一种对照当中,我们发现了一分为二的整体性,也正是由于这一整体性,在观念当中持平对照,我们才通过这样的辩证沟通方式塑造一个新整体,这是新思想和新观念起作用的方式。
二、可计算的模仿:一个特殊的美学概念
可计算性是人工智能最根本的性质,无论哪一种人工智能都离不开可计算性,图灵在1932年就已经探讨了可计算的数的问题,这奠定了计算科学的基础。对美学来讲,可计算性依然是重要的,如果我们把人工智能排除在外,那么我们可以确定地下判断说,美学与可计算性基本无关,因为人的心灵是不可计算的,计算是对美最大的损害。为了解除美与计算的关联,康德使用了“无限”这一计算上的最终界限来划分美的不可计算性与知性的遵守规则的可计算性,这在崇高的阐述中展现得很明显。然而,如果我们抱有一种开放的观念,就会发现,可计算性可以演化为一种特殊的美学概念。它虽然一直是一个数学问题,或者说科学问题,从来没有成为美学问题的一部分,但由于人工智能的发展,我们发现美学之中曾经神秘的、只能够用直觉来表示的东西,现在有可能使用可计算的方式来呈现。也就是说,某种特殊的人工智能形态可以复现人的某种非计算性能力,这样一来,我们就要讨论人工智能的可计算性与人的看似非计算性的能力,比如创造、情感、心灵、个性等之间的某种对应可能性,以及怎样起到一种转换和替代的作用。
图灵将这种替代性质称为模仿。当然,图灵的模仿是非常广泛的,我们上面所讨论的只能是工程式图灵机所要完成的功能性模仿,如果达到通用图灵机这一层次的模仿,那么类人智能体(仿生体)就成为可能——后一层次目前只在科幻作品中出现,它从原理上可能达到,但技术上还无实现的可能性。无论哪一种人工智能形态,在图灵的方案看来都是以可计算性为基础的。我们哪怕暂且不去考察图灵的通用人工智能形态与人类完整能力之间的差异,因为实际上审美能力是人的一种完整能力的表现,虽然它看起来是一种特殊的能力,但是对于个体的人来讲任何一种能力都不是孤立的,它都与其他能力形成各种交织的关系,8只是我们在分析人类能力的时候,往往将具体功能孤立出来,并用概念来对应进行分析,然后才能进行概念叠加,以复归复杂整体性,同时,这一整体性毕竟是天然存在的,所以它还能够起到引导分析的作用。这一分析过程并不是无聊的,它必须进行,否则我们就不能对人加强了解。相对地,图灵所建立的可计算性所采取的方式是直接进行实体孤立,它必须在人的能力当中,使用概念性的方式直接做一个切片,相应地在人工智能的计算当中,使用各种模仿和替代的方式来达成这一能力切片的实现,因而达成一种替代性模仿。
目前一个研究方向是将人工智能研究与脑科学的研究联合起来,但这一任务其实只会无限延宕人工智能研究。我们不能设想人类能够对某一特定的能力彻底分析清楚,同样,我们也不能设想能够把握这一特定能力所面对的所有对象,这样的一个工作量至少目前乃至最近的时代看来都是暂时无法完成的。更深一步的情况是,人的任何一个能力的理解和认识与它所对应的对象之间形成复杂关联,其复杂性远远高于我们所能够分析的复杂性。因而,最根本的原因不是量上的,而是质上的,这种孤立是概念孤立,不是实质孤立,而这样的概念孤立实际上是从人的整体能力当中分隔出来的,就人类的整体能力和特定能力而言,如果我们把特定能力视为整体能力的一部分,那么我们就可能走错了方向。我们更应该做的是,把特定能力理解为整体能力在某一侧面的凸显,这一凸显与其面对的环境有关联,实际上是结合着环境向这种能力凸显的一种汇聚,某些从结构上看似关联松散的因素其实可能起着根本性的作用。如果我们去想一下中医,就可以理解这样的思维方式,系统性总是优先的。但是我们在建造人工智能,并且利用人工智能来模仿人的功能的时候,我们又必须对特定的能力切割出来进行实体化处理,并将其面对的对象同样实体化处理,才能够将它分析清楚。因此从这个角度上来看,人工智能对人的特定功能的模仿其实与人的能力运作方式还有很大的距离。
人的能力实际上是以人的整体能力为基础的,它是从整体到部分,部分不离于整体;但人工智能只能从部分走向整体,这一过程中不可避免存在各种发展方向,因为我们不知道达成总体的途径到底应该是什么,也可能存在着多种途径。因此趋向整体的过程当中,人工智能其实是不断受到质疑,并且不断改变发展方向,而且我们也会发现,一旦所谓的人工智能整体达到了,那么人本身也可能进入一个新的阶段。这其实是我们预设的概念性目标,我们必须具有这种概念性目标,才能为目前人工智能的发展提出方向性引导。——但这一人工智能的整体性与人的有机体的整体性是两回事,一为概念预设,一为实存。康德寻找的人类学路径是将预设落实在实存中,讨论概念预设作为先验规则如何重构已经存在的实存,并在实存中如此这般地显现出来,它是描述性的;而在人工智能那里则将两者彻底分离,讨论概念如何呈现为某种(人的)实在的样子,因而,必须寻找替代方案,它是建构性的。
在人工智能模仿中,我们也发现一个非常关键的特征,这一特征就是渐进性,因为人类功能极端复杂,使用数学模型模拟人的功能将是一个浩大工程。因此我们总是能够发现人工智能模拟在目前阶段处于可笑的层面上,它实际上不可能一下子达到对人的功能的完好模拟,它既能够模仿人的功能的某个部分,也很容易露出非人的马脚,而同时,由于我们对人工智能的强烈期待,让我们无法容忍这样的马脚,我们认为它既然被称作人工智能,对人的功能的模拟就应该跟人的状况一样,但抱有这样一种期待的人无疑会失望。实际上,任何一种人工智能的模拟游戏都很难达到百分百对人的功能的模仿,因为我们总能在这样的模仿当中看到一些差距。这里认为,最主要的不是差距,因为功能性的模仿本身就存在着整体目标和部分目标之间的差距,这是天然的;在人那里,这两种目标融合在一起,而在人工智能模仿这个领域,这样的目标必然存在着可实现的工程学方案与远景性的概念性方案的距离。整体目标是不可能实现出来的,它只能是一种概念悬设,所以直接展现出来的只是一种特定的功能或阶段性的模仿,而这样的模仿都可能随着技术的发展而得以改善,所以这里的模仿应该视为一种渐进性性质,而不是与人类模仿直接等同。
在这里,我们要恢复到图灵对模仿游戏的基本设定。《计算机器与智能》设计了著名的图灵机测试。图灵测试仅仅是一种思想实验,但在其后的时代被证明为是计算认知科学的鼻祖,它是一切计算机能够运行的基本模型。图灵测试所关注的问题是,一个机器能否与其之外的人对话,并且不被人发现它是一台机器。这个问题很容易被看作心灵哲学的伪装问题,图灵并不想向伪装方向发展。他直接干脆利落地断绝了这一可能性,他说,为了这测试,必须把身体质素与精神质素分开,身体质素就是那些可以发现的东西,而精神质素则完全是一种智能情况。如果我们把这一状况放在人类社会当中,就会发现绝对是不可能的,因为人类社会是一个复杂的构成,它存在各种可能的情况,我们一般是通过各种蛛丝马迹发现真相的,侦探破案是这一模式的典型;但图灵测试的真正情境应该放在电子通信之中,只要通信对方清晰地回答你提出的问题,你就不能怀疑对方具有人的智能或直接是人。如果计算能达到这一层次,它就被认为是一个智能体。一般来说,只要一个智能体达到70%的对话正确率,在它之外的人就会认为在与一个人对话,而不是与一台机器对话这样,这台机器也就通过了图灵测试。这样一个比例实际上即使通过直观也具有足够的理论抽象判断内涵。说它是直观的,就在于基于一个直接观察,在人类反应当中,也不是百分之百的准确性,“为什么人可以出错,而机器却不能出错?”出错是正常的,只要达成大概70%~90%的准确性,当然,准确性不能低于70%。在一种语言的自然反应当中,一个反应者可能无法时时准确理解对方的含义,交流可能发生中断,他只要有询问和解释的机会,能够校正错误就可以了,当然这样的校正出现的概率不能高过30%,否则就会被认为不太懂正在使用的这种语言;当然同时我们也发现,图灵这里的判断具有一种理论的意义,因为在70%这样的判断比例中,我们给予人工智能体一个机会:它能够被判断为具有智能内涵的存在,而判断的标准以及判断的准确性等等外部特征,是智能体的一个关键的特征。——在人类意识那里,这些外部特征必须转变为内部特征,即心灵活动,才是智能的标准,而图灵这里,智能的根本定义在于效应,在外部,这是根本性的转变。
三、计算或心灵:新模仿论的跨越
模仿游戏实际上跟人类模仿是两种完全不同的活动,人类模仿本身就是一种智能活动,模仿就是智能的直接展现,智能是内在于模仿的。甚至我们会说,智能这件事情从来不作为一个问题在人类当中出现,人类是否具有智能,以及个体是否具有智能这一点是毋庸置疑的,是先天的,因为如果没有智能,人类就不能成其为人。但是,放在人工智能的时代,这样的一种全称性的判断就变得可疑起来,因为对于人工智能模仿而言,智能不是一个内在的状态,而是一种外部的特征,人类智能的有无不需衡量标准,但是在人工智能模仿这里,却必须有一个具体的交流反应标准,这一标准必须通过外部的语言和行动上的交流,做出正确的反应才得以成立。这时,我们才能够做出一个判断,机器具有智能状态,是一个智能体。人工智能本质是机器,它是可计算的机器,但是可计算性是智能的基本中介,是人的智能与人工智能智能之间的桥梁,人工智能不断接近人的智能,展现为某种人类功能的智性样式,进而为这一中介方式树立判断标准。在这里,人类模仿那里的先天特征被转化为一种可计算性的执行和标准问题,更进一步,我们曾经以为的人类模仿的不可计算性,在人工智能面前慢慢展现出可计算性的特征。或者更进一步来说,我们通过这样一些局部性的成功,也预测到通用人工智能在人类能力模仿上可能达到的高度,虽然它不会完全跟人类一样,但是,它毕竟在某些层面上能达到以假乱真的地步。机器人索菲亚只是在电视媒体上看起来像真人,实际上离真人反应还差得很远,但不管怎样,这也代表着目前人工智能发展的成就,毕竟,全面模仿人类只是通用人工智能的一种可能性。
在人类模仿中,我们发现,审美和艺术作为人类的一种特殊能力,是以整体能力为基础的,没有整体能力就没有部分的审美能力。审美能力往往被视为各种能力结合的产物,是人类能力当中最高超的一部分。但人工智能模仿却与此相反,它表现为一种特殊的可计算的功能。目前的人工智能在审美和艺术上的成就已经表明,它能够通过功能性的模仿达成审美功能,甚至可以说目前的人工智能写诗和绘画,等等,已经能够具有自学习或者自适应的高度,并能够做到中等创作者的成就,这就是一个了不起的功能模仿。在这里,我们绝不能够判断说,人工智能模仿达到了诸种能力或者心灵状态的结合,因为在人工智能这里并没有任何心灵之物,也没有任何其他能力,它具有的只是一种替代性的模仿游戏。只要通过计算方式达成人类某一功能的展现,那么我们就认为,这样的模仿就是成功的,哪怕使用的方式在人类看来匪夷所思,不能代表人类心灵的高度,但我们能够根据其创造的产品得出类似人类功能的判断,那么,我们就为人工智能树立了外部标准。在人工智能模仿那里,我们只需要外部标准就可以了,我们不需要心灵、意识诸如此类的概念,因为这些概念完全是人类模仿的概念,它不能适用于人工智能模仿。对于人工智能模仿,我们只能使用另外一些层面的概念来对其进行描述,这些概念还处于逐渐发现过程中,并不成熟,但是不管怎样,它的方向和路径与人类模仿的分析是完全不同的。
我们也可以将两种不同层面的概念进行比对,从中得出区分,仅仅是为了将人工智能模仿接入到整体模仿,并且将它们与人类模仿相区别。只有保持这样的层面,我们才能够恰当地去谈论人工智能模仿的艺术水平和审美水平。这里我们使用人类模仿层面上的词汇,但是,转换了一个领域之后,我们又必须改变它们的内涵,将其从人类主体内涵中剥离出去,使其成为一种人工智能模仿中的审美概念,这是一个可能的努力方向。
在《计算机器与智能》一文中,图灵一开始就这样来提问,机器能否思想?5这样一个问题在他那个时代是相当奇怪的,因为答案是毋庸置疑的,机器不能思想,如果机器能思想的话,那么机器的心灵来自哪里呢?我们总得给它分配一个心灵,才能说它能够思想吧?否则思想住哪里,各种机能如何运作?所有这些都将是一个难解的问题,大概只有在科幻作品当中才可能出现机器思想这样的描绘,但这是一篇严格的科学论文,我们怎么样理解机器能思想这一问题打开了一个新局面,可以说,这一提问包含智能问题的巨大转向。我们经常看到否定性的答案,从德累福斯、塞尔,一直到现在,“机器不能思想”,“人工智能没有意识”这样的观点不绝于耳。意识问题仿佛成了人工智能的“原罪”。但是如果我们转变一个方向,讨论思想以什么样的方式展现出来,那么就会看到,这就可以容纳人工智能能够思想这一结论了。
我们在这里关注的实际上是方法。图灵测试的最高价值就在于它为思想这个词赋予了新的含义,扩展了它的范围。在人类范围内思想不可避免地与计算有关,但是所有的计算都来自人的心灵,而我们认为心灵是一个整体,它是密不可分的,结合着人的各种计算性或非计算性的能力。而在图灵测试当中,实际上一台计算机器理论上只具有一种能力,就是计算能力,相应地,人类能力的不可计算不是绝对的,而是暂时的,我们总是能找到途径,将人的各种能力转化为功能,并通过计算模拟将这一功能实现出来,只要计算力达到要求,从本质上讲,这一过程是无限的。因此,我们可以说,通用人工智能是可能无限接近的,虽然我们不知道何时能够达到。
图灵测试建立的模型即为图灵机,它是一种理想模型,它只关注基本原理达成的机制问题,并不关注运算能力、储存能力、硬件承载力诸如此类的问题,因为这些通过科技发展都可能完成。这样一来,问题就集中在何为思想。如果我们认为计算机没有心灵,因而不能思想,那么我们怎样理解深蓝战胜国际象棋大师卡斯帕罗夫?阿尔法狗战胜李世石和柯洁?如果我们依然坚持认为那只是计算机高级程序,所谓的人工智能不能思考,如塞尔那样,那么,在人类思想游戏最高级的代表国际象棋和围棋上,人工智能击败了人类最顶级的棋手,这说明什么问题?如果答案依旧是否定的,那么我们就得为思想划出一个特殊的疆域:无论人工智能在何种程度上完成思想的功能,但因为“程序不是心灵,它们自身不足以构成心灵”,所以它不是真正的思想,而是像思想而已,思想属人,其他不具有思想。如果在人工智能得到迅速发展的现在,我们依然还是持有这样的一种观点,我们必须为思想这个词限定做一个格外的限定,“属人的”,而此前我们其实认为这是不言自明的。如果我们认为只有人类才能思想,而能够在人类思想游戏(比如棋类游戏)当中表现卓越的人工智能同样能够达到,但是我们并不把它命名为思想,只能命名为程序,或其他的东西,那么,我们就得把思想的至高无上的地位降低,因为很简单,存在比人类思想更卓越的东西,而这又是人类自己创造出来的。这样一来,实际上就处在一个奇特的悖论,人工智能既然能够在思想的一般意义上超过人类,甚至我们会说人工智能具有一种特殊的模仿人类大脑活动的游戏,但它不叫思想游戏,而叫别的东西,这就成为一个非常困难的问题。可以想见,对这一问题的回答一定会逐渐松动,由彻底地否认转向接受,进而发现任何与人类大脑的思想活动相关或相近的人工智能活动都应该称为思想或者意识,等等,只要我们在这样的活动当中清除掉所谓的心灵运作的必要性就可以了。那么这样的心灵运作主要体现在哪里呢?主要在于一种整体性的预设,也就是说,心灵的诸能力应该是完满一致的,合为一体。任何一种单一的心灵能力的展现,比如说思想、意识、意向性等,实际上不仅仅是它自身相关,而是与其他能力相关。这样的整体性,导致了人类心灵的整体性,没有这种整体性,我们就很难判断我们所谈论的对象是否具有心灵能力,可以说整体性是心灵论的防卫利器。然而,却是一件伤及人类自身理解的利器。随着图灵机的有效性不断得到验证,它的影响力也不断扩展,形成对既有观念的冲击。
如何理解图灵所提出的计算性智能在人工智能领域内的基本含义呢?我们知道,计算可能在某种程度上脱离人类的具体掌控,因为它具有了某种学习能力,这是通过计算模式获得的,虽然它还不能脱离人的控制,但在计算模式内,却不再需要人类时时进行控制,并且它的运算水平超出了人的相关功能。但是基本限制依然存在,也就是建模本身就是人工智能的基本限制,它是不能突破的,如果能够突破计算模型本身的限制,那么人工智能将进入另外一个飞跃。这一飞跃虽然不可能导向人工智能的独立,但可能强化我们既有的对人工智能独立的焦虑和恐惧。这样的焦虑和恐惧现在已经出现了,但是从目前来看,任何一种能够思想的人工智能,实际上都是以其占据的材料为思想的基本模式,不能脱离开思想材质的限制,当然,我们必须知道“脱离”这个词的含义:这个词不仅是指脱离开一种可见的材料载体,还指脱离任何一种我们肉眼看不见的,比如电子、量子等载体,这些是思想的基本限制。更重要的是,模仿游戏还有一个更根本的限制,这是整体上的,即人工智能在整体性上无法达到人脑的程度,这一点不仅仅取决于人脑本身的结构和理解,也取决于我们怎么样理解人类身体自身,怎样理解身体与思想之间的关系。这极有挑战性。但是我们可以期待,随着可计算水平的提高,思想逐渐外在化是一个趋向,外在化与可计算性是紧密结合在一起的,最终达到人的某一功能的模仿,或者对某几个功能组合的模仿,这将在人工智能的不断进展之中得以解决。我们会不断看到这样的挑战,甚至包括关于对人的存在性的挑战,比如,人类的意识、情感反应、心理、个性等问题,这些是否可计算和可呈现的?当然,改变身体这个问题太复杂,我们暂时不讨论。一个可能符合图灵通用人工智能设计的机器人,无论怎样发展都会被我们一眼看到它不同于人类的地方,因为人类呈现出来的整体性是一个浩大的自然选择过程,这一过程包含了整个自然界的运作,而单纯凭借某些载体和某些程序的设计,即使包括不断地改良和学习,是否能达成对人的这种整体性的呈现?这一点非常让人怀疑。更进一步地说,当图灵测试将被测者隔离开,这就已经具有了格外的理论意义,因为这一隔离标志着这一有目的的检测脱离了一般日常行为领域,而进入一个实验室领域。在这里预设了一个简单的环境和简单的情况,这是理论隔离的具体运用,将单一功能进行切片化处理,只有这样,我们才能够做出一个有所隔离的实验并且给出一个验证标准。验证本身具有其理论含义,它谋求未来的可能性,虽然我们不知道这个未来到底是有多遥远。同时我们也一边在实践着图灵的设计,一边在怀疑图灵对通用智能的设计,因为图灵不可能设想到所有计算机的发展方向和变化,他的理论设计仅仅是一种理论化的行动。我们在这里还应该保持一种审慎的态度,不能因为一个人的理论预想实践了一半或者大半,就相信他所有的理论预想,因为很可能在某一时刻之后,这一理论会突然之间被证明走错了方向,尤其是当这一理论的实践路程越走越长,错误的可能性就变得越来越大。因此在任何一种构想当中,我们总是不断地在现实的实践中打磨它,不断调整它,这是非常正常的。随着实践某一理论设想的时间变得越长,它对现实实践的指导力越抽象,直至另一个同级别的理论设想代替它。
四、可计算性模仿的美学意义
可计算性是人工智能的基础,除非我们想象另外一种可能的智能形态,就是将基因改造与人工智能的硬件方面的改良相结合形成人工智能的统一体,13只有这样,我们才可能想象一种人工智能是生长性的。当然这样的人工智能实践将引起高度风险,会引起整个伦理社会文化观念强烈的不适,因为它所结合的两部分,无论是人工智能的意识上传也好,还是基因改造也好,都具有高度伦理风险。这一人工智能实践的方向将这两种风险结合在一起,伦理风险成倍增加。可以想见短期内无法实现,只可能是未来的某个时刻,随着人工智能的发展,整个社会文化和心态都发生转变,慢慢汇聚,逐渐接受基因改造与人工智能的结合,而这一结合将真正造成不可预知的未来,进而我们也会说,这也许是后人类最高的发展阶段,因为到那个时刻,我们可能面临着一个新局面,所有人类几乎都会经受这种新实践的改造,未经改造的可能会成为不占优势的个体,这样一来我们会是后人类还是最终指向人类的消亡?如果这种情况真的出现,那么目前关于人工智能的担忧也会成为现实,因为如果将未经改造的人类被称为完整的人的话,那么在未来,完整和原初的人类形态将变得非常稀少,几近消亡。我们说人类最终败给人工智能,在这个意义上也是成立的。但是这句话当中包含着巨大的历史位移,我们是在用一个高度发展的人工智能与生物技术的结合体,与人类原初状况相对比,而忘记了与我们原初身体相适应的是所有原初文化,而如果一旦未来真的出现湿件人工智能体的话,那么必然会产生与之相适应的文化形态,那些文化形态与那时的科技形态相适应,两者之间是安然若素的。就像我们现在回首百年前,或者回首千年前,也会觉得不能用我们现在的文化心态去衡量那个时代的科技发展方式,同样,那个时代的人们也无法理解我们这个时代的科技和伦理状况。所以在人工智能问题上,必须持有科技与文化双向互动的观念才能适合未来发展。
通过图灵,我们把人工智能的可计算性与美学结合在一起,这时,我们就从传统美学领域抽身而出,进入一个新的领域。在传统美学当中,美包含着一种特殊的神秘性,这一神秘性来自于心灵。在柏拉图那里,这一神秘性来自于外在于我们的神灵。图灵的观念如果可以转变为一种美学的话,我们会看到,图灵测试将能力转变为可供计算的功能,进而演化为一种独立的展现出来的功能形态,这意味着这一能力的计算性的复现,从而它也成为人类心灵能力配置的一种对照。这一对照是模仿人类心灵能力的结果,但是,它又提供了新的可能方向,建立了新的标准。这一点足够让人惊讶,并足够对我们现有的美学思考提出挑战。当然,我们在此依然非常清醒地看到,所谓的美学意义并不相当于对人类主义美学的完全复制,它只是通过某种替代性的途径实现了某些美学判断的功能,并没有重建人工智能美学与心灵之间的功能性关系,相反,更可能的是切断了它与心灵之间的必然性联系。我们应该思考这种新的美学可能性,并对美学保持多元的理解,这样才能不断开拓美学新领域。只是这样一来,我们将人工智能的可计算性放入美学研究当中,相应排除了意向性和心灵的成分,这不可避免地带来新的概念和新的范围,甚至包括新的美学思考方法。
也许,不管我们用什么样的方式来研究人工智能与美学的关系,它都对现有的美学研究造成影响,哪怕它只是一种暂时难以被纳入美学对象的排斥性探讨,其结果也依然可能是为美学研究扩展范围,陈列出新的美学研究方向,为此前人类纪的美学研究方法遮盖起来的某些性质,提供一个新的对照系统,使其展现出新的面相,而这一面相是此前所忽略的。哪怕仅仅出于这一反求诸己的对照,我们也足够肯定人工智能美学研究的意义了。不管怎样,人工智能美学的试探在这样的肯定与否定、比较与鉴别当中逐渐变得面目清晰起来。返回搜狐,查看更多
生成式人工智能迎来大爆发,人类真的要失业了吗
去年夏天以来,以ChatGPT为代表的“生成式”人工智能系统接连问世,人们惊艳于它们的智能程度,但也对其未来发展产生担忧。这样的系统可以按需求生产内容,不仅威胁到人们的工作,还可能造成错误信息的激增。
StableDiffusion根据提示自动生成的画作,真假难辨。图源:https://stablediffusionweb.com/
就在10多年前,三位人工智能研究人员取得了一项突破,永远地改变了这个领域。
“AlexNet”系统通过从网上采集的120万张图像进行训练,识别出了从集装箱船到豹子等不同物体,其准确性远远高于以往的计算机。
这一壮举帮助开发人员阿莱克斯·克里泽夫斯基(AlexKrizhevsky)、伊利娅·苏茨克维(IlyaSutskever)和杰弗里·辛顿(GeoffreyHinton)赢得了名为ImageNet的年度神秘竞赛。它还展示了机器学习的潜力,并在科技界引发了一场将人工智能带入主流的竞赛。
从那时起,计算机的人工智能时代基本上在幕后形成。机器学习是一项涉及计算机从数据中学习的基础技术,已普遍应用于识别信用卡欺诈、提高在线内容和广告相关性等领域。如果说从那时起机器人就开始抢走人们的工作,那基本上也是在我们看不到的地方发生的。
现在不是了。人工智能领域的另一项突破刚刚撼动了科技界。这一次,机器在众目睽睽之下运行,它们可能终于准备好取代数百万的工作岗位了。
一个11月底发布的查询和文本生成系统ChatGPT,以一种科幻小说领域之外很少见到的方式闯入了公众的视线。它由总部位于旧金山的研究公司OpenAI创建,是新一波所谓的“生成式”人工智能系统中最引人注目的一种,这种系统可以根据要求生成内容。
如果你在ChatGPT中键入一个查询,它将以一段简短的段落作为响应,列出答案和一些上下文内容。例如,你问它谁赢得了2020年美国总统大选,它会列出结果,并告诉你乔·拜登何时就职。
ChatGPT界面。
ChatGPT使用简单,能够在瞬间得出看起来像人类生成的结果,有望将人工智能推入日常生活。微软向OpenAI(由AlexNet创始人苏茨克维联合创立)投资数十亿美元的消息,几乎证实了这项技术将在下一阶段的人工智能革命中发挥核心作用。
ChatGPT是一系列日益引人注目的人工智能公众展示的最新例子。另一个OpenAI系统,自动书写系统GPT-3,在2020年年中发布时震惊了科技界。其他公司的所谓大型语言模型紧随其后,去年扩展到图像生成系统,如OpenAI的Dall-E2、来自StabilityAI的开源StableDiffusion和Midjourney。
这些突破引发了人们争相寻找这项技术的新应用。数据平台ScaleAI首席执行官亚历山大·王(AlexandrWang)将其称为“应用案例的寒武纪大爆发”,将其比作现代动物生命开始繁荣的史前时刻。
如果计算机可以编写和创建图像,那么在正确的数据训练下,还有什么是它们无法生成的吗?谷歌已经展示了两个实验系统,可以根据简单的线索生成视频,还有一个可以回答数学问题。StabilityAI等公司已将这项技术应用于音乐。
这项技术还可以用于向软件开发人员建议新的代码行,甚至整个程序。制药公司梦想着用它以更有针对性的方式合成新药。生物技术公司Absci本月表示,已经利用人工智能设计出了新的抗体,可以将一种药物进入临床试验所需的大约四年时间缩短两年多。
但随着科技行业竞相将这项新技术强加给全球受众,人们需要考虑潜在的深远社会影响。
例如,让ChatGPT以12岁孩子的风格写一篇关于滑铁卢战役的文章,你就能让一个小学生的家庭作业手到擒来。更严重的是,人工智能有可能被故意用来产生大量错误信息,还可能会自动取代大量工作,远远超出最容易躺枪的创造性工作。
微软人工智能平台主管埃里克•博伊德(EricBoyd)表示:“这些模型将改变人与电脑互动的方式。它们将以一种前所未有的方式理解你的意图,并将其转化为计算机行为”。因此,他补充说,这将成为一项基础技术,“涉及几乎所有现有的东西”。
可靠性问题
生成式人工智能的倡导者表示,这些系统可以提高工人的生产力和创造力。微软称,公司旗下GitHub部门的软件开发人员,已经使用一个代码生成系统生成了40%的代码。
谷歌研究科技对社会影响的高级副总裁詹姆斯•马尼卡(JamesManyika)表示,对于任何需要在工作中提出新想法的人来说,这类系统的输出可以“解锁思维”。它们内置在日常软件工具中,可以提出想法、检查工作,甚至生成大量内容。
然而,尽管生成式人工智能易于使用,并有可能颠覆很大一部分科技领域,但对构建这项技术并试图在实践中应用的公司,以及许多可能在不久之后在工作或个人生活中遇到这项技术的人,都构成了深刻的挑战。
最重要的是可靠性问题。计算机可能会给出听起来可信的答案,但人们不可能完全相信它们说的任何话。其通过研究大量数据,根据概率假设做出最佳猜测,却不能真正明白它产生的结果。
圣菲研究所教授梅兰妮·米切尔(MelanieMitchell)表示:“它们对一次谈话之外的事情一无所知,无法了解你,也不知道词语在现实世界中意味着什么。”它们只是针对线索,产生大量听起来有说服力的答案,是聪明但无脑的模仿者,无法保证它们的输出不只是数字幻觉。
已经有事实展示,这项技术如何产生看起来有模有样但实际不可信的结果。
例如,去年年底,Facebook母公司Meta展示了一个名为Galactica的生成系统,它是根据学术论文进行训练的。人们很快发现,这个系统会根据要求发布乍一看可信但实际上是虚假的研究,导致Facebook在几天后撤回了系统。
ChatGPT的创建者也承认其有缺点。OpenAI表示,系统有时会给出“无意义”的答案,因为在训练人工智能时,“目前没有真相来源”。OpenAI补充说,使用人类直接训练它,而不是让它自己学习(这一种被称为“监督学习的方法”,可以由训练资料中学到或创建一个模式,并依此模式推测新的实例)并不奏效,因为系统通常比人类这个老师更善于找到“理想答案”。
一种潜在的解决方案是在生成系统的结果发布之前提交合理性检查检查。马尼卡说,谷歌的实验性LaMDA系统于2021年宣布,对每个线索提出了大约20种不同的响应,然后评估每种响应的“安全性、毒性和合理性”。“我们打电话去检验,看看这是真的吗?”
然而,斯坦福大学计算机科学副教授珀西·梁(PercyLiang)表示,任何依赖人类来验证人工智能输出结果的系统都存在问题。他说,这可能会教会人工智能如何“生成具有欺骗性但看上去可信的东西,实际上可以愚弄人类”。“事实是,真相难以捕捉,而人类并不擅长于此,这可能令人担忧。”
PhotobyArsenyTogulevonUnsplash
而这项技术的支持者说,有一些实用的方法可以使用它,而不必试图回答这些更深层次的哲学问题。微软联合创始人保罗•艾伦(PaulAllen)创立的人工智能研究所A12的顾问兼董事会成员奥伦•埃齐奥尼(OrenEtzioni)表示,就像互联网搜索引擎既能提供有用的结果,也能提供错误的信息一样,人们将设法最大限度地利用这些系统。
他说:“我认为消费者只会学会使用这些工具来造福自己。我只是希望这不会让孩子们在学校作弊。”
但让人类去猜测机器生成的结果是否准确,可能并不总是正确的答案。研究人工智能应用的科技行业组织“人工智能伙伴关系”首席执行官丽贝卡•芬利(RebeccaFinlay)表示,在专业环境中使用机器学习系统已经表明,人们“过度相信人工智能系统和模型得出的预测”。
她补充说,问题在于,“当我们与这些模型互动时,人们会将结果对于人类有何意义的不同方面灌输给它们”,这意味着他们忘记了系统并没有真正“理解”他们所说的话。
这些信任和可靠性问题,为不良行为者滥用人工智能提供了可能。对于任何故意试图误导的人来说,这些机器可能成为虚假信息工厂,能够生产大量内容,淹没社交媒体和其他渠道。在正确的例子训练下,它们可能还会模仿特定人物的写作风格或说话声音。
埃齐奥尼说:“制造虚假内容将非常容易、廉价和普遍。”
StabilityAI负责人伊马德•穆斯塔克(EmadMostaque)表示,这是人工智能普遍存在的一个固有问题。他说:“这是一种人们可以道德或不道德地、合法或非法地、符合伦理地或不符合地使用的工具。坏人已经拥有了先进的人工智能。”
他声称,唯一的防御措施就是尽可能大规模地推广这项技术,并向所有人开放。
这在人工智能专家中是一个有争议的解决方案,他们中的许多人主张限制对底层技术的使用。微软的博伊德表示,其“与我们的客户合作,了解他们的用例,以确保人工智能在这种情况下真的是一个负责任的用途。”
他补充说,微软还会努力防止人们“试图欺骗模型,做一些我们真的不想看到的事情”。微软为其客户提供工具,扫描人工智能系统的输出,以查找他们想要阻止的冒犯性内容或特定术语。
微软此前经历了惨痛的教训,认识到聊天机器人可能会失控:聊天机器人Tay在发表种族主义和其他煽动性言论后,不得不在2016年被匆忙召回。
在某种程度上,技术本身可能有助于控制新人工智能系统的滥用。例如,马尼卡表示,谷歌已经开发了一种语言系统,可以以99%的准确率检测出语音是否为合成。他补充说,谷歌的任何研究模型都不会生成真人的图像,从而限制了所谓深度造假的可能性。
人类的工作面临威胁
生成式人工智能的兴起,也引发了关于人工智能和自动化对就业影响的又一轮争论,这已经是一个老生常谈的话题。机器会取代工人吗?或者,通过接管重复性工作,它们会提高现有工人的生产力,并增加他们的成就感吗?
最明显的是,涉及大量设计或写作元素的工作面临风险。当StableDiffusion在去年夏末问世时,它对即时图像与提示相匹配的承诺,让商业艺术和设计界不寒而栗。
一些科技公司已经在尝试将这项技术应用于广告,其中就包括ScaleAI,其已经在广告图像方面训练了一个人工智能模型。王说,借助这个工具,小零售商和品牌可以得到专业的包装图像,而此前为产品拍摄此类图像价格高昂,他们无法负担。
Dall-E2解释生成原理的视频截图
这可能会威胁到内容创造者的生计。穆斯塔克说:“它彻底改变了整个媒体行业。世界上每一个主要的内容提供商之前都以为他们需要一个元宇宙策略:他们需要的是一个媒体生成策略。”
据一些面临失业的人说,这不仅仅事关生计。当歌手兼词曲作者尼克·凯夫看到ChatGPT写的听起来像他自己作品的歌曲时,他惊呆了。他在网上写道:“歌曲产生于痛苦,我的意思是,它们是基于人类复杂的、内在的创作斗争过程,而据我所知,算法是没有感觉的。数据没有感知。”
对科技持乐观态度的人相信,科技会放大而不是取代人类的创造力。斯坦福大学的梁说,有了人工智能图像生成器,设计师可以变得“更有野心”。“你可以创建完整的视频或全新的系列,而不仅仅是创建单个图像。”
版权制度最终可能发挥重要作用。应用这项技术的一些公司声称,出于“合理使用”,它们可以自由地使用所有可用数据来训练自己的系统。“合理使用”是美国的一项法律例外,允许有限度地使用受版权保护的材料。
其他人不同意这个说法。盖帝图像和三名艺术家上周在美国和英国对StabilityAI和其他公司提起诉讼,指控这些人工智能公司肆意使用受版权保护的图像来训练其系统,这是这一领域首个法律诉讼。
一名代表两家人工智能公司的律师表示,这个领域的所有人都已准备好应对诉讼,这是为这个行业制定基本规则不可避免的一步。对科技行业而言,围绕数据在训练人工智能方面作用的争论,可能会变得与智能手机时代初期的专利战一样重要。
最终,为人工智能新时代设定条款的将是法院,甚至是立法者,如果他们认为这项技术打破了现有版权法所基于的旧假设的话。
在那之前,随着计算机竞相吸收世界上更多的数据,生成式人工智能领域迎来了自由狩猎的季节。
原标题:《生成式人工智能迎来大爆发,人类真的要纷纷失业了吗?》
阅读原文
霍金:人工智能或是人类历史上最后事件
点击关注异步图书,置顶公众号
每天与你分享IT好书技术干货职场知识
Tips参与文末话题讨论,即有机会获得异步图书一本。
霍金曾说,“在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。”2018年3月14日76岁的霍金永远的离开了我们!出生于伽利略逝世300周年的日子,离开在爱因斯坦诞辰的日子,他们说有趣的灵魂终将相遇,今天会不会也在世界的哪个小角落里,有一个新的小生命的诞生,在往后的日子里,继续向着你们的远方前进。
他说,人工智能的崛起,要么是人类历史上最好的事,要么是人类文明的终结。
请点击此处输入图片描述
霍金认同:人脑与电脑没区别
霍金认为,生物大脑可以达到的和计算机可以达到的,没有本质区别。AI遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。
霍金说,近来人工智能的发展,比如电脑在国际象棋和围棋的比赛中战胜人脑,都显示出人脑和电脑并没有本质差别。
霍金担心:失控
一方面,霍金担心一些人利用人工智能做坏事,比如最大化使用智能性自主武器,它将助长战争和恐怖主义,加剧世界动荡局势。
另一方面,霍金最担心还是人工智能系统失控爆发的潜在风险,人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。到那时,人工智能可能是人类文明史的终结。
霍金建议:跨学科
霍金在演讲中说到,人工智能的崛起,是好是坏目前仍不确定。霍金认为,人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。
但是霍金呼吁,人工智能的研究与开发正在迅速推进,但所有人都应该暂停片刻,把我们的研究从提升人工智能能力转移到最大化人工智能的社会效益上面。
霍金同时提出,跨学科研究是人工智能一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。
替换高清大图
请点击此处输入图片描述
霍金生命最后几年中
关于人工智能的大事记
2014年的霍金:人工智能或是人类历史上最后事件
2014年5月,在观看了德普主演的新片《超验骇客》后,霍金在为《独立》杂志撰写的一篇文章中明确地表达了他对这个问题的担忧。
霍金担忧的对象不仅仅是未来的人工智能技术,甚至还包括现在的一些公司比如谷歌和Facebook。他说:“人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。”
霍金承认,机器人和其他的人工智能设备也许会给人类带来巨大的好处。如果那些设备的设计非常成功,就能给人类带来巨大的好处,他说那将是人类历史上最大的事件。然而他同时也提醒说,人工智能也有可能是人类历史上最后的事件。
他说:“人工智能技术发展到极致程度时,我们将面临着人类历史上的最好或者最坏的事情。”
霍金以前就曾试图提醒人们注意一点,即科幻的魅力会蒙蔽我们的双眼。它有时会掩盖住一个重要的问题,即最终的结果有可能引发一场浩劫。
当年的6月16日晚,霍金出席了美国HBO频道的“LastWeekTonight”节目,并与主持人约翰·奥利弗(JohnOliver)展开了“深刻而有意义的对话”。
当晚,霍金非常肯定地对主持人说:“人工智能在并不遥远的未来可能会成为一个真正的危险。”
到了2014年12月的时候,霍金在接受英国广播公司(BBC)的采访时说,“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。”
这让霍金再次登上英国各大媒体头条,激起人们对人工智能黑暗的、反面乌托邦式的假想。
从上世纪60年代末的科幻电影《2001:太空漫游》,一个名叫哈尔9000(HAL9000)的智能机器人发生错乱,在前往木星的太空船上对人类发起攻击;《我,机器人》中,一个多才多艺的人形机器似乎有了心灵;直到《终结者》系列,未来世界由机器人统治人类,反抗机器人统治的人类领袖被未来机器人追杀。
替换高清大图
请点击此处输入图片描述
2015年的霍金:号召禁止人工智能武器
在这一年,霍金、特斯拉CEO埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克等上百位专业人士联名上书,号召禁止人工智能武器。
公开信称,如果任何军事力量推动人工智能武器的开发,那么全球性的军备竞赛将不可避免。人工智能武器不像核能一样——需要高昂的成本和难以获得的原材料,一旦开发人工智能很容易在各军事力量中普及。
公开信说,人工智能武器的禁令必须尽快颁布,以避免军备竞赛,这更甚于“控制人口数量的意义”。
2016年的霍金:人工智能崛起中产阶级或大量失业
2016年6月,霍金在接受美国知名记者拉里·金采访时说,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止住。
他认为,有益的人工智能将出现在人类生活的各方面。“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”
2016年10月,霍金在在英国剑桥建立了跨学科研究所“利弗休姆智能未来中心(LCFI)”,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”致力于研究智能的未来,花费大量时间学习历史,深入去看。LCFI的一项重要使命是要化解AI风险,破解AI难题。
在当天的演讲中,霍金说:“对于人类来说,强大AI的出现可能是最美妙的事,也可能是最糟糕的事,我们真的不知道结局会怎样。”
霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。
“我们生活的每一个方面都会改变。总之,创造AI的成功可能是我们文明历史上最大的事件。”霍金说。
这年的12月,在英国《卫报》的一篇专栏中,霍金表示:“工厂的自动化已经让许多传统制造业工人失业了,而人工智能的崛起会将失业范围扩大到社会上的中产阶级。未来,留给人类的只有护理、创新和监督等少数岗位了。”
如果这一趋势继续下去,会有什么后果吗?霍金认为机器人抢走人类工作后会造成社会更大的不公,自动化将“加速扩大全球范围内已经日益严重的经济不平等,互联网和各种平台让一小部分人通过极少的人力获取巨大的利润。这是不可避免的,这是一种进步,但也会对社会造成巨大破坏并最终“撕裂”整个社会”。
此外,互联网让穷人也见识到了上流社会的生活方式,一旦他们与其自身情况作对比,就会让无尽的怒气在整个社会生根发芽。
请点击此处输入图片描述
2017年的霍金:最后的警告
2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,“人工智能进一步发展便可能会通过核战争或生物战争摧毁人类。人类需要利用逻辑和理性去控制未来可能出现的威胁”。
4月,2017全球移动互联网大会(GMIC)在北京召开,霍金为这次大会发来了一个视频,进行了题为《让人工智能造福人类及其赖以生存的家园》的主题演讲,在这次主题演讲中,霍金再次提及了人工智能的问题,他认为人工智能的崛起很有可能导致人类文明最终走向终结。
在11月份举办的第五届腾讯WE大会上,霍金以远程视频的形式亮相WE大会,并谈论了对人工智能的一些看法。
在视频中霍金认为,人类很有可能会造出超级人工智能,这些人工智能程序能够全面超越人类,并有可能完全取代人类成为一种新的生命物种。霍金表示,“我担心人工智能将全面取代人类。如果有人能设计出计算机病毒,那么就会有人设计出能提升并复制自己的人工智能。这就会带来一种能够超越人类的全新生命形式。”
2017年12月13日,在长城会举办的“天工开悟,智行未来”活动中,霍金表示,现在还不能确定,人工智能的崛起对人类来说是好是坏,但可以确定的是,人类要竭尽全力,来保证人工智能的发展对于人类及环境有利。这可以说是霍金在公开报道中最后一条关于人工智能的看法了,也可以说是最后的警告。
替换高清大图
请点击此处输入图片描述
最后,霍金对全世界的人是说,“我们站在一个美丽新世界的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。”
人工智能是成就人类,还是毁灭人类,等待着人类继续书写。
霍金留下这千年预言,在另外一个宇宙时空坐观。
人工智能,诚意书单
NO.1人工智能深度学习类2018年新书
请点击此处输入图片描述
点击下方书名试读
《概率图模型基于R语言》讲解了如何掌握概率图模型PGM,如何理解计算机通过贝叶斯模型来解决现实世界的问题,如何选择合适的R包、合适的算法来准备数据并建立模型。
《文本上的算法——深入浅出自然语言处理》深入浅出讲解自然语言处理和机器学习技术;广受读者好评的技术读物,微博总阅读量超过30万次
《Python贝叶斯分析》PyMOL社区活跃者倾情奉献!发现Python贝叶斯分析的力量!
《数据科学家访谈录》25位著名数据科学家的真知灼见
NO2人工智能深度学习类:深度学习、Tensorflow
请点击此处输入图片描述
点击下方书名试读
《深度学习》AI圣经,深度学习领域奠基性的经典畅销书特斯拉CEO埃隆·马斯克等国内外众多专家推荐!
《深度学习精要(基于R语言)》基于R语言实战,使用无监督学习建立自动化的预测和分类模型
《TensorFlow技术解析与实战》包揽TensorFlow1.1的新特性人脸识别语音识别图像和语音相结合等热点一应俱全李航余凯等人工智能领域专家倾力推荐!
《TensorFlow机器学习项目实战》第二代机器学习实战指南,提供深度学习神经网络等项目实战,有效改善项目速度和效率。
请点击此处输入图片描述
点击下方书名试读
NO.3人工智能机器学习类:Python、机器学习、数据科学。
《Python机器学习实践指南》结合了机器学习和Python语言两个热门的领域,通过利用两种核心的机器学习算法来用Python做数据分析。
《Python机器学习——预测分析核心算法》从算法和Python语言实现的角度,认识机器学习。
《机器学习实践应用》阿里机器学习专家力作,实战经验分享,基于阿里云机器学习平台,针对7个具体的业务场景,搭建了完整的解决方案。
《NLTK基础教程——用NLTK和Python库构建机器学习应用》绍如何通过NLTK库与一些Python库的结合从而实现复杂的NLP任务和机器学习应用。
请点击此处输入图片描述
点击下方书名试读
《MicrosoftAzure机器学习和预测分析》了解新的微软AzureMachineLearning服务掌握高效构建和部署预测模型的实用技能。
《机器学习与数据科学(基于R的统计学习方法)》为数据科学家提供了一些在统计学习领域会用到的工具和技巧。
《机器学习Web应用》eBay公司EUAnalytics部门负责人DavideCervellin作序推荐,全面Python机器学习的图书学会在Web下构建机器学习系统的权威指南。
《实用机器学习》使用R语言引导读者掌握机器学习实战顺利针对新问题新数据选择和使用机器学习算法。
NO.4人工智能算法策略类:算法、神经网络、自然语言处理、推荐系统、系统算法、图像算法、贝叶斯、概率编程、数学算法等。
请点击此处输入图片描述
点击下方书名试读
《神经网络算法与实现——基于Java语言》完整地演示了使用Java开发神经网络的过程,既有非常基础的实例也有高级实例。
《趣学算法》50多个实例循展示算法的设计、实现、复杂性分析及优化过程培养算法思维带您感受算法之美。
《算法谜题》Google、Facebook等一流IT公司算法面试必备,经典算法谜题合集。
《Python算法教程》精通Python基础算法畅销书Python基础教程作者力作。
请点击此处输入图片描述
点击下方书名试读
《编程之法:面试和算法心得》程序员面试宝典笔试金典CSDN访问量过千万的博客结构之法算法之道博主July著作。
《趣题学算法》一本有趣的、易学的、实用的,帮助读者快速入门应用的算法书。
《Java遗传算法编程》遗传算法设计机器学习人工智能来自Java专家的声音用遗传算法解决类似旅行商的经典问题。
《算法学习与应用从入门到精通》320个实例、753分钟视频、5个综合案例、74个技术解惑,一本书的容量,讲解了入门类、范例类和项目实战类三类图书的内容。
NO.5人工智能时间图像和视觉识别类:图像识别、语音识别、自然语言处理、matlab建模工程。
请点击此处输入图片描述
点击下方书名试读
《OpenCV和VisualStudio图像识别应用开发》无人驾驶人脸识别基础技术用OpenCV实现图像处理应用计算机视觉编程实战手册。
《人脸识别原理及算法——动态人脸识别系统研究》介绍了动态场景下的人脸识别方法,该方法综合应用了人脸定位、人脸识别、视频处理等算法。
《精通Python自然语言处理》用Python开发令人惊讶的NLP项目自然语言处理任务掌握利用Python设计和构建给予NLP的应用的实践。
《Python自然语言处理》基于Python编程语言和NLTK,自然语言处理领域的一本实用入门指南。
请点击此处输入图片描述
点击下方书名试读
《贝叶斯方法:概率编程与贝叶斯推断》机器学习人工智能数据分析从业者的技能基础国际杰出机器学习专家余凯博士腾讯专家研究员岳亚丁博士推荐。
《贝叶斯思维:统计建模的Python学习法》ThinkStats和ThinkPython图书作者重磅出击数据分析师数据工程师数据科学家案头常备。
《概率编程实战》人工智能领域的先驱、美国加州大学伯克利分校教授StuartRussell作序推荐!一本不可思议的Scala概率编程实战书籍!
《自己动手写神经网络》机器学习与人工智能参考书基于Java语言撰写。
本文转载自微信公众号:京雄AI前沿,编辑:阿耶莎,作品《霍金:人工智能或是人类历史上最后事件》
今日话题小调查,只做一个人的专访?你想看采访谁?为什么?截止时间3月15日17时,留言+转发本活动到朋友圈,小编将选出1名读者赠送异步新书一本。
延伸推荐
2018年2月新书
2018年1月重磅新书
小学生开始学Python,最接近AI的编程语言:安利一波Python书单
政策升温:大家都在学大数据,一大波好书推荐
一本基于Python语言的Selenium自动化测试书
8本新书,送出一本你喜欢的
AI经典书单|入门人工智能该读哪些书?
点击关键词阅读更多新书:
Python|机器学习|Kotlin|Java|移动开发|机器人|有奖活动|Web前端|书单
请点击此处输入图片描述
长按二维码,可以关注我们哟
每天与你分享IT好文。
在“异步图书”后台回复“关注”,即可免费获得2000门在线视频课程;推荐朋友关注根据提示获取赠书链接,免费得异步图书一本。赶紧来参加哦!
扫一扫上方二维码,回复“关注”参与活动!
点击下方阅读原文,查看更多
阅读原文