人工智能会有意识吗问题问错了
原为来自wired,作者:DanielC.Dennett,中文版首发于公众号:神经现实(ID:neureality),
翻译:Lemona,编辑:夏明明,封面:pixabay
1950年,在“控制论之父”诺伯特·维纳(NorbertWiener)所著的《人有人的用处》(TheHumanUseofHumanBeings)出版时,真空管还是电子系统的主要构成单位,当时也仅有几台能真正运行的计算机。
但是,他想象出的“未来”与现在的现实相比,有着惊人一致的细节,也几乎没有明显的错误。他比许多其他早期专攻人工智能的哲学家更清楚地意识到:人工智能不仅会在许多需要智能的活动中模仿和取代人类,还会在这个过程中改变人类。“我们只不过是‘永流之河’中的一个个涡流。”他写道,“我们不遵循规律,却一直在寻找自己的规律。”
“控制论之父”诺伯特·维纳(NorbertWiener)
比如说,在面对很多吸引人的机遇时,我们常常乐于付出一点小小的、微不足道的代价来获取新的力量。然后我们很快就会非常依赖于这些新的工具,以致于没有它,我们就失去了生存能力。曾经的选择变成了必须。
这是一个非常非常古老的故事,其中包含了很多著名的演化史叙事。例如,大部分哺乳动物都可以在体内生成维生素C,但灵长类动物却因为选择了以水果为主的饮食结构而失去了这一先天能力。一系列这样的自我强化规律让人类最终变成了依赖于衣服、熟食、维他命、疫苗、信用卡、智能手机和互联网的生物。并且未来,如果现在还不算的话——我们也将会依赖于人工智能。
维纳预见到了阿兰·图灵(AlanTuring)和其他早期人工智能乐观主义者所忽视的一些初期问题。他认为,虽然这些机器还不足够强大,但可以导致真正的危险,比如说当一个人或一群人用它们来控制其他族人,或是当政治领导者不仅试图用机器本身来控制民众,还试图通过狭隘和冷漠无情的政治技术限制人类发展可能性,仿若在政客眼中人类只不过是机器而已。
果然如维纳所料,现在这种危险已经渗透到了各个领域。
以媒体行业为例,数字音频和视频的发明让我们花很小的代价(对于唱片和电影爱好者而言)就可以抛弃模拟信号制式,从而使我们可以方便(或许过于方便?)地进行高保真度复制。
然而,这种现象其实隐藏着巨大的代价。乔治·奥威尔(GeorgeOrwell)在《一九八四》中所描述的真理部,现在已具备了实践可能性,人工智能技术现在可以编造完全无法证伪的事件记录,这将导致我们在过去150年里使用的调查工具不再适用。
译者注:此部门处理事务的实际方法与头衔相反——“真理部”主要负责根据现实和宣传需要,改写历史文献、报纸和文学著作。深层含义:人为制造真理。
企鹅六十周年版本《1984》图片来源:JonGray
我们是否会就此舍弃短暂的图像证据时代,回到从前人类记忆和信任被奉为黄金准则的世界?又或者我们是否会研发关于“真相军备竞赛”新的攻防技术?(我们可以想象回到需要曝光的模拟胶片时代在把图片呈现给陪审团之前,将其保存在“防篡改”的系统里等等。不过,要不了多久,就会有人研究出入侵这种有疑点的系统的方法?)
从近年来的经验中,我们可以汲取一个令人不安的教训:摧毁可信度的声誉要比保护它容易太多。维纳发现了这些根本问题:“长远来看,武装自己和武装敌人并没有差别。”信息时代其实也是造谣时代。
我们能做些什么呢?在我看来,维纳几乎漫不经心的观察,即前文提到的“这些机器本身还不够强大”是关键语句。正如我最近提出的论点所说,我们在制造工具,而不是同事;我们最需要小心的是对于两者间差别的无知,而且我们需要通过政治与法律创新来强调、标明并捍卫这种差别。
当前人工智能的表现形式是依附于人类智慧的。它只能无差别地消化吸收人类创造的任何东西,并提取其中的规律——包括一些人类最有害的恶习。这些机器(暂时)还没有自我批判和创新的目标、策略和能力,因此它们无法通过反省思考自己的思维与目标,超越自身数据库的局限。
正如维纳所说,这些机器之所以不够强大,不是因为它们是被束缚的、或是有缺陷的主体(agent),而是因为它们根本就不是主体——也就是说它们无法根据呈现给它们理由采取行动。我们以这种方式看待人工智能是至关重要的,尽管做到这一点可能有些困难。
长远来看,“强人工智能”或通用人工智能在理论上是可行的,但它们并不受人欢迎。当今实际可行、更受约束的人工智能并不必然是邪恶的,但它本身却带来了其他危险——主要是它可能被误认为是强人工智能。
目前的人工智能系统与主流科幻小说中所描绘的情景还有很大差距,然而包括外行和专家在内的很多人都低估了这个差距。IBM公司创造的沃森就是一个典型的例子,是可以体现我们当前想象力的代表作。
IBMWatson图标
沃森是超大规模的研发过程的结果,它超越了有史以来所有的人类智能设计成果,需要消耗比人类大脑多几千倍的能量。沃森在智力竞赛节目《危险边缘》中赢得的胜利是真实的胜利,节目的规则限制使得它有了取胜的可能。但为了能让它获得取胜的能力,即使这些规则也需要被进一步修改(需要权衡的因素之一是:你需要放弃通用性和一点人性,节目才能获得大众的喜爱)。
尽管IBM具有误导性的广告让人们以为沃森有通用的会话能力,但它却并不是一个好的聊天对象;把沃森变成一个貌似多维的主体就像把一个手持计算器变成沃森一样不可行。沃森的确可以成为这样的多维主体的核心程序,不过它的作用更像是小脑或杏仁核,而不是整个大脑——它顶多是一个有特定用途、能起到很大支持作用的子系统,但离拟定目标、计划并根据会话经历进行深层次的创造还差得远。
为什么我们要用沃森制造出能思考、会创造的主体呢?也许图灵对运行测试的绝妙想法——著名的图灵测试——把我们诱进了一个陷阱:我们总想探索如何在屏幕背后创造出真实的人,就算这只是幻觉,也足以填补横亘在假人与真人之间的“恐怖谷”。
*译者注:“恐怖谷”是一种假说,认为随着类人物体的拟人程度增加,人类对它的情感反应呈现增-减-增的曲线。恐怖谷就是随着机器人到达“接近人类”的相似度时,人类好感度突然下降至反感的范围。“活动的类人体”比“静止的类人体”变动的幅度更大。
这里的危险在于,自从图灵提出这个最终目的是愚弄判断者的挑战以来,人工智能制造者们就一直在试图用故作可爱的类人外表与迪士尼卡通化的效果来获取大众的喜爱,并以此吸引人工智能的外行,让他们卸下防备。制造这种浅薄错觉的最早例子,就是约瑟夫·魏岑鲍姆(JosephWeizenbaum)设计的早期聊天机器人Eliza。这一如此可笑、简单而肤浅的程序轻易就能让人们相信,他们正与之进行一场严肃的心灵对话。正是对这种人机对话的担忧让魏岑鲍姆踏上了自己的使命。
他的担心是对的。如果我们能从每年为争夺勒布纳奖(LoebnerPrize)而举办的规则严格的图灵测试比赛中学到一件事,那就是:即使是非常聪明的人,如果对计算机编程的各种可能性与快捷方式不够敏感,也很容易被简单的小把戏所蒙骗。
对于这种在“用户界面”上玩伪装把戏的方法,人工智能界人士有蔑视的,也有看好的。然而他们普遍认为这种把戏虽然不高级,却可能是有效。其实,人们最该认识到的是,类人化的外观是虚假宣传——我们应该竭力谴责这种做法,而不是为之喝彩。
如何做到这一点呢?一旦我们认识到,人们对人工智能系统实际的内部运作漫无头绪,却开始根据它的“建议”来做生死攸关的决定时,就完全可以理解为什么那些鼓励人们对这些系统抱有更多信任的人应该负道德和法律责任。
人工智能系统是非常强大的工具,强大到专家们有正当的理由不相信自己的决策,而是相信这些工具做出的“决策”。然而,如果这些工具的使用者想通过在未知领域中驱使这些工具来获取利益——无论是金钱还是其他形式的利益——他们就需要确保他们知道自己有足够的把握和理由这样做,并为此承担责任。
如同给药剂师、起重机操作员或是给其他可能因为失误和误判而造成严重后果的专业人士发放许可证一样,在保险公司和其他承诺支付者的压力下,要想让人工智能系统的操作者获得许可和资质,就必须让人工智能系统的创造者花费相当长的时间寻找和揭示产品中的弱点和漏洞,对操作者进行培训,并让他们提防人工智能系统的风险。
我们可以想象一种逆向图灵测试,在这一测试中作为裁判的人类才是受试者;只有在他或她发现了系统中的弱点、越界和漏洞后,该系统才会被允许操作。获得成为裁判的资格需要接受严格的心理训练,因为在遇到任何看似有智慧的主体时我们总有一种十分强大的倾向,认为该主体拥有类人的思维能力。
《仿生人会梦见电子羊吗?》菲利普K迪克所著小说图片来源:ChrisSkinner
的确,抵抗把一个看起来像人的人当作人对待的诱惑的能力是一种不受欢迎的天赋,因为这会有种族歧视或物种歧视的嫌疑。很多人认为培养这种冷血无情、多疑的能力非常不道德,并且我们可以预见就算是最熟练的系统用户,也完全有可能偶尔屈服于与这些工具“交朋友”的诱惑,即使这样做的目的仅仅是缓解他们履行职责时的不适。
不管人工智能设计者们多么小心翼翼地从他们的产品中清除那些虚假的“类人外观”,我们仍然可以预计,会出现很多捷径、变通方案以及对人工智能系统及其操作者的实际“理解”的扭曲,而这种扭曲将得到人们的容忍。
只有强制要求不负责任的特定机构披露相关问题的答案,出现在电视广告中的新药里的那些长到夸张的副作用列表才会大大缩短,药品生产商们才会因为对产品缺陷的“忽视”而受到严厉惩罚。(很多人认为当今世界逐渐加大的经济不平等大部分是因为数字创业者所积累的财富;为了公众的利益,我们应该立法对他们征更多的税。)
我们不需要人工意识主体。自然界中有大量有意识的主体,已经足够处理任何需要这种特别的、有特权的主体来处理的任务。我们需要智能的工具。但这些工具不应该有权利,也不应该拥有受到伤害的感受,或是拥有因为笨拙用户的“虐待”而产生怨恨的能力。
我们不应当制造人工意识主体的原因之一是,无论它们变得多么自主(理论上它们的确可以变得像人类一样自主,并有自我提升和自我创造的能力),它们也不会——特殊情况除外——像人类这种自然意识主体一样具有脆弱和死亡的特点。
机器人这种高级地位的问题在于:它们像超人一样刀枪不入,没有弱点,因此不能作出令人信服的承诺。
在塔夫茨大学,我曾在一次关于人工主体和自主性的研讨班中向学生们提出一个问题:如果要设计一个能和你签订有约束力合约的机器人——它必须能为自己签订,而不是作为某个人的代理者——告诉我这种机器人需要哪些特定能力。这里的问题不是让这个机器人理解从句,或是如何用笔在纸上涂写这么简单,而是让它成为一个值得拥有法律地位的道德责任主体。儿童无法签订这种合约,而有些残疾人也只有在监护人的照看下,才拥有这种法律地位。
让机器人这种高级地位的问题在于:它们像超人一样刀枪不入,没有弱点,因此不能作出令人信服的承诺。如果它们食言了,人类会拿它们怎么办?它们违反承诺的惩罚应该是什么?被关在监狱里,或是更合理一点,被拆解?
对于人工智能来说,被关起来根本不算什么麻烦,除非我们事先给它们安装人工的漫游癖程序,而且它们自己无法无视或关闭这个程序(如果人工智能真的有那么令人惊叹的自我认知,这个办法也很难保证万无一失);如果一个人工智能系统的设置和软件里储存的信息没有被破坏,拆解一个人工智能系统(无论是机器人或者像沃森一样无法行动的主体)也不等于已经杀死了它。
将数字录制和传输变得简单轻松,是让软件和数据得以永生的一项突破,让机器人摆脱了脆弱的自然世界的影响(至少对于那些我们通常想象的、拥有数字软件和记忆的机器人来说)。如果这种永生意味着什么还不够清晰易懂的话,可以想象一下,比如说,假如人类每周都能制作自己所有行为的“备份”,这会如何影响人类的道德观?
周六你在没有蹦极绳保护的情况下从一个高高的桥上头朝下跳下去,这只是一瞬间的事,你不会记住你瞬间死亡的过程。然后周五晚上的备份在周日早上被放到了互联网上,你可以回看和欣赏自己死亡过程的录像(译者注:作者举这个例子是想说明,如果人类也像机器人一样永生,回看和欣赏自己“坠亡”的过程是不道德的,因此追求永生不应该成为人类和人工智能的目标)。
所以我们在创造的并不是——也不应该是——有意识的类人主体,而是一种全新的存在。或许它们更像圣人,没有良心,不惧死亡,不受爱与恨干扰,没有性格(但是各种各样的弱点和怪癖无疑将被认作该系统的“个性”):真理的盒子里(如果我们足够幸运)几乎总是散落着各种错误。
与人工智能一起生活,我们很难不去分心想象它们会以何种奇特的方式奴役(字面意义上的)我们。人对人的用处很快将被再一次永久的改变,但我们可以把握这个改变的方向;如果我们对人类前进的道路负起责任,就能避开危险。
作者介绍:DanielC.Dennett,美国哲学家、作家及认知科学家。其研究集中于科学哲学、生物学哲学,特别是与演化生物学及认知科学有关的课题。他目前是塔夫斯大学的哲学系教授、AustinB.Fletcher讲座哲学教授及认知研究中心的共同主任。
当前我国意识形态建设面临的六大挑战
牢牢占领意识形态阵地既是国家核心利益所在,也是国际较量中的重要筹码。当今世界已经离开了“暴力与金钱控制的时代”,“核弹与火箭”退居幕后,“意志与思想”走向台前。争夺话语权、网络控制权、信息发布权、规则制定权、文化领导权等“软权力”成为国家综合国力竞争的焦点。作为这场“无硝烟战争”的参与国,基于国际、国内各种压力,中国被推到意识形态斗争的最前沿,意识形态建设面临诸多挑战。
一是西方敌对势力的文化渗透威胁我国意识形态安全。苏联解体及西方敌对势力对后社会主义国家一系列“颜色革命”的成功,使中国成为西方敌对势力和平演变的重要目标国家。西方敌对势力除了在经济、政治领域推行和平演变战略以外,更注重通过文化渗透达到“不战而屈人之兵”的目的。文化渗透主要有三种方式:第一种是直接的文化宣传,即利用现代传媒手段进行长期思想渗透。最典型、最常用的是广播电台和电视的覆盖式宣传。美国的CBS、CNN等媒体发布的信息量,是世界其他国家发布的总信息量的100倍。这种直接的文化渗透规模大、成本低、覆盖面广,正如《华盛顿邮报》宣称的,“西方世界在寻找瓦解共产主义方法,花费了近半个世纪的时间和亿万美元,却发现答案就在电视新闻里”。如今,借助互联网,直接的文化宣传更获得了便捷、高效、广泛、强势的高科技平台,成为意识形态斗争的另一个重要阵地;第二种是以文化商品为载体,向社会大众渗透西方的各种价值观。二战之前,西方敌对势力就注重文化输出与国家地缘战略的结合并用,二战之后更加重视通过全面的文化输出对他国施加影响。美国好莱坞电影成为典型代表,甚至有媒体称好莱坞电影是“铁盒里的大使”。通过这种方式传播文化价值观念,更具隐蔽性和迷惑性,往往能达到“无为而治”、“润物无声”的潜移默化作用;第三种是以教育和学术交流为掩饰,向高层学者、知识分子等社会精英进行价值观渗透。西方敌对势力通过名目众多的基金会,如福特基金会、洛克菲勒基金会、福布赖特基金会等,拉拢和利用高层社科研究人员和知识分子,意在培养从内部瓦解社会主义的“文化基因”,通过他们的辐射作用传播西方的文化价值观,影响社会大众。
二是各种社会思潮影响我国主流意识形态的权威认同。马克思主义作为我国的主流意识形态,其指导地位的确立是历史和中国人民的选择。在思想领域,争锋、较量从来不会消失。改革开放以来,国际国内形势复杂多变,各种社会思潮竞相登场,既有主张自由化、私有化、市场化的新自由主义,也有主张改良、倡导民主、自由的民主社会主义,更有借歪曲、诋毁党的历史和领袖人物虚化中国共产党历史的历史虚无主义。与此同时,西方敌对势力的意识形态攻势也向多样化、深层次拓展。他们不再限于兜售西方的享乐主义、消费主义等生活价值观,而是向政治、哲学价值观发展。布热津斯基攻击共产主义学说的“大简化理论”,丹尼尔·贝尔的“意识形态终结论”、福山的“历史终结论”都是对马克思主义的公然挑战。这些社会思潮极具迷惑性,试图通过系统化的理论和貌似客观的历史事实,赢得人们的信服和认同,从而动摇主流意识形态的权威性。时下正在热议的“中国模式”,一定意义上是继“中国威胁论”、“中国崩溃论”之后的另一种理论陷阱,是西方敌对势力“棒杀”中国的意图落空后推出的“捧杀”阴谋。种种反马克思主义、非马克思主义的社会思潮因其系统性、理论性,容易让人们陷入某种理论误区,对马克思主义产生质疑、动摇甚至背弃,因此,必须提高马克思主义自身的说服力和解释力,这是固守主流意识形态阵地的内生力量。
三是苏东剧变削弱了我国主流意识形态的信仰。1991年,飘扬在克里姆林宫上空的镰刀斧头旗落下,标志着存在70多年的苏联社会主义大国不复存在。随后,社会主义阵营迅速瓦解,国际共产主义运动陷入低潮。苏东剧变的原因非常复杂,既有西方敌对势力和平演变的外因,也有苏联共产党腐化变质的内因;既有苏联实行僵化社会主义的体制性因素,也有意识形态领域混乱的思想性因素……原因是多方面的,但终归是由于苏联背离了马克思主义,没有真正地坚持社会主义。世界各国对国际共运史上的这一重大事件反映不同,评价不一。一时,各种思想汇聚同一事件,意识形态领域形势复杂。有人抛出“历史终结论”,宣称资本主义的最终胜利;有人对社会主义前途悲观绝望;还有人将社会主义实践的挫折和失误归罪于马克思主义,认为苏东剧变是社会主义的失败,是马克思主义的过时。在我国也出现了否定马克思主义、放弃社会主义的论调,导致主流意识形态信仰的弱化,对我国主流意识形态构成了挑战。
四是发展主题与现代化目标淡化了意识形态之间的对立。当今时代的主题是和平与发展,任何国家都希望在全球化条件下最大限度地规避风险,抢占发展先机。富国强民、实现现代化是发展中国家最迫切的目标。这一目标的确立必然使一些发展中国家更多地关注提升国家综合国力、关注能源资源的新开发、关注科技人才的新发展,而少有关注传统具有鲜明阶级性的意识形态问题。共同的发展主题和对现代化的追求,将人类纳入一个同质发展的轨道,资本主义与社会主义之间的界限逐渐模糊,意识形态的差异和对立日益淡化。但实际上,现代化作为源发于西方而逐渐向世界扩展的人类历史的运动、变化和发展过程,其本身便是一种文化意识形态。披上普遍性外衣的现代化理论,旨在向“欠发达国家”许诺:只要按照美国的现代化模式发展,就能摆脱落后和愚昧,实现民族经济发展和社会进步,从而摆脱马克思共产主义革命范式的影响,对“欠发达”世界由于非殖民化而释放出来的新的、具有潜在危险性的力量进行疏导和控制。与此同时,将这些“欠发达”世界纳入资本主义世界体系之中,便于进行资本剥削。因而,在我国实现现代化的过程中,要充分认识现代化的意识形态性,避免陷入“发展的幻象”之中。
五是多元价值取向对我国主流意识形态的冲击。目前我国正处于社会转型期,由此带来人们的生活方式、行为方式和价值观念的深刻变革。在社会主义市场经济条件下,人们的价值观念中既包含符合社会主义价值观念的积极因素,也包含逐利、拜金等消极因素。随着改革开放的不断深入,我国的经济体制深刻变革、社会结构深刻变动、利益格局深刻调整,多种所有制的并存、阶级阶层的变化和利益的分化导致利益主体的多元化,人们关心和维护自己所属社会群体的利益,关注和重视个体的利益和感受,并以此作为价值评判尺度,好坏优劣皆依主体自身加以判断。思想观念和价值取向的多元不可避免。另外,在开放的现代社会,中西方文化交流和融合不断向纵深拓展,各种文化思潮涌入我国,客观上也为多元价值取向的滋生提供了思想土壤。文化价值观的独立性、选择性、多变性、差异性,一定程度上削弱了主流价值观的主导作用,使主流意识形态遭遇冲击和淡化。
六是信息网络化对我国意识形态的控制力形成挑战。与传统的文化传播方式不同,网络传播具有自由性、快捷性、交互性、开放性、海量性等特点。借助互联网这一新技术平台,我国社会主义意识形态的传播获得了新的技术载体、新的传播渠道和新的言论空间,有助于增强社会主义意识形态的传播力、吸引力和凝聚力。但同时,信息网络化也严峻考验着我国意识形态的控制力。网络意识形态具有非对称性和强大的渗透性,西方发达的网络技术手段和强势的文化输出对我国意识形态的传播和防御能力构成很大挑战。此外,网络的开放性、多元性和交互性,一方面为人们提供了获取信息和言论表达的新途径,网络一定程度上成为化解社会矛盾、疏导社会不良情绪的减压阀;另一方面,开放、多元、交互的信息传播方式加大了我国意识形态的控制难度,人们在海量的信息面前也可能不再被动接受主导媒体的灌输和教育,不再简单追随主流意识形态,导致对主流意识形态认同的弱化。我们必须采取切实可行的应对措施,加强主流意识形态的吸引力、凝聚力,提高主流意识形态对网络文化的控制力和引导力。
(作者系中国社会科学院马克思主义研究院副研究员)
人工智能的历史、现状和未来
如同蒸汽时代的蒸汽机、电气时代的发电机、信息时代的计算机和互联网,人工智能正成为推动人类进入智能时代的决定性力量。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷转型发展,抢滩布局人工智能创新生态。世界主要发达国家均把发展人工智能作为提升国家竞争力、维护国家安全的重大战略,力图在国际科技竞争中掌握主导权。习近平总书记在十九届中央政治局第九次集体学习时深刻指出,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。错失一个机遇,就有可能错过整整一个时代。新一轮科技革命与产业变革已曙光可见,在这场关乎前途命运的大赛场上,我们必须抢抓机遇、奋起直追、力争超越。
概念与历程
了解人工智能向何处去,首先要知道人工智能从何处来。1956年夏,麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能(ArtificialIntelligence,简称AI)”这一概念,标志着人工智能学科的诞生。
人工智能是研究开发能够模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学,研究目的是促使智能机器会听(语音识别、机器翻译等)、会看(图像识别、文字识别等)、会说(语音合成、人机对话等)、会思考(人机对弈、定理证明等)、会学习(机器学习、知识表示等)、会行动(机器人、自动驾驶汽车等)。
人工智能充满未知的探索道路曲折起伏。如何描述人工智能自1956年以来60余年的发展历程,学术界可谓仁者见仁、智者见智。我们将人工智能的发展历程划分为以下6个阶段:
一是起步发展期:1956年—20世纪60年代初。人工智能概念提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序等,掀起人工智能发展的第一个高潮。
二是反思发展期:20世纪60年代—70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空(例如,无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等),使人工智能的发展走入低谷。
三是应用发展期:20世纪70年代初—80年代中。20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入应用发展的新高潮。
四是低迷发展期:20世纪80年代中—90年代中。随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。
五是稳步发展期:20世纪90年代中—2010年。由于网络技术特别是互联网技术的发展,加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。1997年国际商业机器公司(简称IBM)深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008年IBM提出“智慧地球”的概念。以上都是这一时期的标志性事件。
六是蓬勃发展期:2011年至今。随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越了科学与应用之间的“技术鸿沟”,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等人工智能技术实现了从“不能用、不好用”到“可以用”的技术突破,迎来爆发式增长的新高潮。
现状与影响
对于人工智能的发展现状,社会上存在一些“炒作”。比如说,认为人工智能系统的智能水平即将全面超越人类水平、30年内机器人将统治世界、人类将成为人工智能的奴隶,等等。这些有意无意的“炒作”和错误认识会给人工智能的发展带来不利影响。因此,制定人工智能发展的战略、方针和政策,首先要准确把握人工智能技术和产业发展的现状。
专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定任务(比如下围棋)的专用人工智能系统由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域。例如,阿尔法狗(AlphaGo)在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,人工智能系统诊断皮肤癌达到专业医生水平。
通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。目前,虽然专用人工智能领域已取得突破性进展,但是通用人工智能领域的研究与应用仍然任重而道远,人工智能总体发展水平仍处于起步阶段。当前的人工智能系统在信息感知、机器学习等“浅层智能”方面进步显著,但是在概念抽象和推理决策等“深层智能”方面的能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才而无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。
人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,谷歌在其2017年年度开发者大会上明确提出发展战略从“移动优先”转向“人工智能优先”,微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿。麦肯锡公司报告指出,2016年全球人工智能研发投入超300亿美元并处于高速增长阶段;全球知名风投调研机构CBInsights报告显示,2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%。
创新生态布局成为人工智能产业发展的战略高地。信息技术和产业的发展史,就是新老信息产业巨头抢滩布局信息产业创新生态的更替史。例如,传统信息产业代表企业有微软、英特尔、IBM、甲骨文等,互联网和移动互联网时代信息产业代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。目前智能科技时代的信息产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动人工智能技术生态的研发布局,全力抢占人工智能相关产业的制高点。
人工智能的社会影响日益凸显。一方面,人工智能作为新一轮科技革命和产业变革的核心力量,正在推动传统产业升级换代,驱动“无人经济”快速发展,在智能交通、智能家居、智能医疗等民生领域产生积极正面影响。另一方面,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能系统可能存在的歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题已经显现出来,需要抓紧提供解决方案。
趋势与展望
经过60多年的发展,人工智能在算法、算力(计算能力)和算料(数据)等“三算”方面取得了重要突破,正处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有诸多瓶颈。那么在可以预见的未来,人工智能发展将会出现怎样的趋势与特征呢?
从专用智能向通用智能发展。如何实现从专用人工智能向通用人工智能的跨越式发展,既是下一代人工智能发展的必然趋势,也是研究与应用领域的重大挑战。2016年10月,美国国家科学技术委员会发布《国家人工智能研究与发展战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。阿尔法狗系统开发团队创始人戴密斯·哈萨比斯提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。微软在2017年成立了通用人工智能实验室,众多感知、学习、推理、自然语言理解等方面的科学家参与其中。
从人工智能向人机混合智能发展。借鉴脑科学和认知科学的研究成果是人工智能的一个重要研究方向。人机混合智能旨在将人的作用或认知模型引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。在我国新一代人工智能规划和美国脑计划中,人机混合智能都是重要的研发方向。
从“人工+智能”向自主智能系统发展。当前人工智能领域的大量研究集中在深度学习,但是深度学习的局限是需要大量人工干预,比如人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据、用户需要人工适配智能系统等,非常费时费力。因此,科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿尔法狗系统的后续版本阿尔法元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类人工智能”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低人员成本。
人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、天文学等传统科学的发展。
人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及政府和产业界投入的日益增长,人工智能应用的云端化将不断加速,全球人工智能产业规模在未来10年将进入高速增长期。例如,2016年9月,咨询公司埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,可在现有基础上将劳动生产率提高40%;到2035年,美、日、英、德、法等12个发达国家的年均经济增长率可以翻一番。2018年麦肯锡公司的研究报告预测,到2030年,约70%的公司将采用至少一种形式的人工智能,人工智能新增经济规模将达到13万亿美元。
人工智能将推动人类进入普惠型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司IDC在《信息流引领人工智能新时代》白皮书中指出,未来5年人工智能将提升各行业运转效率。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。
人工智能领域的国际竞争将日益激烈。当前,人工智能领域的国际竞赛已经拉开帷幕,并且将日趋白热化。2018年4月,欧盟委员会计划2018—2020年在人工智能领域投资240亿美元;法国总统在2018年5月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;2018年6月,日本《未来投资战略2018》重点推动物联网建设和人工智能的应用。世界军事强国也已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国特朗普政府发布的首份《国防战略》报告即谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。
人工智能的社会学将提上议程。为了确保人工智能的健康可持续发展,使其发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,制定完善人工智能法律法规,规避可能的风险。2017年9月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。美国白宫多次组织人工智能领域法律法规问题的研讨会、咨询会。特斯拉等产业巨头牵头成立OpenAI等机构,旨在“以有利于整个人类的方式促进和发展友好的人工智能”。
态势与思考
当前,我国人工智能发展的总体态势良好。但是我们也要清醒看到,我国人工智能发展存在过热和泡沫化风险,特别在基础研究、技术体系、应用生态、创新人才、法律规范等方面仍然存在不少值得重视的问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。
高度重视。党中央、国务院高度重视并大力支持发展人工智能。习近平总书记在党的十九大、2018年两院院士大会、全国网络安全和信息化工作会议、十九届中央政治局第九次集体学习等场合多次强调要加快推进新一代人工智能的发展。2017年7月,国务院发布《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路线图,旨在构筑人工智能先发优势,把握新一轮科技革命战略主动。国家发改委、工信部、科技部、教育部等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。
态势喜人。据清华大学发布的《中国人工智能发展报告2018》统计,我国已成为全球人工智能投融资规模最大的国家,我国人工智能企业在人脸识别、语音识别、安防监控、智能音箱、智能家居等人工智能应用领域处于国际前列。根据2017年爱思唯尔文献数据库统计结果,我国在人工智能领域发表的论文数量已居世界第一。近两年,中国科学院大学、清华大学、北京大学等高校纷纷成立人工智能学院,2015年开始的中国人工智能大会已连续成功召开四届并且规模不断扩大。总体来说,我国人工智能领域的创新创业、教育科研活动非常活跃。
差距不小。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在明显差距。在全球人工智能人才700强中,中国虽然入选人数名列第二,但远远低于约占总量一半的美国。2018年市场研究顾问公司CompassIntelligence对全球100多家人工智能计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能国际标准的积极性和力度不够,国内标准制定和实施也较为滞后。我国对人工智能可能产生的社会影响还缺少深度分析,制定完善人工智能相关法律法规的进程需要加快。
前景看好。我国发展人工智能具有市场规模、应用场景、数据资源、人力资源、智能手机普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖管理咨询公司埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出,到2030年人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补人口红利的不足。
当前是我国加强人工智能布局、收获人工智能红利、引领智能时代的重大历史机遇期,如何在人工智能蓬勃发展的浪潮中选择好中国路径、抢抓中国机遇、展现中国智慧等,需要深入思考。
树立理性务实的发展理念。任何事物的发展不可能一直处于高位,有高潮必有低谷,这是客观规律。实现机器在任意现实环境的自主智能和通用智能,仍然需要中长期理论和技术积累,并且人工智能对工业、交通、医疗等传统领域的渗透和融合是个长期过程,很难一蹴而就。因此,发展人工智能要充分考虑到人工智能技术的局限性,充分认识到人工智能重塑传统产业的长期性和艰巨性,理性分析人工智能发展需求,理性设定人工智能发展目标,理性选择人工智能发展路径,务实推进人工智能发展举措,只有这样才能确保人工智能健康可持续发展。
重视固本强基的原创研究。人工智能前沿基础理论是人工智能技术突破、行业革新、产业化推进的基石。面临发展的临界点,要想取得最终的话语权,必须在人工智能基础理论和前沿技术方面取得重大突破。我们要按照习近平总书记提出的支持科学家勇闯人工智能科技前沿“无人区”的要求,努力在人工智能发展方向和理论、方法、工具、系统等方面取得变革性、颠覆性突破,形成具有国际影响力的人工智能原创理论体系,为构建我国自主可控的人工智能技术创新生态提供领先跨越的理论支撑。
构建自主可控的创新生态。我国人工智能开源社区和技术创新生态布局相对滞后,技术平台建设力度有待加强。我们要以问题为导向,主攻关键核心技术,加快建立新一代人工智能关键共性技术体系,全面增强人工智能科技创新能力,确保人工智能关键核心技术牢牢掌握在自己手里。要着力防范人工智能时代“空心化”风险,系统布局并重点发展人工智能领域的“新核高基”:“新”指新型开放创新生态,如产学研融合等;“核”指核心关键技术与器件,如先进机器学习技术、鲁棒模式识别技术、低功耗智能计算芯片等;“高”指高端综合应用系统与平台,如机器学习软硬件平台、大型数据平台等;“基”指具有重大原创意义和技术带动性的基础理论与方法,如脑机接口、类脑智能等。同时,我们要重视人工智能技术标准的建设、产品性能与系统安全的测试。特别是我国在人工智能技术应用方面走在世界前列,在人工智能国际标准制定方面应当掌握话语权,并通过实施标准加速人工智能驱动经济社会转型升级的进程。
推动共担共享的全球治理。目前看,发达国家通过人工智能技术创新掌控了产业链上游资源,难以逾越的技术鸿沟和产业壁垒有可能进一步拉大发达国家和发展中国家的生产力发展水平差距。在发展中国家中,我国有望成为全球人工智能竞争中的领跑者,应布局构建开放共享、质优价廉、普惠全球的人工智能技术和应用平台,配合“一带一路”建设,让“智能红利”助推共建人类命运共同体。
(作者:中央人民政府驻香港特别行政区联络办公室副主任、中国科学院院士)