博舍

人工智能如何重新定义人类的意义 人工智能怎样定义人类

人工智能如何重新定义人类的意义

数月前,我长途跋涉来到位于纽约州约克城高地的IBM研究实验室的林间园区,为的就是能早早一窥那近在眼前却让人期待许久的人工智能的未来。这儿是超级电脑“沃森”(Watson)的研发地,而沃森在2011年就在“危险边缘”(Jeopardy!)节目的比赛里拔得头筹。最初的沃森电脑仍留于此处——它是一个体积约与一个卧室相当,由10台直立的冷柜式机器围成四面墙的计算机系统。技术人员可以通过系统内部的小细孔把各种线缆接到机器背部。系统内部温度高得出奇,仿佛这个计算机集群是活生生的一般。

如今的沃森系统与之前相比有了显著差异。它不再仅仅存在于一排机柜之中,而是通过大量对用户免费开放的服务器传播,这些服务器能够即时运行上百种人工智能的“情况”。同所有云端化的事物一样,沃森系统为世界各地同时使用的客户服务,他们能够用手机、台式机以及他们自己的数据服务器连上该系统。这类人工智能可以根据需求按比例增加或减少。鉴于人工智能会随人们的使用而逐步改进,沃森将始终变得愈发聪明;它在任何一次情况中所获悉的改进点都会立即传送至其他情况中。并且,它也不是一个单一的程序,而是各种软件引擎的集合——其逻辑演绎引擎和语言解析引擎可以在不同的代码、芯片以及位置上运行——所有这些智慧的因素都汇集成了一个统一的智能流。

用户可以直接接入这一永久连接(always-on)的智能系统,也可以通过使用这一人工智能云服务的第三方应用程序接入。正如许多高瞻远瞩的父母一样,IBM想让沃森电脑从事医学工作,因此他们正在开发一款医疗诊断工具的应用程序,这倒也不足为奇。之前,诊疗方面的人工智能尝试大多以惨败告终,但沃森却卓有成效。简单地说,当我输入我曾经在印度感染上的某种疾病症状时,它会给我一个疑似病症的清单,上面一一列明了可能性从高到低的疾病。它认为我最可能感染了贾第鞭毛虫病(Giardia)——说的一点儿也没错。这一技术尚未直接对患者开放;IBM将沃森电脑的智能提供给合作伙伴接入使用,以帮助他们开发出用户友好界面为预约医生及医院方面服务。“我相信类似沃森这种——无论它是机器还是人——都将很快成为世界上最好的诊疗医生”,创业公司Scanadu的首席医疗官艾伦·格林(AlanGreene)说道,该公司受到电影《星际迷航》中医用三录仪[2]的启发,正在利用云人工智能技术制造一种诊疗设备。“从人工智能技术改进的速率来看,现在出生的孩子长大后,很可能不太需要通过看医生来得知诊疗情况了。”

医学仅仅只是一个开始。所有主流的云计算公司,加上数十家创业公司都在争先恐后地开展类似沃森电脑的认知服务。根据量化分析公司Quid的数据,自2009年以来,人工智能已经吸引了超过170亿美元的投资。仅去年一年,就有322家拥有类似人工智能技术的公司获得了超过20亿美元的投资。Facebook和谷歌也为其公司内部的人工智能研究小组招聘了研究员。自去年以来,雅虎、英特尔、Dropbox、LinkedIn、Pinterest以及推特也都收购了人工智能公司。过去四年间,人工智能领域的民间投资以平均每年62%的增长速率增加,这一速率预计还会持续下去。

纵观所有这些活动,人工智能的未来正进入我们的视野之中,它既非如那种哈尔9000(HAL9000)(译者注:小说及电影《2001:太空漫游》中的超级电脑)——一台拥有超凡(但有潜在嗜杀倾向)的类人意识并依靠此运行的独立机器那般——也非让奇点论者心醉神迷的超级智能。即将到来的人工智能颇似亚马逊的网络服务——廉价、可靠、工业级的数字智慧在一切事物的背后运行,偶尔在你的眼前闪烁几下,其他时候近乎无形。这一通用设施将提供你所需要的人工智能而不超出你的需要。和所有设施一样,即使人工智能改变了互联网、全球经济以及文明,它也将变得令人厌倦。正如一个多世纪以前电力所做的那样,它会让无生命的物体活跃起来。之前我们电气化的所有东西,现在我们都将使之认知化。而实用化的新型人工智能也会增强人类个体(加深我们的记忆、加速我们的认知)以及人类群体的生活。通过加入一些额外的智能因素,我们想不到有什么东西不能变得新奇、不同且有趣。实际上,我们能轻易地预测到接下来的一万家创业公司的商业计划:“做某项事业,并加入人工智能”。兹事体大,近在眼前。

大约在2002年时,我参加了谷歌的一个小型聚会——彼时谷歌尚未IPO,还在一心一意地做网络搜索。我与谷歌杰出的联合创始人、2011年成为谷歌CEO的拉里·佩奇(LarryPage)随意攀谈起来。“拉里,我还是搞不懂,现在有这么多搜索公司,你们为什么要做免费的网络搜索?你是怎么想到这个主意的?”我那缺乏想象力的无知着实证明了我们很难去做预测,尤其是对于未来的预测。但我要辩解的是,在谷歌增强其广告拍卖方案并使之形成实际收益,以及进行对YouTube的并购或其他重要并购之前,预测未来是很难的。我并不是唯一一个一边狂热地用着谷歌的搜索引擎一边认为它撑不了多久的用户。但佩奇的回答让我一直难以忘怀:“哦,我们实际上是在做人工智能。”

过去数年间,关于那次谈话我想了很多,谷歌也收购了14家人工智能以及机器人方面的公司。鉴于搜索业务为谷歌贡献了80%的收入,因此乍一看去,你可能会觉得谷歌正在扩充其人工智能方面的投资组合以改善搜索能力。但是我认为正好相反。谷歌正在用搜索技术来改善人工智能,而非使用人工智能来改进搜索技术。每当你输入一个查询词,点击搜索引擎生成的链接,或者在网页上创造一个链接,你都是在训练谷歌的人工智能技术。当你在图片搜索栏中输入“复活节兔子”(EasterBunny)并点击看起来最像复活节兔子的那张图片时,你都是在告诉人工智能,复活节兔子是长成什么样的。谷歌每天拥有12亿搜索用户,产生1210亿搜索关键词,每一个关键词都是在一次又一次地辅导人工智能进行深度学习。如果再对人工智能的算法进行为之10年的稳固改进,加之一千倍以上的数据以及一百倍以上的计算资源,谷歌将会开发出一款无与伦比的人工智能产品。我的预言是:到2024年,谷歌的主营产品将不再是搜索引擎,而是人工智能产品。

这个观点自然也会招来怀疑的声音。近60年来,人工智能的研究者都预测说人工智能时代即将到来,但是直到几年前,人工智能好像还是遥不可及。人们甚至发明了一个词来描述这个研究结果匮乏、研究基金更加匮乏的时代:人工智能之冬。那么事情真的有变化吗?

是的。近期的三大突破让人们期待已久的人工智能近在眼前:

1.成本低廉的并行计算

思考是一种人类固有的并行过程,数以亿计的神经元同时放电以创造出大脑皮层用于计算的同步脑电波。搭建一个神经网络——即人工智能软件的主要结构——也需要许多不同的进程同时运行。神经网络的每一个节点都大致模拟了大脑中的一个神经元——其与相邻的节点互相作用,以明确所接收的信号。一项程序要理解某个口语单词,就必须能够听清(不同音节)彼此之间的所有音素;要识别出某幅图片,就需要看到其周围像素环境内的所有像素——二者都是深层次的并行任务。但直到最近,标准的计算机处理器也仅仅能一次处理一项任务。

事情在十多年前就已经开始发生变化,彼时出现了一种被称为图形处理单元(graphicsprocessingunit-GPU)的新型芯片,它能够满足可视游戏中高密度的视觉以及并行需求,在这一过程中,每秒钟都有上百万像素被多次重新计算。这一过程需要一种专门的并行计算芯片,该芯片添加至电脑主板上,作为对其的补充。并行图形芯片作用明显,游戏可玩性也大幅上升。到2005年,GPU芯片产量颇高,其价格便降了下来。2009年,吴恩达(AndrewNg)(译者注:华裔计算机科学家)以及斯坦福大学的一个研究小组意识到,GPU芯片可以并行运行神经网络。

这一发现开启了神经网络新的可能性,使得神经网络能容纳上亿个节点间的连接。传统的处理器需要数周才能计算出拥有1亿节点的神经网的级联可能性。而吴恩达发现,一个GPU集群在一天内就可完成同一任务。现在,一些应用云计算的公司通常都会使用GPU来运行神经网络,例如,Facebook会籍此技术来识别用户照片中的好友,Netfilx也会依其来给5000万订阅用户提供靠谱的推荐内容。

2.大数据

每一种智能都需要被训练。哪怕是天生能够给事物分类的人脑,也仍然需要看过十几个例子后才能够区分猫和狗。人工思维则更是如此。即使是(国际象棋)程序编的最好的电脑,也得在至少对弈一千局之后才能有良好表现。人工智能获得突破的部分原因在于,我们收集到来自全球的海量数据,以给人工智能提供了其所需的训练。巨型数据库、自动跟踪(self-tracking)、网页cookie、线上足迹、兆兆字节级存储、数十年的搜索结果、维基百科以及整个数字世界都成了老师,是它们让人工智能变得更加聪明。

3.更优的算法

20世纪50年代,数字神经网络就被发明了出来,但计算机科学家花费了数十年来研究如何驾驭百万乃至亿级神经元之间那庞大到如天文数字一般的组合关系。这一过程的关键是要将神经网络组织成为堆叠层(stackedlayer)。一个相对来说比较简单的任务就是人脸识别。当某神经网络中的一组比特被发现能够形成某种图案——例如,一只眼睛的图像——这一结果就会被向上转移至该神经网络的另一层以做进一步分析。接下来的这一层可能会将两只眼睛拼在一起,将这一有意义的数据块传递到层级结构的第三层,该层可以将眼睛和鼻子的图像结合到一起(来进行分析)。识别一张人脸可能需要数百万个这种节点(每个节点都会生成一个计算结果以供周围节点使用),并需要堆叠高达15个层级。2006年,当时就职于多伦多大学的杰夫·辛顿(GeoffHinton)对这一方法进行了一次关键改进,并将其称之为“深度学习”。他能够从数学层面上优化每一层的结果从而使神经网络在形成堆叠层时加快学习速度。数年后,当深度学习算法被移植到GPU集群中后,其速度有了显著提高。仅靠深度学习的代码并不足以能产生复杂的逻辑思维,但是它是包括IBM的沃森电脑、谷歌搜索引擎以及Facebook算法在内,当下所有人工智能产品的主要组成部分。

这一由并行计算、大数据和更深层次算法组成的完美风暴使得持续耕耘了60年的人工智能一鸣惊人。而这一聚合也表明,只要这些技术趋势继续下去——它们也没有理由不延续——人工智能将精益求精。

随着这一趋势的持续,这种基于云技术的人工智能将愈发成为我们日常生活中不可分割的一部分。但天上没有掉馅饼的事。云计算遵循收益递增(increasingreturns)[4]法则,这一法则有时也被称为网络效应(networkeffect),即随着网络发展壮大,网络价值也会以更快的速度增加。网络(规模)越大,对于新用户的吸引力越强,这又让网络变得更大,又进一步增强了吸引力,如此往复。为人工智能服务的云技术也遵循这一法则。越多人使用人工智能产品,它就会变得越聪明;它变得越聪明,就有越多人来使用它;然后它变得更聪明,进一步就有更多人使用它。一旦有公司迈进了这个良性循环中,其规模会变大、发展会加快,以至于没有任何新兴对手能望其项背。因此,人工智能的未来将有两到三家寡头公司统治,它们会开发出大规模基于云技术的多用途商业智能产品。

1997年,沃森电脑的前辈、IBM公司的深蓝电脑在一场著名的人机大赛中击败了当时的国际象棋大师加里·卡斯帕罗夫(GarryKasparov)。在电脑又赢了几场比赛之后,人们基本上失去了对这类比赛的兴趣。你可能会认为故事到此就结束了,但卡斯帕罗夫意识到,如果他也能像深蓝一样立即访问包括以前所有棋局棋路变化在内的巨型数据库的话,他在对弈中能表现得更好。如果这一数据库工具对于人工智能设备来说是公平的话,为什么人类不能使用它呢?为了探究这一想法,卡斯帕罗夫率先提出了“人加机器”(man-plus-machine)比赛的概念,即用人工智能增强国际象棋选手水平,而非让人与机器之间对抗。

这种比赛如今被称为自由式国际象棋比赛,它有点儿像混合武术对抗赛,选手们可以使用任何他们想要用的作战技巧。你可以单打独斗;也可以接受你那装有超级聪明的国际象棋软件的电脑给出的帮助,你要做的仅仅是按照它的建议来移动棋子;或者你可以当一个卡斯帕罗夫所提倡的那种“半人半机”的选手。半人半机选手会听取人工智能设备在其耳边提出的棋路建议,但是也间或不会采用这些建议——颇似我们开车时候用的GPS导航一般。在接受任何模式选手参赛的2014年自由式国际象棋对抗锦标赛上,纯人工智能的国际象棋引擎赢得了42场比赛,而半人半机选手则赢得了53场。当今世上最优秀的国际象棋选手就是半人半机选手Intagrand,它是一个由多人以及数个不同国际象棋程序所组成的小组。

但最令人惊讶的是:人工智能的出现并未让纯人类的国际象棋棋手的水平下降。恰恰相反,廉价、超级智能的国际象棋软件吸引了更多人来下国际象棋,比赛比以前增多了,棋手的水平也比以前上升了。现在的国际象棋大师(译者注:国际象棋界的一种等级)人数是深蓝战胜卡斯帕罗夫那时候的两倍多。现在的排名第一的人类国际象棋棋手马格努斯·卡尔森(MagnusCarlsen)就曾接受人工智能的训练,他被认为是所有人类国际象棋棋手中最接近电脑的棋手,同时也是有史以来积分最高的人类国际象棋大师。

如果人工智能能帮助人类成为更优秀的国际象棋棋手,那么它也能帮助我们成为更为优秀的飞行员、医生、法官以及教师。大多数由人工智能完成的商业工作都将是有专门目的的工作,严格限制在智能软件能做到的工作之内,比如,(人工智能产品)把某种语言翻译成另一种语言,但却不能翻译成第三种语言。再比如,它们可以开车,但却不能与人交谈。或者是能回忆起YouTube上每个视频的每个像素,却无法预测你的日常工作。在未来十年,你与之直接或者间接互动的人工智能产品,有99%都将是高度专一、极为聪明的“专家”。

实际上,这并非真正的智能,至少不是我们细细想来的那种智能。的确,智能可能是一种倾向——尤其是如果我们眼中的智能意味着我们那特有的自我意识、一切我们所有的那种狂乱的自省循环以及凌乱的自我意识流的话。我们希望无人驾驶汽车能一心一意在路上行驶,而不是纠结于之前和车库的争吵。医院中的综合医生“沃森”能专心工作,不要去想自己是不是应该专攻英语。随着人工智能的发展,我们可能要设计出一些阻止它们拥有意识的方式——我们所宣称的最优质的人工智能服务将是无意识服务。

我们想要的不是智能,而是人工智慧。与一般的智能不同,智慧(产品)具有专心、可衡量、种类特定的特点。它也能够以完全异于人类认知的方式来思考。这儿有一个关于非人类思考的一个很好的例子,今年三月在德克萨斯州奥斯汀举行的西南偏南音乐节(SouthbySouthwestfestival)上,沃森电脑就上演了一幕厉害的绝技:IBM的研究员给沃森添加了由在线菜谱、美国农业部(USDA)出具的营养表以及让饭菜更美味的味道研究报告组成的数据库。凭借这些数据,沃森依靠味道配置资料和现有菜色模型创造出了新式的菜肴。其中一款由沃森创造出的受人追捧的菜肴是美味版本的“炸鱼和炸薯条”(fishandchips),它是用酸橘汁腌鱼和油炸芭蕉制成。在约克城高地的IBM实验室里,我享用了这道菜,也吃了另一款由沃森创造出的美味菜肴:瑞士/泰式芦笋乳蛋饼。味道挺不错!

非人类的智能不是错误,而是一种特征。人工智能的主要优点就是它们的“相异智能”(alienintelligence)。一种人工智能产品在思考食物方面与任何的大厨都不相同,这也能让我们以不同的方式看待食物,或者是以不同的方式来考虑制造物料、衣服、金融衍生工具或是任意门类的科学和艺术。相较于人工智能的速度或者力量来说,它的相异性对我们更有价值。

实际上,人工智能将帮助我们更好地理解我们起初所说的智能的意思。过去,我们可能会说只有那种超级聪明的人工智能产品才能开车,或是在“危险边缘”节目以及国际象棋大赛中战胜人类。而一旦人工智能做到了那些事情,我们就会觉得这些成就明显机械又刻板,并不能够被称为真正意义上的智能。人工智能的每次成功,都是在重新定义自己。

但我们不仅仅是在一直重新定义人工智能的意义——也是在重新定义人类的意义。过去60年间,机械加工复制了我们曾认为是人类所独有的行为和才能,我们不得不改变关于人机之间区别的观点。随着我们发明出越来越多种类的人工智能产品,我们将不得不放弃更多被视为人类所独有能力的观点。在接下来的十年里——甚至,在接下来的一个世纪里——我们将处于一场旷日持久的身份危机(identitycrisis)中,并不断扪心自问人类的意义。在这之中最为讽刺的是,我们每日接触的实用性人工智能产品所带来的最大益处,不在于提高产能、扩充经济或是带来一种新的科研方式——尽管这些都会发生。人工智能的最大益处在于,它将帮助我们定义人类。我们需要人工智能来告诉我们,我们究竟是谁。

原文来自Wired,作者KevinKelly,标题TheThreeBreakthroughsThatHaveFinallyUnleashedAIontheWorld。本文由译言沈持盈翻译。

人工智能可能有自主意识了吗

➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术

➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互

➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系

➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。

LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。

为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。

事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?

人工智能自主意识之辨

勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。

受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。

至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。

清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”

中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。

被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。

这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。

当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。

但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。

段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。

若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。

不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。

若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。

段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。

但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”

换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。

郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”

技术换道

有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。

据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。

一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。

从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。

梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”

不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。

谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。

郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。

梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。

相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。

这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。

“人工智能觉醒”背后

有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。

梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”

据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。

这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”

梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”

我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。

中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”

在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。

毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。

从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。

为了人机友好的未来

确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。

薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。

梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。

“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。

因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。

与其对立的观点则认为,目前这一担忧为时尚早。

“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。

商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。

郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”

在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

编辑:李华山

2022年08月16日07:42:05

人工智能如何“向善”

一段时间以来,以ChatGPT为代表的人工智能大模型搅动了全球人工智能技术发展的浪潮。从写代码到讲故事,从撰写文章到自动制作数据表格……人工智能正在给人类的工作、学习、生活带来诸多变化。

我们距离“无所不能”的通用人工智能还有多远?人工智能的发展带来哪些安全隐患和挑战?近日召开的2023北京智源大会上,来自全球的人工智能专家学者围绕相关话题展开探讨。

通用人工智能路途尚远

“想象一下,未来10年,通用人工智能(AGI)几乎在每一个领域都超过人类的专业知识,最终可能超过所有大型公司的总体生产力,这将提高人们的生活水平。”OpenAI首席执行官山姆·阿尔特曼展现了一幅人工智能的未来图景。

所谓AGI,是指能够像人类一样在各种领域进行智能任务的人工智能系统。这与目前人工智能应用只聚焦于特定任务或领域(如图像识别、语音识别、自然语言处理等)不同,对人工智能技术提出了更高要求。

“通用人工智能可以比人类更好、更快地学习和执行任务,包括人类无法处理的任务。由于机器在速度、内存、通信和带宽方面的巨大优势,未来通用人工智能几乎在所有领域都将远超人类的能力。”美国加州大学伯克利分校计算机科学教授斯图尔特·罗素说。

尽管人工智能已经有了“超越”人类的“时间表”,但在很多专家看来,目前的人工智能距离AGI还有不小的距离。

罗素认为,当下火热的大语言模型并不“理解世界”,只是通用人工智能的一块“拼图”——“我们并不了解如何将它与其他部分连接起来,甚至还有一些缺失的拼图还没有找到。”

北京智源人工智能研究院院长黄铁军指出,要实现通用人工智能,有3条技术路线:第一是大模型,通过海量高质量数据,让人工智能具备智能涌现能力;第二是具身智能,通过强化学习方法,训练出具身模型;第三是类脑智能,让机器达到或类似于人脑能力。

对于人工智能的发展,图灵奖得主、纽约大学教授杨立昆提出了“世界模型”的概念——人工智能系统可以通过这一模型理解世界的运转方式,并以最优化、成本最小的方式来行动。

加强安全治理领域国际合作

根据普华永道会计师事务所预测,到2030年,人工智能将创造15.7万亿美元的经济价值。人工智能为经济发展提供了重要机遇,但也引发了安全性方面的担忧和争议。

图灵奖得主、多伦多大学教授杰弗里·辛顿认为,目前的人工智能已经可以通过学习,掌握“欺骗”人类的方式。“一旦人工智能具备了‘欺骗’的能力,就有了‘控制’人类的能力。这样的超级智能可能会比预想中发生得更快。”

在通用人工智能时代到来之前,人工智能的安全风险主要来自于“人”。“我们不应该假设机器是公正的,因为机器可能会试图改变人类的行为。更准确地说,是机器的所有者想要改变其他人的行为。”图灵奖得主、中国科学院院士姚期智说,当前人工智能的发展处于重要窗口期,各国应共同合作,搭建人工智能的治理结构。

随着人工智能的本事越来越大,人工智能的“对齐”问题浮上水面。所谓“对齐”,即人工智能系统的目标要和人类的价值观与利益“对齐”,保持一致。

如何让人工智能与人类“对齐”?阿尔特曼认为,人们应当负责任地将人工智能应用到世界中,重视和管理好安全风险。他建议在人工智能技术研发过程中建立平等、统一的国际规范和标准,并通过国际合作,以可验证的方式建立人工智能系统安全开发的信任体系。

黄铁军认为,人工智能虽然会产生预料之外的新能力,但这并不意味着人类无法对人工智能进行管理。“如何管理人工智能这样一个创造性极强的系统,社会学、历史学等学科都能提供很好的借鉴意义。”

今年2月,中国在《全球安全倡议概念文件》中提出加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险。在此次智源大会上,专家学者积极评价中国在推动人工智能国际治理上的贡献。

阿尔特曼说,中国在人工智能领域拥有大量优秀的人才和产品系统,在人工智能的安全方面应发挥关键作用。

麻省理工学院人工智能与基础交互研究中心教授马克斯·泰格马克表示,中国在塑造全球人工智能议程上的能力日益增长,可以在人工智能安全治理领域发挥领导作用。

推动大模型共建共享

当下,全球人工智能领域的科技竞赛日趋白热化。2023中关村论坛上发布的《中国人工智能大模型地图研究报告》显示,全国已发布了79个参数在10亿规模以上的人工智能大模型。

从全球来看,中国和美国已发布的大模型数量超过全球总数的80%。中国自2020年起进入大模型快速发展期,在大模型方面已建立起涵盖理论方法和软硬件技术的体系化研发能力,形成了紧跟世界前沿的大模型技术群,涌现出多个具有行业影响力的预训练大模型。

在此次大会上,全面开源的智源“悟道3.0”系列大模型及算法正式发布。据了解,“悟道3.0”涵盖了一系列领先成果,包括“悟道·天鹰”(Aquila)语言大模型系列、天秤(FlagEval)开源大模型评测体系与开放平台,“悟道·视界”视觉大模型系列以及一系列多模态模型成果等。

黄铁军认为,人工智能大模型有3个特点:一是规模大;二是有“涌现性”,即能够产生预料之外的新能力;三是通用性,不限于解决专门问题或者专门领域。他表示,大模型不是任何一家机构或者一家公司垄断的技术,应当共建共享,推出一套智力社会所需的基础的算法体系。

更多精彩内容,请下载科普中国客户端。

返回人民网科普频道

(责编:李慧博、杨鸿光)

分享让更多人看到

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇