人工智能可能有自主意识了吗
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
编辑:李华山
2022年08月16日07:42:05
人工智能十问:AI会统治人类吗
摘要:即便是最先进的人工智能系统也存在局限性,它们还不如一只猫聪明······
网络图片
人工智能常常被认为是一项将要颠覆世界的技术,从这一概念诞生至今的65年中,无数电影与小说塑造了各种经典的人工智能角色,AI(ArtificialIntelligence)也很快成为人类未来世界蓝图中的重要组成部分。但在人工智能不断拓宽我们对未来想象的同时,也不乏“AI统治世界”、“AI监视隐私”等等一类的消极论调,那么,我们当下讨论的AI真的即将统治人类吗?AI真的在威胁着个人数据与隐私吗?......又或者,AI真的比我们更聪明吗?
如果你也对这些问题心存疑虑,又想免于被互联网上的各种言论牵着鼻子走,那么,图灵奖得主杨立昆(YannLeCun)的新书《科学之路:人,机器与未来》或许可以为你提供一份更科学、客观且前沿的人工智能问题参考手册。
在真正开始有关AI的伦理思考之前,我们首先要弄清楚以下三个名词的关系:人工智能、机器学习与深度学习。人工智能是试图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。目前,开发新应用最常用的人工智能技术之一就是机器学习,而深度学习是实现机器学习的重要方法之一,也被杨立昆以及其他许多科学家认为是人工智能的未来。
杨立昆在书中对人工智能提出了10个问题并进行了深入探讨,让我们更全面、更客观的了解人工智能。
01
人工智能是不可理解的黑匣子吗?
一些悲观主义者认为深度学习系统是“黑匣子”,我们未来没办法理解和操控人工智能,但他们错了。诚然,深度学习以模拟人类神经网络为基础,当神经网络具有数百万个单位和数十亿个连接时,似乎很难完全理解它的工作原理,但这不正是所有智能决策的特点吗?
我们不了解让出租车司机、工匠、医生或航空公司飞行员完成他们的工作的神经运作机制,但我们会选择相信他们。为什么要对一台反应更快、不知疲倦、从不分心的机器提出更高的要求呢?当你可以证明它比人类更可靠时,为什么还要对它产生怀疑呢?
人工智能系统每天做出数万亿个决策,其中大多数都与查找、分类和过滤信息以及一些稍显无聊的应用程序有关,例如应用于照片和视频的效果。你是否真的愿意花时间和精力来详细了解它们?人工智能的工作能够带来令人满意的效果,这不就够了吗?
而且使用没有深入了解其运行机制的系统是一种常见的现象。许多常用药物都是通过反复试错获得的,而我们对其作用机制了解甚少。比如,我们熟悉的且在日常生活中不可被替代的阿司匹林是有史以来使用最广泛的药物,它于1897年首次被合成,可是直到1971年我们才明确其作用机制。
02
大脑只是一部可模拟的机器吗?
如今,大多数科学家都接受了大脑是生化机器的概念。虽然这是一台复杂的机器,但总归是一台机器。神经元对输入的电信号做出反应,根据从上游神经元接收到的信息计算是否产生电脉冲信号、动作电位或放电脉冲,并将其发送给所有下游神经元。这是一种十分基本的机制。但是,通过结合数十亿个相对简单的神经元的活动,我们便获得了大脑和思想。
我意识到,模拟人脑的想法可能会让一些哲学家或有宗教信仰的人极力反对,但是有许多科学家认为思维机制最终将会由可以学习的人工智能系统重现。
质疑此观点的人认为,我们对生物、物理、量子和其他系统如何在人体内结合以使大脑发挥作用的了解还远远不够。的确,我们并不能理解这一切,但是我坚信,哺乳动物或人类的大脑是可以“计算”的机器,并且这些计算原则上可以通过电子机器或计算机进行再现。
03
人工智能会产生意识吗?
意识是一个很难讨论的话题,我们不知道如何衡量和定义它。它与自我意识混淆在了一起,同时,意识被认为是动物存在超级智力的标志。在镜子中认出自己的大象和黑猩猩已经具有自我意识,而狗不行。
我个人认为意识是一种幻觉,它似乎在许多聪明的动物身上存在。人类的意识与注意力息息相关,当面对特殊情况时,我们将注意力集中于此,此时我们会非常专注。当我们玩益智游戏时、准备新的烹饪食谱时、参加辩论时,我们的注意力将毫不犹豫地集中在这个不寻常的复杂任务上。它迫使我们开启“世界模型”以规划下一步行动。
对我来说,毫无疑问,未来的智能机器应该具备某种形式的意识。也许与人类的不同,它们可以同时专注于多项任务。但它是无法培养意图或发展意识的。我的同事安托万·博兹总结道:“我们甚至没有配方的原料去制造一台既能够制定战略,又对世界有敏锐了解的真正智能机器。如今我们还缺乏一些基础概念。”
04
人工智能比人类更聪明吗?
如今,即便是最先进的人工智能系统也存在局限性,它们还不如一只猫聪明。虽然我们已经了解了大脑学习的原理,知道了大脑的结构,但重现其功能所需的计算量是无比巨大的,大约是每秒1.5×1018量级的操作。现在一块GPU每秒可执行1013次计算,功耗约为250瓦。为了达到人脑的计算能力,必须将10万个这样的处理器连接上功耗至少25兆瓦的巨型计算机才能实现。这巨大的能量消耗是人脑的100万倍!
因此,深度学习的能力十分强大却又十分有限。目前的深度学习系统仍无法进行逻辑推理,因为当前的逻辑与学习能力并不匹配,这是未来几年的主要挑战。只受过国际象棋训练的机器根本无法下围棋,而且它完全不理解自己所做的事情,它只不过是机械化地执行指令。如果以生物的智能做一把标尺,人类的智能为100,老鼠的智能为1,那么人工智能在标尺上的位置可能更接近后者。
科学面临的挑战是巨大的,技术也是如此。
也许你要提起那些仿真机器人来反驳我了,比如“索菲亚”。索菲亚是一位面带神秘微笑、长着一双玻璃眼珠的美丽的光头女人,“她”在2017年的许多舞台上都大放异彩。“她”动人的脸庞能够呈现数十种不同的表情,在调侃一个记者关于地球上有太多机器人的担忧时,“她”笑道:“您好莱坞电影看太多了!”这个经典笑话让她如此酷似人类,以至沙特阿拉伯在当年授予了“她”沙特国籍。实际上,“她”只是一个由工程师预先设定好一系列标准答案的“木偶”。当我们与“她”交流时,所有的谈话内容均会经过匹配系统处理,并从得到的答案中选择最合适的一个输出。索菲亚欺骗了人们,“她”只是一个完成度很高的塑料制品,只不过是我们(被这个激活了的物体所感动的人类)赋予了它某些智能。
所以,人工智能比人类聪明吗?也许它们在执行十分精确严密的特定任务时所表现出的性能远超人类。但至少目前,任何一种机器学习方法都没有人类的学习更加有效。
网络图片
05
人工智能会产生人类感情吗?
我丝毫不会怀疑自主智能机器有一天会产生情感。
当用于测量机器人电池电量的镜头元件产生了较高的成本而致使机器人开始寻找电源时,不正与饥饿的感觉相似吗?
当机器因成本高昂而避免采取行动时,或者由于成本低廉而执行任务时,这是否已经可以看作是一种情感的标志?
当计算饥饿的目标函数的组成部分产生高成本时,它会触发对食物的搜索。普遍地观点认为,这些行为是目标模块组件不满意的结果。
我很清楚地意识到所有这些似乎都是可以简化的。情感是人性的重要组成部分,因此人们不愿意将其数字化为简单的数学函数计算,对将人类行为简化为目标函数的最小化也心存疑虑。但是,我在此提出的仅是关于智能系统的一般体系结构的假设,没有否认目标函数和世界模型的丰富性或复杂性。
06
人工智能可以预测未来吗?
人们都很喜欢预测,例如预测库存、预测产品的需求、预测一只股票或财务价值的演变曲线......那么,人工智能可以预测未来吗?
如今的人工智能有一个悖论:它功能极其强大、极其专业化,却没有一点常识。
常识至关重要,它制约着我们与世界的联系,它能填补空白,弥补隐含的信息。当我们看到一个坐在桌子旁的人时,可能看不到他的腿,但我们知道他肯定有腿,因为我们对人类有一定的常识。我们的大脑还整合了物理学的基本定律,比如,如果有人打翻了眼前的玻璃杯,那么杯子里的水就会洒得满桌子都是。我们知道如果不拿住某个东西,它就会掉下去。我们还能够意识到时间流逝、万物运动。
目前,机器带有的预测能力十分有限。当然,如果给定一个有些删减的文本,机器有能力给出一个可能的后续单词列表。但是,如果这段文字是阿加莎·克里斯蒂(AgathaChristie)的小说,在最后一幕波罗探长宣布“凶手是......先生”,那么,为了完成这个句子需要读者有很强的常识和对人性的了解。很显然,没有哪一台机器能做到这一点。更不用提预测人类世界的未来了。
07
人工智能会统治世界吗?
在经典科幻电影《我,机器人》(I,Robot)中,机器人具有自我进化能力,转化成了人类的“机械公敌”,制造者和被制造者展开了战争。这恐怕也是很多人对人工智能未来的担忧。
我们对机器人想要取得权力的恐惧主要来自人性特质在机器上的投射。对大多数人来说,人类与智慧生物的唯一互动就是与其他人类的互动,正因如此,我们混淆了智力和人性。这是一个错误,因为还有其他形式的智力存在,即使在动物界也是如此。
人类同倭黑猩猩、黑猩猩、狒狒和其他一些灵长类动物一样具有复杂且通常带有等级制的社会组织,每个个体的生存(或舒适度)取决于它影响该物种其他成员的能力(统治只是影响的一种形式)。我们是社会性动物的事实解释了我们为什么把对统治的渴望与智力联系在一起。
除了对统治的渴望,为了人类物种(或基因)的生存,我们的许多冲动和情感已通过进化建立了起来,其中包括好奇心,对探索的渴望,竞争力,屈服,渴望与我们的同类接触,爱,仇恨,掠食,以及我们对家庭成员、我们的部族、我们的文化、我们的国家的偏爱,没有这些冲动和情感的人、动物或机器也都可以是有智慧的。我们必须将这个问题说得清晰透彻:只有当我们在智能机器中明确地建立了这种欲望时,它们才会渴望统治人类。但我们为什么要这样做呢?
电影《我,机器人》剧照
08
人工智能会被滥用吗?
霍金于2014年向英国广播公司称,“人工智能可能意味着人类的毁灭”,但后来他改变了想法。就像任何一位出色的天体物理学家一样,他的时间尺度是以数百万或数十亿年为单位的。试想,我们怎么会如此聪明地设计出一个超人类的智能机器,同时又如此愚蠢地赋予它荒谬至极的目标呢?
请记住,人工智能始终都是由人类开发出来为人类服务的工具,目的是放大人类的智能。
我们认可的造福人类的所有技术革命都有其阴暗面,每一项技术都带来了问题,而这些问题最终都得到了解决。
为了防止这些滥用,我帮助创建了“人工智能伙伴关系”(PAI),这个组织汇集了约100名成员,包括大型公司、互联网巨头、学者社团、人权组织(国际特赦组织、美国公民自由联盟、电子前沿基金会)、媒体(《纽约时报》)、大学团体和政府机构等。我们讨论道德问题,警告危险并发布建议。人工智能是一个新领域,其深度展开的后果并非总是可预测的,我们必须多加考虑。
09
人工智能会带来军事风险吗?
像其他所有技术一样,人工智能可以被用于做最好的事情,也可能被用于做最恶的事情。有些声音反对在军事上使用人工智能,主要是反对致命性自主武器系统(lethalautonomousweaponsystems),它通常也被称为“杀手机器人”。相对应的保障措施已经较为成熟,大多数军队都有极为严格的规则来管理启动打击的授权程序。无论是何种武器,决策的源头始终是高级军官。我们都知道,自动或半自动武器已经存在很长时间了,弹道导弹、巡航导弹也是如此。在所有具有很强杀伤性的自动武器中,最古老的当属地雷。自1999年以来,地雷就被一项国际公约禁止使用,不是因为它们很聪明,而是因为它们很愚蠢。
那么,智能化武器是否会有滑向军备竞赛的危险?弗拉基米尔·普京(VladimirPutin)在曾表示,“人工智能的领导者将成为世界的统治者”。面对人工智能推动的可能存在的军事失控,危险是无比真实的。避免这些危险最重要的力量来自我们的国际机构,坚定捍卫已有的保护措施比以往任何时候都更加有必要,因为它们受到了民粹主义、民族主义和孤立主义的威胁。
10
你会被人工智能取代吗?
我不确定人工智能革命是否会影响所有人。与那些从事可能被(部分或全部)系统化和自动化工作的人相比,深耕于有资质的、创新性的、专注于人际关系或人力资源职位的人更有可能保住工作。如果我们的政府不通过财政措施纠正存在的问题,那么人工智能带来的收益将无法平均分配,贫富差距会进一步扩大。
自动化已经取代了人类来完成重复性或艰巨的任务,而人工智能将在那些一定程度上需要加入感知、推理、决策和行动计划等内容的工作中取代人类。自动驾驶汽车会减少卡车、出租车和载客专车(VTC)的驾驶员的数量,因为它们会更加安全。医学图像分析系统已经走进放射科医生的日常工作中,患者也因此得到更可靠、更便宜的检查。在以上这些健康和交通运输领域,人工智能将会挽救更多的生命。
所有的职业都将受到科技变化带来的影响。有一件事是可以确定的:人工智能及其应用无法参与竞争的东西会变得更有价值。
我们每个人都可以花不到2欧元的低价或通过订阅的方式聆听最喜欢的音乐家的作品,然而如果要欣赏摇滚音乐会或歌剧,我们就需要支付50~300欧元。区别在哪里?区别在于,独特的事物赋予了生命独特的时刻。一顿大餐,参观自然景点或博物馆,听一场爵士乐音乐会—作为一个开明的业余爱好者,我因为能够做这些事情而感到高兴!—我们越来越重视创造力和独到的体验,越来越不看重大众化的产品。在健康、艺术、科学、教育、体育等领域的职业中,感性的方面在未来将占有重要的一席之地。
网络图片
本文摘编自中信集团8月新书《科学之路:人、机器与未来》
【内容简介】
“图灵奖”得主、“深度学习三巨头”之一、“卷积神经网络之父”……由于在人工智能领域的突出贡献,杨立昆被中国计算机科学界和企业界所熟知。
杨立昆的科学之路,谱写了一段关于勇气的宣言。他为了知识本身求学,而不是文凭,他用自己的经历,证明了通过激烈的考试竞争进入名校不是科学成功的唯一路径。他广泛阅读,为他科学思维的形成奠定了坚实的理论基础。他特立独行,做自己感兴趣的事情,即便那件事在短时间里不被人看好。在人工神经网络研究的低谷期,他寂寞地坚持,终于取得了举世瞩目的成就。
人工智能正在颠覆人类社会,未来机器能思考吗?杨立昆的这部著作,讲述正是人工智能在我们面前崛起——这个历史上绝无仅有的时刻发生的故事。
END