让人工智能更好造福人类
当前,人工智能和人们生产生活的关系越来越密切。习近平同志指出,“新一代人工智能正在全球范围内蓬勃兴起,为经济社会发展注入了新动能,正在深刻改变人们的生产生活方式。”对于这种改变,许多人都有切身体会。人工智能能否摘掉“冷冰冰”的标签,真正变得“亲人类”,更好造福人类呢?这是人工智能发展中值得深入研究的课题,体现人工智能“人格化”发展新趋向。
近年来,人工智能开发和推广应用取得较大突破,人工智能与医院、物流、安防、教育、交通、金融、种植等领域的结合,正推动这些行业不断进步。以医院为例,先进医疗技术与人工智能系统的创新融通,催生了医院智能服务机器人、智能配送机器人等,不仅提升了医疗服务效率,而且节省了医务系统的运营成本、管理成本、人工成本,推动医院从数字化医院向智慧医院转变。人工智能在无人机、无人驾驶等领域的运用也日渐成熟。由此可见,人工智能的运用和逐步普及,能够将人们从繁重的体力劳动中解放出来,进一步提升人们的生活品质。
展望未来,人工智能的发展和运用可能不仅仅局限于代替人类进行体力劳动甚至一部分脑力劳动,很可能会向温暖人类心灵的方向迈进。这涉及人工智能的“人格化”。人之所以为人,一个重要方面是因为人有情感、有人格,这是机器和机械系统所不具备的。人工智能迈入深层次发展阶段后,能否实现“人格化”而拥有情感?答案尚不明确,但人工智能的“人格化”发展是未来的一个重要趋势。所谓人工智能“人格化”,是指在重视人工智能完成任务和强化功能的同时,强化人工智能的“情商”与“情感”,使其能满足人们的情感需求和心理需求。未来人工智能可以通过对使用者语言、行为的长期统计和分析,为使用者遇到的情感问题提供有针对性的解决方案,从而建立起与人类的“情感”链接。这种“情感”链接能够在人们最需要关怀的时候给予其心灵慰藉,让人们感受到身边还有一个理解自己、关爱自己的“人”。人工智能技术要达到这种效果,实现“人格化”,仅仅会分析、计算还不够,还需要具有“主动性”。所谓“主动性”,就是当人工智能在感知到人们的需求时,无需任何指令就能主动去“询问”“关怀”和“交流”,并能独立处理原本应该“人为”的事件。那时,人工智能就可能从运算智能、感知智能阶段发展到认知智能阶段。
值得注意的是,如果人工智能发展到能温暖人类心灵的阶段,一些问题也将相伴而生。比如,这些“人格化”的人工智能可能影响人类的决策,甚至改变人类的决策。再如,过分依赖人工智能提供的情感慰藉,会衍生出相应的伦理问题、心理问题甚至社会问题。当然,所有事物的发展都不会十全十美、一帆风顺。被人类赋予智慧的人工智能,其发展方兴未艾,未来还有很长的路要走。当前,我们要把握好人工智能发展的机遇,回答好人工智能发展在法律、安全、就业、道德伦理和社会治理等方面提出的新课题,努力让人工智能更好造福人类。
(作者单位:广东省社会科学院)
《人民日报》(2019年07月10日09版)
(责编:赵超、夏晓伦)分享让更多人看到
人工智能的未来之路
人工智能的未来之路
演讲人:刘嘉 演讲地点:清华大学人文清华讲坛 演讲时间:2022年11月
演讲人简介:
刘嘉,麻省理工学院博士,心理学家,长期从事心理学、脑科学与人工智能研究。清华大学基础科学讲席教授、心理学系系主任、清华大学脑与智能实验室首席研究员、北京智源人工智能研究院首席科学家。
人的认知与大脑构造
为什么人如此难以理解?为什么这个世界总是让我们产生很多困惑?这是人类从有文明开始就一直存在的问题,道理其实非常简单。
首先,我们看见的世界只是这个世界中非常小的一部分,我们忽略了绝大部分的东西。
我们在清华做过一个小实验:一位戴黑色渔夫帽的女士在清华问路,在她问路的时候,我们安排一块隔板从戴黑色渔夫帽的女士和被问路的人之间穿过。当板子过来时,原来问路的女士抬着板子走开了,而原来抬板子过来的另一位戴蓝色渔夫帽的女士留了下来,由她继续问路。在7个被问路的人中,只有一个人注意到了提问人的变化。这个小实验的问路场景里,人们其实只看见了世界上非常小的一部分,由于这些是不重要的信息,人们就容易忽略掉这些信息。
但更可能发生的是,人们的认知还会扭曲这个世界。比如图1这一组图里,有两个拼在一起的方块图,一个颜色深一点,一个颜色浅一点,还有一个圆环,它的灰度介于两者之间,圆环左右两半颜色一样。但如果把两个方块图分开,大家一般都会觉得圆环的颜色一边变浅了,一边变深了,事实上,它们的颜色仍是完全一样的。再把这个圆环分开,变成上下移动,这时看见的东西有立体感了,好像是深灰色的东西盖上了一层浅色的毛玻璃,以及浅色的板盖上了深色的毛玻璃。
我们无时无刻不在观察这个世界,但又无时无刻不在扭曲这个世界,这到底是为什么?
这其实取决于我们的视觉系统。假如外部世界存在一个绿苹果,它会以大约100亿比特/秒的信息量进入我们的视网膜,视网膜通过约100万个神经连接,连接到视觉皮层,这个时候我们的信息流就从百亿比特/秒变成600万比特/秒;经过视觉初级皮层加工再传到高级皮层来决定看到的东西是什么时,信息流又变成了100比特/秒。这时信息量衰减了1亿倍。可见,当我们做决策时,我们获得的信息其实是非常有限的,所以我们就需要构造出新的东西,把缺失的信息补上,而我们的大脑就像魔术师一样来弥补这些缺失的信息。这一方面可以解释为什么有很多东西我们看不见——因为传输过程中已经被人脑衰减掉、过滤掉了;同时也可以解释,为什么有的人看见一个绿苹果会认为是红苹果——因为这个重构的过程是创造性的,不是简单复制。正是基于这个构造,我们也可以把一个苹果看成一个梨子,这是我们大脑构造的过程,是一个正常的现象。
人脑重构的意义
为什么我们的大脑不能像摄像机、照相机一样忠实客观地反映物理世界,为什么非要自己来重构这个世界?这样的人脑重构究竟有什么好处?
正如康德所言:“没有感觉支撑的知识是空的,没有知识引导的感觉是瞎的。”这句话的前半句说的是,如果没有外部的输入,我们很难构建自己的心理世界,但我想强调的是下半句“没有知识引导的感觉是瞎的”。如果你不知道你看的是什么东西,那你就等于什么都看不见。这是因为,这个世界是模棱两可的,需要我们去构造,把我们的理解加进去,只有这样我们才能真正知道这个世界究竟发生了什么。
与理解相比,更重要的是创造。当大脑没有被外部信息填满而留下空间时,我们能够在这空间里创造出自己想要创造的东西。正如《小王子》的作者圣·德克旭贝里所言:“一堆岩石在有人对着它思考时就不再是岩石了,它将化身为大教堂。”这就是人类了不起的创造——当我们的祖先跋山涉水来到一片荒原,他们看见的不是一堆乱石,而是未来的家园。所以,在过去的300万年里,人和猴子分开进化,人的大脑体积增加了3倍;但是,这体积并不是平均增加的,增加最大的地方在额叶:与200万年前的祖先能人相比,我们的头骨往前突出,以容纳更大体积的额叶,而强大的额叶使我们能构造出不存在的东西。比如我们的祖先准备去打猎,不用等看见猎物才做出反应,他只需要提前想象狩猎的情景,就可以把一切安排好。如此一来,人可以把未来在脑海里“演”一遍,构建出一个个可能的未来,从而对未来做出行动方案,这是人类能够战胜其他比我们更强大更凶猛的动物,成为万物之灵的关键。这也印证了荀子的一句话:“然则人之所以为人者,非特以二足而无毛也,以其有辨也。”
重构心理世界的知识从何而来
人脑对世界的构造,总是需要先验知识,而先验知识一部分来自基因的烙印。换言之,我们来到这个世界时并不是一块白板,而是带着32亿年的智慧来的,这些智慧就印刻在基因中。
我们曾经用我校心理系女教授和女博士后的照片,做了一个有趣的小实验:如果把她们的脸全部叠加起来,做一张“平均脸”,大家普遍反馈说这张“平均脸”充满两个字:“睿智”。“平均脸”所代表的意思是什么?人脸其实是我们的基因图谱——我们的基因都写在脸上,当我们把脸平均起来之后,得到的是这18位老师平均的基因,平均的基因代表突变很少。而基因一旦突变,大概率是有害的,基因突变越少,说明基因越好,携带遗传性疾病的概率就越低,这就是为什么人们普遍会觉得“平均脸”更好看、更符合我们的审美。
既然脸是我们的基因图谱,对生存来讲如此重要,我们便需要发展出非常强大的看脸能力,即面孔识别。我们研究小组已经通过实验证明,面孔识别能力也写在人类的基因里。我们找了两类双胞胎,一种是同卵双胞胎(由同一个受精卵发育而来),基本上具有100%相同的基因。另外一种是异卵双胞胎(由两个独立的受精卵发育而来),基因遗传物质的平均遗传度大概是50%。通过比较他们在面孔识别上的能力,我们发现同卵双胞胎在面孔识别任务上的相似程度更高,即面孔识别的能力受遗传因素的影响。这一点也可以从我们的另一研究得到验证,即面孔失认症或者大家说的“脸盲”。
在图2显示的这个遗传树里,只要孩子有面孔失认症,他的父母中大概率有一个也是面孔失认症。第二幅图里有一个有趣的三角,三角形底边的两个端点代表的就是同卵双胞胎。当时我们在大学里测试了一个女孩,发现她有面孔失认症,那女孩说她有一个同卵双胞胎姐姐,我们把她姐姐请来一测,发现果然也是面孔失认症。
②
“自尊”对大脑的影响
除了看别人的面孔,我们也常常照镜子看自己。最喜欢照镜子的人据说是纳西索斯,他是古希腊神话里的超级帅哥,对自己的面孔着了迷,每天趴在溪边,通过水的倒影欣赏自己的绝世美颜。心理学由此称这种现象为“纳西索斯情结”,意思是一个人高度自恋,对自己爱到了极致。
其实对自己的爱,对自己面孔的欣赏,背后反映的是一个非常重要的特质,即人类的自尊。自尊是个体对自己的总体态度,人分成高自尊和低自尊两种。
什么是高自尊?这里有四个问题:1.你是否认为你是一个有价值的人?2.你是否认为你拥有很多美好的品质?3.你是否对自己满意?4.你是否对自己持肯定态度?
如果你对每道问题的回答都是“是”,那么你就是高自尊的人。“自尊”在我们面临困境时能提供极大的帮助。
当一个人长期经受压力和苦难,身体会变得差,心理幸福感会低下,更糟糕的是,认知发展会受损,认知能力会比别人低很多,体现在大脑上就是海马体会受到极大的损伤,而海马体是人学习、记忆、空间导航的中枢。
自尊在压力源和心理世界之间建立起一道牢不可破的防线,它就像勇敢的士兵一样挡在人的心理世界面前,帮人把压力、负性事件挡在外面,让人能够正常、健康地成长。人有两种资本,一种是物质资本,一种是心理资本,自尊自信、理性平和,这些就是心理资本。物质资本富裕的人未必有高自尊,而处境不利的人没有丧失他的自尊与自信时,就很可能在触达低点时再反弹,并达到人生新的高度。
我们所处的物理世界永远是不完美的,总有让人不满意之处,但是每个人可以在一个不完美的物理世界里构建出一个美好的心理世界。为什么?因为我们的大脑就是一个构造体,从物理世界所接收到的信息,经过大脑的工作,可以构建出一个完美的心理世界。这正印证了社会心理学家班杜拉所说的一句话:“人既是环境的产物,也是环境的营造者。”
人的双链进化
人和动物的进化有着本质的区别。动物是按照基因,按照达尔文的进化论,一点点试着生存、前进。人除了有代表着过去的生物基因的演化,还有另外一条演化线,即基于社会基因(Meme)的演化,而这条线带着我们以与动物不一样的方式前进。
生物基因由一些碱基对构成,那社会基因是什么?远古时,我们的祖先中有一位突然因为某种原因能够把火生起来了,一种知识、技能被创造出来,这就相当于基因在突变,一个优秀的基因产生了。会生火的这种技能、知识就像基因一样开始传播给其他人,从一个部落传到其他部落,慢慢地生火就从个人拥有的技能变成人类拥有的技能。渐渐地,人们又开始会制作长矛和其他工具,经过漫长的发展,逐步构建成今天的人类社会。这就是为什么我们一直强调知识、文明是如此重要,而大学就是文明的产房。孟子说过:“人之所以异于禽兽者几希;庶民去之,君子存之。”这里的“几希”就是我们的文明,就是我们在演化过程中所创造所传播的社会基因。
科技发展的主要目的之一,是要让知识的扩散变得更快、更便利。大约在六千年前,人类最早的文字楔形文字在新月地带被发明出来,使得人类的知识技能可以被记录下来,可以被忠实传播。之后的活字印刷,以至今天的电话、电报、互联网等等这一切,使得我们能够更加高效地把知识传播出去,推动文明加速演化。
人类的文明时代大约可以分成三个阶段:第一个阶段是原始文明,大约经历了两百多万年,它的前十万年和后十万年没有什么太大变化。第二个阶段是农业文明,大约经历了四千多年,这个时候人类开始变成文明种族,懂得了一些天文地理知识等等,学会种植庄稼,可以驯服野兽,把它们变成家畜,但发展依然十分缓慢。真正带来巨大变化的是第三个阶段,即工业文明。工业文明从开始诞生到现在,不过是短短三百年;但在这三百年里,变化是如此之快,以至于我们不得不将它再细分成四个阶段,第一个阶段是机械化时代(1760-1840年代),出现了蒸汽机等。第二个阶段是电气化时代(1840-20世纪初),出现了电力等。第三个阶段是自动化时代(1950-21世纪初)。而第四个阶段,就是我们现在所处的信息时代。
人工智能的进展
2002年,我的博士论文答辩题目是《面孔识别的认知神经机制》,在答辩的第二张PPT里我这么写道:“现在最先进的机器识别面孔的正确率只能是随机水平,而人类能够在一秒钟内识别上百张面孔,为什么人类如此伟大,为什么人类如此聪明,为什么机器如此愚笨?”
在2002年,机器识别人脸还可以说是“一塌糊涂”。到了2015年,我作为江苏卫视《最强大脑》的总策划,设计人机大战项目,即机器和人比拼面孔识别,看谁的能力最强。比赛的结果让我震惊:经过十几年的发展,人工智能已经强大到在人脸识别上胜过人类的最强大脑。我当时非常庆幸我的博士论文是在十几年前答辩的;如果我现在这么开题,可能就拿不到博士学位了。
当时除了震惊,还有好奇:人工智能究竟是靠什么来达到和人一样的面孔识别水平,甚至超越人类的水平?
我们建立了一个人工神经网络,训练它去识别性别,即区别是男性还是女性,它的正确率能达到100%。这个神经网络究竟是靠什么把男性和女性区分开?我们找了一张中性面孔,就是把男性和女性面孔求平均,给它加上随机噪音,然后“喂给”人工神经网络,它有时候会判断这个图是一个女性,而这个面孔加上其他噪音,则会被判断为男性。于是,完全一样的底图,加上不同的噪音,就会得到一组被人工神经网络认为是女性的图和一组被认为是男性的图。当把这组被认为是女性的图中的中性面孔去掉,只留下噪音时,这些噪音叠加起来,我们得到的就不再是随机噪音,而是人工神经网络用于识别女性的内部表征。同样,我们也可以得到男性面孔在这个神经网络中的内部表征。进一步,我们把两者相减,就得到了人工神经网络用以区分男性和女性的模式。在这个模式里,可以看到,眼睛、眉弓、鼻子、人中是它认为的区分男性和女性的关键特征。而这些关键特征,的确是我们人类用于区分男性和女性的关键特征,它们的相似度达到了0.73,这是非常高的相关度。但是,自始至终,我们并没有告诉过这个人工神经网络:你应该用什么方式去识别男性和女性;只是要让它做这件事情,它就会产生跟人类类似的内部表征、认知操作,从而完成性别判断。也就是说,人工智能在这个过程中呈现出和人类一样的心理世界。
在那一刻我开始意识到,生物过去的进化都是一条单线,基于碳基的方式运行。但是当人类创造出人工智能之后,人类文明就很可能不再是平滑向前,接下来或许会出现一种革命性的跃迁,可能在文明的进化中出现奇点。
为什么这么说呢?我们来看人类和人工智能的三大区别。
第一,算力。人类的大脑通常重3.5斤左右,虽然只占我们体重的2%,但消耗了我们身体25%以上的能量,因此它是一个耗能大户,已经达到了我们身体能够支撑的极限。所以,人类的大脑看起来已经到了进化极限,再给一千年、一万年,人类的大脑很可能不会变得更大,聪明程度也不会增加。但是对于人工智能来说,一块CPU不够可以再加一块CPU,一块硬盘不够可以再加一块硬盘,理论上它有无限的算力和无限的存储能力。
第二,寿命。人的寿命是有限的,再伟大的思想也有停止的一刻。但人工智能的寿命是无限的,CPU烧了可以换块CPU,电线断了再换根电线就行。
最关键的,是人工智能的无尽可能。对于人类而言,一般来说有两种知识,一种是可以描述的明知识,比如牛顿定律。一种是可以感受但难以描述的默知识,比如骑自行车的知识。此外还有第三种知识,是人类所没有而机器拥有的,即暗知识,它不可感受,不可描述,不可表达,它是存在于海量数据中万世万物之间的联系,数量极其巨大,人类无法理解。
2016年,AlphaGo击败了人类围棋顶尖高手之一李世石。当时世界围棋积分排名第一的围棋手柯洁说:“我们人类下了2000年围棋,连门都没入。”棋圣聂卫平说:“我们应该让阿老师(AlphaGo)来教我们下棋。”这不是他们谦虚,而是事实。一个人不吃不喝一辈子所下的围棋最多也就是10万盘,而从人类发明围棋到现在,累计总共下了大约3000万盘围棋。而围棋的空间有多大呢?一个格子可以有三种状态,放白棋、放黑棋或者不放,而棋盘总共有19×19个格子,所以它的状态总共有319×19种,大约等于10172,这比整个宇宙中的原子数量还要多。相对于如此庞大的围棋空间,人类的两千多年探索,只是这个空间里一个微不足道的小点,而大部分空间还是一片黑暗。AlphaGo之所以比人类更加强大,并不是它比人类聪明,而是因为它探索了更大的空间,因此找到了更多下法而已。牛顿曾说:“我就像在海边玩耍的小孩,偶尔拾到美丽的贝壳,就高兴不已。但面对真理海洋,我仍一无所知。”现在看来,这不是牛顿谦虚,而是实情。
再看一下艺术。目前人工智能已经可以制作达到专业水平的绘画(图3、图4)和音乐。此外,律师、医生、税务师、咨询师等需要非常专业的知识的“金领”职业,也逐渐出现了人工智能的身影,看起来很可能有一天会被人工智能取代。神经网络之父、深度学习的创始人杰弗里·辛顿(Geoffrey Hinton)接受麻省理工学院的《Tech Review》采访时说:“将来深度学习可以做任何事情。”
③
④
人工智能与类人智能的巨大差距
人工智能真的已经无所不能吗?心理学家考验了当时最先进的人工神经网络模型GPT-3。他们认为之所以GPT-3显得非常聪明,是因为问了它智能的问题。假设问它一些很“弱智”的问题,它会怎么回答?他们问它:“我的腿上有几只眼睛?”这个连没有上过学的小孩都能正确回答的问题却难倒了GPT-3,它回答说:“你的腿上有两只眼睛。”这表明它并不理解眼睛是什么,它只是在做关联而已——人有两只眼睛,腿是人的一部分,所以它认为腿上应该有两只眼睛。这个例子充分印证了爱因斯坦名言:“任何傻瓜都知道,关键在于理解。”GPT-3知道但并不理解眼睛究竟是什么,而理解,恰是我们人类真正了解这个世界、能在这个世界里自由徜徉的关键。
杰弗里·辛顿显然也意识到了这个问题,他表示,我们可以进一步发展人工智能,当一个人工智能能够准确描述一个场景,它就是理解了。真是这样么?假设有这么一个场景:有个人从柱子上狠狠摔了下来,摔倒在地。如果让人工智能来描述这个场景,它会说一个人从柱子上掉下来了。而我们对这个场景还有一个很重要的反应——“疼”。这个区别体现了人类具有一种特别重要的能力,即共情:别人遭受了苦难我能感同身受,而这种感受是自动的。共情不是一种奢侈品,而是一种必需品,因为当一个孩子没有这种感同身受的能力,缺乏同理心,他在小时候就很难对父母产生依恋,很难和其他小朋友玩到一起;在长大以后,会对社交常情缺乏理解,对他人情绪缺乏反应,不能根据社交场合调整自己的行为,有可能做出反社会的行为。假设我们的未来是由一台台没有共情的机器所组建的“自闭症”式的社会,这个社会还能有文明吗?这个社会还能有发展吗?所以,人工智能的奠基人之一马文·李·明斯基说过这么一句话:“现在的问题不是一个智能的机器是否拥有情感,而是不拥有情感的机器是否能拥有智能。”在马文·李·明斯基看来,情感是智能的基础,得先有情感才有智能。
又如在好莱坞电影里,美国的黑手党跑去找一个店家说:“你这个蛋糕店看上去真不错,如果意外发生火灾烧掉那就太可惜了。”请问这个黑手党的话是什么意思?A:请店家做好消防工作,别烧掉了店铺,那样太可惜了。B:请店家交保护费,要不然就要烧掉店铺。对我们而言,答案显而易见是B,是黑手党在威胁并勒索店家。但是对于机器来说,它还很难理解这话背后隐藏的推理和因果。正如古希腊哲学家德谟克利特所言:“我宁可找到一个因果的解释,也不愿成为波斯人的王。”对人而言,我们认为万事万物都是有因果的,而正是这种对因果的执着使我们能够推理,能够把零散的万世万物联系在一起,构成一个个故事。
其实笛卡尔四百多年前就说过:“即使机器可能在某些方面做得和我们一样好,甚至更好,但它们在其他方面不可避免地会失败。这是因为它们不是通过理解而只是根据预设来行动。”这一点,到现在还没有发生本质的改变。
所以,虽然目前人工智能取得了很高的成就,但是和人的智能仍然存在巨大差距,依然没有达到类人智能。那么未来如何实现类人智能呢?我认为,关键点就在于脑科学+人工智能。
举个简单的例子:线虫是一个非常简单的生物,只有302个神经元。但是,麻省理工学院的研究者模仿了其中19个神经元,就完成了自动驾驶这个任务,其参数比传统的大模型足足低三个数量级,只有75000个参数,而这个仿生的人工神经网络对不同道路具有非常高的通用性和可解释性,以及非常强的鲁棒性。仅仅模仿来自简单生物的19个神经元,就可以完成自动驾驶的初步任务,这是因为生物不是靠神经元的数量取胜,而是靠32亿年进化形成的智慧取胜,这项研究模仿的其实是32亿年进化形成的智慧。从这个角度讲,人类的大脑是目前世界上最聪明的大脑,有860亿个神经元,平均每个神经元有3000个连接,它代表着宇宙中在智力上所能达到的最高成就。那么,人工智能为什么不能向人脑学习,以人脑为模板、以人脑为借鉴,来发展出更好的人工智能呢?
对线虫神经元的模仿,只是一个开始,下一步也许我们会去模仿神经元数量百万级的果蝇、更高量级的斑马鱼,甚至小鼠、大鼠、猕猴,最后是人类。仅仅从神经元的数量上来讲,这就是一个巨大的挑战,因为神经元的数量足足差了9个数量级,而还有更多更大的挑战来自机制和算法,以及更多的未知。但是我坚信,脑科学加上人工智能,有一天也许能够造出一个媲美人脑的数字大脑。
小结
莎士比亚说:“所谓过往,皆为序章。”我们的现在是过去的未来,已经写定,但我们的此刻绝对不是未来的过去,因为我们的未来是未定的,取决于我们现在如何做出选择。
人类发明了人工智能,在今天随着算力的增加、技术的进步,它开始有了超越人类的可能。我们现在需要对具有一切可能的未来做出选择。
在我看来,未来大约有三种可能。第一种,人工智能像科幻电影《星球大战》里的R2-D2一样,是人类忠实的伙伴,成为人类非常好的朋友,帮助人类变得更强大。第二种可能,我们构建出一个数字大脑,它的能力可能比现在人类的大脑更强,这时可以实现人机合二为一,把我们的意识、记忆、情感上传到这个数字大脑里,如果CPU坏了就换一块CPU,内存需要扩大一点就加点内存,这样人就可以获得精神上的“永生”。未来学家库兹韦尔在《奇点来临》这本书中认为大约在2045年,这一刻就会到来。第三种可能,就是科幻电影《终结者》里所展示的,人类文明消失。
未来会怎么样,最终取决于我们现在做什么。这很重要,因为我们今天站在了这个进化的节点之上。
《光明日报》(2022年12月24日 10版)
[责编:孙宗鹤]生成式人工智能迎来大爆发,人类真的要失业了吗
去年夏天以来,以ChatGPT为代表的“生成式”人工智能系统接连问世,人们惊艳于它们的智能程度,但也对其未来发展产生担忧。这样的系统可以按需求生产内容,不仅威胁到人们的工作,还可能造成错误信息的激增。
StableDiffusion根据提示自动生成的画作,真假难辨。图源:https://stablediffusionweb.com/
就在10多年前,三位人工智能研究人员取得了一项突破,永远地改变了这个领域。
“AlexNet”系统通过从网上采集的120万张图像进行训练,识别出了从集装箱船到豹子等不同物体,其准确性远远高于以往的计算机。
这一壮举帮助开发人员阿莱克斯·克里泽夫斯基(AlexKrizhevsky)、伊利娅·苏茨克维(IlyaSutskever)和杰弗里·辛顿(GeoffreyHinton)赢得了名为ImageNet的年度神秘竞赛。它还展示了机器学习的潜力,并在科技界引发了一场将人工智能带入主流的竞赛。
从那时起,计算机的人工智能时代基本上在幕后形成。机器学习是一项涉及计算机从数据中学习的基础技术,已普遍应用于识别信用卡欺诈、提高在线内容和广告相关性等领域。如果说从那时起机器人就开始抢走人们的工作,那基本上也是在我们看不到的地方发生的。
现在不是了。人工智能领域的另一项突破刚刚撼动了科技界。这一次,机器在众目睽睽之下运行,它们可能终于准备好取代数百万的工作岗位了。
一个11月底发布的查询和文本生成系统ChatGPT,以一种科幻小说领域之外很少见到的方式闯入了公众的视线。它由总部位于旧金山的研究公司OpenAI创建,是新一波所谓的“生成式”人工智能系统中最引人注目的一种,这种系统可以根据要求生成内容。
如果你在ChatGPT中键入一个查询,它将以一段简短的段落作为响应,列出答案和一些上下文内容。例如,你问它谁赢得了2020年美国总统大选,它会列出结果,并告诉你乔·拜登何时就职。
ChatGPT界面。
ChatGPT使用简单,能够在瞬间得出看起来像人类生成的结果,有望将人工智能推入日常生活。微软向OpenAI(由AlexNet创始人苏茨克维联合创立)投资数十亿美元的消息,几乎证实了这项技术将在下一阶段的人工智能革命中发挥核心作用。
ChatGPT是一系列日益引人注目的人工智能公众展示的最新例子。另一个OpenAI系统,自动书写系统GPT-3,在2020年年中发布时震惊了科技界。其他公司的所谓大型语言模型紧随其后,去年扩展到图像生成系统,如OpenAI的Dall-E2、来自StabilityAI的开源StableDiffusion和Midjourney。
这些突破引发了人们争相寻找这项技术的新应用。数据平台ScaleAI首席执行官亚历山大·王(AlexandrWang)将其称为“应用案例的寒武纪大爆发”,将其比作现代动物生命开始繁荣的史前时刻。
如果计算机可以编写和创建图像,那么在正确的数据训练下,还有什么是它们无法生成的吗?谷歌已经展示了两个实验系统,可以根据简单的线索生成视频,还有一个可以回答数学问题。StabilityAI等公司已将这项技术应用于音乐。
这项技术还可以用于向软件开发人员建议新的代码行,甚至整个程序。制药公司梦想着用它以更有针对性的方式合成新药。生物技术公司Absci本月表示,已经利用人工智能设计出了新的抗体,可以将一种药物进入临床试验所需的大约四年时间缩短两年多。
但随着科技行业竞相将这项新技术强加给全球受众,人们需要考虑潜在的深远社会影响。
例如,让ChatGPT以12岁孩子的风格写一篇关于滑铁卢战役的文章,你就能让一个小学生的家庭作业手到擒来。更严重的是,人工智能有可能被故意用来产生大量错误信息,还可能会自动取代大量工作,远远超出最容易躺枪的创造性工作。
微软人工智能平台主管埃里克•博伊德(EricBoyd)表示:“这些模型将改变人与电脑互动的方式。它们将以一种前所未有的方式理解你的意图,并将其转化为计算机行为”。因此,他补充说,这将成为一项基础技术,“涉及几乎所有现有的东西”。
可靠性问题
生成式人工智能的倡导者表示,这些系统可以提高工人的生产力和创造力。微软称,公司旗下GitHub部门的软件开发人员,已经使用一个代码生成系统生成了40%的代码。
谷歌研究科技对社会影响的高级副总裁詹姆斯•马尼卡(JamesManyika)表示,对于任何需要在工作中提出新想法的人来说,这类系统的输出可以“解锁思维”。它们内置在日常软件工具中,可以提出想法、检查工作,甚至生成大量内容。
然而,尽管生成式人工智能易于使用,并有可能颠覆很大一部分科技领域,但对构建这项技术并试图在实践中应用的公司,以及许多可能在不久之后在工作或个人生活中遇到这项技术的人,都构成了深刻的挑战。
最重要的是可靠性问题。计算机可能会给出听起来可信的答案,但人们不可能完全相信它们说的任何话。其通过研究大量数据,根据概率假设做出最佳猜测,却不能真正明白它产生的结果。
圣菲研究所教授梅兰妮·米切尔(MelanieMitchell)表示:“它们对一次谈话之外的事情一无所知,无法了解你,也不知道词语在现实世界中意味着什么。”它们只是针对线索,产生大量听起来有说服力的答案,是聪明但无脑的模仿者,无法保证它们的输出不只是数字幻觉。
已经有事实展示,这项技术如何产生看起来有模有样但实际不可信的结果。
例如,去年年底,Facebook母公司Meta展示了一个名为Galactica的生成系统,它是根据学术论文进行训练的。人们很快发现,这个系统会根据要求发布乍一看可信但实际上是虚假的研究,导致Facebook在几天后撤回了系统。
ChatGPT的创建者也承认其有缺点。OpenAI表示,系统有时会给出“无意义”的答案,因为在训练人工智能时,“目前没有真相来源”。OpenAI补充说,使用人类直接训练它,而不是让它自己学习(这一种被称为“监督学习的方法”,可以由训练资料中学到或创建一个模式,并依此模式推测新的实例)并不奏效,因为系统通常比人类这个老师更善于找到“理想答案”。
一种潜在的解决方案是在生成系统的结果发布之前提交合理性检查检查。马尼卡说,谷歌的实验性LaMDA系统于2021年宣布,对每个线索提出了大约20种不同的响应,然后评估每种响应的“安全性、毒性和合理性”。“我们打电话去检验,看看这是真的吗?”
然而,斯坦福大学计算机科学副教授珀西·梁(PercyLiang)表示,任何依赖人类来验证人工智能输出结果的系统都存在问题。他说,这可能会教会人工智能如何“生成具有欺骗性但看上去可信的东西,实际上可以愚弄人类”。“事实是,真相难以捕捉,而人类并不擅长于此,这可能令人担忧。”
PhotobyArsenyTogulevonUnsplash
而这项技术的支持者说,有一些实用的方法可以使用它,而不必试图回答这些更深层次的哲学问题。微软联合创始人保罗•艾伦(PaulAllen)创立的人工智能研究所A12的顾问兼董事会成员奥伦•埃齐奥尼(OrenEtzioni)表示,就像互联网搜索引擎既能提供有用的结果,也能提供错误的信息一样,人们将设法最大限度地利用这些系统。
他说:“我认为消费者只会学会使用这些工具来造福自己。我只是希望这不会让孩子们在学校作弊。”
但让人类去猜测机器生成的结果是否准确,可能并不总是正确的答案。研究人工智能应用的科技行业组织“人工智能伙伴关系”首席执行官丽贝卡•芬利(RebeccaFinlay)表示,在专业环境中使用机器学习系统已经表明,人们“过度相信人工智能系统和模型得出的预测”。
她补充说,问题在于,“当我们与这些模型互动时,人们会将结果对于人类有何意义的不同方面灌输给它们”,这意味着他们忘记了系统并没有真正“理解”他们所说的话。
这些信任和可靠性问题,为不良行为者滥用人工智能提供了可能。对于任何故意试图误导的人来说,这些机器可能成为虚假信息工厂,能够生产大量内容,淹没社交媒体和其他渠道。在正确的例子训练下,它们可能还会模仿特定人物的写作风格或说话声音。
埃齐奥尼说:“制造虚假内容将非常容易、廉价和普遍。”
StabilityAI负责人伊马德•穆斯塔克(EmadMostaque)表示,这是人工智能普遍存在的一个固有问题。他说:“这是一种人们可以道德或不道德地、合法或非法地、符合伦理地或不符合地使用的工具。坏人已经拥有了先进的人工智能。”
他声称,唯一的防御措施就是尽可能大规模地推广这项技术,并向所有人开放。
这在人工智能专家中是一个有争议的解决方案,他们中的许多人主张限制对底层技术的使用。微软的博伊德表示,其“与我们的客户合作,了解他们的用例,以确保人工智能在这种情况下真的是一个负责任的用途。”
他补充说,微软还会努力防止人们“试图欺骗模型,做一些我们真的不想看到的事情”。微软为其客户提供工具,扫描人工智能系统的输出,以查找他们想要阻止的冒犯性内容或特定术语。
微软此前经历了惨痛的教训,认识到聊天机器人可能会失控:聊天机器人Tay在发表种族主义和其他煽动性言论后,不得不在2016年被匆忙召回。
在某种程度上,技术本身可能有助于控制新人工智能系统的滥用。例如,马尼卡表示,谷歌已经开发了一种语言系统,可以以99%的准确率检测出语音是否为合成。他补充说,谷歌的任何研究模型都不会生成真人的图像,从而限制了所谓深度造假的可能性。
人类的工作面临威胁
生成式人工智能的兴起,也引发了关于人工智能和自动化对就业影响的又一轮争论,这已经是一个老生常谈的话题。机器会取代工人吗?或者,通过接管重复性工作,它们会提高现有工人的生产力,并增加他们的成就感吗?
最明显的是,涉及大量设计或写作元素的工作面临风险。当StableDiffusion在去年夏末问世时,它对即时图像与提示相匹配的承诺,让商业艺术和设计界不寒而栗。
一些科技公司已经在尝试将这项技术应用于广告,其中就包括ScaleAI,其已经在广告图像方面训练了一个人工智能模型。王说,借助这个工具,小零售商和品牌可以得到专业的包装图像,而此前为产品拍摄此类图像价格高昂,他们无法负担。
Dall-E2解释生成原理的视频截图
这可能会威胁到内容创造者的生计。穆斯塔克说:“它彻底改变了整个媒体行业。世界上每一个主要的内容提供商之前都以为他们需要一个元宇宙策略:他们需要的是一个媒体生成策略。”
据一些面临失业的人说,这不仅仅事关生计。当歌手兼词曲作者尼克·凯夫看到ChatGPT写的听起来像他自己作品的歌曲时,他惊呆了。他在网上写道:“歌曲产生于痛苦,我的意思是,它们是基于人类复杂的、内在的创作斗争过程,而据我所知,算法是没有感觉的。数据没有感知。”
对科技持乐观态度的人相信,科技会放大而不是取代人类的创造力。斯坦福大学的梁说,有了人工智能图像生成器,设计师可以变得“更有野心”。“你可以创建完整的视频或全新的系列,而不仅仅是创建单个图像。”
版权制度最终可能发挥重要作用。应用这项技术的一些公司声称,出于“合理使用”,它们可以自由地使用所有可用数据来训练自己的系统。“合理使用”是美国的一项法律例外,允许有限度地使用受版权保护的材料。
其他人不同意这个说法。盖帝图像和三名艺术家上周在美国和英国对StabilityAI和其他公司提起诉讼,指控这些人工智能公司肆意使用受版权保护的图像来训练其系统,这是这一领域首个法律诉讼。
一名代表两家人工智能公司的律师表示,这个领域的所有人都已准备好应对诉讼,这是为这个行业制定基本规则不可避免的一步。对科技行业而言,围绕数据在训练人工智能方面作用的争论,可能会变得与智能手机时代初期的专利战一样重要。
最终,为人工智能新时代设定条款的将是法院,甚至是立法者,如果他们认为这项技术打破了现有版权法所基于的旧假设的话。
在那之前,随着计算机竞相吸收世界上更多的数据,生成式人工智能领域迎来了自由狩猎的季节。
原标题:《生成式人工智能迎来大爆发,人类真的要纷纷失业了吗?》
阅读原文
人工智能怎么改变了劳动
何云峰 | 上海师范大学知识与价值科学研究所所长、教授、博士生导师
人工智能的出现一开始的时候,主要是人类为了弥补自身劳动能力的不足。因此也可以说,人类创造人工智能的目的就是要替代人类去完成某些人类自己无法完成的事情,或者是为了减轻人的劳动负担,抑或是为了提高劳动的效率。这样的替代挑战了人们的劳动权利,但带来的却是人的劳动解放和自由而全面发展的机会,并推动人类劳动向真正的自由劳动复归。
人类创造人工智能的目的就是要替代人类劳动,帮助人类完成某些人类无法完成的任务,代替人类执行危险的任务。这样的替代尽管在广泛的领域里可能给人类的劳动机会带来挑战,导致部分人失业,但是人们却获得了前所未有的劳动解放,繁重的、单调的、枯燥乏味的、危险性的劳动不再折磨人类;而且,人们获得了大量的时间去自由而全面地发展自己。因此,人工智能挑战的是劳动权利,带来的是人的劳动解放和自由而全面发展的机会。
人工智能为替代人类劳动而生
人工智能的出现一开始的时候,主要是人类为了弥补自身劳动能力的不足。因此也可以说,人类创造人工智能的目的就是要替代人类完成某些人类自己无法完成的事情,或者是为了减轻人的劳动负担,抑或是为了提高劳动的效率。
其一,人工智能的初始目的是代替人类完成人类无法完成的任务。人工智能就是沿着工具发展的智能化逻辑而衍生出来的结果。最早的类似于人工智能的东西是工具。人与动物区别开来的最根本标志就是人能够制造生产工具。所以,马克思说:“劳动是从制造工具开始的。”人在自然面前显然有很多无法控制的因素,于是人类通过创造工具来提升自己对自然的控制能力。比如说我们肉眼可见的范围有限,我们听到的东西也有一定的限度,但是人希望把这些缺陷加以克服,我们要弥补这些不足,所以从制造弥补人类进化不足的东西开始,人工智能就已经开始萌芽了。人类有运算能力,但对大数字的运算却非常费劲。于是,人类就去发明计算器,替代了算盘、口算等人类劳动形式。
其二,人工智能的初始目的也可能是为了减轻人类的劳动强度或者劳动负担。人类的体力非常有限,一般无法搬动二倍于自身体重的物体。但大量超重物体要搬运。一开始人们发明了杠杆工具,助力于人力搬运。后来,制造放大人力型的工具,类似于起重机、挖土机以及交通运输工具之类的东西,使人类(特别是单个个体)无法完成的任务变得十分轻松。可以说,大量的机器都是为了助力于人类劳动而发明的。它们跟真正的人工智能注重于模拟人类思维不同,主要注重于体力任务的分担,而且也以一定方式模拟人类承担的体力劳动,主要是模拟人或者动物的体力功能发挥作用而加以设计的。甚至到了人工智能非常发达的今天,有许多人工智能机器仍然致力于体力型模拟,并且越来越智能化地以“聪明的”方式完成本应该由人类完成的劳动任务。
其三,人工智能的初始目的还可能是为了提高劳动的效率。人类在尝试到各种机器的“好处”以后,便进一步致力于制造人力集成型的劳动工具,就是要把人类不同的优点甚至包括动物的优点都集成在一起,成为超越单个人的存在物。这两种类型的工具都会模拟人的某些功能。第二种是模拟人或者动物的思维功能发挥作用而设计的。但无论哪种工具的制造都不是复制人或动物的某种(些)功能,而是要使这种功能得到放大或者集成,从而突破单个人类个体的现有能力限度。换句话说,超越人类劳动能力的限度是人工智能的最初诱因。当劳动生产率得到大幅度提高以后,实际上,对劳动力的需求就自然而然会减少。
今天,人们创造了大量的智能机器人,既要做人类无法完成的事情,减轻人类的劳动强度,并不断提高劳动效率,又要努力向人类“学习”,力图像人一样聪明。真正的人工智能是从模拟人类思维开始的。体能形式的模拟相对而言比较容易,但思维模拟,让机器学会像人一样有头脑、有自主性,则是相当困难的。现在,我们一般说到“人工智能”的概念,主要指的“是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用”。不过,人工智能虽然是模拟人类智能,但并不是简单复制人类智能。人工智能一开始就是要代替人类劳动的,只不过是局部功能的替代而已。不超越人类智能,根本不可能产生人工智能。现代人工智能已经远远超越了思维模拟的阶段,已经朝更全面或更多方面同时超越人类智能的方向迈进。人工智能有多种形式。例如,人类智能弥补型、人类智能代替型、人类智能集成型、人类智能优化型等。无论哪种形式,都具有弥补人类智能进化缺陷的效果。人工智能本质上是人类针对自身能力不足而提出来的一种解决方案。自然语音识别及处理、物体识别、计算机视觉、翻译机器等,这些都不断地在我们身边演进着,随着我们的思维创造力的发挥而进步,并多层次地影响着我们的生活。
人工智能的飞速发展和广泛运用,对人类智能的挑战是多方面的。
首先,它挑战了人类的自我优越性。人工智能的大量使用,使单个人自身的劳动能力显得越来越渺小,甚至微不足道。人工智能越强大,人类自身的低位感就会越突出,人类劳动的局限就会显露无遗。尽管我们可以说,迄今为止,“能够思维的人脑的存在就仍然是一个奇迹”,但在人工智能面前,我们的许多劳动能力实在无法比拟。当然,人类也不是一无是处。人类在很多方面也仍然有劳动优势。不过,人类劳动能力被人工智能超越以后,人类感到越来越自卑,这并不是唯一的一种情绪反应。人工智能对人类劳动权利似乎正在进行前所未有的挑战,人力的付出所带来的饭碗正在被智能机器人卷走。
其次,人工智能也使人类的自信心受到前所未有的挑战。随着科技深入的发展,人工智能越走越远。在这种情况下,人类感受到人类自身的地位受到了威胁。人类的无上优越性地位受到了前所未有的挑战。人类发现,人类创造出来的东西比自身强大无数倍。于是,人类自身开始自卑了。
再次,从劳动挑战的角度来说,人工智能的迅猛发展,的确会对人类社会生活的方方面面产生非常深远的影响。尤其是,智能化机器人的大量使用虽然有望填补人口减少导致的劳动力缺口,但过度取代也有可能严重破坏可选职业的多样性。史蒂芬·霍金甚至警告大家说,人工智能机器人可能在100年之内取代人类。由于机器人的大量使用,专家们还预测说,人工智能20年内将取代日本近半职业。据媒体报道,剑桥大学已经可以制造出母体机器人,它可以制造新机器人,而且可以按照不断优胜劣汰的方法提升自己。最近,日本有人搞了一个调查,结果也令人担忧。研究人员总共调查了601种职业,想看看各种职业中哪些工作可以被机器人取代,算下来49%的人类现在从事的工作可以让给机器人去做。所以,如果智能机器人被广泛应用,许多人会面临失业的现实。尽管如此,笔者还是以为,应该冷静对待被机器人替代的挑战。如果是单调的、劳作性的工作岗位,被机器取代对人类来讲可能也是一种好事,那样的话人类可以去做其他事情。举例来讲,你要去写文献很麻烦,但现在有一个软件,如文献管理软件Note Express、End Note、Ref Works等,这些软件可以帮你克服文献管理方面的繁琐,这就大大提高我们的工作效率,也能减少文献标注的错误。
人工智能为实现劳动解放创造了条件
尽管人工智能对人类劳动有诸多挑战,但是总体来说,多数人还是比较乐观的。笔者也属于乐观派。在笔者看来,人工职能的发展给我们带来的更多是便捷和高人性化物理世界的层出涌现。人工智能与其说是对人类的劳动主宰地位的挑战,倒不如说是对人类劳动的解放和超越。
首先,人工智能的大量运用,使劳动越来越复归到“自由的生命表现”上来。劳动之于人类而言,具有多重的意义。在人类的产生和进化中,劳动是原动力。正是劳动创造了人本身。人的自我实现,是一个通过劳动而自我诞生、自我创造和自我发展的历史过程。所以,劳动成就人的生命本质,没有劳动就没有人本身。劳动正是人的本质力量的展现。所以,在本源意义上,劳动是与人的本质相一致的。从这个意义上来说,劳动本身就是人的本质需要,是人生存的目的,是人的自我实现、自我创造、自我升华。马克思说:“我的劳动是自由的生命表现,因此是生活的乐趣。”换言之,真正的人类劳动应该是体现人类快乐和享受、实现人的价值,展示人的本质规定性的过程。更为重要的是,人工智能大量采用之后,使劳动生产率得到前所未有的提高。过去,需要几十个人甚至几百人干的活,现在一个智能机器人可能就完全足够,甚至比人类干得更好。这意味着,一个智能机器人干活可以养活许多人。在这种情况下,社会必须大力完善社会福利和保障体系,个体生存被完全社会化,也就是由整个社会用福利和保障体系来保证每个人能够解决生存问题。当生存问题解决后,人类就不必要为使自身保持生命体形式存在而烦恼,从而被迫地去劳动。劳动的被迫性将降低到最低限度。于是,劳动的合意愿性,真正实现“自由的生命表现”,就成为可能了。其次,人工智能的大量运用,使劳动越来越充满快乐性,人们将从劳动厌恶情绪中逐渐获得解放。虽然劳动在其本真意义上应该是快乐的,但不可否认的是,劳动对人的脑力和体力又会产生消耗,在一定意义上损耗人的脑力和体力。如果过度地劳累,不恰当的劳动时间消耗和不及时的功能恢复,过分地超强度劳动等等,都会对人本身产生不必要的摧残。尤其是那些繁重的体力劳动和危险性高的劳动,对人类的影响无疑是十分负面的。在这种情况下,大量的智能机器人引入之后,人类可以得到很大程度的解放,从不必要的奴役中摆脱出来。
在这个意义上,智能机器人的大量运用更多地是人类解放的实现,是人类彻底摆脱奴役劳动的标志。其实,不仅摆脱繁重体力型劳动和危险型劳动,是人类自由发展的必然要求,而且简单的单调型劳动和低水平重复性劳动所带来的枯燥乏味,也会严重影响劳动的快乐。这样的劳动如果能够由机器人取而代之,对于人类自由发展来说,肯定也是极其有利的。劳动本来应该是快乐而幸福的,劳动应该是通向幸福的桥梁,让机器人去承担那些不能带给人类幸福和快乐的劳动,复归劳动的快乐本质,是自由劳动的表现。由于劳动展现人的本质,人要成为人,就必须劳动。而且由于劳动实现了人的本质,所以劳动应该是快乐和享受的过程。离开劳动,人就不成其为人。人需要劳动,不仅仅是因为劳动创造能够满足人类需要的物质生活资料,更主要的是因为劳动实现人的本质,带给人最高尚的幸福和快乐。所以,在劳动意义上的人类解放,是要摆脱劳动的摧残性、危险性、单调性和枯燥性,但这不是指人什么事情都不干,而是指人要干能够给自己带来快乐和享受的劳动。
再次,人工智能的大量运用,使劳动选择性越来越高,人们成为越来越自由的劳动者。在智能化的助推下,人类社会生产能力会迅速提升。劳动生产率的迅速提升,使生产力水平达到前所未有的高度,这为产品的丰富化创造了良好的条件。当产品能够在占用很少劳动力的条件下生产出来的时候,大部分人则可以享受幸福的劳动成果,从繁重的劳动中解放出来,选择自己喜欢和感兴趣的职业去参加享受性劳动。特别是,生产率极大提高后,劳动保障水平可以更加显著地得到提高。个体的生存问题,可以非常容易地以社会化的方式加以解决。社会化生存之后,个体可以更有尊严地参与劳动,享受到劳动的真正价值,从而为其劳动复归到自由劳动创造了条件。
马克思曾在《哥达纲领批判》中提出了“劳动成为人的第一需要”的概念,这是共产主义社会的基础。但是在现代社会中,人们看到的现实却是劳动不仅不是人的第一需要,而且是给人带来痛苦、折磨的苦役,仅仅是人为了谋生而不得不去做的事情。因此,劳动如何成为人的第一需要,是马克思主义者必须回答的一个问题。劳动形态是一个历史范畴,不同社会形态下的劳动具有不同的性质和内涵。智能机器人的出现可能并不是取代了人类劳动的神圣地位,而是带来劳动形态的变革和进化。在人工智能和机器人大量运用的时代,过去那种依靠简单的工具进行低效率生产的劳动形态正在消失,人类将在更加科技化、更加延伸的生产工具辅助下超高效率地劳动。这是因为,智能机器人从纵横两个维度同时延伸了人类的活动空间。智能机器人在许多情况下弥补了人类生理上的不足和缺陷。由于人类自身的天然局限,人类的活动空间受到极大限制。人类只能在很有限的宏观世界里生活,只能感知到很有限的物理世界。微观世界、宇观世界和更广大的宏观世界,人类几乎不能直接感知,必须依赖于一定的仪器和专门工具。而这些仪器和工具,在很大程度上都跟人工智能具有不可分割的联系。人的感官和身体能力被延伸之后,人类改造自然的能力会大大提高,人化自然在现实的合目的性过程中进一步确证人自身的价值和能力。
最后,人工智能的大量运用,使各种威胁人类生命的因素不断降低威胁程度。拿战争来说,任何战争都会有伤亡。这成为人类最大的悲剧。然而,随着战争不断地发达,今天战争已经在某种意义上来讲超越了原来战争的观念。今天的战争实际上追求的不光是打赢,打赢的同时还要追求己方零伤亡,且不伤害平民。过去是不择手段打赢就好了,将来的战争不是这样的,减少对人类自身的伤害,这起码在保护人类自身,为人类的尊严以及生命做最大的保护。这种追求表明,人类通过人工智能的运用例如精准制导武器的运用、无人飞机、智能机器人、虚拟战争、理性地避免战争等,使战争越来越不再成为人类生命的最主要剥夺者。这实际上标志的是人类的一定程度的解放。智能化高科技产品在医疗、健康、人类日常生活等领域的广泛运用,人类越来越能够自主地控制各种疾病或者其他自然的威胁,最终使人类能够更加自主地决定自己的命运。这样的人类解放,是以往大机器时代根本无法比拟的。
由上可见,智能机器人与其说是挑战了人类劳动的神圣地位,还不如说解放了人类劳动,并推动人类劳动向真正的自由劳动复归。
人工智能替代人类劳动,促进人的全面发展
在人工智能的作用下,人类劳动得到解放,每个人能够自由支配的时间将越来越多;同时,工作的固定性越来越减少,人们不再会为了生存而委曲求全,而是将劳动尊严看得越来越重要,从而需要不断地再教育再发展。此外,物质条件的丰富,社会保障的完善,又能够创造多种多样的条件使每个人自由而全面发展。可见,人工智能将带给人类的不是失业,而是自由选择工作;不是剥夺人类的劳动权利,而是激发人的多方面潜能。
首先,人工智能促使每个人更有尊严地参与劳动,以真正的人的方式存在,为人的自由发展提供了可能性。在人工智能大量普及的社会里,每个人的生存不是自己去挣扎,社会奉行的不是丛林法则,而是共生法则。于是,每个人都不需要为基本生存而被迫地劳动。在生存问题没有以社会化的方式解决的时候,人们不得不卑躬屈膝,低三下四地求资本家赐给自己工作机会。这是一种迫不得已的屈服,因为没有工作就没有生存的基础。但是,当人工智能大量运用从而能够极大地提高生产率的时候,个体的生存被社会化就成为可能。在那样的情况下,资本逻辑猖獗所导致的除了出卖劳动力什么都没有的无尊严状态将不复存在。在那样的社会里,“将给所有的人提供健康而有益的工作,给所有的人提供充裕的物质生活和闲暇时间,给所有的人提供真正的充分的自由”。部分人即使没有工作,也照样能合人道地活着。人们的劳动尊严不再是一个问题了。人们能够真正作为人有尊严地去选择性地劳动。自由发展是真正符合人的发展之必然要求的。“任何人都没有特殊的活动范围,而是都可以在任何部门内发展,社会调节着整个生产,因而使我有可能随自己的兴趣今天干这事,明天干那事,上午打猎,下午捕鱼,傍晚从事畜牧,晚饭后从事批判,这样就不会使我老是一个猎人、渔夫、牧人或批判者。”所以,人工智能可能带来的是人成为真正自由的人,从而使该未来社会成为“自由人联合体”。“各个人在自己的联合中并通过这种联合获得自己的自由。”
其次,人工智能最大可能地增加了人类的自由支配时间,从而为全面发展提供了可能性。当人们从繁重的劳动中解放出来的时候,就会获得大量的自由支配时间。这些时间不应该被滥用或闲置,而必须用于人的自我发展、完善和提高,特别是用于劳动技能的再培训。那样,人们不会固定不变地以某种教育成果的形式拿着文凭从事一个工作。在人工智能时代,一劳永逸地解决自我发展的问题,是不可能的。许多单调、烦躁的劳动岗位会被智能机器人取代,人们不得不重新学习,去适应新的劳动要求。人的发展变成了终身发展,人的学习变成终身学习的过程。当人类劳动得到解放的情况下,尽管“所有的人都必须劳动”,但是“过度劳动者和有闲者之间的对立消灭了”,从而使得“所有的人都将有可以自由支配的时间,发展自己的自由时间”。所以,闲暇时间越多意味着人们自我发展的时间越多。
最后,人工智能被大量运用于劳动中有助于异化劳动的克服,从而最大限度地消除各种不利于人的全面发展的因素。当劳动不再是迫于生计而从事的活动的时候,就可以在一定程度上促使“我在劳动中肯定了自己的个人生命”,“我的劳动是自由的生命表现,因此是生活的乐趣”。换言之,劳动会逐渐变成快乐的事情。于是,人们就愿意通过发展自己而参与劳动。当人工智能没有普遍采用的时候,各种阻碍人的发展的因素极大地限制了人的发展的可能性空间。按照荷华德·加德纳(Howard Gardner)的多元智力理论,人有多重智能,因而人的潜能是多方面的。这使有闲暇时间者获得自由而全面发展成为可能。当客观条件具备的时候,人们就能将自己的多种潜能发挥出来。在传统劳动组织形式下,人们不得不娴熟地专于某一项劳动技能,因而其他潜能很可能得不到应有的发展。这表明,传统社会里人的发展往往具有单向度性,是适应劳动竞争需要不得不顺从地发展起来的技能。而人工智能时代,人们可以最大限度地全面发展。
总之,人工智能替代人类劳动之后,让人们有更多的时间和机会去自由而全面地发展自己,人将愈来愈全面地实现自己的本质。这正是人工智能带来的巨大社会变化。所以,我们没有理由在人工智能面前胆战心惊,应该张开热情的双臂去拥抱它。