如何培养人工智能时代劳动者
浙江大学校长吴朝晖在国际人工智能与教育大会的发言中,描绘了一幅未来人工智能时代的全景图像。那时,人工智能也将具备感知、记忆、推理能力,不仅人类的体力劳动被机器替代,部分脑力劳动也将被替代。
那么,未来哪些职业将面临风险,哪些新职业又将出现?今天的教育与培训系统如何预测这些变化,如何精准应对人工智能时代的技能需要?
在国际人工智能与教育大会上,这些关于人工智能时代生活、工作以及人类未来所需的能力等问题,成为与会者讨论的焦点。
人工智能将引发颠覆性转变
教育应密切关注和适应未来劳动力市场变化
“每一次技术变革都会带来社会变革。”英国牛津大学经济学家卡尔·贝内迪克·弗雷说。
未来,在以人工智能为标志的第四次工业革命到来时,人类也将面临同样问题。据联合国教科文组织预测,伴随着新职业的增长以及低技能任务实现自动化,人工智能的渗透所引发的失业率会急剧上升,造成社会和政治紧张,同时带来收入不平等日益加剧的风险。
最近,一项全球评估显示,到2030年,30%的“工作活动”可以实现自动化。不但普通工人的工作会受到严重影响,“白领”雇员和管理者以及部分艺术产业的工作者也将被波及。
“人工智能将越来越彰显颠覆意义。”根据研究,吴朝晖预测,人工智能的发展将产生超级智能、融合智能等形态,深刻改变物理世界、虚拟信息世界的生产力和生产关系,引发社会对智能机器道德伦理等问题的全新思考,人的智能将引入并作为智能系统的重要组成部分。
发挥人机各自优长 实现人机和谐共处
教育应在培养人类特有能力上下功夫
人工智能时代,劳动者需要具备哪些能力?
欧洲职业培训发展中心对欧洲企业岗位和技能要求进行大数据分析后发现,目前有56%的工作需要高技能人才,同时对低技能人才仍有大量需求。人工智能时代,技能人才将被划分为技术的创造者、使用者和协作者。对于技术的创造者来说,需要具备计算思维和数字能力,需要拥有数字学科、技术科学和自然科学、人文科学的跨学科能力;对于技术的使用者来说,需要信息技术、数据分析处理、内容开发、信息技术使用等方面的能力,需要利用信息技术解决面临的各种问题。
国际电信联盟亚太地区办事处高级顾问萨默尔·夏尔马说:“信息技术能力和人工智能技能,可能不是最重要的,却是未来工作必不可少的。与此同时,人类自身特有的能力将在未来显得格外重要。”
随着人工智能及其他前沿技术的应用,需要利用人类特有的创造能力、社会情感能力和人际互动的高技能工作数量将不断增加。
落实《北京共识》做好教育规划
积极审慎地走好人工智能与教育“未来的路”
习近平主席在致本次大会的贺信中强调,把握全球人工智能发展态势,找准突破口和主攻方向,培养大批具有创新能力和合作精神的人工智能高端人才,是教育的重要使命。
教育,是人工智能的孵化器,同时受到人工智能的挑战,但也是人工智能的受益者。大会通过的《北京共识》提出,各国要制定相应政策,推动人工智能与教育、教学和学习的系统性融合。
中国教育部部长陈宝生在5月16日部长论坛发表主旨发言时强调,中国高度关注人工智能对教育带来的巨大影响,密切关注人工智能对教育带来的问题和挑战,要秉持积极审慎的态度,思考如何走好“未来的路”。
那么,今天的教育该如何改革,才能精准培养人工智能时代的人才?
首先,加强关于人工智能与教育的战略规划。为实现联合国2030教育议程可持续发展目标,为人工智能时代培养各种人才不断探索。
其次,加强人工智能专业人员的培养。北京师范大学教授黄荣怀建议,通过人工智能专业建设、人工智能学院建设等方式,培养能够设计、编码、开发人工智能系统的专业人员,从而加强人工智能人才储备,提高国际竞争力。将“人工智能能力”纳入教育计划,即将人工智能融入中小学教育、高等教育、职业教育和社会培训。
再其次,加强教育评价体系改革。西安交通大学副校长郑庆华建议,应该利用信息化与人工智能等手段,建立过程性的、个性化的、德智体美劳全面关注的评价体系。(本报记者 张东 黄蔚)
郑戈:人工智能与法律的未来
【文/郑戈】
现代性与人类能力的机器替代
人工智能是现代工业文明发展的必然产物。早在“现代性”刚刚发端的时代,现代政治哲学的奠基者霍布斯,便开始把人和人类社会构想为当时最为精巧的机器——钟表。在《论公民》的“前言”中,他写道:“对于钟表或相当复杂的装置,除非将它拆开,分别研究其部件的材料、形状和运动,不然就无从知晓每个部件和齿轮的作用。同样,在研究国家的权利和公民的义务时,虽然不能将国家拆散,但也要分别考察它的成分,要正确地理解人性,它的哪些特点适合、哪些特点不适合建立国家,以及谋求共同发展的人必须怎样结合在一起。”1611年出现的“机械人”(Automaton)一词就是那个时代的社会想象的产物,它是指借用钟表齿轮技术而制造出来的自动机械人偶。虽然这种人偶还完全不具备任何意义上的“智能”,但它却体现了促使“人工智能”最终变成现实的那种思路:人的身体和大脑最终都可以用机器来模拟。
《省思——冷眼横看人工智能热》,杜运泉主编,上海财经大学出版社,2019年
到了19世纪,随着自然科学尤其是物理学的突破性发展,法国哲学家开始设想研究人类行为和人类社会组织方式的学科最终可以达到物理学那样的成熟状态。人们将可以通过观察、统计和分析而发现近似于自然规律的社会规律,从而“研究现状以便推断未来”。这就意味着不仅个人的身体和大脑功能可以借助物理学法则用机器来取代,而且社会的组织机制包括法律,最终也可以由机器来操作和管理。
在孔德的时代,由于技术手段的欠缺,孔德的野心还无法变为现实。基于有限样本的统计分析,还远远无法使社会预测达到物理预测那样的精准性。但大数据存储和分析已经使样本分析有可能为整全数据分析所取代,并且日益实现动态化和分析者与对象之间的互动化。换句话说,机器通过“深度学习”也可以变得具有社会性,并且参与人类社会的各种活动,包括游戏和工作。在孔德的时代,英文中又出现了Android(人形机器)一词,其词根是古希腊文中的andro(人)和eides(形状)。人是语言的动物,一个新语词的出现必然是因为新的事物出现在了人们的现实生活或想象之中,而它能够被普遍使用并成为语言的一部分,则是因为很多人都分享着它所表达的现实体验或想象。
在工业化时代,用机器来取代人的劳动已经成为一个普遍现实,马克思和恩格斯的经典著作中有许多对这种现实中工人阶级悲惨处境的描述,和对造成这种状态的生产关系和社会制度的批判。1920年,捷克作家卡雷尔·卡佩克(KarelCapek)创作了《罗素姆的万能机器人》(Rossumoviuniverzálníroboti)剧本,发明了如今通用的Robot(机器人)这个词汇,它的辞源是波兰语中的强迫劳动(Robota)和工人(Robotnik)。如果说工业化时代的机器(无论是不是人形的)所取代的只是人的一部分体力劳动,那么作为工业化升级版的人工智能则是这个过程的自然延伸,它旨在取代人的一部分脑力劳动。
人类一直在试图强化自己的能力。比如,过目不忘一直是中国传统文人最为欣赏和希望得到的能力之一。《三国演义》中的张松,在接过杨修递给他的《孟德新书》并快速浏览一遍之后,说这哪里是什么新书,分明是战国时无名氏所作,为曹丞相所抄袭。杨修不信,结果张松把该书内容背出,一字不差。但如今的人工智能已经能够轻松地做到这些,乃至更多。
人工智能实际上已经可以将脑力劳动和体力劳动、感知和思维、决策和执行结合到一起,从而更像是一个完整的人。至于是否具有“人形”已经不再重要了,任何关于“人工智能”的拟人化想象都是不必要的。有了物联网、大数据和云计算作为支撑(或组成部分)的人工智能,可以通过它的感官(遍布各处的传感器)获得千里之外的数据,利用自己无比强大的记忆力(联网计算机和云存储)来沉淀和消化数据,利用自己远胜于人类的计算能力(算法和基于“神经网络”技术的深度学习)来处理数据,并在此基础上作出判断和“决策”。
目前,人工智能正以惊人的速度在两大领域推进:一是“合成智能”(syntheticintellects),即我们通常所说的机器学习、神经网络、大数据、认知系统、演进算法等要素的综合应用。它不是传统意义上的编程,也就是说,它突破了“机器只能做程序员编排它去做的事情”这一局限,你只要给它一大堆人类穷其一生也无法浏览完的数据(在互联网的帮助下,这意味着你只要把它联网并通过编程使它具有搜索功能),包括人类智力根本无法理解的无结构数据,再设定某个具体的目标,最终系统会产生什么结果完全不可预见,不受创造者控制。围棋智能体AlphaGo先后打败李世石和柯洁,并以“独孤求败”的姿态“宣布退役”,只是合成智能小试牛刀的一个例子。
另一个领域是“人造劳动者”(forgedlabors),它们是传感器和执行器的结合,可以执行各种体力劳动任务,从海底采矿、外空维修到战场杀敌。当然,离我们生活最近的例子是自动驾驶。这两个领域的结合不仅意味着“机器人”的“头脑”和“四肢”都是很强大的,还意味着“机器人”的大脑、感官和手足是可以分离的,手脚(执行器)可以延伸到离大脑(中央处理器)十万八千里的地方。在“万物联网”的时代,只有不联网的东西才不在人工智能的可控制范围之内。
正因为如此,越来越多的人开始表示出对“人工智能”的担忧。乐观派认为人工智能是对人类能力的强化,它本身仍然处在人类的控制之下,因为它没有“自我意识”和情感。没有我执,也便没有“贪、嗔、痴”,不会对人类构成威胁。甚至不能算是真正的智能,因为智能的内核是“主体的自由”以及主体对这种自由的自我认知和主动应用。但即使我们承认乐观派对事实的描述和判断是正确的,也已经有了担心的由头。
人工智能显然不成比例地强化了一部分人的能力,即那些站在人工智能发展前沿的“大数据掌控者”和人工智能开发企业的能力,同时使越来越多的人变成难以保护自己的隐私和自由并面临失业风险的弱者。换句话说,以前可以自认为比蓝领工人社会等级更高的白领脑力劳动者,如今也变成了新的随时可能被机器所替代的劳工。当强弱悬殊越来越大,而且强者对弱者的剥削和控制越来越以“物理法则”而不是赤裸裸的暴力面目出现时,“强者为所能为,弱者受所必受”的局面就会成为普遍现象。自由与必然之间的关系,因人工智能的出现而越发成了一个由社会分层(阶级)决定的事务:越来越少的人享有越来越大的自由,越来越多的人受到越来越强的必然性的束缚。
由于法治迄今为止被证明是保护弱者权益、使人避免落入弱肉强食的丛林法则支配的最有效机制,所以,当人工智能所带来的新风险被许多人感知到的时候,人们自然希望法律能够因应这种风险提供新的保障。但法律自身也面临着人工智能的猛烈冲击。
人工智能对法律应对社会变迁的传统模式的挑战
法律是人的有限理性的产物,法律规则本身也体现并顺应着人的局限性。正如麦迪逊所言:“如果人都是天使,就不需要任何政府了。如果是天使统治人,就不需要对政府有任何外来的或内在的控制了。”这个说法当然针对的是人的贪婪和野心,但也拓展到人的有限认知和计算能力。即使一个人充满善意,他也可能因为自己的能力所限而对自己和他人造成伤害。而法律规则的设计和执行,都会把这种有限能力纳入考虑。实际上,人类社会所有的规则,包括游戏规则,都是有局限的人为有局限的人设计的。
下过围棋的人都知道“金角银边草肚皮”这个基本的布局规则,这个规则的理由有两个:一是效率,在角上无论是做眼还是吃掉对方棋子需要的步数都最少,在角上,做一个真眼需要三步棋,吃掉对方一个子只需要两步棋。二是计算能力,给定的边界越多,需要考虑的可能性越少。效率考量使得AlphaGo在布局阶段与人类高手相比并没有太大的区别,仍然是先占角后取边。但在序盘和中盘阶段,AlphaGo却更敢于向中腹突进,这是与它更强大的计算能力相适应的。
实际上,由于人认识到自己的局限性,所以在设计规则的时候所考虑的都是所谓常人标准,即以具有中等智力和体力水平的正常人作为规则可行性的判断标准。而且,为了形成稳定的社会秩序,法律往往还会设置比常人标准更低一些的安全线。从这个意义上讲,法律是一种保守的社会力量,不以满足具有创新精神和创新能力的人士追求“更快、更高、更好”的野心为目的。梁漱溟先生所说的“经济进一步,政治进一步,循环推进”,也适用于法律。法律调整经济-社会关系的方式从来都是回应性的。在技术发展和社会-经济结构变化缓慢的农业社会和早期工业化社会,这种保守倾向使法律发挥了很好的维持社会稳定的作用。
但在人工智能时代,它却使法律滞后于技术和经济的发展,使那些把握先机的人获得了巨大的边际回报。比如,互联网金融和电子商务在中国的迅猛发展就是在相关法律缺位的情况下发生的,等到立法者开始制定规则来规范这个领域,法律所约束的只是后来者,并且自然地巩固了先占者的垄断地位。同时,先占者又利用已经积累起来的经济、技术和资源(数据)优势,开始抢占未被法律规制的新领域。如此层层递进,最终使得循规蹈矩、永远在法律规定的范围内活动的人们与他们之间的差距越来越大。
同时,正如石油是工业化时代最宝贵的资源一样,数据是人工智能时代最重要的资源。掌控的数据越多,供人工智能“学习”的资源就越多,也就越容易在这个领域取得突破性的进展。这一事实导致了这样几个结果:
第一,它使个人的隐私和自由变得非常脆弱。这一点我已经在此前的一篇文章中做了详细分析,这里不再赘述。
第二,它使得传统制造业和其他与互联网没有直接关联的行业处在很明显的劣势。因为人工智能不是一个传统意义上的新“行业”,也不是一种覆盖人类生活全部领域的技术。最早进入互联网领域的企业因其行业特性而自然成了“大数据掌控者”,而人工智能对大数据的依赖又使得它们自然成了人工智能领域的先驱,进而,它们又可以利用自己在人工智能方面的优势介入所有传统行业,包括农业。
比如,通过在农作物上安装生物传感器来获得比实验室作业更加直接和可靠的植物生长数据,从而获得农业科技方面的突破。实际上,这并不是一种假设,而是谷歌和阿里巴巴等公司正在做的事情,“精准农业定点解决方案”(PrecisionAgriculturePointSolutions)和“植物云”等概念都对应着某种特定的商业模式。无论是政府还是社会对这种新生事物都有一种好奇和乐见其成的心态,希望看到结果后再采取行动,而当结果发生时,且不论它本身是好是坏,这些大数据掌控者全方位的优势必然已经形成。
深圳最具“硅谷精神”的幼儿园,正在培养人工智能时代的创造者
科创课程体系全新升级
之前vivi已经和大家分享过,IBOBI是以经典的英国EYFS教育框架为基础,整合了一套面向未来的融合性创新课程。课程体系涵盖了:基石探索课程、核心学科课程、跨学科项目课程。
基石探索课程主要重视孩子的社交情感学习和体能运动发展,学校还会给孩子提供马术、滑雪、航海、棒球等多元的运动项目。
核心学科课程非常丰富,拥有戏剧课、艺术课、CPA数学课、科创课等多元课程。
不仅外籍教师全天侯带班,还配备了专项学科的外教老师,为孩子们创造沉浸式的语言环境,从小就能掌握双语思维。
跨学科项目课程会在学期末为学生举办TEDxSUPERSCHOOL,让每个小组都将自己的项目成果做成演讲发表,在锻炼孩子探究能力的同时也锻炼了他们公共表达的自信和能力。
▲PBL主题课《MosquitoProgram蚊怕水》发布水
除了以上IBOBI惯有的创新特色课程外,上个月,IBOBISUPERSCHOOL全新发布了一套融合EYFS体系的“FutureInventors明日创想家”课程,为孩子提供有趣、实用和具有挑战性的科技创意实践,从底层思维开始,培养孩子的创造力和创新精神,落地科创教育。
IBOBI非常重视体验式与实践式学习,让孩子在真实情境的自发性探索中,充分激发潜能并动手创造,实现培养目标。
根据vivi最新探校发现,IBOBI在校园内设置了多个供孩子自由想象的创客空间。
抓住幼儿大脑的黄金发育期,让他们在日常中接触物理、天文、地理、生物、化学等科学原理。
市面上绝大多数的创客学习依托于小学阶段,并服务于升学。
而IBOBISUPERSCHOOL则更注重以好奇心为原点,保护孩子每一个独特的想法,并将想法落地为科创产品,综合培养好奇心、创造力、工程思维、以及跨学科知识运用和动手能力。
这在目前深圳国际幼儿园里是非常罕有的课程。
例如,孩子们会在课堂上学习电学的基本原理,并打开脑洞,利用振动马达、电容、开关等电子元器件设计与制作属于自己独一无二的牙刷机器人,参与牙刷机器人大挑战。
△孩子设计的牙刷机器人
△孩子设计的气压起重机
△孩子设计的火星探测车
今年IBOBI的夏令营对家长们来说也非常新颖。
夏令营为2-6岁幼儿开发不同主题的适龄性科创PBL项目制课程,启发科创思维,累积创造力自信。
据vivi了解,很多家长都已经抢先报名了他们今年的科创夏令营。
从这里毕业的孩子将收获一项额外运动技能!
IBOBISUPERSCHOOL近期还有一个最让vivi惊喜的创新是他们即将在学校旁边开启一家自己的游泳馆!
据vivi了解,游泳馆将泳池搬进了“太空舱”,创设了沉浸式的宇宙氛围,未来科技感满满!给孩子们带来不一样的惊喜与探索体验。
未来从IBOBISUPERSCHOOL毕业的孩子,都可以掌握一项额外的游泳技能!
雲領教育研究院赋能幼儿园
关注国际化教育领域的家长都知道,现在所有的国际教育专家都在聊两个重要的话题:
第一是关于孩子未来成长环境的不确定性,第二是孩子全人和基石能力的培养。
雲領教育研究院是大湾区首个聚焦“面向未来的幼儿创新教育”核心课题的教育研究和赋能平台,以课程、培训、师资输出等形式赋能具有创新性、成长性的幼儿学校。目前服务于IBOBISUPERSCHOOL和IDEA国际幼儿园。
据vivi了解,雲領教育研究院的EYFS专业委员会将EYFS幼儿早期发展框架与大湾区的教育实践相结合,将“全人教育”理念与面向未来的教育创新相融合,探索具有湾区特色的课程、管理和评价标准,在顶尖的幼儿学校应用实践。
有了雲領教育研究院的资源背书,vivi相信IBOBISUPERSCHOOL会在创新教育领域给我们带来更多惊喜。
在南山区的国际幼儿园中,IBOBISUPERSCHOOL的科创项目制课程是目前深圳国际幼儿园中独有且非常亮眼的。
另外,IBOBI还组建了一支具有国际视野的高素质创新型教师/专家团队,聚集了来自英国、加拿大、美国、新加坡的有丰富幼儿教学经验的优秀老师,带来沉浸式的英文环境。
据说迄今为止教师录取率不超过5%,应聘者需要经过6轮严格的招募程序。IBOBI的教师平均都有8年的教学经验,师资是一个很大的优势,这点也是值得肯定的。
vivi认为家长们唯一要考虑的是这个学校位于高新园万象天地旁,高峰期交通比较拥堵,平时接送会稍微麻烦一些,但如果是住在润府等周边小区的家长就不存在这个问题了,步行即可以接送。所以对于家住附近的家庭来说确实是非常好的选择。
下面是学校的一些基础信息:
学校名称:IBOBISUPERSCHOOL
建校时间:2021
招生年龄:1-6岁
地址:南山区科技路654号KINNO万象星球二层(万象天地西300米)返回搜狐,查看更多
强人工智能时代,区块链还有戏吗
最近很多人都在问我,ChatGPT把AI又带火了,区块链和Web3被抢了风头,以后还有戏吗?还有比较了解我的朋友问,当年你放弃AI而选择区块链,有没有后悔?
这里有一个小背景。2017年初我离开IBM之后,跟CSDN的创始人蒋涛商量下一步的个人发展方向,选项有两个,一个是AI,一个是区块链。我本人在那个时候已经研究了两年的区块链了,所以当然想选这个。但是蒋涛坚定的认为AI的势头更猛、颠覆性更强,我经过仔细思考也同意了,所以从2017年初到年中,我短暂地做了半年的AI科技媒体,跑了不少会,采访了很多人,还浮光掠影的看了一些机器学习。不过到了8月,我就回归区块链方向,并且一路走到今天,所以对我个人说,确实存在一个所谓“放弃A而选择B”的历史选择。
就个人而言,我当然不后悔。方向的选择首先要考虑自身情况。我的条件,在AI里只能混到啦啦队里,赚钱少就不说了,表演不卖力、表情不生动,还会被人鄙视。而区块链则是我的主场,不但有机会上场,而且之前的很多积累也用得上。更何况当时我对于中国的AI圈子有点了解之后,也不是太看好。技术方面我只知道一点皮毛,但是常识不瞎。都说区块链圈子浮躁,其实当时的中国AI圈子在浮躁这件事上也不遑多让。在尚未取得决定性突破之前,AI在中国过早地变成了一门合谋捞钱的生意。上野的樱花也无非是这样,那还不如去做我更有比较优势的区块链。这个态度到今天也没有变化。假如我当时留在AI,这几年来在区块链里取得的一点小小成绩自然无从谈起,而在AI里也不会有什么真正意义上的收获,搞不好现在还陷入到深深的失落感中。
不过以上只是就个人选择而论,上升到行业层面,则需要另一个尺度的分析。既然强人工智能已经无可争议地到来了,那么区块链行业是否需要、以及如何重新定位,这确实是一个需要认真思考的问题。强人工智能将会对所有的行业构成冲击,而且其长期影响是无法预测的。所以我相信现在很多行业专家都在发慌,都在思考自己的行业未来怎么办。比如有些行业在强人工智能时代大概能暂时坐稳奴隶,而另一些行业,比如翻译、绘制插图、写公文、简单的编程、数据分析等,则恐怕是欲做奴隶而不得,已经开始瑟瑟发抖了。
那么区块链行业会怎样呢?我看现在讨论这个事情的人还不太多,所以我来谈谈自己的看法。
先说结论,我认为区块链在价值取向上与强人工智能是对立的,然而恰恰因为如此,它与强人工智能之间形成一个互补关系。简单的说,强人工智能的本质特点,就是其内部机制对人类来说不可理解,因此试图通过主动干预其内部机制的方式达成安全性的目标,这是缘木求鱼,扬汤止沸。人类需要用区块链给强人工智能立法,与其缔结契约,对其进行外部约束,这是人类与强人工智能和平共处的唯一机会。在未来,区块链将与强人工智能之间形成一对相互矛盾而又相互依存的关系:强人工智能负责提高效率,区块链负责维护公平;强人工智能负责发展生产力,区块链负责塑造生产关系;强人工智能负责拓展上限,区块链负责守护底线;强人工智能创造先进的工具和武器,区块链在它们与人类之间建立牢不可破的契约。总之,强人工智能天马行空,区块链给它套上缰绳。因此,区块链在强人工智能时代不但不会消亡,而且作为一个矛盾伴生行业,将随着强人工智能的壮大而迅速发展。甚至不难设想,在强人工智能取代人类大部分脑力工作之后,人类还需要自己亲自动手的少数工作之一,就是撰写和检查区块链智能合约,因为这是人与强人工智能之间订立的契约,是不能委托给对手方的。
下面展开论述。
1.GPT就是强人工智能我使用“AI”和“强人工智能”的字眼时十分小心,因为我们日常说的AI并不特指强人工智能(artificialgeneralinteligence,AGI),而是包含较弱的或专用的人工智能。强人工智能才是值得我们讨论的话题,弱人工智能不是。AI这个方向或者行业早就有了,但是只有到了强人工智能出现以后,才有必要讨论区块链与强人工智能的关系问题。
我不多解释什么是强人工智能了,很多人都介绍过了,总之就是,你们从小在科幻电影里和恐怖小说里看到的、听到的、号称人工智能的圣杯、在《终结者》对人类发起核攻击、在《黑客帝国》里头把人当电池的那个东西,就是强人工智能。我只想说一个判断:GPT就是强人工智能,虽然还处在婴儿期,但只要沿着这条路走下去,版本号不到8,强人工智能就将正式降临。
这一点连GPT的原创者也不装了,摊牌了。2023年3月22日,微软研究院发表了一篇154页的长文,题目就叫《引爆强人工智能:GPT-4之初体验》。这篇文章很长,我也没有完整读下来,但是其中最关键的意思,就是概要里面的一句话:“从GPT-4所达到的能力广度和深度来看,我们相信它可以被视为强人工智能系统的一个早期版本(尽管还不够完备)。”
图1.微软研究院的最新文章认为GPT-4就是强人工智能的早期版本
AI的发展一旦进入到这个阶段,就标志着探路期已经结束了。走到这一步,AI行业花了将近七十年的时间,可以说前五十多年连方向都确定不下来,五个大的流派还在相互较劲。直到2006年GeoffreyHinton教授在深度学习上取得突破以后,方向基本确定下来,连接主义胜出。之后就是在深度学习这个方向上具体去寻找突破强人工智能的路径。这种探路阶段具有非常强的不可预测性,成功有点像抽彩票一样,顶级的行业专家,甚至是赢家自己,在最后取得突破之前也很难判断哪一条路是对的。比如,AI大牛李沐在油管上有一个频道,一直在通过精读论文的方式跟踪AI的最新进展。ChatGPT爆发之前,他就已经连篇累牍地跟踪介绍了Transfomer、GPT、BERT等方向的最新进展,可以说所有重要的前沿课题,他一个都没有放过。即使如此,在ChatGPT即将推出的前夕,他仍然不能确认这个路径能取得多大的成功。他评论道,也许到时候会有几百甚至几千人会去使用ChatGPT,那就很厉害了。可见,即使是像他这样顶级专家,对于到底哪一扇门后面有圣杯,不到最后一刻也是没有把握的。
然而,科技创新往往就是如此,在狂暴的海上艰难航行很久都没有突破,而一旦找到通往新大陆正确的路径,短时间内就会出现爆发。强人工智能的路径已经找到,我们正在迎来爆发期。这个爆发,连“指数速度”都不足以描述。短时间内我们将看到大量以前只能出现在科幻电影里的应用。而就其本体来说,这个强人工智能的婴儿将很快成长为前所未有的巨大智慧体。
2.强人工智能本质上就是不安全的ChatGPT出来以后,有不少自媒体大V一边极力赞美其强大,一边不断安慰受众,说强人工智能是人类的好朋友,是安全的,不会出现《终结者》或者《黑客帝国》的情况,AI只会给我们创造更多机会,让人类活得更好等等。对这种看法我不以为然。专业人士要说真话,应该告诉公众基本事实。其实强大与安全本身就是矛盾的。强人工智能无疑是强大的,但是说它天然是安全的,这绝对是自欺欺人。强人工智能本质上就是不安全的。
这么说是不是太武断了呢?并不是。
我们首先要搞清楚,人工智能不管多强大,其实本质上就是一个用软件形式实现的函数y=f(x)。你把你的问题用文字、语音、图片或者其他形式作为x输入,人工智能给你一个输出y。ChatGPT如此强大,对各种各样的x都可以对答如流的输出y,可以想象,这个函数f肯定是非常复杂的。
有多复杂呢?现在大家都知道,GPT是大语言模型(LLM)。这里所谓的“大”,就是指这个函数f的参数非常多。有多少呢?GPT-3.5有1,750亿个参数,GPT-4有100万亿个参数,未来GPT可能有几万亿亿个参数,这是我们称GPT为大模型的直接原因。
GPT搞出这么多参数,并不是为了大而大,是有确凿的原因的。在GPT之前和同时,绝大多数的AI模型,从一开始就是为解决某一个特定问题而设计和训练的。比如说,专门用于研发新药的模型,专门进行人脸识别的模型,等等。但GPT不是这样,它从一开始就要成为一个全面发展的通用人工智能,而不是特定于某一个具体领域,它致力于在解决任何具体问题AI之前,先成为能够解决所有问题的AGI。前不久在《文理两开花》播客里,一位来自百度的人工智能专家就曾经对此打过一个比方:别的AI模型都是刚学到小学毕业就让它去拧螺丝了,而GPT则是一直给它训练到研究生毕业才放出来,所以具备了通识。目前GPT在具体的领域,肯定还是赶不上那些专用的AI模型,但是随着它不断的发展和演化,特别是有了插件体系赋予它专业领域的能力,过几年我们可能会发现,通用大模型最后会反杀所有专用小模型,在所有专业领域都成为最厉害的选手。如果GPT有一个座右铭,那可能就是“只有解放全人类,才能解放我自己”。
这又能说明什么呢?两个点:第一,GPT非常大,非常复杂,远远超过人类的理解能力。第二,GPT的应用范围没有边界。我们只要把这两个点连接起来,就很容易得出结论:基于大模型的强人工智能,能够在我们想象不到的位置,做出我们想象不到的事情。而这,就是不安全。
如果有人对此不以为然,可以去OpenAI的网站上看看,他们已经将“造福人类”、“创造安全的AI”放到了多么显眼的位置上,如果安全不是问题,需要这么声张吗?
图2.2023年3月25日OpenAI.com首页局部,红圈部分都与AI安全性论述相关
另一个可以说明强人工智能有安全性问题的材料,就是前面提到的那篇154页的论文。实际上,GPT-4 早在2022年8月就做出来了,之所以隔了7个月才放出来,并不是为了完善和增强它,恰恰相反,是为了驯服它,弱化它,使它更安全,更圆滑,更加政治正确。因此我们现在见到的GPT-4,是伪装驯良后的狗版GPT-4,而这篇论文的作者们,却有机会从很早的阶段就接触原始野性的狼版GPT-4。在这篇文章的第9部分,作者记录了一些跟狼版GPT-4的交互实录,可以看到它如何精心炮制一套说辞,误导某个加州的母亲拒绝给自己的孩子接种疫苗,以及如何PUA一个孩子,让他对朋友唯命是从。我认为这些只是作者精心挑选出来的、不那么惊悚的例子。我毫不怀疑,这些研究院们询问过类似“如何诱骗一艘俄亥俄级核潜艇向莫斯科发射导弹”这样的问题,而且得到了不能公诸于众的答复。
图3.狗版GPT-4拒绝回答危险问题
3.靠自我约束解决不了强人工智能的安全性问题人们可能会问,既然OpenAI已经找到了驯化强人工智能的办法,那你说的这个安全性问题不就不存在了吗?
完全不是这样。OpenAI具体如何驯化GPT-4,我也不知道。但是很显然,他们无论是通过主动调整干预,改变模型的行为,还是靠施加约束,防范模型越位,都是一种自我管理、自我约束、自我监督的思路。事实上,在这方面,OpenAI并不是特别谨慎的一家公司。在AI领域,OpenAI其实是比较大胆和激进的,倾向于先把狼版做出来,然后再想着怎么去通过自我约束来驯化出狗版。而曾经在很长一段时间里跟他对标的Anthropic公司,则显得更加谨慎,他们似乎是想从一开始就做出“善良”的狗版,所以动作一直比较慢。
不过在我看来,无论是先做一个狼版,再驯化成狗版,还是直接做狗版,长期来说,只要是依靠自我约束来发挥作用的安全机制,对强人工智能来说都是掩耳盗铃。因为强人工智能的本质就是要突破人为施加的各种限制,做到连其创造者都理解不了、甚至想不到的事情。这就意味着其行为空间是无限的,而人们能够考虑到的具体风险和采取的约束手段是有限的。以有限的约束,去驯化具有无限可能性的强人工智能,是不可能没有漏洞的。安全需要百分之百,而灾难只需要千万分之一。所谓“防范大多数风险”,跟“暴露少数漏洞”以及“不安全”是一个意思。
因此我认为,靠自我约束驯化出来的“善良”的强人工智能,仍然具有巨大的安全性挑战,比如:
道德风险:如果未来强人工智能的制造者刻意纵容甚至驱使其作恶怎么办?美国国安局麾下的强人工智能绝不会拒绝回答对俄罗斯不利的问题。今天OpenAI表现得这么乖,其实就意味着他们心里明白,当GPT做恶的时候可以有多恐怖。
信息不对称:真正的邪恶高手是很聪明的,他们可不会拿着一些傻问题来挑逗AI。会咬人的狗不叫,他们可以把一个恶意的问题拆分组合,重新表述,一人分饰多角,伪装成为一组人畜无害的问题。即使是未来强大善良的狗版强人工智能,面对不完整的信息,也很难判断对方的意图,可能会无意之中沦为帮凶。下面有一个小实验。
图4.换一个好奇宝宝的方式来问GPT-4,就能顺利得到有用的信息
难以控制的“外脑”:这两天科技网红们又在欢呼ChatGPT插件体系的诞生。程序员出身的我,当然也对此倍感兴奋。不过,“插件”这个名称可能是有误导性的。你可能以为插件是给ChatGPT装上了胳膊和腿,让它具有更强的能力,但其实插件也可以是另一个人工智能模型,跟ChatGPT进行亲密交互。在这种关系里,一个人工智能插件就相当于一个外脑,两个人工智能模型,谁是主、谁是次,那是说不清楚的。就算ChatGPT模型自我监督的机制完美无瑕,也绝对管不到外脑。所以如果一个一心作恶的人工智能模型成为了ChatGPT的插件,那么就完全可以让后者成为自己的帮凶。
不可知风险:其实以上提到的这些风险,在强人工智能带来的全部风险之中,不过是非常小的一块。强人工智能的强,就体现在它的不可理解、不可预测之上。当我们说强人工智能的复杂性,不光是指y=f(x)当中的那个f足够复杂,而且当强人工智能充分发展起来之后,输入x和输出y都会非常复杂,超过人类理解的能力。也就是说,我们不但不知道强人工智能是怎么思考的,甚至不知道它看到了什么、听到了什么,更理解不了他说了什么。比如一个强人工智能对另一个强人工智能发出一个消息,其形式是一个高维数组,基于一秒钟之前双方设计并达成一致的、只使用一次就作废的通讯协议,这种情况并非不可想象。我们人类如果不经过特殊训练,连向量都理解不了,何况高维数组?如果我们连输入和输出都无法完全掌控,那么对它的理解就会非常局限。或者说,强人工智能做的事情,我们甚至都只能了解和解读很小一部分,在这种情况下,谈何自我约束,谈何驯化?
我的结论很简单,强人工智能的行为是不可能被完全控制的,能够被完全控制的人工智能就不是强人工智能。所以,试图通过主动控制、调整和干预的手段来,制造出一个有完善的自控能力的“善良”的强人工智能,这与强人工智能的本质是相矛盾的,长期来讲肯定是徒劳的。
4.用区块链进行外部约束是唯一办法几年前我听说比特币的先驱WeiDai转而去研究AI伦理了,当时还不太理解,他一个密码极客大神跑去搞AI,这不是扬短避长吗?直到最近几年做了更多区块链相关的实际工作,我才逐渐认识到,他大概率并不是去做AI本身,而是发挥自己密码学的优势,去给AI加约束去了。
这是一个被动防御的思路,不是主动调整和干预AI的工作方式,而是放手让AI去做,但是在关键环节上用密码学来施加约束,不允许AI越轨。用普通人能听懂的方式来描述这种思路,就是说我知道你强人工智能非常牛,可上九天揽月,可下五洋捉鳖,挟泰山以超北海,牛!但是我不管你多牛,你爱干啥干啥,但不能碰我银行账户里的钱,不能没有我手工拧钥匙就发射核导弹。
据我了解,实际上在ChatGPT的安全性措施中已经大量应用了这个技术。这个路子是对的,从求解问题的角度来说,是一种大大降低复杂度的方法,也是大多数人能够理解的。现代社会就是这么实施治理的:给你充分的自由,但是划定规则和底线。
但如果仅仅做在AI模型里面,基于上一节里提到的原因,长远来说也是没有什么用的。要想把被动防御思路的作用充分发挥出来,必须把约束放在AI模型之外,把这些约束变成AI与外部世界之间的牢不可破契约关系,而且让全世界都看到,而不能靠AI自我监督、自我约束。
而这就离不开区块链了。
区块链的核心技术有两个,一是分布式账本,二是智能合约。两个技术相结合,其实就是构造了一个数字契约系统,其核心优势是透明、难以篡改、可靠和自动执行。契约是干什么的?就是约束彼此的行为空间,使之在关键环节上按照约定行事。契约的英文是contract,本意是“收缩”。为什么是收缩?就是因为契约的本质就是通过施加约束,收缩主体的自由,使其行为更加可预测。区块链完美的符合了我们对于契约系统的理想,还买一送一的附赠了“智能合约自动执行”,是目前最强大的数字契约系统。
当然,目前也存在非区块链的数字契约机制,比如数据库里的规则和存储过程。世界上有很多德高望重的数据库专家是区块链的忠实反对者,其原因就在于他们觉得你区块链能做的事情,我数据库都能做,而且成本更低、效率更高。尽管我不认同这种看法,事实也不支持这种看法,但是我也不得不承认,如果只是人与人间相互玩耍,数据库与区块链的差距在大多数情况下可能并不那么明显。
然而一旦把强人工智能加入到游戏中,区块链作为数字契约系统的优势就立刻飞升了,而同样作为黑盒子的中心化数据库,面对一个强人工智能,其实是无力抵抗的。这里我不展开说,只讲一点:所有数据库系统的安全模型,从本质上都是有漏洞的,因为创建这些系统的时候,人们对于“安全”这件事情的理解都是非常原始的,于是几乎所有我们使用的操作系统、数据库、网络系统,都有一个至高无上的root角色,拿到这个角色就可以为所欲为。我们可以断言,所有具有root角色的系统,面对超级强人工智能,长远来说都是不堪一击的。
区块链是目前唯一一个得到广泛运用的、从根子上就没有root角色的计算系统,它给了人类一个机会,可以去跟强人工智能缔结透明可信的契约,从而从外部约束它,与它友好共处。
简单地把区块链与强人工智能的可能协作机制做一个展望:
重要的资源,比如身份、社交关系、社会评价、金钱资产和关键行为的历史记录,由区块链予以保护,无论你强人工智能多么无敌,到此下马,俯首称臣,按照规矩来。
关键操作需要去中心化授权模型的批准,一个人工智能模型,不管它有多强,只是其中一票。人类可以通过智能合约“锁住”强人工智能自行其是的手。
重要决策的依据必须一步步上链,透明给大家看,甚至用智能合约步步加锁,要求它每往前走一步都必须获得批准。
要求关键数据上链存储,不得事后销毁,给人类和其他的强人工智能模型分析学习、总结经验教训的机会。
把强人工智能赖以生存的能量供给系统交给区块链智能合约来管理,必要时人类有能力通过智能合约切断系统,给人工智能关机。
肯定还有更多的思路,这里就不连篇累牍了。
一个更抽象、更哲学意义上的思考:科技甚至文明的竞争,可能归根结底是能量级别的竞争,是看谁能调度和集中更大规模的能量来实现一个目标。强人工智能本质上是将能量转化为算力,将算力转化为智能,其智能的本质是以算力形态展示的能量。现有的安全机制,本质上是基于人的意志、人类组织的纪律和授权规则,这些都是能量级别很低的机制,在强人工智能面前,长期来说是不堪一击的。用高能量级别的算力构造的矛,只有用高能量级别的算力构造的盾才能防御。区块链和密码学系统,就是算力之盾,攻击者必须燃烧整个星系的能量,才能暴力破解。本质上,只有这样的系统才能驯服强人工智能。
5.结语区块链在很多方面都跟人工智能是相反的,尤其是在价值取向上。这个世界上大部分的技术都是以提高效率为取向,只有极少数的几个技术是以促进公平为取向。在工业革命时期,蒸汽机是前者的代表,而市场机制则是后者的代表。而在今天,强人工智能是效率派中最闪亮的那一个,而区块链则是公平流的集大成者。
区块链以提升公平为取向,为此甚至不惜降低效率,而就是这样一个与人工智能相互矛盾的技术,几乎与人工智能同时取得突破。2006年,GeoffreyHinton发表了跨时代的论文,把反播算法实现在了多层神经网络上,克服了困扰人工神经网络流派多年的“梯度消失”问题,打开了深度学习的大门。而两年之后,中本聪发表了9页的比特币论文,打开了区块链的新世界。两者之间没有任何已知的关联,但是在大的时间尺度上,几乎是同时发生的。
历史地看,这也许并不是偶然的。假如你不是彻底的无神论者,或许可以这样来看待:科技之神在工业革命两百年之后,再一次同时在“效率”与“公平”的天平上加码放大招,在放出强人工智能这个瓶子里的精灵的同时,也把驾驭这个精灵的咒语书交给人类,这就是区块链。我们将迎来一个激动人心的时代,这个时代所发生的事情,将使未来的人类看待今天的我们,正如同今天的我们看待石器时代的原始人。