博舍

关于人工智能和人类繁荣的未来的思考 人工智能时代人类面临的挑战

关于人工智能和人类繁荣的未来的思考

在我们思考人工智能的变革潜力时,人工智能的最新进展引发了我们的好奇和忧虑。人工智能为丰富我们的生活带来了巨大的希望,但这种期待与对可能出现的挑战和风险的忧虑交织在一起。为了培育一个利用人工智能造福人类和社会的未来,将一系列广泛的声音和观点汇聚在一起至关重要。

考虑到这一目标,我很荣幸地推出"人工智能文集",该文集由来自不同学科的杰出学者和专业人士撰写的20篇鼓舞人心的文章组成。该文集探讨了人工智能可以通过哪些不同的方式来造福人类,同时揭示了潜在的挑战。通过汇集这些不同的观点,我们的目标是激发发人深省的对话,鼓励合作努力,引导人工智能走向一个利用其潜力促进人类繁荣的未来。

2022年秋天,我在担任微软Aether委员会主席时,第一次遇到了GPT-4,一个了不起的大规模语言模型。Aether领导层和工程团队被允许提前接触OpenAI的最新创新,其任务是调查其使用的潜在挑战和更广泛的社会后果。我们的调查以微软的人工智能原则为基础,这些原则是委员会在2017年与微软的领导层合作建立的。我们对GPT-4的能力进行了全面分析,重点关注采用该技术的应用在安全、准确、隐私和公平方面可能带来的挑战。

GPT-4让我大吃一惊。我观察到了出乎意料的智能闪光,这些闪光超出了以前的人工智能系统所见。当与它的前身GPT-3.5--一个被数以千万计的人当作ChatGPT使用的模型--相比,我注意到能力上的重大飞跃。它解释我的意图并对许多提示提供复杂的答案的能力感觉就像一个"相变",唤起我在物理学中遇到的突发现象的想象。我发现GPT-4是一个多面手,具有整合传统上不同的概念和方法论的非凡能力。它无缝地将超越学科界限的想法编织在一起。

GPT-4的卓越能力引发了关于潜在破坏和不利后果的问题,以及造福人类和社会的机会。当我们更广泛的团队积极探索安全和公平问题时,我深入研究了医学、教育和科学领域的复杂挑战。越来越明显的是,这个模型和它的后继者--可能会在能力上表现出进一步的跳跃--拥有巨大的潜力来进行变革。这使我开始思考更广泛的社会影响。

围绕着艺术创作和归属、恶意行为者、工作和经济,以及我们还无法设想的未知未来,人们想到了一些问题。随着生成性人工智能工具的普及,人们可能会对不再是无与伦比的知识和艺术思想和创作的源泉作出反应?这些进步会如何影响我们的自我认同和个人愿望?在就业市场上可能会有什么短期和长期的后果?人们对人工智能系统所做的创造性贡献如何得到认可?恶意行为者可能如何利用这些新兴的力量来造成伤害?这些用途有哪些重要的潜在意外后果,包括那些我们可能还没有预见的后果?

同时,我想象着这样的未来:人们和社会可以通过利用这种技术以非同寻常的方式蓬勃发展,就像他们利用其他革命性的进步一样。这些变革性的影响包括从最初的认知工具--我们的共享语言,使前所未有的合作和协调--到科学和工程的工具,印刷术,蒸汽机,电力和互联网,最终达到今天人工智能的最新进展。

我们渴望与不同学科的其他人合作研究这些机会,因此在OpenAI的支持下,我们发起了"AI文集"项目。我们邀请了20位专家来探索GPT-4的能力,并思考未来版本对人类的潜在影响。每位参与者都被授予对GPT-4的早期保密访问权,提供教育、科学探索和医学方面的案例研究,这些案例来自我的探索,并被要求专注于两个核心问题:

这项技术和它的后继者可能对人类的繁荣做出怎样的贡献?作为社会,我们如何才能最好地引导技术,为人类实现最大的利益?

在我2022年11月在密歇根大学的坦纳讲座中提出的观点基础上(智能的弧线:人类与它的理性和想象力工具),这些问题强调了长期思考的重要性,并对人工智能丰富人类生活的潜力保持乐观的态度。我们可以释放出巨大的潜在利益。但为了实现这种潜力,我们必须创造技术创新和政策,以防止恶意使用和意外后果。

这本文集证明了设想和合作的承诺,以及在塑造人工智能的未来时不同观点的重要性。这20篇文章提供了大量的见解、希望和关切,说明了随着人工智能的快速发展而产生的复杂性和可能性。

当你阅读这些文章时,我鼓励你对新的想法保持开放,参与深思熟虑的对话,并为正在进行的关于利用人工智能技术造福和赋予人类权力的讨论提供你的见解。人工智能的未来不是一条预先确定的道路,而是我们必须以智慧、远见和深刻的责任感共同驾驭的旅程。我希望这些文章中的观点有助于我们对我们所面临的挑战和机遇的集体理解。它们可以帮助指导我们努力创造一个人工智能系统补充人类智力和创造力以促进人类繁荣的未来。

欢迎来到"AI文集"。愿它能激励你,挑战你,并点燃有意义的对话,引导我们走向一个以创造性和有价值的方式利用人工智能而使人类繁荣的未来。

从今天开始,我们将在每周初发布四篇新文章。完整的"AI文集"将于2023年6月26日推出。

 

作为微软的首席科学官,埃里克-霍维茨带头在全公司范围内开展活动,在科学前沿、技术和社会的交汇处驾驭机遇和挑战。他因对人工智能理论和实践的贡献而闻名,包括在开放世界的复杂性中研究人工智能的原理和应用。

 

这些文章中所表达的观点、意见和建议仅代表作者本人,并不一定反映任何其他实体或组织的官方政策或立场,包括微软和OpenAI。作者对其文章中提出的信息和论点的准确性和原创性负全责。参与"AI文集"是自愿的,没有向作者提供任何奖励或补偿。

标签人工智能

人工智能的伦理挑战

原标题:人工智能的伦理挑战

控制论之父维纳在他的名著《人有人的用处》中曾在谈到自动化技术和智能机器之后,得出了一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”维纳的这句谶语,在今天未必成为现实,但已经成为诸多文学和影视作品中的题材。《银翼杀手》《机械公敌》《西部世界》等电影以人工智能反抗和超越人类为题材,机器人向乞讨的人类施舍的画作登上《纽约客》杂志2017年10月23日的封面……人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。

维纳的激进言辞和今天普通人对人工智能的担心有夸张的成分,但人工智能技术的飞速发展的确给未来带来了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。准确来说,这种伦理学已经与传统的伦理学旨趣发生了较大的偏移,其原因在于,人工智能的伦理学讨论的不再是人与人之间的关系,也不是与自然界的既定事实(如动物,生态)之间的关系,而是人类与自己所发明的一种产品构成的关联,由于这种特殊的产品――根据未来学家库兹威尔在《奇点临近》中的说法――一旦超过了某个奇点,就存在彻底压倒人类的可能性,在这种情况下,人与人之间的伦理是否还能约束人类与这个超越奇点的存在之间的关系?

实际上,对人工智能与人类之间伦理关系的研究,不能脱离对人工智能技术本身的讨论。在人工智能领域,从一开始,准确来说是依从着两种完全不同的路径来进行的。

首先,是真正意义上的人工智能的路径,1956年,在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰・麦卡锡为这次会议起了一个特殊的名字:人工智能(简称AI)夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称,而参与达特茅斯会议的麦卡锡和明斯基等人直接将这个名词作为一个新的研究方向的名称。实际上,麦卡锡和明斯基思考的是,如何将我们人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。这一阶段上的人工智能的发展,在很大程度上还是对人类行为的模拟,其理论基础来自德国哲学家莱布尼茨的设想,即将人类的各种感觉可以转化为量化的信息数据,也就是说,我们可以将人类的各种感觉经验和思维经验看成是一个复杂的形式符号系统,如果具有强大的信息采集能力和数据分析能力,就能完整地模拟出人类的感觉和思维。这也是为什么明斯基信心十足地宣称:“人的脑子不过是肉做的电脑。”麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来的特里・谢伊诺斯基和杰弗里・辛顿也根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让该网络可以像人的大脑一样进行学习,并能够做出简单的思考。

然而,在这个阶段中,所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的原理很简单,让测试一方和被测试一方彼此分开,只用简单的对话来让处在测试一方的人判断,被测试方是人还是机器,如果有30%的人无法判断对方是人还是机器时,则代表通过了图灵测试。所以,图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。

所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。

不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。

这样,由于智能增强技术带来了两种平面,一方面是人类思维的平面,另一方面是机器的平面,所以,两个平面之间也需要一个接口技术。接口技术让人与智能机器的沟通成为可能。当接口技术的主要开创者费尔森斯丁来到伯克利大学时,距离恩格尔巴特在那里讨论智能增强技术已经有10年之久。费尔森斯丁用犹太神话中的一个形象――土傀儡――来形容今天的接口技术下人与智能机器的关系,与其说今天的人工智能在奇点临近时,旨在超越和取代人类,不如说今天的人工智能技术越来越倾向于以人类为中心的傀儡学,在这种观念的指引下,今天的人工智能的发展目标并不是产生一种独立的意识,而是如何形成与人类交流的接口技术。在这个意义上,我们可以从费尔森斯丁的傀儡学角度来重新理解人工智能与人的关系的伦理学,也就是说,人类与智能机器的关系,既不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。当苹果公司开发与人类交流的智能软件Siri时,乔布斯就提出Siri是人类与机器合作的一个最朴实、最优雅的模型。以后,我们或许会看到,当一些国家逐渐陷入老龄化社会之后,无论是一线的生产,还是对这些因衰老而无法行动的老人的照料,或许都会面对这样的人与智能机器的接口技术问题,这是一种人与人工智能之间的新伦理学,他们将构成一种跨人类主义,或许,我们在这种景象中看到的不一定是伦理的灾难,而是一种新的希望。

(作者:蓝江,系南京大学哲学系教授)

张广斌:人工智能时代的价值教育:挑战、机遇与策略

1.人工智能技术引发教育的技术反思。目前的人工智能尚处于有智能没智慧、有智商没情商、会计算不会“算计”、有专才而无通才的弱人工智能阶段,但其自身造成的风险也不容小觑,如软件错误、黑客攻击和“魔法师学徒”式的误解(指人工智能系统严格执行人的指令,却不明白指令代表的深层含义,从而导致误解误判)等[3]。我们要求人工智能不能犯错误,比人更要科学理性。事实上,人工智能也会犯下不可饶恕但人又无能为力的错误,如埃塞俄比亚航空波音737Max坠机事件。伴随着人工智能进入社会各个领域,技术风险引发的价值伦理问题将愈加凸显。这些问题不利于人的自由全面发展价值目标实现,需要价值教育做出积极有效应对。

2.人工智能技术挑战人类价值关系模型。长期以来,我们以“人与自我、他人、社会、自然”作为价值教育关系模型建构思路,如在思想品德等课程中常用“成长中的我,我与家庭、学校、社会、国家和世界”等为育人设计路径。人工智能技术出现后,社会就业结构正在发生改变,大批标准化、重复性劳动被人工智能取代,技术性失业正全面来临。大量失业将加剧贫富差距,撕裂社会“靠双手吃饭”固有价值认知、价值观念,甚至会引发社会动荡。未来社会提供给人的工作将会越来越少,很多人将可能成为“无用阶级”。这些对以人为中心的价值思维提出了挑战,迫切需要价值教育对社会未来发展和人类技术性失业等做出方向预判和价值选择,甚至要重新定义人类劳动的价值内涵。

3.人工智能技术挑战人的价值伦理认知。在人类历史上,公民是人类文明社会赋予自身的专有社会身份,鲜有“非人类”被赋予人类合法公民权的现象。2017年,沙特授予机器人索菲亚(Sophia)公民身份。索菲亚成为世界上第一位获得公民身份的机器人,颠覆了人类的公民认知,对人类社会秩序提出了严峻挑战。人工智能已直接参与人自身的改写和塑造,人工智能的深入运用将在本体意义上动摇我们原有的对人存在意义的追问,对教育的理解、判断和追求,从而产生前所未有的困惑和焦虑[4]。同时,伴随人工智能自主活动,更给人类社会带来信息安全、知识产权、交通法规等方面挑战,进而引发新的社会权利结构调整等新的法律和价值伦理问题。这些都需要建立新的价值体系,需要从未成年人开始进行新的价值教育。

4.人工智能技术引发人类生存价值危机。深度学习技术推动了人工智能自主学习的能力,人机共存将是智能社会的典型特征。人机共存社会,在智能方面,人类生存将面临机器超过人类的风险。人工智能一旦超过人的智能,也将最终超越人类智慧。美国未来学家雷·库兹韦尔曾预言,人工智能很有可能在2045年左右超越人类智能。因此,站在新的历史起点,人类需要重新认识人类走向智能社会的技术风险,审视自己和人工智能的价值关系,重新思考智能社会价值教育的新定位、新内涵、新样态和新特征,进而为人的自由全面发展奠定价值伦理基础。

二、人工智能技术带来价值教育发展的新机遇

当今时代,人工智能技术在世界科技时代发展、经济社会进步和政治文化新格局等诸多领域发挥越来越重大的影响。改变着人的价值观念、思维方式和行为方式,改变着教育形态、教育方式、师生关系等方方面面。人工智能时代,价值教育迎来发展新机遇,价值教育内涵拥有了更多层次、更广空间和更复杂关系,极大提升了人的自由全面发展的价值认识新高度、深度和广度,为马克思终生追求和建立的“更高级的、以每一个个人的全面而自由的发展为基本原则的社会”[5]实现提供了可能空间。

1.人工智能为价值教育研究提供技术和数据支撑。拥有大数据、算法和超计算能力的人工智能,可以为智能社会价值体系智能化建设和价值教育研究提供强大的技术和数据支撑。人工智能技术能有效弥合社会价值理论与价值教育实践“两张皮”现象,进一步提升智能社会价值体系和价值教育研究的科学性、针对性。人工智能将为智能社会价值体系数据化、可视化建设提供质量水平;价值教育质性和量化研究有机结合,有助于改变价值教育量化研究真实性较弱、可视化不强的现状,为价值教育研究范式创新;人们在瞬息万变的社会环境变革中把握价值生活状态和个性化特征规律,以及智能时代价值教育研究转型和人的自由全面发展价值目标实现提供大数据模型借鉴。

2.人工智能技术极大拓展了价值教育研究新视域。人工智能技术不仅为人的生理需求提供更坚实的物质基础,更为人类突破现有物理和社会空间局限,推动人类生活由物理空间、社会空间向信息空间拓展,赋能人类信息空间以网络、虚拟等多维空间场景。人工智能为人类在智能社会的自由全面发展提供了更广阔的多维空间格局。智能社会到来,推动着人与自我、社会、自然的价值思维向人与机器人的价值关系延伸。同时,智能社会的物质财富极大丰富,推动着人的价值追求由生理、安全、社交、尊重等手段型价值向自我实现、终极价值等目的型价值转变,极大拓宽了智能社会价值教育研究空间。

3.人工智能技术为价值教育智能化提供空间。在深度学习技术和大数据支撑下,人工智能技术可以为价值教育活动提供无边界、多空间技术支撑,推动价值教育的育人智能化;可以超越学校、社会制度边界,穿越教育与其他领域的壁垒,实现教师与学生、单一知识与跨学科知识、个人学习与群体智慧的信息共享和价值融合;人工智能技术为价值教育提供实时认知,以及实时监控、反馈和信息改进等工作;为师生提供多重角色、多重身份和多空间自主学习体验,推动价值教育由粗放型、广普型向精细化、精准化转变,由单一资源供给型向供给多元化、智能化转变。

4.人工智能技术为人的自由全面发展提供可能。以造福于民、造福于人类为目的的经济学上的价值积累,是人的自由全面发展的基础,“任何人类历史的第一个前提无疑是有生命的个人的存在。因此第一个需要确定的具体事实就是这些个人的肉体组织,以及受肉体组织制约的他们与自然界的关系”[6]。工业革命以后,人类财富积累不断丰富,受制于物质条件束缚羁绊的人类逐渐获得解放,让人们看到了人的全面而自由发展和人类自由解放曙光。在移动互联网、大数据、物联网、智联网和脑科学等新理论新技术推动下,人工智能技术正引发着传统产业升级换代,驱动“无人经济”快速发展,推动人类进入智能社会。智能社会把人从繁重的重复性劳动中解放出来,让更多人拥有目的型价值实现的机会,释放出人类更多创新创造潜能,让人类第一次真正拥有了人的全面而自由发展和人类自由解放的现实可能。

三、人工智能时代价值教育的新策略

人工智能如同蒸汽时代的蒸汽机、电气时代的发电机、信息时代的计算机与互联网,推动人类进入人工智能时代。人工智能时代将是人类社会全新的大发现、大变革、大融合和大发展社会,将是人的自由全面发展得以实现的社会。人的自由全面发展价值目标实现,需要价值教育的哲学视野和思维拓展,重新认识人工智能时代价值教育新定位、新内涵和新特征,寻求价值教育理论创新和实践突破。

1.人工智能时代价值教育的新定位、新内涵、新特征。伴随着人类社会生产力发展和生产方式变革,越来越多的人从生产劳动中解脱出来,拥有更多时间、精力从事更有意义的事情,越来越多的人成长为推动人类文明进步的科学家、政治家、艺术家,为人类树立了自由全面发展的价值标杆。人工智能时代,人的生存方式和生活环境将发生质的变化,人与“机器人”将相竞、共存、共生而存在。人的自由全面发展将建立在“机器人”为人类服务、为人的个体发展服务的价值基础上,并在物理空间、社会空间和信息空间中处于主体地位。价值教育新定位将有助于把人的价值视野和格局由生理、安全、社交、尊重等手段型价值提升到自我实现、超自我实现目的型价值层面,把对真善美的理想追求转变为人的价值现实。

人与“机器人”和谐相处是智能社会人必须面对的现实,也是人工智能时代的价值教育新内涵所在。在人类“群体”发展上,将表现为人类逐步摆脱生物性束缚,在人类自由解放的价值追求中与“机器人”共处。在人类“个体”发展上,将表现为一部分人寄人(机器人)篱下,为生存而奔波;一部分人将依托人工智能技术而存在,成为人工智能技术掌控者或技术人;一部分人将拥有更多社会财富和自由选择空间,无限接近人的自由全面发展状态。为此,价值教育既要为人类走向智能社会提供价值引领,也要为不同利益诉求和价值需求的人提供价值视野。价值教育的多元多维多样性存在,不仅避免了手段型价值天花板造成人的利益碾轧现象,又为人们凝聚在人类共同价值空间共同面对人工智能的价值诱惑和利益遮蔽提供了价值空间。

2.建构人工智能时代价值教育新样态。价值教育新定位为人的自由全面发展提供了方向指引,为正确认识人工智能技术及其带来的诸多不确定性和价值伦理等问题,提供了一个价值思维新框架:首先,把人的自由全面发展作为最高价值标准和教育最高准则。人类在通向自由的征途中,必然会遇到一系列问题和挑战,前提是不能为自己创造一个上帝“万能机器人”来限制人类的自由。人工智能一旦发展到超人工智能阶段,突破“奇点”,人类主体地位将很有可能被超智能“机器人”取代,人类将面临生存危机。人类必须未雨绸缪,在通向自由解放的道路上,始终把人类安全放在第一位。当发生生理、生存和尊重等手段型价值冲突,甚至人的真善美价值追求相互冲突时,人的自由全面发展是唯一能够使这些价值冲突达到和解的标准。其次,始终把人工智能的手段型价值放置于基础性地位,确保人的生物属性根基牢固。因为人在没有摆脱生物属性之前,一刻也离不开人作为生物人存在的基本生理需要。为此,人类始终要把手段型价值作为人的生存发展基础价值确立下来,并尽可能满足每个人的生存需要。否则,一切目的型价值都将是无根之木、无源之水。第三,做好人工智能技术支撑下人的自由全面发展价值引领。人的自由全面发展是人类社会整体推进和人类逐渐进化的过程。正如前面反复讲到的,人工智能在为人类社会创造巨大财富,提供人类生存发展的智能技术支撑的同时,也极易造成贫富差距,出现人向“机器人”讨饭现象,甚至会导致人类社会混乱。当人类物质财富极大丰富,人与人的关系摆脱物质羁绊,人类社会文明程度高度发达,社会将不再因生存而发生战争战乱,对真善美追求和人的自由全面发展也必将成为人的毕生追求。

3.推动学校价值教育向人工智能时代转型。学校是价值教育主阵地,课程是价值教育的载体,青少年时期是价值培育关键期。人工智能时代,世界万事万物将密切相连,各种错综复杂关系将被信息化、数据化,未来世界将属于掌握人工智能技术以及拥有智能社会正确价值观、必备品格和关键能力的新人类。教师是人工智能时代学校教育变革的关键,是青少年学习人工智能课程的师资保障。人工智能发展极大解放了教师,让教师的工作重点回归人的心灵导师[7]。智能社会价值教育首先要抓住教师这一关键群体,把人的自由全面发展价值目标转化为全体教师共同价值追求,植根于教师内心深处,并转化为教师自觉行动。为此,要把人工智能教育纳入教师职前教育和职后研修,重点关注教师“爱商”“数商”“信商”三大本领培养[8],整体提升教师在人工智能时代的智能素养和教育教学水平。当务之急,要把工作重心放在人工智能课程专任教师培养,做好人工智能教育的学校普及。如果教师掌握人工智能技术,则可以按照建构在人工智能技术基础之上的智能社会客观实际做出主观的价值判断,但对于不懂人工智能技术的教师,他随时都可能会弄错客观应该做出的价值选择。因此,价值教育既要关注教师、学生的主观因素,更不能忽视人工智能时代教师、学生的必备客观基础(如经验知识等)。[9]人工智能时代的价值教育直接关系到智能社会人的生存发展和人类的主体地位,学校要按照人工智能社会人才需求和价值要求对现有学校课程体系进行调整完善。学校价值教育既要强调价值观形成的个体性和主观能动性,更要重视社会文化的互动关系,特别是与“机器人”的共存共生关系,同时要借助大数据、人工智能等凝练出智能社会人类价值形成规律和个体的价值成长过程。无论哪种模式和方式,都要凸显个人的主观能动性和价值观的个体性,都要有人的思考、感受、选择、沟通和行动等价值要素体现。

4.探索建立人机共生的智能社会价值文化。人工智能时代,人与机器人打交道将成为新常态,人机交互将成为社会普遍现象,“机器人”也必将要主动适应人类需求。价值教育要与智能社会人的存在方式和生活方式相契合,要对人与“机器人”的关系作出正确的价值认知和价值选择,更要对智能社会人与“机器人”共生共存社会价值文化氛围进行营造。实现这一目标,首先,找到人类与人工智能之间共通的链接点和链接机制,如同人工智能借鉴脑神经网络模型创造了深度学习技术;第二,认清人工智能技术引发的价值伦理问题关键点在于人创造出“机器人”,风险点在于“机器人”有可能超越人类智慧“奇点”,以及深度学习技术让人工智能可能拥有人无从感知的暗知识;第三,厘清“自由人”智能世界出现的人类与“机器人”的关系,回答人与机器人到底“谁听谁的”价值选择问题。诚然,人类走向自由全面发展的智能社会,必将以人的自由和主体地位为前提。因此,推动价值教育社会化,建立人与“机器人”共存共生的社会价值文化,必须遵守价值教育的机器人定律(阿西莫夫所提出)认知逻辑:零定律,机器人不得伤害人类整体,或因不作为使人类整体受到伤害;第一定律,机器人不得伤害人类,或因不作为使人类受到伤害;第二定律,除非违背第一定律,机器人必须服从人类的命令;第三定律,除非违背第一及第二定律,机器人必须保护自己[10]。这四大定律是人类与“机器人”价值链接的基石,是人类与“机器人”共存共生的价值基础,更是人类幸福安全地追求自由全面发展的基础保障。这些原则定律不仅要植入近乎所有机器人软件底层,作为不可修改、不可忽视的规定,更要通过价值教育把这些原则定律作为全社会价值共识和价值遵守。否则,人类和“机器人”任何一方出现纰漏偏差,极易导致人类智能社会构建起的价值体系土崩瓦解,甚至导致人类社会秩序紊乱或被“机器人”取代。

人工智能时代颠覆性的技术和产业革命,必然会改变未来社会、政治、经济和军事战争格局样态,也必然会导致人类社会价值秩序重建。如果人工智能样样都比人类强,那么人类该何去何从?面对智能社会的诸多价值伦理和太多不可知不可控因素现象,很可能会导致彻头彻尾的灾难。人类只有提前构筑起社会价值伦理防线,堵疏结合、未雨绸缪,面向青少年开展前瞻性、警示性和防范性的价值教育,才有可能防患于未然。

[1][3]张广斌.人工智能时代基础教育课程现代化转型的认识与思考[J].人民教育,2019,(11).

[2]谭铁牛.人工智能的历史、现状和未来[J].智慧中国,2019,(03).

[4]唐汉卫.人工智能时代教育将如何存在[J].教育研究,2018,(11).

[5]马克思.资本论(第1卷)[M].北京:人民出版社,2004:683.

[6]中共中央编译局.马克思恩格斯全集(第3卷)[M].北京:人民出版社,1960:23.

[7]袁振国.人工智能助推教育回归本源[N].文汇报,2018-11-25.

[8]李政涛.人工智能时代:教育的“变与不变”[N].人民政协报,2017-11-01.

[9]董婷婷.智慧教育时代背景下人工智能如何推动教学改革[J].中国成人教育,2018,(10).

[10]姚万勤.大数据时代人工智能的法律风险及其防范[J].内蒙古社会科学(汉文版),2019,(03).返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇