人工智能终须拥有合作智慧
为帮助人类解决更根本问题,科学家需要让人工智能重新理解更为深层的社会。这是德国莱比锡的计算机研究人员为他们的机器人足球队进入测试比赛做准备。图片来源:《自然》网站
人工智能(AI)助手和推荐算法每天在与数十亿人互动,以多种方式影响人类的生活,但究其根本,他们对人类的了解仍然很少。英国《自然》杂志近日发表评论文章表示,由AI控制的自动驾驶汽车已逐渐掌握与自然界的互动,但在与其他汽车和行人进行协调或与人类驾驶员进行协作时,它们仍然是新手。
AI需要理解社会和“合作”的智慧,才能更好地融入我们。
在“合作”上,AI如同婴儿
AI应用程序的状态,反映了研究领域的状态。
从入门教科书可以明显看出,规范的AI依然是面向非社会环境的孤立机器。这似乎是一个明智的起点,但AI就像婴儿一样,必须要去增加对周围环境的掌握以及增加如何与环境交互的基本了解。
目前,即使在涉及多个AI参与的工作中,仍未解决“合作”这一难题,譬如在西洋双陆棋、国际象棋、围棋和扑克这些竞争性的案例中。尽管在现实世界,这种“纯冲突”的环境已很少甚至接近消失,但它们依然是吸引人的研究项目。与半合作式游戏相比,它们在文化上非常珍贵,相对容易进行基准测试,并且具有更简单的解决方案。
未来几年,AI系统需要彼此之间以及与人类之间以快速、复杂的方式进行交互:在人行道和车道上,在消费者和金融市场中,在电子邮件通信和社交媒体中,都需要网络安全和物理环境安全。与人交互不好的自动驾驶汽车或智慧城市将无法实现其利益,甚至可能破坏稳定的人际关系。
建立一门“合作型AI”科学
科学家建议,需要建立一门“合作型AI”科学。这一领域的研究人员认为,现在应该优先发展具有促进互利的、共同行动能力的AI。正如研究人类的心理学家发现,如果没有社会互动,婴儿的大脑就无法充分发育一样,除非人们将合作问题放在研究的中心,否则对社会真正有价值的AI发展将受到阻碍。
当人类父母养育孩子时,经常鼓励孩子超越对父母的依赖,变得“自主”。但当人类个体作为更广泛的社会的一部分而展开合作时,通常最有生产力。
对AI系统中的某些成员来说,“自主”是非常有用的,同时它们也能有效地为广泛合作作出贡献。譬如,人们最关心的自动驾驶汽车,其大部分价值并不是在空旷的道路上驾驶,而是与行人、骑自行车者和人类驾驶的汽车之间顺畅协调的配合。因此,“合作型AI”并不是替代了“自主”,而是超越了它。
三种“合作型AI”
对AI“合作”的研究目前可分为AI与AI合作、人与AI合作、改善人与人合作的AI这三个集群。
AI与AI合作,可以应对更加困难、丰富的环境。这种多主体AI研究在某方面已经取得了不错的成绩,从IBM的象棋计算机“深蓝”的超人表现,到阿法狗深度强化学习的有力演示都是如此。但从现实世界来看,这种互动并不多见,因此提高固有竞争性游戏的技能,不太可能是AI产生社会价值的最有前途的方法。
人与AI合作,则需要增进AI对自然语言的理解,使机器能够了解人们的喜好,并使人类更容易使用机器推理。
改善人与人合作的AI,是研究用于改善(而不是损害)人与人之间合作的有力工具。例如,一种管理社交媒体的算法,更好地促进了健康在线社区,就是一个成功的例子。
科学其实也是一项社会事业,促进对“合作型AI”的研究需要全社会干预。人类当今面临的重大危机,其实也是合作方面的挑战。气候变化、全球公共卫生以及水、土壤、空气等其他公共物品,都需要人类采取集体行动。随着AI潜力的不断扩大,推动“合作型AI”的研究将使人们实现更好的全球合作与治理。
聚焦人工智能合作与治理 携手构建人类命运共同体
中国网12月6日讯(记者卫芸辉)12月4日,由清华大学主办、清华大学人工智能国际治理研究院承办的2021人工智能合作与治理国际论坛在京召开。
中共十九届中央委员,十三届全国政协副主席、党组成员汪永清,联合国开发计划署驻华代表白雅婷,科学技术部副部长李萌,工业和信息化部副部长徐晓兰等出席论坛并致辞。
本次论坛以“如何构建一个平衡包容的人工智能治理体系”为主题,汇集世界各地在人工智能领域的思想领袖和实践者,共同探讨构建适合人工智能健康发展的治理体系,分享人工智能前沿技术与治理经验,提出元宇宙未来治理的前瞻议题,推动构建人类命运共同体。
中共十九届中央委员,十三届全国政协副主席、党组成员汪永清致开幕辞。(清华大学人工智能国际治理研究院供图)
汪永清在开幕辞中表示,中国人工智能治理以促进人的全面进步、促进经济社会生态可持续发展为目的,坚持以人民为中心、坚持增进人类福祉、坚持鼓励科技创新、坚持统筹发展与安全、坚守公平正义理念,倡导共商、共建、共享解决全球数字治理问题,携手打造开放、公平、公正、非歧视的数字发展环境。
汪永清指出,面对人工智能发展带来的风险挑战,国际社会必须携手共同应对,不断提升人工智能全球治理水平:
第一,要推动开放包容,秉持人类命运共同体理念,摒弃强权霸道逻辑,摆脱意识形态偏见,最大限度增强合作机制、理念、政策的开放性和包容性,构建人工智能全球治理的负责任格局。
第二,要推动协商互鉴,坚守和平、发展、公平、正义、民主、自由的全人类共同价值,建立起跨文化信任,尊重和包容差异,统筹发展与安全,兼顾效率与公平,防止治理规则政策取向顾此失彼、避重就轻和歧视性排他性,共建具有广泛共识的全球人工智能治理规则和伦理标准的平衡性框架。
第三,要推动共治共享,创建人工智能治理各方参与的开放性平台,通过跨学科、跨领域、跨地区、跨国界的交流合作,推动相关各方遵循基本科技伦理,把进步的价值取向嵌入人工智能数理模型,形成人工智能向善的力量,推动形成人工智能治理的最佳实践,形成各方积极参与的共治共享良好局面。
清华大学校长邱勇致欢迎辞。(清华大学人工智能国际治理研究院供图)
清华大学校长邱勇表示,人工智能是第四次工业革命的标志性技术。近年来,智能化正深刻改变我们的生产生活方式,智能时代的“大门”已缓缓开启。然而,在提高社会生产力、赋能治理现代化的同时,人工智能也带来了公共安全风险、隐私侵权、数字鸿沟、责任困境、伦理失范等许多新挑战。人工智能治理必须协同多元主体、兼顾多维目标、融合多元价值,加强全球合作与对话,构建平衡包容的人工智能治理体系。大学作为人类科技文明的重要策源地,不仅要在人工智能基础理论与技术前沿努力突破创新,也要践行科技向善的文化理念,塑造良善的人工智能价值与伦理,推动建立科学合理的人工智能国际治理体系。
联合国开发计划署驻华代表白雅婷致欢迎辞。(清华大学人工智能国际治理研究院供图)
联合国开发计划署驻华代表白雅婷在致辞中说,人工智能在疫情应对、抗击气候变化中都发挥着重要作用。与此同时,人工智能也存在算法偏见和侵犯个人隐私等风险。随着人工智能应用在世界各地愈加普及,需要就公平道德的人工智能治理体系构建路径达成共识。为此,国际合作至关重要,要确保围绕人工智能开展的对话真正具有全球性,让每个国家都有机会发声。
科学技术部副部长李萌致辞。(清华大学人工智能国际治理研究院供图)
科学技术部副部长李萌表示,未来,人工智能治理要倡导敏捷治理理念,实现人工智能发展与安全的平衡;倡导包容共享理念,实现不同群体共享智能红利的平衡;倡导可持续发展理念,实现智能化与绿色化的平衡;倡导人类命运共同体理念,实现差异发展与合作共赢的平衡。
工业和信息化部副部长徐晓兰致辞。(清华大学人工智能国际治理研究院供图)
工业和信息化部副部长徐晓兰表示,工信部将携手相关各方,在共促人工智能持续健康发展、共建包容共享的人工智能治理规则、共创国际合作新局面等方面大力合作,为推动人工智能国际治理体系建设贡献中国智慧,并为国际科技交流与合作增添更多务实成果。
图灵奖得主、清华大学交叉信息研究院院长、人工智能国际治理研究院学术委员会主席姚期智发表视频致辞。(清华大学人工智能国际治理研究院供图)
图灵奖得主、清华大学交叉信息研究院院长姚期智在视频致辞中指出,随着人工智能与经济社会的相互嵌入,保持科学技术与经济社会发展之间的良性互动与协同越来越重要,这就需要我们做好人工智能技术开发、应用与治理之间的平衡。然而,人工智能对数字经济时代的隐私保护和数据安全也提出了挑战,不断精进的算法、高效的算力和隐私保护是人工智能理论的新方向。“平衡包容”的人工智能治理体系的建构,将进一步释放人工智能的潜能,更大程度保证人工智能的安全性。
“如何构建一个平衡包容的人工智能治理体系”主论坛。(清华大学人工智能国际治理研究院供图)
开幕式之后,举行了以“如何构建一个平衡包容的人工智能治理体系”为主题的主论坛。薛澜、龚克、徐浩良、温德尔·瓦拉赫、苏竣、罗欣顿·麦德拉等国内外专家学者分别作主旨演讲。清华大学人工智能国际治理研究院副院长梁正主持主论坛。
聚焦人工智能合作与治理 携手构建人类命运共同体
中国网12月6日讯(记者卫芸辉)12月4日,由清华大学主办、清华大学人工智能国际治理研究院承办的2021人工智能合作与治理国际论坛在京召开。
中共十九届中央委员,十三届全国政协副主席、党组成员汪永清,联合国开发计划署驻华代表白雅婷,科学技术部副部长李萌,工业和信息化部副部长徐晓兰等出席论坛并致辞。
本次论坛以“如何构建一个平衡包容的人工智能治理体系”为主题,汇集世界各地在人工智能领域的思想领袖和实践者,共同探讨构建适合人工智能健康发展的治理体系,分享人工智能前沿技术与治理经验,提出元宇宙未来治理的前瞻议题,推动构建人类命运共同体。
中共十九届中央委员,十三届全国政协副主席、党组成员汪永清致开幕辞。(清华大学人工智能国际治理研究院供图)
汪永清在开幕辞中表示,中国人工智能治理以促进人的全面进步、促进经济社会生态可持续发展为目的,坚持以人民为中心、坚持增进人类福祉、坚持鼓励科技创新、坚持统筹发展与安全、坚守公平正义理念,倡导共商、共建、共享解决全球数字治理问题,携手打造开放、公平、公正、非歧视的数字发展环境。
汪永清指出,面对人工智能发展带来的风险挑战,国际社会必须携手共同应对,不断提升人工智能全球治理水平:
第一,要推动开放包容,秉持人类命运共同体理念,摒弃强权霸道逻辑,摆脱意识形态偏见,最大限度增强合作机制、理念、政策的开放性和包容性,构建人工智能全球治理的负责任格局。
第二,要推动协商互鉴,坚守和平、发展、公平、正义、民主、自由的全人类共同价值,建立起跨文化信任,尊重和包容差异,统筹发展与安全,兼顾效率与公平,防止治理规则政策取向顾此失彼、避重就轻和歧视性排他性,共建具有广泛共识的全球人工智能治理规则和伦理标准的平衡性框架。
第三,要推动共治共享,创建人工智能治理各方参与的开放性平台,通过跨学科、跨领域、跨地区、跨国界的交流合作,推动相关各方遵循基本科技伦理,把进步的价值取向嵌入人工智能数理模型,形成人工智能向善的力量,推动形成人工智能治理的最佳实践,形成各方积极参与的共治共享良好局面。
清华大学校长邱勇致欢迎辞。(清华大学人工智能国际治理研究院供图)
清华大学校长邱勇表示,人工智能是第四次工业革命的标志性技术。近年来,智能化正深刻改变我们的生产生活方式,智能时代的“大门”已缓缓开启。然而,在提高社会生产力、赋能治理现代化的同时,人工智能也带来了公共安全风险、隐私侵权、数字鸿沟、责任困境、伦理失范等许多新挑战。人工智能治理必须协同多元主体、兼顾多维目标、融合多元价值,加强全球合作与对话,构建平衡包容的人工智能治理体系。大学作为人类科技文明的重要策源地,不仅要在人工智能基础理论与技术前沿努力突破创新,也要践行科技向善的文化理念,塑造良善的人工智能价值与伦理,推动建立科学合理的人工智能国际治理体系。
联合国开发计划署驻华代表白雅婷致欢迎辞。(清华大学人工智能国际治理研究院供图)
联合国开发计划署驻华代表白雅婷在致辞中说,人工智能在疫情应对、抗击气候变化中都发挥着重要作用。与此同时,人工智能也存在算法偏见和侵犯个人隐私等风险。随着人工智能应用在世界各地愈加普及,需要就公平道德的人工智能治理体系构建路径达成共识。为此,国际合作至关重要,要确保围绕人工智能开展的对话真正具有全球性,让每个国家都有机会发声。
科学技术部副部长李萌致辞。(清华大学人工智能国际治理研究院供图)
科学技术部副部长李萌表示,未来,人工智能治理要倡导敏捷治理理念,实现人工智能发展与安全的平衡;倡导包容共享理念,实现不同群体共享智能红利的平衡;倡导可持续发展理念,实现智能化与绿色化的平衡;倡导人类命运共同体理念,实现差异发展与合作共赢的平衡。
工业和信息化部副部长徐晓兰致辞。(清华大学人工智能国际治理研究院供图)
工业和信息化部副部长徐晓兰表示,工信部将携手相关各方,在共促人工智能持续健康发展、共建包容共享的人工智能治理规则、共创国际合作新局面等方面大力合作,为推动人工智能国际治理体系建设贡献中国智慧,并为国际科技交流与合作增添更多务实成果。
图灵奖得主、清华大学交叉信息研究院院长、人工智能国际治理研究院学术委员会主席姚期智发表视频致辞。(清华大学人工智能国际治理研究院供图)
图灵奖得主、清华大学交叉信息研究院院长姚期智在视频致辞中指出,随着人工智能与经济社会的相互嵌入,保持科学技术与经济社会发展之间的良性互动与协同越来越重要,这就需要我们做好人工智能技术开发、应用与治理之间的平衡。然而,人工智能对数字经济时代的隐私保护和数据安全也提出了挑战,不断精进的算法、高效的算力和隐私保护是人工智能理论的新方向。“平衡包容”的人工智能治理体系的建构,将进一步释放人工智能的潜能,更大程度保证人工智能的安全性。
“如何构建一个平衡包容的人工智能治理体系”主论坛。(清华大学人工智能国际治理研究院供图)
开幕式之后,举行了以“如何构建一个平衡包容的人工智能治理体系”为主题的主论坛。薛澜、龚克、徐浩良、温德尔·瓦拉赫、苏竣、罗欣顿·麦德拉等国内外专家学者分别作主旨演讲。清华大学人工智能国际治理研究院副院长梁正主持主论坛。
从人工智能到群体智慧,人机协作之未来
文/陈根
人类很早就已认识到,群体合作集思广益,其解决问题的成效可以大过个体各自智慧的总和。关于群体智慧的力量,在科学上有个经典的实验:在玻璃罐中放满糖果,然后请试验者来猜测糖果的数量,记录每个人的答案、答案的平均数及其与正确答案之间的关系。
以2007年在哥伦比亚商学院的实验为例,糖果实际数目为1116颗,73个学生参加实验,73人的个人答案有多有少,但都离1116相差甚远,而73人个人答案的平均值却为1115颗,与糖果真实数量仅1颗之差。这本质上是个预测问题,其结果正体现了群体的智慧。
卡内基梅隆大学组织行为学专家安妮塔‧伍莱(AnitaWoolley)表示,影响一个团队发挥群体智慧的最大因素正是成员之间的协调程度。尽管群体的协作能带来1+1>2的效果,但知易行难。
而随着人类社会文明的进化,从农耕时代、工业时代到知识网络时代、数据智能时代,人工智能技术的深入发展,在渗透社会生活的同时,也辐射到了群体智慧。在机器文明时代下,是否能够在人类群体中加入智能工具,形成个体智能的放大效应,从而进一步释放人类社会的潜能、促进社会经济的发展?
从群体智能到优化算法
回顾生命进化史,生物多数以群居为主,比如自然界的鸟类和蜜蜂,鱼和蚂蚁,它们形成了自己的社会团体,并通过共同努力放大智力。也正是基于对自然界群居生物的观察,人们提出了群体智能。简单来说,群体智能是一种生物现象,即群体结合个体的见解,在解决问题和做出决策时展现出超个体的智慧。
受到这种生物群体行为研究的启发,研究人员开发出了创建群体计算模型,它们表现出了与单个个体完全不同的非凡计算能力,而群智能优化算法为计算智能和人工智能提供了新一个方向,这对于人类群体的决策也具有重要意义。
目前,群智能优化算法主要包括:人工蜂群(ABC)优化算法、粒子群优化(PSO)算法、蚁群优化(ACO)算法、人工鱼群优化算法。
人工蜂群算法是模仿蜜蜂行为提出的一种优化方法,是群体智能思想的一个具体应用。蜜蜂在进化过程中,首先形成了大脑,让它们可以处理信息,但是由于飞行需要最大程度减轻身体的负担使得它们的大脑不能够变大。事实上,蜜蜂的大脑比一粒沙子还要小,其中只有不到一百万个神经元。
尽管一百万个神经元依旧是一个庞大的数字,但与人类850亿个神经元相比。不管人类有多聪明,除以85000,就是一只蜜蜂的智慧。
所以一只蜜蜂仅为一个非常简单的有机体,但是它们依旧要面临许多困难的生存问题。其中,被研究最多的一个问题,就是蜜蜂对筑巢地点的选择。对于蜜蜂的进化来说,它们选择的筑巢地点越好,对于物种的生存就会越有利。
为了解决这个问题,蜜蜂形成蜂群思维,即群体智能。从收集信息到选择,通过振动产生的信号代表它们是否支持某个特定的筑巢地点。而成千上万的蜜蜂同时振动它们的身体时,就是一个多维的选择问题。它们揣度每个决定,探索所有不同的选择,在这个相互推动和拉扯,汇聚它们各自的知识、智慧、洞察力和直觉于一体的过程中达成一致的决定,就是最佳的智力决策。
基于蜜蜂的群体智能,主要特点是不需要了解问题的特殊信息,只需要对问题进行优劣比价,通过各人工蜂的局部寻优行为,最终在群体中使全局最优值凸显出来,有着较快的收敛速度。
粒子群优化算法初期只是设想模拟鸟群觅食行为过程,但是后来研究发现PSO算法是一种很好用的优化工具。其基本思想源于对鸟类觅食过程中迁移和聚集行为的模拟,通过鸟之间的集体协作和竞争达到目的。
采用粒子群优化算法可以求解交通信号配时问题,航班进场、离场调度问题,机器人全局路径规划问题。该算法还有另外一个重要应用领域是图像处理,因为图像信息多样性和复杂性特征,目前在图像处理领域,建模困难、处理不完整等问题普遍存在。而粒子优化算法在图形处理领域中取得了一定的成功。
蚂蚁优化算法是对自然界蚂蚁的寻径方式进行模拟而得到的一种仿生算法。在蚂蚁寻找食物过程中,蚁群总能找到一条从食物到巢穴之间的左右路径,这是因为蚂蚁在寻找路径时,会在路径上释放出一种特殊的信息素。当它们碰到一个还没有走过的路口时,就随机挑选一条路径前行,与此同时释放出与路径长度有关的信息素,路径越长,信息素越低。
而在后来的蚂蚁碰到这个路口时,就选择信息素浓度高的路径,这就形成了一个正反馈,最优路径上信息素浓度越来越大,其他路径上信息素越来越低,最终蚁群会找到最优路径。蚁群优化算法可应用于其他组合优化问题,如旅行商问题、指派问题、车辆路由问题、网络路由问题等。
人工鱼群算法则是在动物群体智能行为研究基础上提出的一种新型仿生群智能优化算法。该算法根据水域鱼生存数目最多的地方就是该水域中富含营养物质最多的地方这一特点来模拟鱼群的觅食行为而实现寻优。
其主要利用鱼的三个基本行为:觅食、聚群和追尾行为,人工鱼是真实鱼的抽象化、虚拟化的一个实体,其中封装了自身的数据和一系列行为,可以接受环境的刺激信息,做出相应的活动。它的下一刻状态取决于自身状态和环境状态,并通过自身活动影响环境,进而影响其他人工鱼的活动。人工鱼群算法收敛速度快,可用于解决实时性要求高的问题。
从人工智能到群体智慧
当然,基于群体智能的算法能够在智能制造、智能城市、智能农业和智能医疗等方面发挥出群体智能的潜力,但要做到将人类聚集在一起并且发挥“群体智能”,设计出能够与人类团队良好融合的技术,却可能会面对巨大的困难。
人类智能和人工智能是两套不同的智能,人工智能或许将具备更强大的自我进化能力和在各方面都超越人类,但人工智能却没有几亿年的进化史留在人类身上的刻痕,没有生物的直觉和本能,这给使得利用人类的社交智慧来构建人工智能带来了困难。
因为机器仍然很难捕捉到支配着人类群体动态的那种微妙而难以言喻的社交表达方式,而机器系统只有在人类真正信任人工智能决策,并且用户只接受系统的轻微提示的情况下才能工作。一旦系统过度干涉用户,人们就会想办法让其失效,这令智能工具进入人类群体变得更加不确定。
要想解决人类对人工智能的存疑和不信任,一个好的方法是将人类智慧和人工智能智慧结合在一起,赋予人工智能技术更多的人性元素,更好地指导其决策。
这也意味着,仅仅会分析、计算还不够,还需要具有“主动性”。所谓“主动性”,就是当人工智能在感知到人们的需求时,无需指令就能主动去“询问”“关怀”和“交流”,并能独立处理原本应该“人为”的事件,这也可以看出,人工智能还将经历从运算智能、感知智能阶段,发展到认知智能阶段。
此外,人工智能的人性化需要避免数据歧视。事实上,人工智能算法所依赖的大数据并非中立。它们从真实社会中抽取,必然带有社会固有的不平等、排斥性和歧视的痕迹。而在数字化生存下,不管是“社会人”还是“经济人”,都首先是“数字人”。现实空间的我们被数据所记载、所表达、所模拟、所处理、所预测,现实空间的歧视也将如此。
对数据的规制不仅需要国家层面的治理,更包含对个人和群体行为的引导。但不管是国家管理还是对个体抑或群体行为引导,技术与法律往往都不可缺位。
人工智能和人类智慧的协作已经成为机器时代的大势所趋,尽管我们可以让一些非常聪明的人单独研究问题的不同方面,但是如果群体不协力合作,没有集思广益,将很难取得任何进展。而关键之处是要让人工智能帮助这些单打独斗的工作实现集群化,以面对需要集体行动才能解决的群体性问题。
人工智能与人类文明的未来发展
近年来,人工智能技术的发展和对于人工智能的学理探讨都呈现出一派繁荣景象。就产业发展而言,人工智能作为当代产业革命的新引擎,正在成为各行各业数字化、自动化和智能化的重要载体,不仅向着工业、医学、服务等多个领域渗透,改变着我们的生活世界,而且向着绘画、音乐、作曲等人文领域进军,改变着人文社会科学的研究格局,由此正在把人类文明推向智能化生存的全新维度。就战略方针而言,人工智能越来越成为美国、中国、日本和欧盟等主要国家提升国际竞争力和争夺经济主战场的战略重点。就研究主题而言,除了人工智能的科学与技术、产业发展与联盟以及决策等问题之外,还有不计其数的论文从社会、政治、法律、伦理、认识论、本体论乃至价值论等视域来探讨人工智能有可能带来的潜在问题及其社会变革。当人工智能的应用变得司空见惯之后,它就会像电力和互联网一样,变成人类生活的背景或基础设施。然而,有所不同的是,人工智能的“智能性”迫使我们在享用其带来的便利的同时,不得不前瞻性地深入明辨它对人类文明的演进所带来的挑战。2018年,这些挑战已经从学者们的学术探讨内化到国家战略之中。
这一年,习近平主席在致“2018年世界人工智能大会”的贺信中提倡各国深化合作,共同处理好人工智能在法律、安全、道德伦理和政府治理等方面提出的新课题。随后,他在中共中央政治局就“人工智能发展现状和趋势”举行的第九次集体学习时强调,“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题的研究。建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德”。
这一年,美国发布AI白皮书《机器崛起:人工智能及其对美国政策的不断增长的影响》,重点剖析了人工智能可能带来的失业、隐私、偏向和恶意使用四个方面的问题,并提出了相应的应对方案。欧盟25个成员国领导人共同签署了《加强人工智能合作宣言》,并设立了“数字欧洲”项目,旨在共同确保欧洲在研究和部署人工智能方面的竞争力,携手应对人工智能可能带来的社会、经济和法律等问题。此外,欧盟还出台了《关于可信赖人工智能的伦理准则草案》,倡导在开发人工智能时遵守利益最大化和风险最小化的原则,并制定了实现可信赖的人工智能的框架方案。
世界各国对规避人工智能发展带来的潜在风险的高度重视足以表明,人工智能的发展已经激发了人类关于自身价值的重新思考,使价值问题成为人类文明未来发展必须直面的关键问题。在此之前,蒸汽革命、电力革命和计算机革命虽然导致了人类文明从农业文明转向工业文明,但是在此转型过程中,人类追求技术的热情有增无减,从来没有在世界范围内自觉地提出反思人类价值的问题。虽然人们承认技术是一把双刃剑,但通常认为技术的善恶不在技术端,而是在使用端。也就是说,技术的恶是由技术的使用者造成的,与技术本身无关。然而,人工智能却超越了这一界限。这既是由人工智能本身的学科性质决定的,也是由人工智能在未来社会中所起的作用决定的。
第一,人工智能是一个跨学科的领域,不仅与物理学、化学、生物学、心理学、认知科学、神经科学等自然科学,以及量子信息技术、生物技术、纳米技术等当代技术相关,而且涉及智能、认知、思维、心灵、意识等哲学概念。事实上,人工智能是一项知识工程。它在赋能百业之余,最直接也最明确的目标是让机器能够像人一样灵活自如地完成任务。真正实现人工智能的时代,机器对人的模拟不是机理性的,而是功能性的。从机器模拟人的功能意义上来看,我们对通用人工智能人的向往与追求,已经全方位地向人类发出了必须彻底反思自身及未来文明走向的强烈信号。
第二,人工智能是建立在一套行之有效的算法基础上的,而算法的优化又是建立在大数据基础上的。数据不同,算法的设计与优化也就不同。因此,能够体现出“智能”的算法本身并不是中性的,而是天然地蕴含群体和个体的偏向:一是植根于设计者的生活习惯与文化习俗之中并先于算法的设计而潜存的文化偏向;二是源于设计者的技术水平和技术考虑并嵌入在整个设计过程之中的技术偏向;三是在用户对数据的使用过程中涌现出来的使用偏向。这三种偏向是隐形的和潜在的,而不是明显的和有意识的。因此,负责任地进行算法设计的伦理嵌入就成为确保人工智能做正确之事而不是做错误之事的关键所在。
第三,人工智能的世界是数字化行为构成的数据世界。当数据成为我们认识世界的界面时,我们事实上已经无意识地把获取信息的方式交给了算法。一方面,机器人正是通过算法学会如何在海量数据中挖掘出有价值的隐藏信息,以形成决策资源,并预测相关事件发生的可能性,这给我们的思维方式带来转变。如,在搜索引擎的引导下,我们从重视寻找数据背景的原因,转向了如何运用数据本身。此外,算法会基于个人的行为数据,通过个性化的自主信息推送,强化使用者留下的消费习惯或行为习惯,如网络查询在某种程度上能够还原查询者的兴趣爱好和各种隐私偏好等,算法本身的不透明性和使用者的透明性形成了鲜明的对照。
第四,对于人类文明的演进而言,共享语言就是共享一种本质。在人工智能时代,当我们有能力以机器能够理解的语言来表达自己的意愿,乃至习惯于运用机器能够听懂的语言来实现自己的目标时,我们就需要共享机器语言,以编码的方式来描述愿望和目标。如此一来,我们就需要学习编程,以便扩展我们的本体论前景。问题在于,当我们改变了用来描述愿望和目标的语言时,也就相应地改变了我们的愿望和目标本身,这是我们在智能化人类文明未来必须要面对的深层次本体论问题。因为人类的语言是人类历史所固有的,是我们的生理、心理和文化所蕴含的长期演化的产物,而机器人所能理解的语言是程序化的人工语言。因此,机器赋予人类语言意义的能力是极其有限的,人类不能与运用人类语言的机器进行随机应变的机敏对话,也不能完全用自然语言描述机器所遭遇的数据世界。人类的愿望与目标是人类建构的,超越了自动化与智能化的范围。
第五,人工智能的发展有可能使人类智能突破个体智能的局限性,出现集体智能和合作智能,这超越了人与机器之间的控制与被控制、主导与被主导的二元关系。过去的机器是有寿命而无生命的机器,尽管能力超人,但归根结底总是受到人的控制与指挥,而受人工智能驱动的机器则是有鲜活生命和自主能力的机器。一方面,在人工智能时代,人不再像工业文明时代那样成为机器的一部分,而是反过来,机器成为人的一部分,如美国SpaceX公司的CEO埃隆·马斯克就坦言,他的公司未来将研究如何将芯片植入头骨来实现人机融合。然而,问题在于:如果人机融合的愿景真的实现了,那么我们如何避免掌握技术的少数精英通过芯片来控制被植入者呢?另一方面,有许多人担心,如果通用人工智能乃至超人工智能有朝一日被研制成功,那么,智能机器不仅会全面超越人类来进行自主决策,而且还会脱离人的控制,成为主宰人类的“上帝”。尽管人工智能研究者认为,这种通用人工智能出现的可能性还遥遥无期,但是,由此引发的担忧却值得关注与深思。
人类文明已经发展到有所为而有所不为的时代了,这就迫使我们不得不反思这样的问题:当我们把智能化发展看成实现人类追求的骄傲和理想以及国家制胜的法宝时,我们希望通过智能化的发展塑造什么样的文明形态?自人猿相揖以来,习惯为发展经济而奋斗的人类,如何为迎接有可能全面解放人类劳动的智能文明的到来,前瞻性地做好各方面的思想准备呢?历史地看,人类文明从诞生之日起就钟情于一切来源于人类智慧的产物。人类文明的转型发展虽然不是源于理论安排,而是社会实践和日常生活的结果,但生活在受人工智能驱动的信息文明深度发展和智能文明崭露头角过程中的我们,必然要肩负着自觉引领人类文明未来发展的重要职责。我们对发展人工智能的选择,不只是在选择技术,更是在选择人类文明的未来,人类使机器像人一样能够做到“厚于德、诚于信、勤于思、慎于言、敏于行”的追求过程,也是人类有意识地进行自我塑造和自我反省的过程。
(本文系教育部哲学社会科学重大课题攻关项目“人工智能的哲学思考研究”(18JZD013)阶段性成果)
(作者单位:上海社会科学院哲学研究所)