博舍

人工智能时代的人文主义 人工智能的理性维度

人工智能时代的人文主义

人工智能时代的人文主义

人工智能和基因编辑等科学和技术在当代社会的迅猛发展并日益深入地普及到人类社会的各个层面,不仅对人类理智能力及其独尊地位造成了巨大的挑战,而且亦导致了人的性质的变化。流行的意见面对人工智能持续提升的紧迫压力和人的性质变化的冲击,采取了分裂的和矛盾的立场,既否定人的变化的必然性,又对人工智能的可能前景束手无策而怀悲观失败的心态。这种挑战和现象迫使人们重新思考关涉人的哲学基本问题,亦再度激发人文主义的核心关切。今天的人文主义强调人类在认识、发明和制造人工智能和其他技术并不断促进它们升级的同时,也持续地增进和提升了自己的理智能力。从现在起,人类必定要有意识地见证和促进自身的进化。此种发展和进化在今天业经呈现出文化的与物理的统一趋势,这正是人们应对充满各种挑战的人类前景而坚持积极观点的根据所在。

文/韩水法

北京大学哲学系教授

 

本文的中心任务就在于揭示这个核心问题,即人的性质的变化,在人文主义视野之下研究它的过去、现在和前景。本文的讨论和研究将在哲学的境域中展开,并且必然亦要关涉和重新思考既有的形而上学、认识论和心灵哲学等的理论意义,重新研究正义和道德原则的基础和有效范围。从方法论上来说,人类解决目前所面临的重大问题的态度应是面向未来而做出现在的筹划。当下的问题,包括过去累积下来的问题,都只有在未来才能得到有效的措置。那些以过去的传统和观念来限定今天和未来人类活动的主张,从根本上说是不可行的。

 人工智能时代的特征

笔者要从探讨人工智能的定义并考察人工智能时代的特征入手,以便准确地把握和刻画这个时代的性质、特点和趋势,以及它如何造成了人的性质的变化和演进。

首先,人类知识达到了惊人的深度和广度。其次,信息及其网络成为人类社会基本结构的一个部分。再次,生命科学已把关于生命活动及其规律的研究建立在分子水平,改变生命的遗传性质等操作在一定条件下成了现实。最后,各种高速交通工具和设施使得人类不同个体和群体之间的交往变得方便和快捷,彼此之间的联系越来越紧密,从而人类的政治、社会和经济等关系相应地也发生了改变。在所有这些现象中,人工智能又最为特殊,它的出现和未来发展可能直接导致某种另类智能的出现,即所谓的强人工智能。下面,笔者先来集中讨论三种将直接改变人的性质和地位的现象。

从字面上来理解,人工智能就是人类自己发明并制造的理智能力。埃特尔在考察了若干人工智能的定义之后,认为赖斯的定义最为赅简并解决了其他定义的矛盾:“人工智能就是关于如何使计算机去做现在由人做得更好的事情的研究。”然而,这仅仅是一个描述性的定义,回避了实质的规定。关于人工智能之人工的意义,人们的意见并没有多大不同,而关于其智能的意义则呈现相当大的分歧。这种分歧可以概括为如下两个争执点:第一,强人工智能与弱人工智能;第二,类人的人工智能与非类人的人工智能。强人工智能,在学术文献中通常称为人工一般智能(ArtificialGeneralIntelligence,简称AGI)或超级智能,乃是指一种能够自主地学习、行动、设定目标和解决问题的智能,亦即它是一种能够成功地从事人类任何智力工作的机器智能。在这个意义上,它等于一种人工自为者(agent),与人类自为者相类似。相应地,弱人工智能就是非自主的智能,不是自为者,而是人类智能的替力或助手。    

人类智能是以生命为基础的高级理性能力,因此,诸如生命的自我维持所必需的新陈代谢、自我复制(繁殖)和成长,乃是人类自为者的自然基础和条件。那么,作为自为者,人工一般智能是否也应当具有同样的功能?否则,作为一种物质系统,它存在的根据和条件始终受人控制和供给,也就难以真正成为自为者。现在的主流观点认为,在当下很难设想那种兼具自主目的、情感、联想和想象力的人工智能如何能够产生出来,因此,人工自为者在可预见的未来暂时不会出现。如果人工自为者属于类人智能,那么迄今有关人的一切理论,尤其是哲学的基础理论就受到根本性的挑战。第一,人类除了自己的理智,还没有见识过任何其他类型的智能或理智,现在这种智能已不再是抽象的可能性,而是具备了若干现实基础的可能性。第二,除了人类智能和人工一般智能,在这个宇宙中,可能还存在着其他类型的智能。这样的观点亦具有相当有力的理论根据。迄今为止,哲学尚未对现在的人是什么这个问题达成共识,而人的性质却又开始经历重大变化。仅就此而论,哲学就需要从头回答如下的三重问题:第一,继续回答人是什么;第二,从理论上回应性质变化之后的人是什么;第三,解释性质变化前后的人之间的关系。

 传统人文主义的核心

笔者将撇开枝节而直达本质,从中西各种流派中概括出人文主义的核心主题。康德关于人的四个哲学追问,即我能认识什么、我应当做什么、我能期望什么、和人是什么,不仅在哲学基础理论研究中依然是有效的纲要,同样也可用作追问迄今为止的人文主义诸流派共同核心的指针。在中国传统中,无论依据其字面意义还是其内在意义,人文始终包含变化和进步的意思。

在人文主义视野中,人的存在和发展始终具有当下即是的特征,始终与现实环境处于互动之中。人们容易忽略一个重要的事实:在人的活动所造就的对象———包括环境———面前,人其实也作为对象而存在和活动,而无论这样的关系是主动地造就还是被动地发生的。在这个意义上,在理解人文主义时,人们就需要增加人作为自己活动对象之对象这样一个维度,诚然,这个维度同时就指明了人文主义所受到的一种特殊的限制和激励。不仅如此,这个判断还蕴涵了更深一层的、也尚未被清楚地揭示出来的意义,即人的一切活动原本就是人文主义的。在先前,多数人倾向于将人文主义限制在狭隘的意义上,将它与生产、科学和技术活动等分离。因此,立足于人工智能时代的重新考察和反思,就是要揭示和发现为那些狭义的人文主义者所忽略、轻视乃至无视的人文主义原本的重要因素,即贯彻在现代人活动的各个方面的人文主义精神和性质。正是在当代境域之下,同时面向人类的未来时代,人文主义才能得到真切的理解和规定。现在,人类演化已经进入了一个根本的关节点。迄今为止的人文主义都以既有的人———从智人出现以来生物性质未经历过改变的人———为对象,这样的人文主义也可以称为智人人文主义。而现在,现代智人的生物性质正在面临改变,而本文所要分析和讨论的正是这样视域中的人文主义。

 人的性质的变化

在下文中,笔者将要论证,人正是在进化中形成其性质,而目前所面临的变化无非是人类进化的持续。我也将阐述这个变化的一些新特征,它与哲学基础理论的关系和它所蕴涵的哲学意义。约纳斯反对一切超出预防遗传疾病的涉人生物技术,在他看来,那种操作使得人成为人的制造者,但是,他认为,人不能是造物主。哈贝马斯就此的表态比约纳斯要晚,但在态度上更为保守。他反对自由优生学(liberaleugenics)和植入前基因诊断(PGD)。综合来看,那些质疑和反对人工智能时代的主要技术及其应用的主要意见和理由,从根本上来说,出于如下的深切担忧和恐惧:人的性质将因此而改变。

(一)演变中的人的性质

根据现代生物学,最早出现的晚期智人在解剖学上与现代人毫无区别,因此,所谓野蛮与文明、原始与现代的区别仅仅体现在人的社会关系和状态的差异。在这里笔者提出一个思想实验。假定最早的晚期智人当时也同样考虑了今天人们所思考的一些问题,并提出类似的主张,那么至少他们当中的一些人就会设法阻止他们所面临的演化:如果采用熟食,那个时代的智人的体质和智力就会发生重大的改变,他们的生理性质也同样会改变,比如脑容量会变得更大,身体更为健康因而寿命更长,并且由于个体的差异,有一些特别聪明的智人亦即超级智人就会出现,智人之间的不平等就会加剧。倘若巢木而居并且进一步筑屋以居,那么那些智人就会失去自己的文化。倘若他们要试着穿戴一些遮羞和保暖的衣物和饰物,那么这同样就会改变那些智人的天体观和审美观,他们也许会认为,这种做法是对智人人体的否定,并使得那些穿戴衣物的智人具有了超越他们自身的能力:他们在极端的环境比如在严寒的地区也能生存,而这同样也会造成智人之间的差别。不过,我们应当先关注这类假设所引发的问题:如果那些最早的晚期智人就像今天的一些人所主张的那样,坚持阻止任何超越他们当时能力、状况和水平的演变并且获得成功,那么今天人类所面临的挑战、担忧及其所依赖的环境和条件就不会出现。当然,与那些最早的晚期智人所面临的局面不同,人工智能、基因工程及其可能的综合技术如人工装置等将导致现代人的生物性质的改变。就此而论,今天人类所要经历的变化要远远大于最早晚期智人出现之后的任何演化。

(二)人的性质新变化

笔者之所以不用人性这个词而是人的性质这个词,乃是要强调这种变化将发生在人的生物性质的和智力两个层面,而非单单人的心理、观念和社会性质的改变。下文主要分析和阐述这种变化所承带的基本的哲学的和人文的意义,而不关涉具体技术层面。

我们将从两个方面来分析和讨论这种变化。(1)人的生物性质的变化和由此导致的心理和理智能力的变化。这种变化又分为三种类型,即基因的改变、非基因的改变和综合的改变。(2)人的相对地位的变化。人工智能的崛起以及可能的外星理智生命,对人的地位会造成何种影响。综合来说,上述几个方面的改变都关涉人的性质的变化,其中最为根本的几项包括人的学习能力和方式、记忆能力和方式以及经验的来源和获得方式等变化,个人同一性———包括主观认同与客观确证———的变化,以及由上述各种因素导致的自由意志基础的瓦解。在个体的记忆可以通过脑—机接口的方式存储和更换的情况下,这种以记忆集为基础的个人的主观认同就无法与一个特定的个体固定地结合在一起,或者说,从客观上来说,个体就不再具有与任何其他个体区别开来的唯一的人格和身份。于是,从理论上来看,如下情况就有可能发生:一个生物的或合成的个体拥有多个个人认同,因为他/她可以更换多种不同的记忆集,而多个生物的或合成的个体也可以拥有同一个认同,因为他们可以分享同一个记忆集。迄今为止,作为个人人格独立公设的自由意志只适用于一个自然的并且拥有唯一认同的生物个体,而一个更改过的、合成的个体的意志究竟在什么意义上还是自由的?这类个人的行为是否要归因于上述那一系列的更改?这种现象显然是现在的自由意志理论和实践无法应付的。

(三)意识研究与人工智能

人工智能不仅在一定程度上开始逐渐实现后一个目的,而且还反过来有助于认识人类的意识和心灵,为了解人类理智的活动方式提供一个对照的样板,而先前这样的样板并不存在。就此而论,我们来分析如下几种情形。第一,就目前的进展来看,人工智能主要不是模仿人类理智的活动方式。第二,人工智能发展的动因来自于以人类理智设计出来的方式解决人类理智难以完成的任务。第三,人工智能的研究,尤其是关于人工智能与大脑功能结合起来的综合研究,为意识和大脑的研究提供了新途径,即实验和试错的方式。第四,人工智能的发展还揭示了如下的意义深远的可能性:理智能够以不同于人类理智的方式运行;不仅如此,它们还可以多种不同的方式存在和运行。人类理智虽然最终无法一统天下,但可与它们相兼容。这种兼容性也为人类的未来发展提供了乐观的理由和根据。

 人文主义的未来关切

人的性质究竟可能发生什么样的变化;倘若这种变化不可阻挡,那么,人类在未来的前景会是如何,以及从现在起,人们应当预先采取什么样的对策。这些正是今天的哲学所无法回避的任务。

(一)人的性质变化带来的挑战

诚然,这个变化不会如奇点一样瞬间爆发,但即便逐渐展开,人的性质演变达到一定的普遍程度时,整个人类从物理基础到行为规范、生活方式都会发生根本的变化,其程度要远甚于科学革命所引起的范式变化,人类与自然及社会的关系都将在新的关系之下重新展开和构成,相应地,人的认识也要发生根本的转向。第一,人类工作方式将发生巨大的变化,并且这种变化现在看来正未有穷期。第二,人工智能、基因编辑和人工装置可能导致新的不平等。第三,由于人逐渐成为合成人,因而个人主观认同和个体同一性的客观确证的传统根据就会失去效用,现在所理解的自由意志的理由不复有效,从法律、道德到日常生活的约定都将失去根据。第四,人是什么就成了一个全新的问题。

(二)盲点与情绪

尽管可能出现的人工自为者究竟会是什么形态,人们尚不清楚,但恐慌乃至末世的情绪却已经形成,甚至首先在专家群体中兴起。这些情绪主要表现为:第一,茫然。人们似乎无法想象出有效的办法来应付在所有方面都强于现在人类的人工自为者。第二,悲观。一部分人以为人类末世即将来临,至少人类在这个世界的统治地位将被取代,或成为被统治的群体,而最为严重亦最悲观的预期则是,人类最终被人工自为者消灭,因为人工自为者归根到底是不可控制的。

   到现在为止,人始终是人工智能发展方向的决定者、最终的设计者和决定者。这一点乃是人类应对人工智能时代的各种挑战的最为坚固的立足点。此外,迄今为止,人类对人工智能的了解依然相当有限,就如人类对自己的智能的认识一样。随着认识的增加,人们就能够找到与之合理相处的方法。其实,人类发明、设计和制造出了人工智能,不断地拓展、升级和强化它的能力,人类也因此大大地扩展、强化乃至升级了自身的综合能力。人工智能恰恰表明:人类理智具有强大的适应和扩展能力,以及尚未认识的巨大潜力。总体而言,关于人工自为者的认识人类还存在一些尚未意识到的盲点,而破解这类盲点正是人类应对人工智能未来的一种出路。

 人文主义的新维度

 在人工智能时代,人们主要地关注了人的理论和实践活动的对象的演化发展,而轻忽甚至无视人本身的性质的变化;迄今为止的人文主义所关注的重点在于确认和提高人在这个世界的地位和价值,促进人的潜力的发挥,但人的个体的生物存在则被认为是始终不变的。我们则要强调,充分认识这种变化的可能性和现实性,将这种变化纳入有关人的性质的认识的视野之中,以此来考虑人在这个世界的至上地位和未来前景,乃是人工智能时代的人文主义的中心关切。这样的人文主义的特征可以从如下几个方面来论述。(1)开放的态度与发展的视野。一种开放意义的人文主义要消除和避免这种把特定时代的人的性质永恒化和固定化的困境。(2)无尽的学习面对日新月异的人工智能时代,人类整体就如每个个体一样需要持续地学习、研究和提升。

 结语

人工智能时代的人文主义的基本结构就是一种关于人的新形而上学,因为它探讨和把握演变中的人的性质。它承继先前的人文主义,然而更加关注人类未来发展的确定性与不确定性。第一,这种人文主义依然坚持理性的普遍性原则。第二,自主乃是人类的根本特征,这在未来也同样如此。第三,人类前途的最终不确定性是基于自然科学和人文主义的必然结论,尽管这是许多人不愿意面对的事实。人工智能时代的人文主义精神就是持续地促进并在可能的情况下筹划人的发展和进化,借助于日新而新的科学和技术,持续地提高人类自身而使其得到升华。人的性质如不能变化,那么它的前景就不是仅仅中止并永远停留在当下,而是趋向于淘汰和消亡。人工智能时代的人文主义蕴涵了如下的自信和精神:人类本身的发展和进化在今天已经开始呈现出文化的与物理的统一趋势,这正是人们应对人类前景的积极观点的根据所在。

 

    本文原载于《中国社会科学》2019年第06期。为方便阅读,略去全部注释,并有删节和调整。

更多内容敬请点击浏览北京大学中国政治学研究中心官网:www.rccp.pku.edu.cn。

希望阅读更多文章请扫描中心二维码:

                                  

    

人工智能的伦理挑战与科学应对

  【光明青年论坛】 

编者按

  2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。作为最具代表性的颠覆性技术,人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性也会带来诸多全球性挑战,引发重大的伦理关切。习近平总书记高度关注人工智能等新兴科技的发展,强调要加快提升“人工智能安全等领域的治理能力”,“塑造科技向善的文化理念,让科技更好增进人类福祉”。为此,本版特组织几位青年学者围绕人工智能的伦理挑战与科学应对展开讨论,并邀请专家予以点评,以期引发学界的更多关注,为推动人工智能健康发展贡献智慧。

  与谈人

  彭家锋 中国人民大学哲学院博士生

  虞昊 华东师范大学政治与国际关系学院博士生

  邓玉龙 南京师范大学哲学系博士生

  主持人

  刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员

1.机遇与挑战并存的人工智能

  主持人:新技术革命方兴未艾,以人工智能等为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围,人类正在进入一个“人机物”相融合的万物智能互联时代。请具体谈谈人工智能给人类社会发展带来什么样的机遇?

  彭家锋:人工智能、大数据、物联网、云计算等智能技术蓬勃兴起,对人类社会的方方面面产生深刻影响,推动整个社会逐步迈入智能社会。在此过程中,存在许多重大历史机遇需要我们把握。就技术治理而言,人工智能作为一种治理技术,正在助推社会治理的治理理念、治理方式、治理效能等方面的变革,将传统技术治理提升至智能化新阶段,呈现出“智能治理的综合”趋势。智能治理将全面提升社会公共治理的智能化水平,主要呈现出四个方面的特征:一是治理融合化,即促进各种智能技术与其他治理技术相互融合,大幅度提升智能社会的治理水平;二是治理数据化,即以日益增长的海量数据为基础,通过对数据映射出来的“数字世界”进行社会计算,实现治理目标;三是治理精准化,即发挥智能技术强大的感知能力、传输能力和计算能力,将传统的粗放治理转变为精准治理;四是治理算法化,即不断完善智能决策系统,尝试将程序化的算法决策扩展到更多的决策活动中,从而提高决策质量。

  虞昊:人工智能有助于反思人类社会得以建立与发展的基础。随着分析式AI向着生成式AI不断演变,尤其是生成式AI初步展现出判别问题、分析情感、展开对话、创作内容等越来越具有人类特征的功能,原本属于人类的领域正被人工智能以另一套由“0”与“1”构成的计算机语言逐步侵蚀。这既是对人类社会的冲击,也势必会在更加平等的开放性框架中增强人类的主体性,促进人类社会进一步发展。

  邓玉龙:总体来说,以人工智能为代表的新科技发展,显著提升了社会生产力。例如,生成式AI不但能完成传统AI的分析、判断工作,还能进一步学习并完成分析式AI无法从事的创造性工作。从人机交互的角度来看,人工智能也促进了生产关系的高效发展。具体表现在:一是刺激劳动形态的转化。人工智能高效承担大量的基础机械性劳动,人类劳动则向高阶的创造性劳动转化,由此引发社会层面的劳动结构转型、升级,并且以人工智能为中介,社会范围内的劳动整合、协调能力也实现升级。二是促进劳动场域的重构。随着劳动形态的转化和劳动的社会化扩展,人工智能将劳动从固定场域中解放出来,人类劳动的灵活性增加。相比于创造性劳动,机械性劳动更加受到空间和时间的制约,而在人工智能从技术层面替代更低边际成本的基础性劳动之后,人类劳动空间和时间的自由性实现跃迁。三是对主体的发展提出了更高要求,尤其是对主体适应社会发展提出了更高要求。人工智能技术的发展对人类传统的知识结构提出挑战,要求人类更新原有的知识结构以适应社会发展需要,也对教育提出更高要求,教育模式和教育内容需要更契合科技发展的水平,培养更加全面发展的人才。

  主持人:人工智能的一系列产物在给人们带来生活便利的同时,也一定程度上引起大家对其可能引发的伦理挑战的警惕。一些人关注人工智能的风险问题,对人工智能的推进有些焦虑。如何看待这种警惕和焦虑?

  虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的。但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车。同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃。因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机。

  邓玉龙:我们应正确看待这种焦虑。要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题。正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题。同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题。从劳动的角度看,人工智能确实会取代部分人类劳动,推动劳动结构转型升级,让劳动向着碎片化、个体化方向发展,劳动者处于弱势地位,面临着“机器换人”的挑战。但是我们也应该理性认识到,人工智能不是对人类劳动能力的完全替代,而是对劳动者提出了更高的要求,要求劳动者掌握科学知识,将技术的发展内化为自身能力,在更具创造性的劳动中实现自身价值。

  彭家锋:任何技术的发明使用,不可避免地伴随着这样或那样的风险。人工智能技术自然也不例外,在其应用过程中,同样引发了诸如隐私泄露、算法歧视、法律责任等风险问题。因此,关注人工智能的风险问题,并由此对人工智能的推进产生焦虑,具有一定理论依据和现实基础。但更应当清醒地认识到,人工智能的某些相关风险可以提前得到规避,并不必然会发生;即便真的发生,也仍可不断寻求化解风险的有效手段。以个人隐私滥用风险为例,在治理过程中,虽然不可避免地会涉及个人数据收集和分析处理,但可以通过建立完整的规范和监管体系来保护个人隐私,降低滥用风险。

2.人工智能科技竞争的“伦理赛道”

  主持人:习近平总书记在以视频方式出席二十国集团领导人第十五次峰会时指出,“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展”。请谈谈“人工智能原则”应包含哪些内容?科技向善的文化理念对推动全球人工智能健康发展具有怎样的现实价值?

  彭家锋:为应对人工智能等新科技快速发展带来的伦理挑战,2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”等五项科技伦理原则。我认为,这五项原则基本涵盖了人工智能原则的伦理要求,彰显了科技向善的文化理念。科技向善的文化理念,根本目标是让科技发展更好地服务社会和人民,带来良好社会或社会公益的善。科技向善对推动全球人工智能健康发展至少具有以下三个方面现实价值:一是塑造公众信任。公众对人工智能的信任很大程度上并不完全由相关风险程度决定,而是取决于公众的利益与价值是否得到足够重视。后者正是科技向善的内在要求。二是引领技术创新。科技向善的文化理念将在技术创新发展过程中发挥价值引领作用。三是促进全球合作。科技向善的文化理念试图在全球范围内建立人工智能伦理规范的“最大公约数”,各国在达成伦理共识的基础之上,能够建立互信,实现更加充分深入的国际合作。

  虞昊:个人认为,人工智能原则也应包含非对抗与非失控的理念。非对抗意味着不应将人工智能视作人类社会的对抗性存在,人工智能已经成为人类社会的构成性要素,我们必须持更为开放的态度去面对人工智能。非失控意味着不应放弃对人工智能的伦理规范,应以智能的方式去规范加速发展的人工智能。如果以上述理念为前提,也就是说,在支持人工智能发展的情况下,科技向善的文化理念在推动全球人工智能健康发展中就变得极为重要。此处的“善”在国家治理层面即指向“善治”,而当人工智能的发展从国家范围扩展到全球范围,“善治”就在构建人类命运共同体的意义上拥有了更贴近现实的内涵。各国应摒弃冷战思维与零和博弈,基于善意与友谊共同思考人类作为整体如何在人工智能的冲击下通往全球性的“善治”。

  邓玉龙:2019年欧盟发布《可信赖的人工智能伦理准则》,2021年中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》)。与欧盟发布的伦理准则相比,《规范》体现了中国特色社会主义的制度优势,旨在将伦理规范融入人工智能全生命周期。人工智能发展的根本目的是促进人的全面发展,因此,我以为,人工智能原则还应体现共享和有序发展的要求。共享,旨在防止人工智能的技术垄断。科技发展应该兼顾全体人民的利益,而不是服务于少数群体,由全体人民共享科技发展成果,推动全球科技水平的共同增长。有序发展,旨在防止人工智能技术的无序扩张。人工智能技术的发展最终是为了提升人的幸福感,推动科技有序发展能够促进人机和谐融合,有效预防潜在无序扩张的风险。

  主持人:从规范层面来说,伦理反思对规范人工智能发展的作用主要体现在哪些方面?

  彭家锋:近年来,世界各主要国家在人工智能领域竞争日趋激烈,纷纷将人工智能发展置于国家发展的战略层面。比如,美国陆续出台《国家人工智能研究和发展战略计划》(2016)和《关于维持美国在人工智能领域领导地位的行政命令》(2019);欧盟先后发布《欧洲人工智能战略》(2018)和《人工智能白皮书》(2020);中国也较早发布了《“互联网+”人工智能三年行动实施方案》(2016)和《新一代人工智能发展规划》(2017)。人工智能科技竞争的客观局面已然形成。在此背景下,如果忽视人工智能技术发展所带来的全球性风险与挑战,极有可能陷入技术赶超的竞争逻辑。因此,亟须规范人工智能的科技竞争,而倡导伦理反思或许就是一条可行之路。伦理反思的意义至少在于:一是设定伦理底线。人工智能技术的开发和应用需要遵循一些基本的价值理念和行为规范。只有守住伦理底线,才有可能避免颠覆性风险的发生。二是实现敏捷治理。伦理反思是一个动态、持续的过程,贯穿于人工智能科技活动的全生命周期。为了确保其始终服务于增进人类福祉和科技向善的初衷,需要保持应有的道德敏感性,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。

  邓玉龙:人工智能科技竞争是为了促进科学技术发展,而科学技术发展的最终目的是推动人类社会的进步。人工智能科技竞争不应该仅包括技术竞争的单一维度,更不应该通过技术优势遏制他国的科技发展,而应该是在人工智能科技条件下的综合性竞争,通过良性竞争促进全球人工智能和全人类的共同发展。其中就应该包括社会治理竞争,通过社会治理保障社会公平,因而对社会中人与人关系的伦理反思构成人工智能科技竞争的有机组成部分。首先,伦理反思对人工智能科技竞争提出了更高的要求。人工智能的公平性、可信任性、可解释与透明度、安全性不仅是伦理要求,也代表了人工智能技术的发展方向,是人工智能科技竞争需要抢占的技术制高点。科技的发展是为了人的全面发展,因而人的发展内嵌于科技发展要求,伦理反思有助于防止工具主义的泛滥。其次,伦理反思为人工智能科技竞争提供价值引导。伦理反思注重保障人的权利,科技发展并不是社会发展中的唯一衡量因素,我们还应该关注其中多样性的因素,尤其注重保护特殊群体的利益,例如防止数据鸿沟等不良影响。伦理反思有助于实现人工智能的综合性健康发展。

3.人工智能安全与人的全面发展

  主持人:科学探究一直以来都是人们认识世界和了解自身的重要认知方式,人工智能等信息产业的革命如何影响着人们的认知方式?

  彭家锋:人工智能等信息产业的革命,促进了科学研究新范式——数据科学的诞生,进而对人们的认知方式产生深刻影响。数据科学被认为是继实验、理论和模拟之后的新的科研范式。相较于传统科学,数据科学融合了统计和计算思维,通过人工智能等技术提供的海量数据、强大算法和算力,能够直接从数据中寻找相关关系、提取相关性或者预测性知识,进而产生一种基于相关性的科学思维模式。但这种相关性并不一定能够转化为因果关系,因为可解释性对于从数据科学技术确定的相关性中提取因果解释至关重要,而相关技术一般都缺乏必要的透明度和可解释性。数据科学更可能成为一种预测科学,但是预测并不是科学追求的唯一目标。通过揭示世界的潜在因果结构来解释和干预现象,也是科学的两个重要目标。因此,尽管数据科学能够通过分析大量数据生成相关性知识,却不能直接产生因果解释。对此,传统科学的可检验性假设方法和因果规律探求仍有其重要价值。数据科学并非取代传统科学,相反,两者将相互补充,共同成为人类探索世界的有效工具。

  虞昊:显而易见的是,随着人工智能向着通用人工智能迈进,其能够为人们提供的教育资源、生活娱乐、工作讯息也越来越丰富,人们势必越来越依赖于通过与人工智能进行交互来获取外界信息。因此,当人工智能深度地构成人们认知世界的滤镜时,若不对人工智能本身具有重复性、同质性倾向的认知框架保持警醒,人工智能可能扭曲人们的认知方式直至影响人的主体创造性。

  邓玉龙:以人工智能为代表的全新技术发展被称为第四次工业革命,其中最显著的特征就是机器与人类的深度融合,机器不再作为一种外在性的工具被人类使用,而是在与人类的深度关联中影响人类的认知方式。一方面,信息产业革命丰富了人类认知的联结方式。人工智能和大数据技术的发展促进人类的分析逻辑从因果关系扩展为相关关系,对相关关系的重视使人工智能可以从大数据而非小数据维度获取信息,为人类认知提供新的视角。按照传统人类认知方式的理解,因果关系要求关于世界的认知是确定性的,而这在数字时代的复杂性社会中很难实现。人工智能对相关关系的认知填补了这一缺失,允许我们在无法掌握确定信息但在掌握大量数据的条件下对未来趋势作出预测。另一方面,如果我们对人工智能等科技的输出结果和生成内容盲目信赖,将结果和内容与经验事实之间进行绝对等同的连接,误认为是事实的全部,那么我们就会丧失人文主义抽象反思的能力,对此我们应当保持警惕,始终坚持反思和批判的人文精神。

  主持人:如何调适人的主体创造性与信息高度集成共享之间的关系?

  彭家锋:当人们逐渐将更多创造性工作交由人工智能完成,不免让人担忧人工智能是否将会威胁到人的主体创造性。从人机关系的角度来看,这种担忧是基于一种人机敌对论的视角,认为人工智能挤压了人的主体创造性空间,是替代逻辑的延续。但从人机协作的视角出发,将人工智能看作人的得力帮手,通过创造性地使用人工智能可以赋予人类更大的创造性空间。比如,在进行文字写作、多媒体脚本、程序代码、文稿翻译等工作时,可先由人工智能高水平地完成草稿工作,然后再由人类进行一些创造性的调整和发挥。此时人工智能生成的内容将成为进一步创作的原材料,人类将以更高的效率投入创造性活动之中。当然,要实现以上效果并非易事,不仅需要思想观念的转变,还应在制度安排、教育方式等方面作出相应调整。

  虞昊:面对信息高度集成共享的人工智能,人有可能转变为算法的动物。试想下述场景:当依据人工智能展开行动变得足够便捷有效时,行动者便会倾向于采信人工智能,此时,看似是人类行动者基于自然语言在进行互动,实则是算法逻辑基于计算机语言在进行数字化运转。于是,人的主体创造性被侵蚀,人可能沦为算法动物。对此类情形,我们应该保持足够的清醒与警惕。

  邓玉龙:人工智能技术生成的内容(AIGC)具有高度集成共享的特性,能够高效地对人类知识进行数据挖掘、信息生成。调适人的主体创造性与信息高度集成共享之间的关系,我们需做到如下几个方面:首先,需要通过人的创造性扩大AIGC数据库,当下AIGC主要是依赖于大语言模型,以大量的网络文本作为训练数据库生成的,通过人的创造性生成可以不局限于网络文本,而是进一步扩展数据库的训练文本,从而提高其丰富度。其次,需要通过人的创造性为AIGC提供价值训练,通过人的创造性生成的价值立场、伦理法则等与AIGC的训练数据库相融合,从而建构可信赖、可持续的信息高度集成共享机制。最后,需要将人创造性生成的内容与AIGC共同作为人类知识的来源,人类知识的获得不能仅仅局限于AIGC,而是需要人发挥其主体创造性对人工智能技术生成的内容进行反思和拓展,将人类无法被数据化的、经验性的知识与AIGC数据化的知识融合成为人类知识的来源。

  (本版编辑张颖天整理)

人工智能的发展呼唤人类的理性与善良

原标题:人工智能的发展呼唤人类的理性与善良

■陈根

伴随着现代科技的发展,人类面对人工智能的态度表现得何其纠结与矛盾:一方面,人类在人工智能身上寄予的期望值超乎想象,但凡是人类所能想到的,凭借自身条件目前还无法实现的“超能力”,都被嫁接成为人工智能的标配能力;另一方面,人类又因人工智能而感到恐慌,臆断的危机感迅速膨胀,不断地给被“超能力”化的人工智能冠以“人类终结者”的“虚名”。

基于如此复杂的情感,人类关于人工智能发展的争议也变得愈演愈烈。那么,人工智能的发展到底该何去何从?作为一个不断成长中的科技宠儿,人工智能呼唤人类母亲的理性与善良。

呼唤理性:主观臆断并非“我”本意

日前,一项关于利用人工智能判断人类长相与犯罪的联系的研究引起了大家的争议。

国内某高校的研究人员采集了1856名中国公民的面部特征,其年龄范围在18岁~55岁之间。随后,基于对人工智能技术所进行的广泛、深入的研究和讨论,在此基础上通过计算机的数据分析,得出了一组关于罪犯特征的结论:那些嘴巴很小、嘴唇微微上翻、两眼之间距离比较近的人,他们是罪犯的可能性要远远高于其他特征的人。

这项由人类的“脑洞”所抵达科学彼岸的“功劳”,成为了人工智能的“起能力”,那便是根据长相判断你是不是罪犯。“不像人类的检察官或者法官,人工智能计算机的视觉算法或者分类的标准往往不具备任何主观的因素,一切评判的依据都是根据所收集到的数据,因为计算机在做出判断时,不会拥有主观的情绪,也不会根据自己过去的经历甚至是种族、宗教、政治、观念、性别、年龄等等的不同产生任何偏见,更加不会因为自己晚上睡眠不好或者用餐不快而产生的负面情绪影响自己的判断。所以,相对于人类的检察官或者法官而言,人工智能计算机更具有客观性和可靠性。”研究人员发表在《arXiv》上研究成果论文如果说。

对此,基于概率学原理,人工智能准确判断罪犯的概率是客观存在的;依据所谓的“罪犯特征”准确判断人员是否犯罪的概率也是存在的。但是,当科学更大程度上成为基于概率问题的一种可能,那么对此结果的主观导向论证,无疑是非理性的。而这种非理性的结果应用,势必会酿造一批由于高科技发展导致的“冤假错案”。

当此事件真的发生的时候,被质疑的人工智能将有话说:计算机的推算更多的是基于原始数据的输入和推理逻辑的设定,在此基础上进行快速而高效的梳理和演绎;其结果的正确性在很大程度上受影响于人类先行逻辑的合理性。所以,计算机的科学的推理有赖于人类的理性思考。

呼唤安全:针对人类的威胁来源于人

虽然计算机在强人工智能领域尚未得到过多的突破性发展,但是基于人类本能的忧患意识,人工智能“人类终结者”的论断已早有所出,并影响着人类对人工智能发展的客观判断。去年6月份,英国《金融时报》的报道——《机器人真的在现实世界杀人了》便是此思路诱导的应证。

事件回顾:2015年6月29日,德国大众汽车公司的一名技术员在距法兰克福约100公里的包纳塔尔工厂,与一名同事合作安置、调试一台被放置在安全笼里的重型机器人。突然之间,机器人“出手”击中技术员胸部,并将其抓起,重重地摔在一块金属板上。该技术员最终因伤重不治而身亡。在这起事件过程中,遇难技术员正站在安全笼内,而他的同事则站在笼外。当时,所有的媒体不约而同地“断言”:机器人杀人了。

展开全文

我想若不是因为“人工智能”偏见和“终结论”思想的影响,大家地此事件的认识或许很有可能是这样的:技术员操作不当导致的机械事故。技术员在安装调试机器设备的过程中,可能意外触碰或启动了某些工作程序,致使该机器设备在指令的驱动下,发出一些动作,而这些动作恰巧又撞到并勾起正在非安全范围内工作的技术人员,由此对其造成了致命的伤害。

面对这样事件的发生,被质疑的人工智能有话说:安全源于人类自身的意识。就如频频发生的交通事故,撞人致伤致死的“罪魁祸首”并非汽车,而是操作于人类手中的方向盘和脚下油门刹车。这也是为什么世界各国的法律对于交通肇事的处罚只针对人类,而没有把汽车也关起来枪毙了一说。所以,人类的安全很大程度上取决于人类自身,受机器的影响并没有那么大。

呼唤善良:善因善果方得善报

科技的发展是推动人类进步的必经之路,而发展的方向却取决于人心所向。就像德国机器人杀人案,些许媒体人为博眼球,而选择通过“标题党”博出位;也不乏“阴谋论者”见风就是雨。若真是“机器人杀人了”,那么,真正的动机也是出于隐藏在机器人背后的程序系统操作者。因为没有自主意识的机器若“杀人”,其动机又从何来呢?一切无不源于人类的程序设定。

就如大数据和云计算的不断精进发展,也面临着同样的问题,就如在《疑犯追踪》中所呈现的。软件天才芬奇发明了一个程序,通过观测已有的模式来识别有可能进行暴力犯罪的罪犯;并借助于计算机对所采集大数据的计算与分析,以实现在犯罪发生前对其加以阻止。虽说是“法外执法”,却因基于善的目的,不仅帮助国家预防恐怖袭击,更是拯救个人于危难之间。但是剑走偏锋,如果本是恶的人其所打造的工具势必也将存在着导致恶的结果,同样是片中反派所制造的监控系统Samaritan,用我们传统的一句话来对其进行评价,那便是“助纣为虐”。简而言之,大数据可以用来帮助人们进行统计分析,并做出精准决策,以促进整个社会更快更好地发展。但是,当同样的大数据遭到黑客,那么不论其出于何种目的,抑或是否将其流于黑市交易,对于数据所指向的个人,甚至国家社会,无疑都是具有灾难性风险的。

人工智能,是人类自我延伸和社会发展的工具,是一把双刃剑。但工具本身没有善恶对错;其所呈现的无论是善是恶,都是人类意识和信念形态的转移与嫁接。那么,今天的机器人,明天的人工智能,将会给人类世界带来怎样的影响,同样取决于人类自身的行为、期望和信念。人类植入的信念是善,那便是善果;人类植入的信念是恶,那只能是恶果。甚至,在未来机器人自我学习升级的过程中,也将由人类打造的环境对其产生直接而根本的影响。

伴随着科技的发展,明天的人类势必不会再是今天的人类。人工智能在未来人类社会,必将承担起越来越重要的角色职能。那么,作为人类的我们,如何为未来自己打造一份美好的科幻新天地,很大程度上取决于今天,走在发展人工智能道路上的我们,是否秉承了理性与善良。理性地发展人工智能,不片面、不偏执,本着一颗正义的目的和向善的心,我相信在此信念基础上发展出来的人工智能,势必将更能协助人类实现自我的蜕变与升级。返回搜狐,查看更多

责任编辑:

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇