博舍

《人工智能伦理与治理报告》内容解读 人工智能科技伦理

《人工智能伦理与治理报告》内容解读

2021年8月15日,由清华大学数据治理研究中心主办的“人工智能伦理与治理”专题研讨会于云端举行,来自中央党校、中国社科院、清华大学、复旦大学、浙江大学、中国政法大学、电子科技大学、山东大学、北京化工大学、中国农业大学、对外经济贸易大学、山东师范大学等高校的多位专家学者共聚一堂,围绕人工智能伦理的核心关切和治理方式等问题展开深入研讨。会议由清华大学社会科学学院副院长、计算社会科学平台执行主任孟天广副教授主持。

会上,清华大学数据治理研究中心项目研究员严宇、戴思源和李珍珍共同汇报了《人工智能伦理与治理报告》。报告将人工智能伦理分为安全、透明、公平、个人数据保护、责任等八个维度,通过问卷调查的方式收集了公众针对这些伦理维度的关切情况及治理方式。报告特别关注了算法伦理问题,专门就算法透明、算法公开及数据保护三个方面展开讨论。最后,报告还提出了人工智能伦理治理的“中国方案”。以下为汇报内容:

严宇:美国人工智能监管以发展和创新为先

清华大学数据治理研究中心项目研究员严宇表示,从伦理治国的跨国比较来看,美国的人工智能监管是以发展和创新优先为导向的。

严宇指出,在全球范围内,各国都已经看到人工智能技术对社会的影响,总体可以分为乐观派和悲观派两大派系。乐观派认为人工智能技术极大地促进了经济社会发展;相对来说,悲观派会更多地关注潜在的伦理风险。“由此会产生两种不同的措施,比如乐观派会积极采用战略规划和政策文件来推动人工智能技术的发展与应用;悲观派则会对人工智能伦理开展专项调查,甚至出台具体措施,对伦理风险进行规制。”

严宇在对人工智能伦理治理体系进行跨国比较后表示,美国为了保持其在人工智能领域的全球领先地位,既看重发展,又会考虑伦理风险。“但总体来说美国仍然是以发展和创新优先。”美国非常强调政府和企业、学校、研究机构等社会组织的合作。从顶层设计上来看,联邦政府曾发布行政命令和战略规划,推动人工智能的发展。这些战略规划也提出要对人工智能的伦理问题进行规制,但是其监管仍然是将发展和创新放在更优先的地位。

在严宇看来,不同于美国以发展和创新为先的监管体系,欧盟的监管体系更加严格。“欧盟人工智能企业的数量、规模和影响力虽然排在美国和中国之后,但是它的人工智能监管和治理却在全球有相当的影响力,形成了以强监管为核心特征的治理体系。”

对于邻国日本的人工智能技术发展,严宇表示,日本在试图从中寻找平衡,一方面肯定人工智能的重要作用,另外一方面又要强调重视它的负面影响。日本为此建立了一系列伦理的准则。

严宇介绍道,过去十年,中国的人工智能技术发展速度非常迅猛,近几年中国也越来越关注人工智能的伦理及治理问题。组织和制度方面,中国建立了新一代人工智能治理专业委员会,发布了《新一代人工智能发展规划》,提出要建立规范的伦理体系和法律法规;治理原则方面,形成了《网络安全标准实践指南》,专门提出对人工智能的伦理安全风险开展防范和治理。监管体系方面,中国正在大力推动国家人工智能安全和评估体系。

戴思源:网民关心反垄断时代人工智能相关的数据权利

研究发现,网民关心反垄断时代人工智能相关的数据权利。戴思源的团队从安全、透明、公平、个人数据保护、责任、真实、人类自主、人类尊严八个维度对人工智能伦理进行梳理,并结合小数据和大数据展开实证分析。小数据主要来自清华大学数据治理研究中心在2021年7月份展开的有关人工智能应用与公众认知的网络问卷调查,共收集2654份,有效数2041份;大数据来自新浪微博的网民讨论数据,提取人工智能相关关键词条共4496万条,另外一个大数据来源是今日头条有关人工智能的1.9万篇文章和相关评论2.5万条。

戴思源表示,网民对各个维度都有所关注,其中在安全、公平、个人数据保护、责任方面,表示关切的人数最多。对比之下,对透明、人类自主和人类尊严这几个维度较少关注。

在人工智能应用的生活场景中,戴思源的团队将其划分为智能门禁、智能家居和信息类APP等几个类别,让受访者对人工智能技术选择各个层面因素进行排序。“总的来看,在所有场景当中,有用性和伦理因素都是最重要的因素,影响受访者是否使用该类人工智能产品。”戴思源说。

同时,戴思源的团队也对社交媒体与资讯大数据展开分析。他们在对新浪微博的数据按上述八个伦理维度进行细分之后发现,微博网民主要关注安全、透明、隐私保护和责任等方面。通过词云图进一步分析,发现在安全维度上,公众主要对人工智能技术的安全性表示关切;透明维度上,公众主要对物联网金融信息公开、特斯拉自动驾驶的数据公开、人工智能技术细节的公开展开讨论;隐私保护方面,公众主要集中于人脸识别等技术的滥用、互联网企业利用大数据杀熟等现象展开讨论;可靠性维度上,公众主要讨论人工智能产品是否能够为用户提供可靠的服务。

戴思源指出,针对不同的企业,新浪微博的网民对于特斯拉的讨论度最高。“这可能与特斯拉在行业的技术领先优势及社会舆情事件密切相关。”另外,阿里、华为等企业的讨论热度也紧随其后。微博网民更倾向于从人工智能所取得的技术进展和革新来讨论企业。

戴思源表示,阿里巴巴反垄断案、抖音诉腾讯不正当竞争案等高点赞文章的主题都同平台垄断等新型市场垄断形式密切相关。“这反映出网民关心新型垄断形式所主导下的人工智能发展以及与此相关联的数据权利。”

李珍珍:较多受访者认为不应公开算法源代码

研究发现,公众对算法公开的支持态度主要集中在算法应用和推广阶段,但较多受访者认为不应公开算法源代码。

李珍珍针对算法的伦理问题提出三个关切点:算法的透明、公平和数据保护。她的团队通过问卷调查收集公众对于算法透明、算法公开的态度,总结公众对算法透明和公开的五个维度:一是人工智能企业应该向社会披露算法的目的、范围和用途;二是企业应该向社会解释算法的步骤、原理和细节;三是企业应该向社会公开算法的源代码;四是企业应该向社会披露算法使用的风险;五是企业应该接受社会对算法开发和应用的监督。

调研结果显示,从整体上看,公众对算法透明和公开持普遍支持态度,绝大部分受访者对于算法的目的、范围、用途、算法风险、算法开发应用这些方面选择比较同意或者非常同意。然而,对于公开算法的步骤、原理、细节以及公开算法的源代码,持同意态度受访者比例会显著降低,特别是较多受访者都认为不应该公开算法源代码。

李珍珍表示,公众对算法公开的支持态度主要集中在算法应用和推广阶段,即在使用人工智能产品过程中直接受算法影响的那个阶段。而对算法的设计过程,尤其是源代码,大多数人并不认为应该公开。

在当前算法社会中,用户成为被算法评估的对象。李珍珍指出,我们应该选择适当的措施来保障算法的公平,规避算法歧视。“我们对于算法公平的调查,将有助于科技工作者研发出更具公平原则的算法,这种公平原则需要符合公众对公平概念的普遍理解。”

另外,李珍珍还提到算法伦理问题很大程度上是关注个人数据和隐私保护。团队在调查中发现,公众认为最重要的个人信息包括自己的基本信息、人际关系信息、经济情况信息等。另外,在隐私泄露、信息盗用、信息删除、信息查阅等个人信息和隐私潜在风险的四个方面,网民对于个人隐私泄露和信息盗用最为担心。

“算法社会的内生风险和伦理问题需要我们在未来进一步规范算法的研发和应用,系统讨论算法伦理及其风险治理,让算法更好地服务人类社会。”李珍珍说。

回顾“人工智能伦理与治理”专题研讨会:

人工智能伦理与治理研讨会成功举办

孟天广:人工智能伦理及其治理要打通科技社群与社会大众

吕鹏:人工智能伦理问题需实证证实或证伪

陈水生:人工智能伦理和治理需要“发展”和“监管”双轮驱动

李锋:人工智能伦理不能脱离社会经济状况和历史视角

孙宗锋:需研究公众对人工智能伦理关注重心的背后原因

赵娟:人工智能治理框架应处理四对关系

熊易寒:把算法还原成普通人能理解的逻辑

吴超:算法技术问题最根本的解决方法是发展技术本身

贾开:应从技术与社会互嵌角度重视人工智能治理框架

曲甜:从技术与组织关系分析人工智能的治理模式

宁晶:网络用户使用技能和心理效能影响算法接受度

张小劲:算法治理应致力于促发展、防滥用并消除污名化现象

更多与会专家发言内容,欢迎查看专题报道,或关注清华大学数据与治理研究中心官方微信公众号“数据与治理”。

(来源:中新经纬APP,未经授权禁止转载)

人工智能的伦理挑战与科学应对

编者按

2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。作为最具代表性的颠覆性技术,人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性也会带来诸多全球性挑战,引发重大的伦理关切。习近平总书记高度关注人工智能等新兴科技的发展,强调要加快提升“人工智能安全等领域的治理能力”,“塑造科技向善的文化理念,让科技更好增进人类福祉”。为此,本版特组织几位青年学者围绕人工智能的伦理挑战与科学应对展开讨论,并邀请专家予以点评,以期引发学界的更多关注,为推动人工智能健康发展贡献智慧。

与谈人

彭家锋中国人民大学哲学院博士生

虞昊华东师范大学政治与国际关系学院博士生

邓玉龙南京师范大学哲学系博士生

主持人

刘永谋中国人民大学哲学院教授、国家发展与战略研究院研究员

1.机遇与挑战并存的人工智能

主持人:新技术革命方兴未艾,以人工智能等为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围,人类正在进入一个“人机物”相融合的万物智能互联时代。请具体谈谈人工智能给人类社会发展带来什么样的机遇?

彭家锋:人工智能、大数据、物联网、云计算等智能技术蓬勃兴起,对人类社会的方方面面产生深刻影响,推动整个社会逐步迈入智能社会。在此过程中,存在许多重大历史机遇需要我们把握。就技术治理而言,人工智能作为一种治理技术,正在助推社会治理的治理理念、治理方式、治理效能等方面的变革,将传统技术治理提升至智能化新阶段,呈现出“智能治理的综合”趋势。智能治理将全面提升社会公共治理的智能化水平,主要呈现出四个方面的特征:一是治理融合化,即促进各种智能技术与其他治理技术相互融合,大幅度提升智能社会的治理水平;二是治理数据化,即以日益增长的海量数据为基础,通过对数据映射出来的“数字世界”进行社会计算,实现治理目标;三是治理精准化,即发挥智能技术强大的感知能力、传输能力和计算能力,将传统的粗放治理转变为精准治理;四是治理算法化,即不断完善智能决策系统,尝试将程序化的算法决策扩展到更多的决策活动中,从而提高决策质量。

虞昊:人工智能有助于反思人类社会得以建立与发展的基础。随着分析式AI向着生成式AI不断演变,尤其是生成式AI初步展现出判别问题、分析情感、展开对话、创作内容等越来越具有人类特征的功能,原本属于人类的领域正被人工智能以另一套由“0”与“1”构成的计算机语言逐步侵蚀。这既是对人类社会的冲击,也势必会在更加平等的开放性框架中增强人类的主体性,促进人类社会进一步发展。

邓玉龙:总体来说,以人工智能为代表的新科技发展,显著提升了社会生产力。例如,生成式AI不但能完成传统AI的分析、判断工作,还能进一步学习并完成分析式AI无法从事的创造性工作。从人机交互的角度来看,人工智能也促进了生产关系的高效发展。具体表现在:一是刺激劳动形态的转化。人工智能高效承担大量的基础机械性劳动,人类劳动则向高阶的创造性劳动转化,由此引发社会层面的劳动结构转型、升级,并且以人工智能为中介,社会范围内的劳动整合、协调能力也实现升级。二是促进劳动场域的重构。随着劳动形态的转化和劳动的社会化扩展,人工智能将劳动从固定场域中解放出来,人类劳动的灵活性增加。相比于创造性劳动,机械性劳动更加受到空间和时间的制约,而在人工智能从技术层面替代更低边际成本的基础性劳动之后,人类劳动空间和时间的自由性实现跃迁。三是对主体的发展提出了更高要求,尤其是对主体适应社会发展提出了更高要求。人工智能技术的发展对人类传统的知识结构提出挑战,要求人类更新原有的知识结构以适应社会发展需要,也对教育提出更高要求,教育模式和教育内容需要更契合科技发展的水平,培养更加全面发展的人才。

主持人:人工智能的一系列产物在给人们带来生活便利的同时,也一定程度上引起大家对其可能引发的伦理挑战的警惕。一些人关注人工智能的风险问题,对人工智能的推进有些焦虑。如何看待这种警惕和焦虑?

虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的。但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车。同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃。因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机。

邓玉龙:我们应正确看待这种焦虑。要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题。正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题。同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题。从劳动的角度看,人工智能确实会取代部分人类劳动,推动劳动结构转型升级,让劳动向着碎片化、个体化方向发展,劳动者处于弱势地位,面临着“机器换人”的挑战。但是我们也应该理性认识到,人工智能不是对人类劳动能力的完全替代,而是对劳动者提出了更高的要求,要求劳动者掌握科学知识,将技术的发展内化为自身能力,在更具创造性的劳动中实现自身价值。

彭家锋:任何技术的发明使用,不可避免地伴随着这样或那样的风险。人工智能技术自然也不例外,在其应用过程中,同样引发了诸如隐私泄露、算法歧视、法律责任等风险问题。因此,关注人工智能的风险问题,并由此对人工智能的推进产生焦虑,具有一定理论依据和现实基础。但更应当清醒地认识到,人工智能的某些相关风险可以提前得到规避,并不必然会发生;即便真的发生,也仍可不断寻求化解风险的有效手段。以个人隐私滥用风险为例,在治理过程中,虽然不可避免地会涉及个人数据收集和分析处理,但可以通过建立完整的规范和监管体系来保护个人隐私,降低滥用风险。

2.人工智能科技竞争的“伦理赛道”

主持人:习近平总书记在以视频方式出席二十国集团领导人第十五次峰会时指出,“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展”。请谈谈“人工智能原则”应包含哪些内容?科技向善的文化理念对推动全球人工智能健康发展具有怎样的现实价值?

彭家锋:为应对人工智能等新科技快速发展带来的伦理挑战,2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”等五项科技伦理原则。我认为,这五项原则基本涵盖了人工智能原则的伦理要求,彰显了科技向善的文化理念。科技向善的文化理念,根本目标是让科技发展更好地服务社会和人民,带来良好社会或社会公益的善。科技向善对推动全球人工智能健康发展至少具有以下三个方面现实价值:一是塑造公众信任。公众对人工智能的信任很大程度上并不完全由相关风险程度决定,而是取决于公众的利益与价值是否得到足够重视。后者正是科技向善的内在要求。二是引领技术创新。科技向善的文化理念将在技术创新发展过程中发挥价值引领作用。三是促进全球合作。科技向善的文化理念试图在全球范围内建立人工智能伦理规范的“最大公约数”,各国在达成伦理共识的基础之上,能够建立互信,实现更加充分深入的国际合作。

虞昊:个人认为,人工智能原则也应包含非对抗与非失控的理念。非对抗意味着不应将人工智能视作人类社会的对抗性存在,人工智能已经成为人类社会的构成性要素,我们必须持更为开放的态度去面对人工智能。非失控意味着不应放弃对人工智能的伦理规范,应以智能的方式去规范加速发展的人工智能。如果以上述理念为前提,也就是说,在支持人工智能发展的情况下,科技向善的文化理念在推动全球人工智能健康发展中就变得极为重要。此处的“善”在国家治理层面即指向“善治”,而当人工智能的发展从国家范围扩展到全球范围,“善治”就在构建人类命运共同体的意义上拥有了更贴近现实的内涵。各国应摒弃冷战思维与零和博弈,基于善意与友谊共同思考人类作为整体如何在人工智能的冲击下通往全球性的“善治”。

邓玉龙:2019年欧盟发布《可信赖的人工智能伦理准则》,2021年中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》)。与欧盟发布的伦理准则相比,《规范》体现了中国特色社会主义的制度优势,旨在将伦理规范融入人工智能全生命周期。人工智能发展的根本目的是促进人的全面发展,因此,我以为,人工智能原则还应体现共享和有序发展的要求。共享,旨在防止人工智能的技术垄断。科技发展应该兼顾全体人民的利益,而不是服务于少数群体,由全体人民共享科技发展成果,推动全球科技水平的共同增长。有序发展,旨在防止人工智能技术的无序扩张。人工智能技术的发展最终是为了提升人的幸福感,推动科技有序发展能够促进人机和谐融合,有效预防潜在无序扩张的风险。

主持人:从规范层面来说,伦理反思对规范人工智能发展的作用主要体现在哪些方面?

彭家锋:近年来,世界各主要国家在人工智能领域竞争日趋激烈,纷纷将人工智能发展置于国家发展的战略层面。比如,美国陆续出台《国家人工智能研究和发展战略计划》(2016)和《关于维持美国在人工智能领域领导地位的行政命令》(2019);欧盟先后发布《欧洲人工智能战略》(2018)和《人工智能白皮书》(2020);中国也较早发布了《“互联网+”人工智能三年行动实施方案》(2016)和《新一代人工智能发展规划》(2017)。人工智能科技竞争的客观局面已然形成。在此背景下,如果忽视人工智能技术发展所带来的全球性风险与挑战,极有可能陷入技术赶超的竞争逻辑。因此,亟须规范人工智能的科技竞争,而倡导伦理反思或许就是一条可行之路。伦理反思的意义至少在于:一是设定伦理底线。人工智能技术的开发和应用需要遵循一些基本的价值理念和行为规范。只有守住伦理底线,才有可能避免颠覆性风险的发生。二是实现敏捷治理。伦理反思是一个动态、持续的过程,贯穿于人工智能科技活动的全生命周期。为了确保其始终服务于增进人类福祉和科技向善的初衷,需要保持应有的道德敏感性,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。

邓玉龙:人工智能科技竞争是为了促进科学技术发展,而科学技术发展的最终目的是推动人类社会的进步。人工智能科技竞争不应该仅包括技术竞争的单一维度,更不应该通过技术优势遏制他国的科技发展,而应该是在人工智能科技条件下的综合性竞争,通过良性竞争促进全球人工智能和全人类的共同发展。其中就应该包括社会治理竞争,通过社会治理保障社会公平,因而对社会中人与人关系的伦理反思构成人工智能科技竞争的有机组成部分。首先,伦理反思对人工智能科技竞争提出了更高的要求。人工智能的公平性、可信任性、可解释与透明度、安全性不仅是伦理要求,也代表了人工智能技术的发展方向,是人工智能科技竞争需要抢占的技术制高点。科技的发展是为了人的全面发展,因而人的发展内嵌于科技发展要求,伦理反思有助于防止工具主义的泛滥。其次,伦理反思为人工智能科技竞争提供价值引导。伦理反思注重保障人的权利,科技发展并不是社会发展中的唯一衡量因素,我们还应该关注其中多样性的因素,尤其注重保护特殊群体的利益,例如防止数据鸿沟等不良影响。伦理反思有助于实现人工智能的综合性健康发展。

3.人工智能安全与人的全面发展

主持人:科学探究一直以来都是人们认识世界和了解自身的重要认知方式,人工智能等信息产业的革命如何影响着人们的认知方式?

彭家锋:人工智能等信息产业的革命,促进了科学研究新范式――数据科学的诞生,进而对人们的认知方式产生深刻影响。数据科学被认为是继实验、理论和模拟之后的新的科研范式。相较于传统科学,数据科学融合了统计和计算思维,通过人工智能等技术提供的海量数据、强大算法和算力,能够直接从数据中寻找相关关系、提取相关性或者预测性知识,进而产生一种基于相关性的科学思维模式。但这种相关性并不一定能够转化为因果关系,因为可解释性对于从数据科学技术确定的相关性中提取因果解释至关重要,而相关技术一般都缺乏必要的透明度和可解释性。数据科学更可能成为一种预测科学,但是预测并不是科学追求的唯一目标。通过揭示世界的潜在因果结构来解释和干预现象,也是科学的两个重要目标。因此,尽管数据科学能够通过分析大量数据生成相关性知识,却不能直接产生因果解释。对此,传统科学的可检验性假设方法和因果规律探求仍有其重要价值。数据科学并非取代传统科学,相反,两者将相互补充,共同成为人类探索世界的有效工具。

虞昊:显而易见的是,随着人工智能向着通用人工智能迈进,其能够为人们提供的教育资源、生活娱乐、工作讯息也越来越丰富,人们势必越来越依赖于通过与人工智能进行交互来获取外界信息。因此,当人工智能深度地构成人们认知世界的滤镜时,若不对人工智能本身具有重复性、同质性倾向的认知框架保持警醒,人工智能可能扭曲人们的认知方式直至影响人的主体创造性。

邓玉龙:以人工智能为代表的全新技术发展被称为第四次工业革命,其中最显著的特征就是机器与人类的深度融合,机器不再作为一种外在性的工具被人类使用,而是在与人类的深度关联中影响人类的认知方式。一方面,信息产业革命丰富了人类认知的联结方式。人工智能和大数据技术的发展促进人类的分析逻辑从因果关系扩展为相关关系,对相关关系的重视使人工智能可以从大数据而非小数据维度获取信息,为人类认知提供新的视角。按照传统人类认知方式的理解,因果关系要求关于世界的认知是确定性的,而这在数字时代的复杂性社会中很难实现。人工智能对相关关系的认知填补了这一缺失,允许我们在无法掌握确定信息但在掌握大量数据的条件下对未来趋势作出预测。另一方面,如果我们对人工智能等科技的输出结果和生成内容盲目信赖,将结果和内容与经验事实之间进行绝对等同的连接,误认为是事实的全部,那么我们就会丧失人文主义抽象反思的能力,对此我们应当保持警惕,始终坚持反思和批判的人文精神。

主持人:如何调适人的主体创造性与信息高度集成共享之间的关系?

彭家锋:当人们逐渐将更多创造性工作交由人工智能完成,不免让人担忧人工智能是否将会威胁到人的主体创造性。从人机关系的角度来看,这种担忧是基于一种人机敌对论的视角,认为人工智能挤压了人的主体创造性空间,是替代逻辑的延续。但从人机协作的视角出发,将人工智能看作人的得力帮手,通过创造性地使用人工智能可以赋予人类更大的创造性空间。比如,在进行文字写作、多媒体脚本、程序代码、文稿翻译等工作时,可先由人工智能高水平地完成草稿工作,然后再由人类进行一些创造性的调整和发挥。此时人工智能生成的内容将成为进一步创作的原材料,人类将以更高的效率投入创造性活动之中。当然,要实现以上效果并非易事,不仅需要思想观念的转变,还应在制度安排、教育方式等方面作出相应调整。

虞昊:面对信息高度集成共享的人工智能,人有可能转变为算法的动物。试想下述场景:当依据人工智能展开行动变得足够便捷有效时,行动者便会倾向于采信人工智能,此时,看似是人类行动者基于自然语言在进行互动,实则是算法逻辑基于计算机语言在进行数字化运转。于是,人的主体创造性被侵蚀,人可能沦为算法动物。对此类情形,我们应该保持足够的清醒与警惕。

邓玉龙:人工智能技术生成的内容(AIGC)具有高度集成共享的特性,能够高效地对人类知识进行数据挖掘、信息生成。调适人的主体创造性与信息高度集成共享之间的关系,我们需做到如下几个方面:首先,需要通过人的创造性扩大AIGC数据库,当下AIGC主要是依赖于大语言模型,以大量的网络文本作为训练数据库生成的,通过人的创造性生成可以不局限于网络文本,而是进一步扩展数据库的训练文本,从而提高其丰富度。其次,需要通过人的创造性为AIGC提供价值训练,通过人的创造性生成的价值立场、伦理法则等与AIGC的训练数据库相融合,从而建构可信赖、可持续的信息高度集成共享机制。最后,需要将人创造性生成的内容与AIGC共同作为人类知识的来源,人类知识的获得不能仅仅局限于AIGC,而是需要人发挥其主体创造性对人工智能技术生成的内容进行反思和拓展,将人类无法被数据化的、经验性的知识与AIGC数据化的知识融合成为人类知识的来源。

(张颖天整理)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇