如何认识人工智能对未来经济社会的影响
原标题:如何认识人工智能对未来经济社会的影响人工智能作为一种新兴颠覆性技术,正在释放科技革命和产业变革积蓄的巨大能量,深刻改变着人类生产生活方式和思维方式,对经济发展、社会进步等方面产生重大而深远的影响。世界主要国家都高度重视人工智能发展,我国亦把新一代人工智能作为推动科技跨越发展、产业优化升级、生产力整体跃升的驱动力量。在此背景下,我们有必要更好认识和把握人工智能的发展进程,研究其未来趋势和走向。
人工智能不同于常规计算机技术依据既定程序执行计算或控制等任务,而是具有生物智能的自学习、自组织、自适应、自行动等特征。可以说,人工智能的实质是“赋予机器人类智能”。首先,人工智能是目标导向,而非指代特定技术。人工智能的目标是在某方面使机器具备相当于人类的智能,达到此目标即可称之为人工智能,具体技术路线则可能多种多样,多种技术类型和路线均被纳入人工智能范畴。例如,根据图灵测试方法,人类通过文字交流无法分辨智能机器与人类的区别,那么该机器就可以被认为拥有人类智能。其次,人工智能是对人类智能及生理构造的模拟。再次,人工智能发展涉及数学与统计学、软件、数据、硬件乃至外部环境等诸多因素。一方面,人工智能本身的发展,需要算法研究、训练数据集、人工智能芯片等横跨整个创新链的多个学科领域同步推进。另一方面,人工智能与经济的融合要求外部环境进行适应性变化,所涉的外部环境十分广泛,例如法律法规、伦理规范、基础设施、社会舆论等。随着人工智能进一步发展并与经济深度融合,其所涉外部环境范围还将进一步扩大,彼此互动和影响亦将日趋复杂。
总的来看,人工智能将波浪式发展。当前,人工智能正处于本轮发展浪潮的高峰。本轮人工智能浪潮的兴起,主要归功于数据、算力和算法的飞跃。一是移动互联网普及带来的大数据爆发,二是云计算技术应用带来的计算能力飞跃和计算成本持续下降,三是机器学习在互联网领域的应用推广。但人工智能技术成熟和大规模商业化应用可能仍将经历波折。人工智能的发展史表明,每一轮人工智能发展浪潮都遭遇了技术瓶颈制约,导致商业化应用难以落地,最终重新陷入低潮。本轮人工智能浪潮的技术上限和商业化潜力都大大高于以往,部分专用人工智能可能获得长足进步,但许多业内专家认为目前的人工智能从机理上还不存在向通用人工智能转化的可能性,人工智能大规模商业化应用仍将是一个长期而曲折的过程。人工智能的发展尚处于早期阶段,在可预见的未来仍将主要起到辅助人类工作而非替代人类的作用,同时,严重依赖数据输入和计算能力的人工智能距离真正的人类智能还有很大的差距。
作为继互联网后新一代“通用目的技术”,人工智能的影响可能遍及整个经济社会,创造出众多新兴业态。国内外普遍认为,人工智能将对未来经济发展产生重要影响。
一方面,人工智能将是未来经济增长的关键推动力。人工智能技术的应用将提升生产率,进而促进经济增长。许多商业研究机构对人工智能对经济的影响进行了预测,主要预测指标包括GDP增长率、市场规模、劳动生产率、行业增长率等。多数主要商业研究机构认为,总体上看,世界各国都将受益于人工智能,实现经济大幅增长。未来十年(至2030年),人工智能将助推全球生产总值增长12%左右。同时,人工智能将催生数个千亿美元甚至万亿美元规模的产业。人工智能对全球经济的推动和牵引,可能呈现出三种形态和方式。其一,它创造了一种新的虚拟劳动力,能够解决需要适应性和敏捷性的复杂任务,即“智能自动化”;其二,人工智能可以对现有劳动力和实物资产进行有力的补充和提升,提升员工能力,提高资本效率;其三,人工智能的普及将推动多行业的相关创新,提高全要素生产率,开辟崭新的经济增长空间。
另一方面,人工智能替代劳动的速度、广度和深度将前所未有。许多经济学家认为,人工智能使机器开始具备人类大脑的功能,将以全新的方式替代人类劳动,冲击许多从前受技术进步影响较小的职业,其替代劳动的速度、广度和深度将大大超越从前的技术进步。但他们同时指出,技术应用存在社会、法律、经济等多方面障碍,进展较为缓慢,技术对劳动的替代难以很快实现;劳动者可以转换技术禀赋;新技术的需求还将创造新的工作岗位。
当前,在人工智能对经济的影响这个领域,相关研究已经取得了一些成果,然而目前仍处于研究的早期探索阶段,还未形成成熟的理论和实证分析框架。不过,学界的一些基本共识已经达成:短期来看,人工智能发展将对我国经济产生显著促进作用;长期来看,人工智能的发展路径和速度难以预测。因此,我们需对人工智能加速发展可能导致的世界经济发展模式变化保持关注。
(作者单位:国务院发展研究中心创新发展研究部)
(责编:赵超、吕骞)分享让更多人看到
中国社会科学杂志社
当前,人工智能被深度应用于社会的各个领域,推动了社会生产效率的整体提升。然而,作为一种具有开放性、颠覆性但又远未成熟的技术,人工智能在带来高效生产与便利生活的同时,不可避免地对现有伦理关系与社会结构造成冲击,且已引发不少伦理冲突与法律问题。在技术快速更新的时代,如何准确把握时代变迁的特质,深刻反思人工智能引发的伦理风险,提出具有针对性、前瞻性的应对策略,是摆在我们面前的重大时代课题。
技术伦理风险
技术是一把双刃剑,其在推动社会进步的同时,也在很大程度上带来了技术风险。人工智能技术也是如此。现阶段,人工智能的技术伦理风险主要体现在以下三个方面。
人工智能的设计风险。设计是人工智能的逻辑起点,设计者的主体价值通过设计被嵌入人工智能的底层逻辑之中。倘若人工智能设计者在设计之初,秉持错误的价值观或将相互冲突的道德准则嵌入人工智能之中,那么在实际运行的过程中便很有可能对使用者生命、财产安全等带来威胁。
人工智能的算法风险。算法是人工智能的核心要素,具备深度学习特性的人工智能算法能够在运行过程中自主调整操作参数和规则,形成“算法黑箱”,使决策过程不透明或难以解释,从而影响公民的知情权及监督权,造成传统监管的失效。人工智能算法可能在不易察觉或证明的情况下,利用算法歧视或算法合谋侵害消费者的正当权益,进而扰乱市场经济秩序和造成不公平竞争。近年来被广泛曝光的“大数据杀熟”,正是这一风险的具体体现。
人工智能的数据安全风险。隐私权是人的一项基本权利,隐私的保护是现代文明的重要体现。但在众多的人工智能应用中,海量的个人数据被采集、挖掘、利用,尤其是涉及个人生物体征、健康、家庭、出行等的敏感信息。公民的隐私保护面临巨大挑战,人工智能所引发的隐私泄露风险已被推到风口浪尖。而不少隐私泄露事件的发生,也在一定程度上加深了公众对人工智能广泛应用的担忧。隐私保护与人工智能的协调发展,已成为当前亟待解决的问题。
社会伦理挑战
人工智能不仅有着潜在的、不可忽视的技术伦理风险,伴随数字化的飞速发展,人工智能对现有社会结构及价值观念的冲击亦愈发明显。人类社会的基本价值,如尊严、公平、正义等,也正因此面临挑战。
人工智能的发展对人类道德主体性的挑战。2017年智能机器人索菲亚被授予沙特阿拉伯王国公民身份,这引发了许多人对人工智能挑战人类主体性的担忧。通常人被认为是唯一的道德主体,人的道德主体性的依据在于人的某些精神特点(如意识、思维)。当前,人工智能虽仍处于弱人工智能阶段,还无法形成自我意识,但是,智能机器人不仅在储存、传输、计算等多方面的能力超越了人脑,而且借助材料学等现代技术,智能机器人可能在外形上“比人更像人”,甚至拥有更丰富的情感(比如索菲亚能够模拟62种面部表情)。这样的智能机器人究竟是否是“人”?是否应确立为道德主体?如果赋予人工智能主体资格,那么其究竟是一种与人类对等的主体,还是一种被限制的主体?这些问题表明:人工智能对人类道德主体性的挑战,不只是电影小说中的浪漫想象,而是已日益成为一种现实风险。
人工智能的发展对社会整体公平正义的挑战。首先,人工智能的发展可能加剧社会的贫富差距。由于年龄、所在地区、从事行业、教育水平等的差异,人们接触人工智能的机会并不均等,实际使用人工智能的能力并不相同,这就造成了“数字鸿沟”现象。“数字鸿沟”与既有的城乡差别、工农差别、脑体差别等叠加在一起,进一步扩大了贫富差距,影响了社会发展的公平性。其次,人工智能的发展可能引发结构性失业大潮。由于智能机器相较于人类工人有着稳定、高效等优势,越来越多的人类工人正在被智能机器所取代,成为赫拉利(YuvalNoahHarari)在《未来简史》中所谓的“无用阶级”。麦肯锡全球研究所的研究数据显示,到2030年,全球将有8亿人因工作流程的智能化、自动化而失去工作。虽然人工智能的发展也会带来新的工作岗位,但是由于“数字鸿沟”的存在,不少人并不能找到新的工作,结构性失业大潮可能汹涌而至。这将成为激化社会矛盾、破坏社会稳定、挑战社会公平正义的又一重大潜在风险。
应对防范策略
技术伦理风险与社会伦理挑战的图景展示表明,人工智能“安全、可靠、可控”的良性发展依然任重道远。对于人工智能风险、挑战的应对防范,事关未来社会的发展方向与人类整体的前途命运,需要我们运用哲学的反思、批判,作出审慎恰当的抉择。
确立人工智能发展的基本价值原则。面对风险、挑战,我们应当避免马尔库塞(HerbertMarcuse)所说的“技术拜物教”倾向,要将伦理、道德等价值要素纳入到人工智能发展的内在考量之中,尽快构建起具有广泛共识的人工智能伦理体系。应确立如下基本价值原则,作为建构人工智能伦理体系的“阿基米德支点”。一是人本原则。人工智能始终是“属人”的造物,是为增进人类的福祉和利益而被创造出来的。无论人工智能有多么接近“图灵奇点”,也不应改变其属人性。人本原则是人工智能研发、应用的最高价值原则。二是公正原则。人工智能的发展要以绝大多数人的根本利益为归趋,不能片面地遵循“资本的逻辑”与“技术的逻辑”,坐视“数字鸿沟”的扩大,而应当让每一个人都拥有平等接触、使用人工智能的机会,从而使绝大多数人都能从人工智能的发展与应用中受益。三是责任原则。明晰道德责任,对于防范和治理人工智能伦理风险具有重要意义。要加强人工智能设计、研发、应用和维护等各个环节的责任伦理建设,尤其要注意设计者、开发者的道义责任感培养,明确各方主体的权利、义务和责任,建立健全完备、有效的人工智能事故追究问责机制。
建立人工智能发展的具体伦理规范。在确立人工智能伦理基本原则的同时,还需要制定人工智能产品设计者、开发者及使用者的具体伦理规范与行为守则,从源头到下游进行规范与引导。针对人工智能的重点领域,要研究具体细化的伦理准则,形成具有可操作性的规范和建议。应当加强教育宣传,推动人工智能伦理规范共识的形成。进一步,可以将取得广泛共识的伦理规范嵌入于算法之中,避免人工智能运行过程中的“算法歧视”与“算法欺诈”问题。此外,要充分发挥伦理审查委员会及其相关组织的作用,持续修订完善《新一代人工智能伦理规范》,定期针对新业态、新应用评估伦理风险,促进人工智能伦理规范的与时俱进。
健全人工智能发展的制度保障体系。在社会层面,应加大对“数字弱势群体”的政策帮扶,如税收减免、财政补贴等,确保人工智能发展的共同富裕方向。面对可能到来的结构性失业问题,可以为劳动者提供持续的终身教育和职业培训。在法律层面,应积极推动《个人信息保护法》《数据安全法》的有效实施,建立对人工智能技术滥用与欺诈的处罚细则,逐步加快《人工智能法》的立法进程。在行业层面,应加强人工智能行业自律体系建设。建立并充分发挥伦理委员会的审议、监督作用,加强国际合作,推动人工智能行业发展朝着“安全、可靠、可控”的方向健康发展。
(作者单位:南京大学哲学系)
张炎:人工智能的潜在威胁与应对思路
试想一下电车难题:五个人被绑在电车轨道上,一辆人工智能操控但刹车失灵的电车朝他们驶来,就要碾压到他们,这时人工智能可以控制电车开到另一条轨道上,但另一条轨道上也绑着一个人。这种情况下,遵守定律的人工智能该怎么做?
人工智能的快速发展在获得关注与期待的同时,也在不断面对质疑与忧虑之声。霍金在GMIC大会上提出了人工智能威胁论,即人工智能的崛起可能是人类文明的终结。牛津大学人类未来研究院院长尼克·波斯特渃姆在《超级智能》一书中亦专门讨论人工智能危险性问题。生命未来研究院联合众多人工智能领域专家发布公开信,旨在提醒人们警惕人工智能的副作用。对此,我们不禁要问,当今人工智能究竟发展到了何种阶段?为什么这么多专家学者如此担忧警惕?我们该如何面对这些未知的隐患?
尚未实现的超级人工智能
尽管当今人工智能发展迅速,但尚处于弱人工智能阶段。近期,DeepMind制作的玩电脑视频游戏的AtariAI值得关注。它可以和人类一样只看电脑屏幕画面进行游戏,且在开车、射击、乒乓球等二十多款游戏中的表现超过人类。同时AtariAI可以从零学起并达到专家级别。鉴于游戏世界在一定程度上模拟了现实世界且AtariAI不限于某一特定的游戏,可以说AtariAI的问世向通用人工智能迈出了重要一步。但在分析其使用方法后,可知它仍尚未实现通用人工智能。AtariAI运用深度强化学习使得它可以通过与游戏世界交互而逐渐学会玩游戏,但这种学习方法实际上只实现了人类智能中的习惯性行为,就像运动员通过不断的重复训练而获得运动技巧一样。因此,AtariAI尚无法形成抽象概念从而进行思考推理等。这也是当今神经网络技术面临的一大难题。虽然当今弱人工智能系统遍地开花,但通用人工智能因其内部存在困难,目前仍属小众化的研究领域,尚未形成公认的理论,更谈不上实际应用。
尽管通用人工智能现阶段发展并不理想,但许多专家认为通用人工智能时代迟早会到来。一旦实现了通用人工智能,那么机器就会拥有递归自我改进能力。这意味着,机器能够进行自我改进,从而成为改良版智能系统,改良版智能系统再次进行自我改进,如此反复,从而变得越来越智能,最终实现超级人工智能。在改良过程中,越智能的机器,其改良方案会越优秀,改良速度也会越快,从而导致智能爆炸式增长。基于这一认知,在实现通用人工智能后,部分专家猜测可能在某一时期只需要几天甚至几个小时就能实现超级人工智能。
超级人工智能存在威胁
对于超级人工智能,不要低估人类与它们的差距。如果说相对弱人工智能在单一领域中,这种差距还只是速度上量的差距,那么试想:现代神经网络技术非常擅长于发现高维数据中的特征,而人类的感知只对三维世界具有良好的直觉。这意味着将来的超级人工智能与人类会达到质的差距,具有远超过人类的感知、思考能力,从而设计出人类完全无法想象的策略、蓝图、方案等。
尽管超级人工智能远超人类,但这并不意味着它们必然会给人类带来危害甚至毁灭人类。人们可能会认为我们可以给它们设定目标让它们为我们服务,就像现在的弱人工智能系统一样。既然可以人为地设定目标,那么超级人工智能究竟为何让我们担忧呢?试想:假设我们设定一个超级人工智能系统以做研究为目标。这个超级人工智能系统在数学研究领域遇到了哥德巴赫猜想难题。它通过计算思考发现解决这个问题需要很长的时间和极大的运算量,从而会消耗不计其数的资源以至于影响人类生活,所以人类决不会赋予它所需的资源。因此,为了完成目标解决哥德巴赫猜想,它只好精心地设计出夺取人类权利甚至灭绝人类的计划,以消除被关机、重置等危险,使得它能自由地获取所需资源去完成目标。再假设我们设定一个超级人工智能系统要造福于人类,使人们幸福无忧地生活。但该系统发现让人类得到幸福的最好方式是,把所有人变成“缸中之脑”,通过虚拟环境制造“幸福感”。显然,这与人们的初衷相悖。尼克·波斯特渃姆在《超级智能》一书中构想了更多超级人工智能毁灭人类的可能场景。尽管这些例子存在夸张成分,但不可否认,当我们无法理解超级人工智能、无法预测它们会如何思考行动时,我们便无法通过简单对其设定目标,从而期待它们会按照我们理想的方式行事而毫无副作用。
超级人工智能应具备利他性
鉴于超级人工智能有可能对人类造成危害,我们必须设法避免这样的情况发生。最明显而直接的一个方案是设定一套超级人工智能必须时刻遵守的规则。譬如,“机器人三定律”,其中第一条是机器人不得伤害人,也不得见人受到伤害而袖手旁观。如果将其应用于超级人工智能上,试想一下电车难题:五个人被绑在电车轨道上,一辆人工智能操控但刹车失灵的电车朝他们驶来,就要碾压到他们,这时人工智能可以控制电车开到另一条轨道上,但另一条轨道上也绑着一个人。这种情况下,遵守定律的人工智能该怎么做?如果人工智能控制电车变轨,那么就会导致另一轨道上的人死亡;如果它不作为,那么轨道上的五个人就会死亡。人工智能会发现此时根本无法遵守定律,所以它只能根据自己的意愿进行选择。这说明,任何规则都可能存在漏洞,我们无法指望一套规则解决所有问题。
针对上述困难,有学者提出用法律制度来约束超级人工智能系统。如果法律的制定者不仅只有人类而且还有超级人工智能的参与,那么这个策略才能具有一定的可行性。法律制度根据社会发展水平缓慢演变,需要立法者、法官等给予不断维护,比如修复立法者事先未预料到的漏洞、根据新发情景对法律条文进行增减等;而超级人工智能的认知水平远超人类,人类制定的法律难保没有超级人工智能可以发现利用的漏洞;同时我们的感官能力也非常有限,很可能无法察觉超级人工智能对漏洞的利用。因此,如果没有超级人工智能来参与制定、监督与执行法律制度,那么这套制度将成为一纸空文。
法律制度有效性的关键在于让超级智能替我们思考。进一步推进这一思路,超级人工智能应具有利他性。然后,让它们替我们思考,比如我们真正想要什么、什么最符合我们的利益、或者如何对待我们是最好的。因为超级人工智能具有认知优势,它们相比我们更能做出正确的决定。超级人工智能和人类,就像正值壮年的子女与年迈体衰的父母,子女显然更加清楚怎么做对父母更好。
尽管本文强调了超级人工智能可能带来的危害,但我们不应因此忽略它们可能给人类带来的巨大益处,譬如新技术解决食品、疾病、能源问题等。但需要注意,当人工智能系统越强大,被赋予的任务越复杂时,它们获得的自由选择权利也越大。此时,我们必须确保它们有着良好的动机与价值观,从而不至于自掘坟墓。
(作者单位:中国人民大学哲学院)
人工智能的伦理挑战与科学应对
【光明青年论坛】
编者按
2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。作为最具代表性的颠覆性技术,人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性也会带来诸多全球性挑战,引发重大的伦理关切。习近平总书记高度关注人工智能等新兴科技的发展,强调要加快提升“人工智能安全等领域的治理能力”,“塑造科技向善的文化理念,让科技更好增进人类福祉”。为此,本版特组织几位青年学者围绕人工智能的伦理挑战与科学应对展开讨论,并邀请专家予以点评,以期引发学界的更多关注,为推动人工智能健康发展贡献智慧。
与谈人
彭家锋 中国人民大学哲学院博士生
虞昊 华东师范大学政治与国际关系学院博士生
邓玉龙 南京师范大学哲学系博士生
主持人
刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员
1.机遇与挑战并存的人工智能
主持人:新技术革命方兴未艾,以人工智能等为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围,人类正在进入一个“人机物”相融合的万物智能互联时代。请具体谈谈人工智能给人类社会发展带来什么样的机遇?
彭家锋:人工智能、大数据、物联网、云计算等智能技术蓬勃兴起,对人类社会的方方面面产生深刻影响,推动整个社会逐步迈入智能社会。在此过程中,存在许多重大历史机遇需要我们把握。就技术治理而言,人工智能作为一种治理技术,正在助推社会治理的治理理念、治理方式、治理效能等方面的变革,将传统技术治理提升至智能化新阶段,呈现出“智能治理的综合”趋势。智能治理将全面提升社会公共治理的智能化水平,主要呈现出四个方面的特征:一是治理融合化,即促进各种智能技术与其他治理技术相互融合,大幅度提升智能社会的治理水平;二是治理数据化,即以日益增长的海量数据为基础,通过对数据映射出来的“数字世界”进行社会计算,实现治理目标;三是治理精准化,即发挥智能技术强大的感知能力、传输能力和计算能力,将传统的粗放治理转变为精准治理;四是治理算法化,即不断完善智能决策系统,尝试将程序化的算法决策扩展到更多的决策活动中,从而提高决策质量。
虞昊:人工智能有助于反思人类社会得以建立与发展的基础。随着分析式AI向着生成式AI不断演变,尤其是生成式AI初步展现出判别问题、分析情感、展开对话、创作内容等越来越具有人类特征的功能,原本属于人类的领域正被人工智能以另一套由“0”与“1”构成的计算机语言逐步侵蚀。这既是对人类社会的冲击,也势必会在更加平等的开放性框架中增强人类的主体性,促进人类社会进一步发展。
邓玉龙:总体来说,以人工智能为代表的新科技发展,显著提升了社会生产力。例如,生成式AI不但能完成传统AI的分析、判断工作,还能进一步学习并完成分析式AI无法从事的创造性工作。从人机交互的角度来看,人工智能也促进了生产关系的高效发展。具体表现在:一是刺激劳动形态的转化。人工智能高效承担大量的基础机械性劳动,人类劳动则向高阶的创造性劳动转化,由此引发社会层面的劳动结构转型、升级,并且以人工智能为中介,社会范围内的劳动整合、协调能力也实现升级。二是促进劳动场域的重构。随着劳动形态的转化和劳动的社会化扩展,人工智能将劳动从固定场域中解放出来,人类劳动的灵活性增加。相比于创造性劳动,机械性劳动更加受到空间和时间的制约,而在人工智能从技术层面替代更低边际成本的基础性劳动之后,人类劳动空间和时间的自由性实现跃迁。三是对主体的发展提出了更高要求,尤其是对主体适应社会发展提出了更高要求。人工智能技术的发展对人类传统的知识结构提出挑战,要求人类更新原有的知识结构以适应社会发展需要,也对教育提出更高要求,教育模式和教育内容需要更契合科技发展的水平,培养更加全面发展的人才。
主持人:人工智能的一系列产物在给人们带来生活便利的同时,也一定程度上引起大家对其可能引发的伦理挑战的警惕。一些人关注人工智能的风险问题,对人工智能的推进有些焦虑。如何看待这种警惕和焦虑?
虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的。但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车。同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃。因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机。
邓玉龙:我们应正确看待这种焦虑。要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题。正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题。同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题。从劳动的角度看,人工智能确实会取代部分人类劳动,推动劳动结构转型升级,让劳动向着碎片化、个体化方向发展,劳动者处于弱势地位,面临着“机器换人”的挑战。但是我们也应该理性认识到,人工智能不是对人类劳动能力的完全替代,而是对劳动者提出了更高的要求,要求劳动者掌握科学知识,将技术的发展内化为自身能力,在更具创造性的劳动中实现自身价值。
彭家锋:任何技术的发明使用,不可避免地伴随着这样或那样的风险。人工智能技术自然也不例外,在其应用过程中,同样引发了诸如隐私泄露、算法歧视、法律责任等风险问题。因此,关注人工智能的风险问题,并由此对人工智能的推进产生焦虑,具有一定理论依据和现实基础。但更应当清醒地认识到,人工智能的某些相关风险可以提前得到规避,并不必然会发生;即便真的发生,也仍可不断寻求化解风险的有效手段。以个人隐私滥用风险为例,在治理过程中,虽然不可避免地会涉及个人数据收集和分析处理,但可以通过建立完整的规范和监管体系来保护个人隐私,降低滥用风险。
2.人工智能科技竞争的“伦理赛道”
主持人:习近平总书记在以视频方式出席二十国集团领导人第十五次峰会时指出,“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展”。请谈谈“人工智能原则”应包含哪些内容?科技向善的文化理念对推动全球人工智能健康发展具有怎样的现实价值?
彭家锋:为应对人工智能等新科技快速发展带来的伦理挑战,2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”等五项科技伦理原则。我认为,这五项原则基本涵盖了人工智能原则的伦理要求,彰显了科技向善的文化理念。科技向善的文化理念,根本目标是让科技发展更好地服务社会和人民,带来良好社会或社会公益的善。科技向善对推动全球人工智能健康发展至少具有以下三个方面现实价值:一是塑造公众信任。公众对人工智能的信任很大程度上并不完全由相关风险程度决定,而是取决于公众的利益与价值是否得到足够重视。后者正是科技向善的内在要求。二是引领技术创新。科技向善的文化理念将在技术创新发展过程中发挥价值引领作用。三是促进全球合作。科技向善的文化理念试图在全球范围内建立人工智能伦理规范的“最大公约数”,各国在达成伦理共识的基础之上,能够建立互信,实现更加充分深入的国际合作。
虞昊:个人认为,人工智能原则也应包含非对抗与非失控的理念。非对抗意味着不应将人工智能视作人类社会的对抗性存在,人工智能已经成为人类社会的构成性要素,我们必须持更为开放的态度去面对人工智能。非失控意味着不应放弃对人工智能的伦理规范,应以智能的方式去规范加速发展的人工智能。如果以上述理念为前提,也就是说,在支持人工智能发展的情况下,科技向善的文化理念在推动全球人工智能健康发展中就变得极为重要。此处的“善”在国家治理层面即指向“善治”,而当人工智能的发展从国家范围扩展到全球范围,“善治”就在构建人类命运共同体的意义上拥有了更贴近现实的内涵。各国应摒弃冷战思维与零和博弈,基于善意与友谊共同思考人类作为整体如何在人工智能的冲击下通往全球性的“善治”。
邓玉龙:2019年欧盟发布《可信赖的人工智能伦理准则》,2021年中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》)。与欧盟发布的伦理准则相比,《规范》体现了中国特色社会主义的制度优势,旨在将伦理规范融入人工智能全生命周期。人工智能发展的根本目的是促进人的全面发展,因此,我以为,人工智能原则还应体现共享和有序发展的要求。共享,旨在防止人工智能的技术垄断。科技发展应该兼顾全体人民的利益,而不是服务于少数群体,由全体人民共享科技发展成果,推动全球科技水平的共同增长。有序发展,旨在防止人工智能技术的无序扩张。人工智能技术的发展最终是为了提升人的幸福感,推动科技有序发展能够促进人机和谐融合,有效预防潜在无序扩张的风险。
主持人:从规范层面来说,伦理反思对规范人工智能发展的作用主要体现在哪些方面?
彭家锋:近年来,世界各主要国家在人工智能领域竞争日趋激烈,纷纷将人工智能发展置于国家发展的战略层面。比如,美国陆续出台《国家人工智能研究和发展战略计划》(2016)和《关于维持美国在人工智能领域领导地位的行政命令》(2019);欧盟先后发布《欧洲人工智能战略》(2018)和《人工智能白皮书》(2020);中国也较早发布了《“互联网+”人工智能三年行动实施方案》(2016)和《新一代人工智能发展规划》(2017)。人工智能科技竞争的客观局面已然形成。在此背景下,如果忽视人工智能技术发展所带来的全球性风险与挑战,极有可能陷入技术赶超的竞争逻辑。因此,亟须规范人工智能的科技竞争,而倡导伦理反思或许就是一条可行之路。伦理反思的意义至少在于:一是设定伦理底线。人工智能技术的开发和应用需要遵循一些基本的价值理念和行为规范。只有守住伦理底线,才有可能避免颠覆性风险的发生。二是实现敏捷治理。伦理反思是一个动态、持续的过程,贯穿于人工智能科技活动的全生命周期。为了确保其始终服务于增进人类福祉和科技向善的初衷,需要保持应有的道德敏感性,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。
邓玉龙:人工智能科技竞争是为了促进科学技术发展,而科学技术发展的最终目的是推动人类社会的进步。人工智能科技竞争不应该仅包括技术竞争的单一维度,更不应该通过技术优势遏制他国的科技发展,而应该是在人工智能科技条件下的综合性竞争,通过良性竞争促进全球人工智能和全人类的共同发展。其中就应该包括社会治理竞争,通过社会治理保障社会公平,因而对社会中人与人关系的伦理反思构成人工智能科技竞争的有机组成部分。首先,伦理反思对人工智能科技竞争提出了更高的要求。人工智能的公平性、可信任性、可解释与透明度、安全性不仅是伦理要求,也代表了人工智能技术的发展方向,是人工智能科技竞争需要抢占的技术制高点。科技的发展是为了人的全面发展,因而人的发展内嵌于科技发展要求,伦理反思有助于防止工具主义的泛滥。其次,伦理反思为人工智能科技竞争提供价值引导。伦理反思注重保障人的权利,科技发展并不是社会发展中的唯一衡量因素,我们还应该关注其中多样性的因素,尤其注重保护特殊群体的利益,例如防止数据鸿沟等不良影响。伦理反思有助于实现人工智能的综合性健康发展。
3.人工智能安全与人的全面发展
主持人:科学探究一直以来都是人们认识世界和了解自身的重要认知方式,人工智能等信息产业的革命如何影响着人们的认知方式?
彭家锋:人工智能等信息产业的革命,促进了科学研究新范式——数据科学的诞生,进而对人们的认知方式产生深刻影响。数据科学被认为是继实验、理论和模拟之后的新的科研范式。相较于传统科学,数据科学融合了统计和计算思维,通过人工智能等技术提供的海量数据、强大算法和算力,能够直接从数据中寻找相关关系、提取相关性或者预测性知识,进而产生一种基于相关性的科学思维模式。但这种相关性并不一定能够转化为因果关系,因为可解释性对于从数据科学技术确定的相关性中提取因果解释至关重要,而相关技术一般都缺乏必要的透明度和可解释性。数据科学更可能成为一种预测科学,但是预测并不是科学追求的唯一目标。通过揭示世界的潜在因果结构来解释和干预现象,也是科学的两个重要目标。因此,尽管数据科学能够通过分析大量数据生成相关性知识,却不能直接产生因果解释。对此,传统科学的可检验性假设方法和因果规律探求仍有其重要价值。数据科学并非取代传统科学,相反,两者将相互补充,共同成为人类探索世界的有效工具。
虞昊:显而易见的是,随着人工智能向着通用人工智能迈进,其能够为人们提供的教育资源、生活娱乐、工作讯息也越来越丰富,人们势必越来越依赖于通过与人工智能进行交互来获取外界信息。因此,当人工智能深度地构成人们认知世界的滤镜时,若不对人工智能本身具有重复性、同质性倾向的认知框架保持警醒,人工智能可能扭曲人们的认知方式直至影响人的主体创造性。
邓玉龙:以人工智能为代表的全新技术发展被称为第四次工业革命,其中最显著的特征就是机器与人类的深度融合,机器不再作为一种外在性的工具被人类使用,而是在与人类的深度关联中影响人类的认知方式。一方面,信息产业革命丰富了人类认知的联结方式。人工智能和大数据技术的发展促进人类的分析逻辑从因果关系扩展为相关关系,对相关关系的重视使人工智能可以从大数据而非小数据维度获取信息,为人类认知提供新的视角。按照传统人类认知方式的理解,因果关系要求关于世界的认知是确定性的,而这在数字时代的复杂性社会中很难实现。人工智能对相关关系的认知填补了这一缺失,允许我们在无法掌握确定信息但在掌握大量数据的条件下对未来趋势作出预测。另一方面,如果我们对人工智能等科技的输出结果和生成内容盲目信赖,将结果和内容与经验事实之间进行绝对等同的连接,误认为是事实的全部,那么我们就会丧失人文主义抽象反思的能力,对此我们应当保持警惕,始终坚持反思和批判的人文精神。
主持人:如何调适人的主体创造性与信息高度集成共享之间的关系?
彭家锋:当人们逐渐将更多创造性工作交由人工智能完成,不免让人担忧人工智能是否将会威胁到人的主体创造性。从人机关系的角度来看,这种担忧是基于一种人机敌对论的视角,认为人工智能挤压了人的主体创造性空间,是替代逻辑的延续。但从人机协作的视角出发,将人工智能看作人的得力帮手,通过创造性地使用人工智能可以赋予人类更大的创造性空间。比如,在进行文字写作、多媒体脚本、程序代码、文稿翻译等工作时,可先由人工智能高水平地完成草稿工作,然后再由人类进行一些创造性的调整和发挥。此时人工智能生成的内容将成为进一步创作的原材料,人类将以更高的效率投入创造性活动之中。当然,要实现以上效果并非易事,不仅需要思想观念的转变,还应在制度安排、教育方式等方面作出相应调整。
虞昊:面对信息高度集成共享的人工智能,人有可能转变为算法的动物。试想下述场景:当依据人工智能展开行动变得足够便捷有效时,行动者便会倾向于采信人工智能,此时,看似是人类行动者基于自然语言在进行互动,实则是算法逻辑基于计算机语言在进行数字化运转。于是,人的主体创造性被侵蚀,人可能沦为算法动物。对此类情形,我们应该保持足够的清醒与警惕。
邓玉龙:人工智能技术生成的内容(AIGC)具有高度集成共享的特性,能够高效地对人类知识进行数据挖掘、信息生成。调适人的主体创造性与信息高度集成共享之间的关系,我们需做到如下几个方面:首先,需要通过人的创造性扩大AIGC数据库,当下AIGC主要是依赖于大语言模型,以大量的网络文本作为训练数据库生成的,通过人的创造性生成可以不局限于网络文本,而是进一步扩展数据库的训练文本,从而提高其丰富度。其次,需要通过人的创造性为AIGC提供价值训练,通过人的创造性生成的价值立场、伦理法则等与AIGC的训练数据库相融合,从而建构可信赖、可持续的信息高度集成共享机制。最后,需要将人创造性生成的内容与AIGC共同作为人类知识的来源,人类知识的获得不能仅仅局限于AIGC,而是需要人发挥其主体创造性对人工智能技术生成的内容进行反思和拓展,将人类无法被数据化的、经验性的知识与AIGC数据化的知识融合成为人类知识的来源。
(本版编辑张颖天整理)
陈友斌:人工智能对于生活的积极影响与问题
陈友斌:人工智能对于生活的积极影响与问题
2019-12-19eNet&Ciweek
12月19日,由中国科学院《互联网周刊》、中国社会科学院信息化研究中心、eNet研究院共同主办的2019中国互联网经济论坛在京举行,广东微模式软件股份有限公司董事长陈友斌在现场发表了精彩的演讲。陈友斌先生分享了现阶段人工智能技术给我们的生活带来的积极影响,以及未来还有哪些潜在的问题和值得关注的地方。
以下为演讲实录:各位嘉宾,大家下午好,我是微模式软件的陈友斌。今天来参加第十七届2019互联网经济论坛,我想跟大家简单分享一下人工智能技术在最近几十年,特别是最近的五年的飞速发展。包括技术给我们的生活带来的积极影响。以及,未来还有哪些潜在的问题和值得关注的地方。
人工智能确实给现在的生活带来了很多的便捷,包括刚才51Tolk介绍的在线教育。在线教育中的智能化因素很多,比如说学生做题的时候,拿手机一拍就可以在互联网上找出最佳答案。这里牵扯到手机拍照的时候要把文字识别出来,普通的文字行还比较好辨认,但是有一些带着公式、手写的、表格、压线,或者拍的不清晰、变形、阴影、变形等都是难题。
在线教育里面还有语音识别,一问一答的时候,如果是一个机器在自动教学,它要跟学生对话,它要理解学生在说什么,回答的问题是不是正确,这个也是很有难度的。难度在哪里呢?
首先,以中文来说,我们有很多方言。
其次,即使大家说普通话,普通话也有不标准的地方。
所以语音识别也是一个难题。
当然,在线教育里面还有更多的挑战,包括自然语言的理解、大数据,人工智能确实给我们的生活带来了很多便捷,我们很多家庭已经用了幼教机器人、扫地的机器人。挖煤、挖矿等很多高危职业,现在都可以用机器人和无人机去帮助人完成这些工作。这都是积极的方面,它使得我们的生活更便利,使得我们的生活更丰富多彩。
现在,大家在消费的时候,都习惯了用支付宝和微信扫码。扫码本身就是图像识别,识别二维码里面的内容。我们用微信、支付宝扫码有一个很好的体验,就是不管手机距离的远近,只要能拍到二维码,模糊也能够变清晰,角度倾斜也能矫正为矩形,这都是技术智能化发挥的作用。
最近,很多人在用刷脸支付,买东西、吃饭刷个脸就行了。我们坐高铁、飞机登机等很多地方都在刷脸。
人工智能减少了工作成本,文字识别,以前我们的财务人员拿到各种票据的时候,要用手工通过键盘把上面的金额信息、各种消费信息、票据号码、开票的单位名称手工录入到电脑里面去,很累。今天,我们有很多票据信息,拿扫描仪一扫,它把所有的字都认出来,减少了人工的烦恼。所以它提高效率、降低成本、解放劳动力。
在最近的几年,尤其是最近的五年以来,人工智能、机器学习尤其是深度学习的飞速发展,带动了人工智能在过去几十年没解决的难题逐步得到了解决。有的已经彻底解决,有的得到很大的缓解,包括图像识别、语音识别、视频的一些行为分析等。我们最近半年或者最近一年来在人脸识别、智能交通、自动驾驶、智能家居、在线教育等等,还有智慧医疗、智慧楼宇、智慧园区等等很多地方的应用,都是人工智能的进步给我们带来的便利。
在座的可能有一些工作单位以前考勤是按指纹的,现在可能改成刷脸了。刷脸分几个不同的档次,有的是要人配合,有的在你一进电梯它就能抓取你的脸部信息,是全程无感的。所以我们现在很多单位在研究无感的通行,智慧通行。
智慧医疗也是,以前我们在医院里做检查、拍片子要排队,拍完了以后要等专家、医生看,诊断。现在有很多企业研究人工智能的深度学习,患者在拍完片子以后,通过机器学习能够自动诊断,而且很多情况下,机器做的判断非常准确。包括远程医疗,一点点小毛病没必要起大早到医院排队、挂号、看医生,很多问题可以通过远程医疗、远程诊断解决。这些都是技术的进步。
我们微模式的团队主要在研究图像识别技术的应用。我们有一个16字方针:防范风险、提高效率、降低成本、解放人力。微模式的工作主要是围绕这几个词进行,我们研究文字识别、人脸识别、车辆识别、视频分析、各种真伪鉴别。
我可以大胆地告诉各位,对于现在的大学生选专业,我个人认为选择人工智能,在未来的10年-20年,这个领域很好就业,而且大有可为。据不完全统计,我们国家未来的5年,大概人工智能的人才缺口很大,在500万左右。而且,搞人工智能这方面的人才薪资待遇会比较好,这会是一个充满机遇的领域。
在人工智能还面对着很多难题,难题在哪里呢?尽管它给生活带来了便捷,但是还处于弱智能的阶段,可能还不如一个3岁、5岁的小孩,目前为止它只能完成一些机械的工作,做一些重复性的劳动。但是可以预见,未来一些高危的工作可以用人工智能来取代。
我来稍微讲一讲人脸识别、语音识别和文字识别的一些应用。
人脸识别在坐高铁、进飞机场、住酒店或者是考勤等场景的应用非常多,北京的某些地铁也开始实行刷脸进站;语音识别也飞速发展,导航仪能听懂你说的话,它可以根据你的意图来改变导航的方式方法;文字识别就应用更多,我们拿手机拍各种证件、各种考卷,这都是很多很好的应用。
人脸识别在最近这些年发展非常迅速,解决了不少问题,但是也还是有很多问题没有解决,比如说当你出现半边脸、“阴阳脸”、人脸光照不均、姿态存在很大问题、图像不清晰的时候,都会导致人脸识别产生错误。
更广义的图像识别不仅仅是人脸识别,包括车辆识别、特定目标的识别、视频里面行为的分析还有语义的理解,这些都给我们带来了困难,但是人工智能的发展到现在还有很多问题没有解决。
语音识别的问题在于方言识别,还有普通话不标准、语速、语调、情感等影响因素,这些都可能给智能的设备与系统带来困难。
人工智能的发展除开算法层级以外,应用层级也有很多,包括云计算,还有很多的算法做到前端到边缘计算。我们做到设备、做到摄像头、做到麦克风、做到这些感知的地方去了。
这些都证明了人工智能未来的前景很好,但是也给我们带来很多苦恼。比如,我们发现在新闻里、在微信朋友圈里,有一些人用人工智能的手段改变你的脸。比如我在这里讲话,有录音录像资料,有人可以很快把我的脸换成另外一个人的,并且非常逼真。
所以,我们国内的监管机构对于这种搞笑的,或者是故意捉弄人的视频,必须要在显著的位置上标注这是合成或者模仿的,否则就要追责了,我们国家可能未来还会立法。
这就是技术创造出的很多苦恼,谣言伴随技术而来,还有图有真相,你不知道图是用智能的手段编出来的,造假造出来的,这就很麻烦。
人工智是一把双刃剑,刷脸确认身份给人们带来便捷,但是也有很多存在隐患的地方需要注意。它很便捷,但是你有没有想到刷脸支付和银行卡、和你的身份证、和你的电话号码、和你的住址很多信息是绑定的。一旦你的脸被人家盗了怎么办?你说你的密码被人家盗了可以改密码,你的脸被人家盗了怎么办?所以隐私保护是一个很重要的问题。
还有一些责任、伦理的问题,比如无人驾驶汽车,这个车撞了人找谁追责?做算法的人不能说我永远做不了百分之百,它就是误判。造车的人说我就是做算法。用车的人说你自己用的不是我让你用的。现在有很多地方做陪护的机器人、聊天的机器人,如果你们家里有一个机器人能够通过情感计算,跟你对话把主人气死了,那你的责任找谁?
这些伦理道德的问题、责任的问题,还有隐私保护问题,所有的这些都是未来的挑战,一个是法律方面要加强,另外一个就是发明一些手段甄别伪造的证据。
未来,微模式要把人工智能图像识别用在金融领域,还有安防领域、平安校园、智慧校园,以及智慧楼宇这些东西。
以上是我演讲的全部内容,谢谢各位!
相关频道:eNews
您对本文或本站有任何意见,请在下方提交,谢谢!
投稿信箱:tougao@enet16.com