博舍

我国人工智能治理面临的机遇和挑战:基于科技公共治理视角 人工智能面临的问题和挑战

我国人工智能治理面临的机遇和挑战:基于科技公共治理视角

卢阳旭     何光喜

[摘 要]建立健全人工智能治理体系,是保障人工智能健康发展的必然要求。人工智能治理的核心议题是风险和收益的平衡,以及相关公共决策的知识合法性和参与合法性的协调。本文基于科技公共治理视角,分析了人工智能治理的两个面相,介绍了各国在人工智能治理方面的探索及面临的挑战。在梳理我国人工智能治理实践的基础上,从原则、制度建设和工具开发三个层面提出了改进我国人工智能治理体系建设的建议。

[关键词]人工智能;科技公共治理;风险;挑战

[中图分类号]D63                                       [文献标识码]A

一、人工智能治理问题的提出

人工智能是引领新一轮科技革命和产业变革的战略性技术,正在对全球经济社会发展产生重大而深远的影响,[1]是当前全球科技治理的焦点议题。形成一套能有效识别、促成社会意愿“最大公约数”的人工智能治理体系,有效支撑相关公共决策的制定和执行,是促进人工智能健康发展的重要保障。

(一)科技公共治理及其核心议题

作为一种特殊类型的公共治理,科技公共治理具备公共治理的一般特征:治理主体多元化、治理机制多样化。[2]同时,科技创新活动及其影响的不确定性高、知识门槛高,又使得科技公共治理有以下两个方面的核心议题。

1.科技收益与科技风险的权衡问题

科学技术的“双刃剑”效应使得人们对于科技发展一直有一种矛盾的态度,一方面担心发展太慢,让经济社会发展失速;另一方面又担心发展太快、失去控制,伤及人类。这一矛盾态度使得人们在对待科技发展特别是新兴技术的应用上,出现了“预防原则”(precautionaryprinciple)和“先占原则”(proactionaryprinciple)的持续争论。[3]“预防原则”主张,人们要更谨慎地对待科技发展蕴含的不确定性,以防其带来不可预料的危害。“先占原则”则认为科技创新自由至关重要,不应过分强调与科技发展相关的不确定性的负面影响,反倒是要在规制科技创新方面更加谨慎,以免失去科技发展带来的机会。简单说,前者更强调“安全的科学”,后者则更加强调“科学的安全”。[4]

2.“知识合法性”和“参与合法性”的张力问题

科技活动有很强的专业性,较之一般公众,科学家具有很强的知识优势,更有可能作出“知识上”的正确决策,科技相关决策应该主要听科学家的——这是很长时间以来,科学与政治、科学家与公众之间的默契。但是,随着科学的体制化和职业化,知识权力与各种经济和社会利益的深度纠缠,科学家的独立性和客观性不再毋庸置疑。同时,科技对社会的深度纠缠使得科技决策所需的科学知识之外的“社会知识”越来越多,而公民权利意识的增强则意味着公众会越来越不愿意只是被动地接受科学家们的决定。[5][6]换句话说,没有多主体参与的科技公共决策可能在知识上是不完备的,在程序上是“不合法的”。[7]

(二)人工智能治理的两个面相:“影响的治理”与“技术的治理”

1.影响的治理:人工智能的伦理、法律和社会影响

影响的治理是人工智能治理的核心面相,基本原则是以人为本,基本问题是风险和收益的权衡。20世纪90年代人类基因组计划设立专门的研究项目,关注与基因技术相关的伦理、法律和社会议题(Ethical,Legal,andSocialIssuesELSI)。这个框架同样适合于对人工智能影响的分析,目前人们对于人工智能影响的讨论基本上也是从这三个相互联系的层面来展开的。

人工智能伦理议题的核心,是人与人工智能系统的关系,表现在两个层面:一是人工智能持续发展给人类地位带来挑战,虽然目前人工智能还处于狭义人工智能阶段,但人们对通用人工智能和超级人工智能的预期加重了这方面的担忧。二是人工智能的误用和滥用给人与人、人与自然之间伦理关系带来挑战,比如隐私、歧视、尊严、安全、公平正义等。人工智能法律议题的核心,是何种法律规制能够帮助人类在人工智能发展过程中实现“趋利避害”。人工智能社会议题的内容相对宽泛,而且随着人工智能对工作和生活渗透广度和深度的增加,还会有各种新的议题出现。当前,人们关注的主要议题,包括就业、收入分配、深度造假、政治选举等等。[8][9]

需要指出的是,虽然人们对人工智能的潜在风险有很多担心,但总体判断还是好处要大于风险,而且人类社会有机会、有办法去争取实现收益最大化、风险最小化。比如,2018年12月欧盟委员会高级专家组发布的《可信赖的人工智能伦理准则(草案)》(DraftEthicsGuidelinesForTrustworthyAI)指出,总体而言人工智能所带来的收益要大于风险。同月,日本内阁府发布的《以人类为中心的人工智能社会原则(草案)》(SocialPrinciplesofHuman-centricAI(Draft))也认为人工智能技术是其推进“社会5.0(society5.0)”建设的关键,要尽可能有效、安全地利用它并避免其带来的负面影响。

2.技术的治理:人工智能系统的治理

技术的治理是人工治理的从属面相,基本目标是保障技术系统安全、可控。具体要求主要包括:一是强调人工智能系统要可解释、透明、长期安全并符合社会价值观,要提高算法的透明性、完善数据共享标准和规范。二是要在人工智能系统的可靠性检验和安全性确认等方面寻找新的方法,以保证人工智能系统处于不间断的人类监管之中。比如,2016年美国政府发布的《国家人工智能研发战略规划》提出,在初始设计阶段就要从技术、标准、审查层面保证人工智能系统可控、安全、符合社会伦理。

但人工智能技术治理面临两个方面的挑战:一是人工智能内生偏差和不可理解问题。人工智能算法高度依赖于大数据,而在很多场景下,数据质量(比如样本的代表性)是很成问题的;不可理解性既包括开发者无法确切理解人工智能系统自我学习过程和决策结果,也包括算法对于使用者和监管者而言的不可理解性。[10]二是算法透明化的安全顾虑和法律争议。国家和公司层面的激烈竞争,以及算法、数据及其分析方法通常掌握在少数国家、少数公司手中这一客观事实,使得它们很容易从现行法律框架中搬出私人财产、商业机密、国家安全等作为拒绝公开的理由。

二、各国人工智能治理的探索和挑战

(一)各国人工智能治理的探索

1.影响的识别:共识和差异

近年来,随着研究的深入和实践的增多,全球人工智能治理的一般性议题越来越集中,主要包括人类的尊严和自主性、隐私和数据安全、就业和社会不平等、人工智能系统的可信赖性及恶意使用等。与此同时,人工智能向各领域的快速渗透也让人工智能治理的具体性议题持续增多。据不完全统计,仅在各项能从公开渠道获得的人工智能提案中,涉及的议题就已超过50个。[11]随着人工智能对各领域渗透程度的进一步加深,未来还会有更多利益点和风险点被触及和识别。

需要指出的是,各国在议题上的共识并不代表在认知、态度和政策举措方面取得共识。以隐私保护为例,虽然各国都认同应该保护隐私,但在不同的制度和文化背景中,人们对于隐私的理解,以及隐私的重要性排序存在明显差异。比如,有研究者将不同社会和群体对待隐私保护的态度划分为三种类型:“隐私优先”(High-Privacyposition)、“隐私平衡”(Balance-Privacyposition)和“隐私限制”(Limited-Privacyposition)。[12]“隐私优先”论赋予隐私更高的价值排序,认为应该赋予个人更大的“数据控制权”,同时它对于隐私的界定也相对比较宽泛。与之相反,“隐私限制”论则认为,虽然应该保护隐私,但当它与其他社会价值(比如公共安全、言论自由等)不一致的时候,应该让位于后者。“隐私平衡”论介于二者之间,在强调隐私保护的同时,也认为不应该对隐私有过于宽泛的定义和过强的保护,在隐私保护方面则强调发挥个人自主、机构和行业自律的作用。事实上,上述分歧明显地体现在美国和欧盟个人数据和隐私保护的立法和监管思路上。相对来说,欧盟在个人数据和隐私保护上更接近于“隐私优先论”,2018年5月正式生效的《一般数据保护条例》(GeneralDataProtectionRegulation,GDPR)确立了“数据可携带权”“被遗忘权”等个人数据控制权,并要建立统一的执法机构。与之相反,美国在强调个人数据和隐私保护的同时,在个人数据控制权立法保护方面要更加谨慎,更接近于“隐私平衡论”甚至“隐私限制论”。对美国、英国和德国等国企业的实证研究也发现了各国对于隐私的认知差异:美国与英国企业的隐私官员一般从避免损害消费者预期的风险管理角度看待隐私保护,而德国、法国和西班牙三国企业主要从人权角度看待隐私。[13]

2.机制的探索:参与和协同

人工智能发展迅速、渗透性强、议题多样复杂。政府、科研机构、大学、企业和社会组织等都有各自的利益诉求和信息优势,多元参与、充分沟通有利于提高人们对人工智能收益和风险的共同认知,并承担共同责任。虽然人工智能治理是个新议题,但从欧美各国的实践来看,它们基本延续了在转基因、纳米、合成生物学、信息技术等新技术治理方面的理念和架构。以一系列法律为核心的正式制度为人工智能治理提供了基本的制度框架和互动规则,例如欧美国家广泛存在的对重大科技公共议题的议会听证制度。对话会、民意调查以及政策制定者和专家之间的社会网络等非正式治理活动也有利于信息的及时传递和各方利益的表达。比如,在奥巴马政府时期,白宫科技政策办公室就人工智能主题举办了一系列旨在广泛征求社会各界意见的研讨会,在此基础上相继发布了《为人工智能的未来作准备》(PreparingForTheFutureOfArtificialIntelligence)《美国国家人工智能研究和发展战略计划》(TheNationalArtificialIntelligenceResearchandDevelopmentStrategicPlan)和《人工智能,自动化与经济》(ArtificialIntelligence,Automation,andtheEconomy)三份报告,较为系统地阐述美国人工智能发展战略、伦理规范和治理机制。2018年以来,美国国会就个人数据和隐私保护相关议题连续举行了多场听证会,Facebook、谷歌、亚马逊等企业巨头均被邀出席。2018年5月,美国政府又在白宫举办人工智能峰会,邀请谷歌、亚马逊、英特尔等企业巨头,以及顶级学术机构的专家等上百位代表参加,重点讨论AI研发、人才培养、制约AI创新发展的体制和特定部门的AI应用等4个议题。2017年6月,英国上议院成立了人工智能专门委员会,负责研究人工智能发展所带来的经济、伦理和社会问题。2018年4月,该委员会发布了《英国人工智能:准备、意愿与能力》(AIintheUK:ready,willingandable)的报告。

当然,人工智能治理过程中多方参与和协同的方式、效果受到特定国家利益集团的结构和制度环境的深刻影响。人工智能的快速发展必然会冲击现有的利益格局,不同利益集团之间的博弈直接决定了各方在相关决策中的话语权和影响力。以隐私保护为例,数据收集者、数据聚合者(主要指各类数据交易平台)、数据使用者和数据监管者这四类利益主体之间的博弈过程会深刻影响一个地区、国家甚至全球的隐私保护政策。[14]同时,人工智能治理过程中利益博弈、政策制定和执行活动都嵌入特定的政策网络当中,会受到其他领域法律法规和政策执行体制的推动和掣肘。总之,欧美国家在推动人工智能公共治理方面的基本经验,不是简单地让知识合法性或参与合法性占据绝对的优势地位,而是把二者间的张力纳入特定的制度框架内,并通过各种具体的活动程序和技术小心翼翼地保持它们之间的微妙平衡。

3.工具的建立:规范和倡导

工具的多元化和适应性是实现有效治理的重要条件。近年来,国际组织、各国政府和立法机构、研究机构等各类主体积极探索建立多样化的人工智能治理工具。法律的约束力强,是人工智能治理可依赖的重要工具,但由于其刚性强,各国在以法律来规制人工智能方面还是相对比较谨慎,尽量平衡风险规制和促进人工智能创新发展的双重需要。总体而言,以美国和欧盟为代表的一些国家和地区在人工智能相关立法方面采取的基本策略,是差别化和场景化——对人工智能不同应用领域进行专门立法。目前,美国和欧洲等国家和地区在自动驾驶方面已有比较成熟的立法,很多国家(地区)也试图加强对深度造假、智能投顾和智能医疗等人工智能应用重点领域的立法规制。[15]

行业技术标准、从业人员行为规范等也是人工智能治理的重要工具。2017年,电气电子工程师协会(IEEE)发布《人工智能设计的伦理准则(第2版)》,对人工智能伦理事项进行了扩充,而且目前还在持续更新和迭代。国际电信联盟(ITU)、国际标准化组织和国际电工委员会第一联合技术委员会(ISO/IECJTC1)等机构也在紧锣密鼓地进行相关标准的研究和制定工作。同时,一些知名科学家、企业家发起国际性的治理倡议,试图在观念和规范层面凝聚全球共识。比如,2017年1月,由未来生命研究所(FutureLifeInstitute)发起,霍金、马斯克领衔推动全球联署的“阿西洛马人工智能23条原则”(AsilomarA.I.Principles)已有超过1000名人工智能/机器人研究人员以及超过2000名其他领域专家签署。该原则从科研目标、科研经费和文化、科学和政策的互动、系统安全可控和透明性,到负责任、隐私、自主性、利益共享、符合人类价值观和不颠覆人类社会秩序等方面提出了23条人工智能研发和应用原则,呼吁全世界严格遵守,共同保障人类未来的利益和安全,在业界引起了很大反响。2018年12月,一项旨在推动人工智能治理全球合作,促进人工智能可持续发展的《负责任地发展人工智能蒙特利尔宣言》(MontrealDeclarationforaResponsibleDevelopmentofArtificialIntelligence)也开始了全球签署。这些国际性的、跨领域的努力为全球人工智能治理合作提供了重要帮助。

(二)全球人工智能治理面临的主要挑战

1.收益和风险的有效识别与公正分配

人工智能是一项正在快速发展且具有重大深远影响的新技术,对它的治理面临着巨大的技术和经济社会影响的“双重不确定性”。如何确保收益和风险的平衡,实现收益的公正分配、风险的合理分担是全球人工智能治理面临的巨大挑战。以就业为例,虽然人们知道人工智能将推动更大范围、更具“劳动替代性”的自动化进程,并重塑全球产业链和就业结构,但替代的规模和方式,影响的大小和结构却众说纷纭、难有定论。再有,人工智能如何加速推动资本替代劳动,是否会加剧“资本回报率高于经济增长率”的趋势,[16]造成劳动参与率和劳动收入占国民收入的比例进一步下降,高端就业岗位和普通就业岗位间的收入差距进一步扩大,让人工智能带来的生产效率提高、社会财富增长等好处主要由少数大企业、大资本和高端技术人员和管理者获得?2018年2月,剑桥大学生存风险研究中心(CentrefortheStudyofExistentialRisk,CSER)等机构联合发布《人工智能的恶意使用:预测、预防和缓解》(TheMaliciousUseofArtificialIntelligence:Forecasting,Prevention,andMitigation),认为滥用人工智能不仅会放大旧风险,还会产生新风险,让数字空间、物理空间和政治领域的风险类型更加复杂。总之,不同国家、群体和个人在人工智能相关风险面前的脆弱性是存在结构性差异的,如何降低风险并更合理分配风险是全球人工治理面临的关键挑战。

2.知识合法性与参与合法性的动态平衡

人工智能具有很高的技术门槛,相比于用户、监管者等主体,技术专家拥有很强的知识优势。但人工智能技术具有极强的渗透能力,将来会出现在工作和生活的各种场景当中,与每个人的利益密切相关。在这种情况下,与人工智能相关的公共决策所需的不仅仅是客观的技术知识,公众的利益诉求和价值判断同样非常重要。探索各种能够促进政府、企业、科学共同体和公众四类主体共同参与、协商共治的方式,不仅能够增加复杂决策所需的技术知识和社会知识,更能增加人工智能治理的参与合法性。但必须指出的是,在现实的人工智能治理活动中,四类主体内部并非“铁板一块”,而是普遍存在着各种观念和利益的分化与差异:政府内部存在不同级别和不同部门间的观点或利益差异;科学界内部存在不同学科间、不同技术路线的差异,而且很多所谓的“科学之争”还混杂着复杂的利益纠葛;产业界内部存在不同产业、不同厂商间的利益差异;公众内部的观念、利益分化则更加普遍。总之,纵横交错的利益关系、知识和政治的深度交织都增加了人工智能治理知识合法性和参与合法性之间的张力和平衡难度。

3.全球人工智能产业竞争和治理合作的良性互动

加强人工智能治理的全球合作是国际社会的共识,但各国、各大企业积极争取掌握更大话语权也是全球人工智能治理的客观事实。2019年2月,美国总统特朗普签署《美国人工智能倡议》,提出要应对来自战略竞争者和外国对手的挑战,并确保美国在人工智能领域的领先地位。2018年3月,欧洲科学与新技术伦理组织(EuropeanGrouponEthicsinScienceandNewTechnologies,EGE)发布的《关于人工智能、机器人与“自主”系统的声明》(StatementonArtificialIntelligence,Roboticsand‘Autonomous’Systems)提出,欧盟要启动相关流程,为机器人技术和自主系统的设计、生产、使用和治理制定一个共同的、国际公认的伦理和法律框架。2018年4月,英国议会发布的《英国人工智能:准备、意愿与能力》(AIintheUK:ready,willingandable)更是提出,英国要利用法律、研究、金融服务和民间机构方面的优势,通过在人工智能伦理与准则制定方面的领先来引领人工智能的发展。

三、我国人工智能治理的探索和挑战

(一)我国加强人工智能治理的主要探索

1.高度重视人工智能发展风险研判和防范

2017年7月,国务院发布《新一代人工智能发展规划》,要求必须高度重视人工智能可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险。2018年10月,习近平总书记指出,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控;要加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。

2.积极推进法律法规和政策体系建设

近年来,我国通过分散式立法的方式,修订和出台相关法律法规,重点加强了对个人数据、电子商务、智能金融、自动驾驶等与人工智能发展紧密相关领域的修法和立法工作,努力完善促进人工智能健康发展所需的法律框架。比如,2018年8月十三届全国人大常委会审议通过《中华人民共和国电子商务法》,努力在允许算法推荐和大数据画像等新技术发展和消费者合法权益保护之间寻求平衡。中国人大网公布的《十三届全国人大常委会立法规划》显示,个人信息保护法、数据安全法均被列为第一类项目,即条件比较成熟、任期内拟提请审议。一些政府行业监管部门也陆续出台了一系列部门规章,积极适应本领域人工智能应用的监管需要。比如,中国人民银行等部门联合出台的《关于规范金融机构资产管理业务的指导意见》规定,金融机构应当向金融监督管理部门报备人工智能模型的主要参数以及资产配置的主要逻辑,在促进算法透明和人工智能监管框架等方面做出重要尝试。

3.搭建人工智能治理多方参与平台

2017年11月,由科技部、发改委等15个部门共同构成的“新一代人工智能发展规划推进办公室”宣布成立,负责推进新一代人工智能发展规划和重大科技项目的组织实施。来自高校、科研院所和企业的27名专家组成的“新一代人工智能战略咨询委员会”也同期成立,负责为新一代人工智能发展规划和重大科技项目实施,以及国家人工智能发展的相关重大部署提供咨询。为进一步加强人工智能领域相关伦理、法律和社会问题研究和人工智能治理国际交流合作,2019年2月,新一代人工智能发展规划推进办公室决定成立“新一代人工智能治理专业委员会”。2019年4月,科技部发起“为了AI健康发展:新一代人工智能治理准则建议征集”活动,向政府部门、企业、高校、科研院所和各界人士公开征集建议。在人工智能标准化方面,2018年1月,国家标准化管理委员会宣布成立国家人工智能标准化总体组和专家咨询组,负责全面统筹规划和协调管理中国人工智能标准化工作。

(二)我国人工智能治理面临的主要挑战

1.从跟随者到领跑者的角色转换

长期以来,我国科技发展处于“跟跑”状态,科学研究和产业应用方面会遇到的伦理、法律和社会问题大部分都已由先发国家“蹚过”了,我们可以跟在后面学习借鉴国际经验,不走或少走弯路。当前,新一代人工智能对全世界来说都是一个新事物,在治理方面没有现成的经验。我国人工智能部分领域核心关键技术实现重大突破,市场应用深度和广度迅速增长,与之相关的伦理、法律和社会问题的研究和治理不可能再跟在后面学了——从“跟着学”到“带头做”是一个巨大的角色转变。

2.科技公共治理机制不健全

人工智能治理活动嵌入在特定的科技公共治理制度中,而后者是一个从理念到制度、程序再到具体技术的完整系统。虽然近年来我国在人工智能治理领域已经作出富有成效的探索,但我国科技公共治理体制机制方面的诸多不足还是会给人工智能治理带来诸多挑战,突出表现在以下几个方面:一是产业界、公众参与科技公共决策的依据、程序等仍然缺乏明确、详细的法律规定。二是以知识生产、共识达成和决策扩散等为目标的系列公共治理方法和工具开发不够。三是在开放创新和全球合作共治的大背景下,主动参与国际人工智能治理合作的理念、机制和专业人才准备不足。

四、结论和建议

探索形成一套有效的人工智能治理机制和平台、治理方法和工具,以实现治理结果的趋利避害、治理过程的科学民主,是保障人工智能持续健康发展的内在要求。鉴于全球人工智能治理现状以及我国的具体国情,本文提出以下建议:

一是原则层面,根据收益和风险结构进行分类、分级处理。一方面人工智能在不同领域中的应用所带来的收益和风险存在很大差异;另一方面在人工智能创新和产业化链条的不同阶段和环节,收益和风险的大小和结构也存在很大差异。没有必要,也很难用一个标准来简单地加总利害。从目前国际人工智能治理经验和我国治理实践来看,未来我国人工智能治理遵循的基本原则,是根据风险类型和大小,对不同场景下的人工智能系统开发和应用采用不同的监管模式和治理机制,努力实现创新和安全、知识合法性和参与合法性之间的动态平衡。

二是制度规范层面,人工智能公共治理法治化。首先应当在法律层面规范人工智能治理程序,将相关决策过程纳入法治轨道。其次要在科研经费投入、科研活动监管、公众参与方式和程度等方面,都明确相应的制度安排,在项目形成机制、各类利益相关方代表的产生方式和意见表达程序等内容作出可操作的程序设计。[17]

三是技术层面,开发多样化的人工智能治理技术工具箱。在充分借鉴国际人工智能治理方法和工具的基础上,围绕知识生产、共识形成和行动促进这三个人工智能治理的关键问题,开发适合我国制度环境和社会基础的系列工具。

[ 参 考 文 献 ]

[1]习近平,推动我国新一代人工智能健康发展,2018-10-31.

[2]俞可平.国家治理评估:中国与世界[M].北京:中央编译局出版社,2009:3-8.

[3]翟晓梅,邱仁宗.合成生物学的伦理和管治[N].科学时报,2010-7-19.

[4]卢阳旭,龚旭.科学资助中的控制权分配——以科学基金机构职能变迁为例[J].科学学研究,2019(3).

[5]诺沃特尼,斯科特,吉本斯.反思科学:不确定性时代的知识与公众[M].冷民,等,译.上海:上海交通大学出版社,2011.

[6]马森,魏因加.专业知识的民主化:探寻科学咨询的新模式[M].姜江等译.上海:上海交通大学出版社,2010.

[7]王奋宇,卢阳旭,何光喜.对我国科技公共治理问题的若干思考[J].中国软科学,2015(1).

[8]国家人工智能标准化总体组.人工智能伦理风险分析报告[R].2019.http://www.cesi.ac.cn/201904/5036.html.

[9]贾开,蒋余浩.人工智能治理的三个基本问题:技术逻辑、风险挑战与公共政策选择[J].中国行政管理,2017(10).

[10]汝绪华.算法政治:风险、发生逻辑与治理[J].厦门大学学报(哲学社会科学版),2018(6).

[11]曾毅.构建新一代人工智能准则[N].光明日报,2019-1-24(16).

[12]Margulis,ST.PrivacyAsaSocialIssueAndBehavioralConcept[J].JournalofSocialIssues,2003.59(2):243-261.

[13]Bamberger,KA,Muligan,DK.2015,Privacyontheground:drivingcorporatebehaviorintheunitedstatesandEurope[M],MITPress.

[14]克雷格,卢德洛芙.大数据与隐私:利益博弈者、监管者和利益相关者[M].赵亮、武青译.2016.长春:东北大学出版社.

[15]汪庆华.人工智能的法律规制路径:一个框架性讨论[J].现代法学,2019(2).

[16]皮凯蒂.21世纪资本论[M].巴曙松,等,译.北京:中信出版社,2014.

[17]何哲.人工智能时代的政府适应与转型[J].行政管理改革,2016(8).

  [作者简介]卢阳旭,中国科学技术发展战略研究院副研究员;何光喜,中国科学技术发展战略研究院研究员。

人工智能的伦理挑战

原标题:人工智能的伦理挑战

控制论之父维纳在他的名著《人有人的用处》中曾在谈到自动化技术和智能机器之后,得出了一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”维纳的这句谶语,在今天未必成为现实,但已经成为诸多文学和影视作品中的题材。《银翼杀手》《机械公敌》《西部世界》等电影以人工智能反抗和超越人类为题材,机器人向乞讨的人类施舍的画作登上《纽约客》杂志2017年10月23日的封面……人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。

维纳的激进言辞和今天普通人对人工智能的担心有夸张的成分,但人工智能技术的飞速发展的确给未来带来了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。准确来说,这种伦理学已经与传统的伦理学旨趣发生了较大的偏移,其原因在于,人工智能的伦理学讨论的不再是人与人之间的关系,也不是与自然界的既定事实(如动物,生态)之间的关系,而是人类与自己所发明的一种产品构成的关联,由于这种特殊的产品――根据未来学家库兹威尔在《奇点临近》中的说法――一旦超过了某个奇点,就存在彻底压倒人类的可能性,在这种情况下,人与人之间的伦理是否还能约束人类与这个超越奇点的存在之间的关系?

实际上,对人工智能与人类之间伦理关系的研究,不能脱离对人工智能技术本身的讨论。在人工智能领域,从一开始,准确来说是依从着两种完全不同的路径来进行的。

首先,是真正意义上的人工智能的路径,1956年,在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰・麦卡锡为这次会议起了一个特殊的名字:人工智能(简称AI)夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称,而参与达特茅斯会议的麦卡锡和明斯基等人直接将这个名词作为一个新的研究方向的名称。实际上,麦卡锡和明斯基思考的是,如何将我们人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。这一阶段上的人工智能的发展,在很大程度上还是对人类行为的模拟,其理论基础来自德国哲学家莱布尼茨的设想,即将人类的各种感觉可以转化为量化的信息数据,也就是说,我们可以将人类的各种感觉经验和思维经验看成是一个复杂的形式符号系统,如果具有强大的信息采集能力和数据分析能力,就能完整地模拟出人类的感觉和思维。这也是为什么明斯基信心十足地宣称:“人的脑子不过是肉做的电脑。”麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来的特里・谢伊诺斯基和杰弗里・辛顿也根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让该网络可以像人的大脑一样进行学习,并能够做出简单的思考。

然而,在这个阶段中,所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的原理很简单,让测试一方和被测试一方彼此分开,只用简单的对话来让处在测试一方的人判断,被测试方是人还是机器,如果有30%的人无法判断对方是人还是机器时,则代表通过了图灵测试。所以,图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。

所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。

不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。

这样,由于智能增强技术带来了两种平面,一方面是人类思维的平面,另一方面是机器的平面,所以,两个平面之间也需要一个接口技术。接口技术让人与智能机器的沟通成为可能。当接口技术的主要开创者费尔森斯丁来到伯克利大学时,距离恩格尔巴特在那里讨论智能增强技术已经有10年之久。费尔森斯丁用犹太神话中的一个形象――土傀儡――来形容今天的接口技术下人与智能机器的关系,与其说今天的人工智能在奇点临近时,旨在超越和取代人类,不如说今天的人工智能技术越来越倾向于以人类为中心的傀儡学,在这种观念的指引下,今天的人工智能的发展目标并不是产生一种独立的意识,而是如何形成与人类交流的接口技术。在这个意义上,我们可以从费尔森斯丁的傀儡学角度来重新理解人工智能与人的关系的伦理学,也就是说,人类与智能机器的关系,既不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。当苹果公司开发与人类交流的智能软件Siri时,乔布斯就提出Siri是人类与机器合作的一个最朴实、最优雅的模型。以后,我们或许会看到,当一些国家逐渐陷入老龄化社会之后,无论是一线的生产,还是对这些因衰老而无法行动的老人的照料,或许都会面对这样的人与智能机器的接口技术问题,这是一种人与人工智能之间的新伦理学,他们将构成一种跨人类主义,或许,我们在这种景象中看到的不一定是伦理的灾难,而是一种新的希望。

(作者:蓝江,系南京大学哲学系教授)

新时代人工智能面临的机遇和挑战

新时代人工智能面临的机遇和挑战

 

作者:戴益斌

 

于明艳

 

来源:《阅江学刊》

2021

年第

03

 

        

摘要:人工智能的发展与应用对社会的影响日益深刻,成为社会各界关注的焦点之一。

2020

10

月,在上海大学举办的

人工智能时代的社会需求

专题研讨会对相关问题及研究成

果进行了展示与研讨。人工智能的社会地位及其与人类之间的关系问题是与会学者关注的核心

问题之一,人工智能对劳动与就业的影响、对教育改革创新的推进以及人工智能运用中所涉及

的科技伦理问题、人工智能对哲学的启示等成为本次会议关注的重点。结合此次会议的相关讨

论,与会学者认为,人工智能的发展既存在机遇,也面临着挑战

;

未来,与人工智能相关的制

度安排可能会是人工智能研究领域中的一个重点。

 

        

关键词:人工智能

;

社会需求

;

主体地位

;

技术应用

;

制度安排

 

        

中图分类号:

G434 

文献标识码:

文章分类号:

16747089

2021

0300637 

        

基金项目:教育部哲学社会科学研究重大课题攻关项目

人工智能的哲学思考研究

18JZD013

;

国家社会科学基金重大项目

人工智能前沿问题的马克思主义哲学研究

19ZDA018

 

        

作者简介:戴益斌,博士,上海大学哲学系讲师

;

于明艳,上海大学马克思主义学院博士

研究生。

 

         

一、

人工智能时代的社会需求

研讨会背景

 

        

人工智能的发展日益迅猛,受到越来越多人的关注。一方面,人工智能促进了社会生产力

的发展,为全社会带来了诸多积极影响,比如它在整体上提高了我们的生活水平、提升了整个

社会的运行效率

;

另一方面,人工智能也带来了很多问题,比如就业问题、伦理责任问题等。

为保障人工智能健康有序发展,充分发挥它的积极效应,预防它可能带来的社会问题,我们有

必要多角度、全方位地探讨人工智能所产生的社会效应及其对人类自身的影响。

人工智能时

代的社会需求

正是在这一背景下所产生的重大课题,涉及范围非常广泛。

 

        2020

10

24

日至

25

日,由上海大学马克思主义学院、上海大学哲学系、教育部哲学

社会科学研究重大课题攻关项目

人工智能的哲学思考研究

课题组、国家社会科学基金重大项

人工智能前沿问题的马克思主义哲学研究

课题组、上海市高水平创新团队

智能社会及其

伦理建构

联合主辦的

人工智能时代的社会需求

研讨会在上海大学顺利举行,来自湖北、湖

南、重庆、陕西、江苏、江西、上海等地十多所知名高校和期刊社的近

30

名专家学者出席本

次会议。与会学者的研究兴趣非常广泛,主要围绕以下五个论题进行了深入讨论:人工智能的

人工智能对人类社会的影响:机会和挑战并存

原标题:人工智能对人类社会的影响:机会和挑战并存

随着人工智能技术的不断发展,我们的社会正向数字化、智能化方向转型。人工智能能够自主学习、理解和推理,从而在我们生活中的许多领域发挥巨大的作用。但是,我们也面临着不少关于人工智能的问题和挑战。

首先,人工智能可以帮助我们提高效率和创造价值。人工智能在医疗、教育、金融、交通和通信等多个领域展现了广泛的应用前景。例如,通过智能算法的支持,医疗机器人可以更好地协助医生进行手术、病情监测和数据分析。教育机器人可以更好地满足学生的学习需求和兴趣,提高学生的综合素质和竞争力。智能金融系统可以更好地管理风险、优化资产配置和提高投资回报。通过人工智能,我们可以更好地利用数据和信息,创造更多的机会和价值。

然而,人工智能也可能带来一些社会问题和挑战。首先是人工智能可能会取代人类工作。自动化和机器化的进程会导致一些低技能、低收入的岗位被替代,给一些人带来失业和经济困难。第二是人工智能可能会导致隐私和安全问题的加剧。人工智能需要大量的数据支持,而这些数据可能包含个人隐私信息。如果未能合理保护隐私,会导致个人信息泄露和业务安全风险。最后,人工智能可能会加剧社会创新性和不平等。人工智能的发展一定程度上需要底层的教育机构普及人工智能技术,但是在资源和政策等方面,经济水平、政治地位、技能水平和教育背景不同的人会面临很大的差异和障碍。

因此,我们应该认真应对人工智能带来的挑战,更好地利用人工智能的机会。我们需要加大对人工智能技术的研究和投入,不仅要坚持以人为本的原则,更要把握人工智能的核心竞争力,加强计算能力和数据安全,优化算法和模型。我们也要采取开放、灵活、多元的政策措施,推动人工智能在教育、就业、文化等领域的应用,降低技术门槛,推动社会创新。通过加强人工智能的研究和发展,我们可以更好地应对未来社会的挑战和机遇。返回搜狐,查看更多

责任编辑:

“人工智能+制造”的机遇与挑战

传统制造企业在全面实施“人工智能+制造”有困难时可以优先发展人工智能质量检测、预测性运营与维护、供应链管理等相对成熟的“人工智能+制造”应用。

人工智能技术可能是继蒸汽机、电力、互联网科技之后推动新一轮产业革命浪潮的革命性技术。在大量的数据、更好的算法和更强的算力的共同推动下,人工智能的应用已经在很多行业落地,逐渐渗透并开始带来实际的价值。

根据壹行研(InnovaReserch)的研究,在全球范围内,人工智能在先进制造、自动驾驶、医疗、金融、安防、电网、家居、零售等数据基础较好的行业的应用场景正在不断建立起来。相关案例包括:人工智能在金融行业的智能风险控制、智能投资顾问、市场预测、信用评级等领域的应用;在医疗领域,人工智能算法被应用到新药研制、辅助诊疗、癌症检测等方面;谷歌、百度、特斯拉、奥迪等新兴科技企业和传统汽车企业巨头纷纷进入人工智能辅助的自动驾驶领域;在制造业,人工智能可以帮助制造企业建立产品的设计模型、优化生产流程和工艺、提升生产效率、降低成本、提升质量。

“人工智能+制造”助力中国制造业升级转型

“人工智能+制造”是将人工智能技术应用到制造业,在自动化、数字化、网络化的基础上,实现智能化。其核心在于机器和系统实现自适应、自感知、自决策、自学习,以及能够自动反馈与调整。人工智能、工业互联网等相关技术的融合应用能逐步实现对制造业各流程环节效率优化。其主要路径是由工业物联网采集各种生产、物流等数据,放到云计算资源中,通过深度学习算法处理后提供流程、工艺等方面的优化建议,甚至实现自主优化,以及在未来实现人类工人与智能机器融合的协同制造。

中国是制造大国,人工智能在制造领域的应用备受重视。2017年12月16日,工业和信息化部发布《促进新一代人工智能产业发展三年行动计划(2018—2020年)》(以下简称《行动计划》),提出鼓励新一代人工智能技术在工业领域各环节的探索应用,提升智能制造关键技术装备创新能力,培育推广智能制造新模式。《行动计划》还进一步提出了加快应用人工智能技术进行制造业改造升级的具体任务,为我国智能制造的深化发展提供有力的支撑。

目前,中国的制造业面临内部和外部多种压力。来自内部的影响包括劳动力成本上升、原材料成本上升、环境压力和市场饱和。外部压力一方面来自西方发达国家的贸易摩擦、关税壁垒、技术封锁、设备和关键零部件禁运等,另一方面来自印度、东南亚低成本新兴国家的竞争。在内部、外部压力越来越大的情况下,提升效率、保证质量、降低成本和节能环保等成为中国制造业升级转型的方向,而人工智能技术在制造业的应用将会助力中国制造业实现这些升级转型的目标。

“人工智能+制造”的机遇与挑战

“人工智能+制造”是中国制造业升级转型的一个重要途径。将人工智能技术用于制造业将有效提高生产效率;实现柔性化生产;提高产品质量,降低人为错误;持续工艺改善,提升成品率,并降低生产成本。未来几年,中国制造业转型升级的巨大需求可以为“人工智能+制造”市场的拓展提供极好的机遇。不过,“人工智能+制造”机遇与挑战并存。

一方面,近年来全球人工智能应用不断拓展,人工智能领域的资金投入迅速增长,人工智能的数据、算力和算法都取得很大的进步,技术可行性越来越高。大数据相关技术在数据输入、储存、清洗、整合等方面作出了贡献,帮助提升了人工智能深度学习等算法的性能。云计算的大规模并行和分布式计算能力带来了低成本、高效率的计算力。

物联网和通信技术的持续发展也为“人工智能+制造”的发展提供了重要的基础设施。在未来5G等无线互联技术的支持下,数据的传输与处理速度将进一步提升。同时,传感器、无线传感网络等技术的发展帮助“人工智能+制造”系统收集大量的制造流程、物流等数据,高质量的海量数据对人工智能数据训练至关重要。总体而言,上述技术的发展使得人工智能赖以学习的标记数据获得的成本在不断下降。

算力增长也为“人工智能+制造”的应用提供了条件。在过去10年间,芯片处理能力提升、云服务普及以及硬件价格下降使计算能力大幅提升。成本不断下降以及算力的提高为“人工智能+制造”的实施提供了保障。

另一方面,中国发展“人工智能+制造”还面临诸多挑战。这表现在以下几点:

首先,关键技术自主能力弱。在“人工智能+制造”所涉及的关键技术上,我国的自主能力还比较弱。相关技术包括半导体芯片、核心装备部件、相关软件、算法等。这些关键技术,尤其是芯片等基础技术,需要大量的人力、物力投入以及长期的技术积累和经验沉淀,短时间内难以突破。

其次,传统制造业的管理模式陈旧。传统制造企业的根基起源于工业时代的大规模、标准化生产,其管理模式仍然以金字塔、多层次、细分化为主。这种企业管理模式灵活性差,较难适应快速变动的制造任务和客户需求。未来,人工智能的实施需要人机协同、人机分工,组织管理也需要更灵活、更高效。为了适应这种变化,很多传统制造企业的管理模式需要改变。

再则,资本投入不足。虽然人工智能行业吸引很多资本涌入,但在“人工智能+制造”应用领域的资本投入比较少。这主要是由于传统制造业利润普遍不高,而传统制造企业的改造升级涉及大量的设备、软件和硬件更新与改造,需要长期、大量的资本投入,投资周期长,短期效益很难显现。因此,虽然“人工智能+制造”的概念深入人心,但真正拿出真金白银投入的相对较少。

最后,制造业细分领域众多,每个细分的行业标准不一。即使在同一制造业领域,企业情况也是千差万别的。因此,“人工智能+制造”项目实施面临的情况十分复杂,没有什么统一的标准可言。例如,在企业车间往往有大量不同厂牌的数字化机床和其他工业自动化产品,涉及很多不同的工业以太网和现场总线标准,厂家软硬件不兼容的情况非常普遍。由于数据格式不兼容,只是进行设备改造,将底层数据收集上来就要花费很多时间和精力,还需要对这些数据进行清洗和转化。对传统制造企业来说,相关标准缺少和复杂的生产线现状使得实施“人工智能+制造”困难重重。

从相对成熟的“人工智能+制造”场景入手

“人工智能+制造”实施投入大,传统制造企业实施相关项目的复杂程度较高。不过,壹行研(InnovaResearch)研究发现,在众多的“人工智能+制造”应用场景中有一些技术相对成熟,并有了相当数量的项目落地。这些相对成熟的“人工智能+制造”的应用主要包括以下几种。

●质量检测

电子制造、汽车等行业工序复杂,在线检测的环节比较多,需要对产品进行大量的、基于视觉识别的质量检测、缺陷检查等。传统的质量检测以人工为主,人工识别精度有限,检测速度慢、误差大、成本高,工人长时间工作容易疲劳,容易出现次品漏检现象。另外,工人经验很难量化,工人流动性高,经验难以积累,难以指导生产线优化,而培训工人的时间较长、花费较高。

使用工业相机或高清摄像头捕捉产品组件、电路模块等在生产和组装过程中的图像和视频,可以提供给人工智能软件进行分析判断。在开始时用人工检查员进行二次检查和确认,人工智能技术可对当前和历史数据进行智能分析与处理,而人工的判断可以反过来帮助人工智能完善算法,指导人工智能系统持续学习。该系统的检测准确率能随着经验积累而持续改善。

例如,腾讯云帮助福耀玻璃工业集团股份有限公司实现了质量检测工序替代80%的人力,并且不良品检出率为90%以上。该系统使用的视觉洞察(VisualInsights)技术,前端使用高清摄像头,后端使用人工智能算法。云端处理器通过训练不断识别合格和异常产品图像的差异,进行快速学习、训练,并完成人工智能算法的建模。

又如,日本NEC公司推出的机器视觉检测系统可以逐一检测生产线上的产品,从视觉上判别金属、人工树脂、塑胶等多种材质产品的各类缺陷,从而快速检测出不合格品并指导生产线进行分拣,在降低人工成本的同时提升出厂产品的合格率。

人工智能视觉检测可以最终实现无须人力的机器自主质检,且全天候无间断。目前,人工智能视觉检测过程用时已经可以做到比人工检测时间缩短80%,有效节约了检测的人工成本。另外,计算机视觉检测精准度高,可以检测到肉眼无法检测的微小瑕疵,且判断标准一致,保持了检测过程的一致性。

人工智能检测在电子、汽车等制造行业的质量控制环节应用越来越广泛。在有些案例中,使用人工智能结合物联网和大数据技术已经能够实现把产品质量的自动监控扩展到整个生产流程。这不仅能提高质量检测效率,还能指导工艺、流程等改善,提高整体良品率。

●预测性运营与维护

传统上,工厂流水线车间一直采用被动式维护,只是在设备产生故障之后,才采取一定的措施来修理,也有采用工人定期巡检的方式来发现问题。这些维护方式过度依靠人工,且效率低下。

基于人工智能的预测性运维系统可以利用机器学习、处理设备的历史数据和实时数据,搭建预警模式,提前更换即将损坏的部件,从而有效地避免机器故障的发生。企业可以借助人工智能运维系统来减少设备故障和由此带来的损失,提高设备利用效率。

例如,美国初创企业Uptake公司凭借大数据、人工智能等技术提供端到端服务,以工业设备故障预测分析、性能优化为主营业务。国内科技创新型企业智擎信息技术(北京)有限公司的故障预测解决方案也可以提前2~4天预判故障,从而降低运维成本和备品备件库存成本,提升设备可利用率和整体运转性能。此外,还有公司推出基于人工智能的轴承健康状态感知系统,利用深度学习方法对轴与轴承部件的状态参数进行大量的历史数据分析,判断轴承的运行寿命。这项技术使设备年平均大修次数降低67%,系统诊断及维护响应时间少于1小时,从而大大缩短了维护周期,提高了设备利用率。

●供应链管理

电子等制造行业的零部件供应商来自全球各地,供应链比较长,涉及的元器件种类和分销渠道的流通环节非常多,容易受到国际政治、天灾人祸等因素的影响。传统供应链管理的效率低、流通成本高、需求预测不准、供应响应不足、应对供应链波动的能力不足、厂商的库存管理成本比较高。

供应链管理落后可能带来巨大损失。例如,2018年上半年存储芯片、硅片、贴片电容(MLCC)全线短缺,价格疯涨,很多电子制造业OEM厂商付出几倍甚至几十倍的价格购买芯片,甚至因为元器件缺货造成一些厂商生产线停产。

使用机器学习深入研究供应管理环节,分析需求、计划和库存,建立实时、精准匹配的供需关系,通过掌握和预测需求动态变化能够有效地促进供应链调整优化。借助人工智能,可以帮助制造业企业实施多级库存、计划生产等库存动态调整,最终实现采购和补货的半自动甚至全自动化。

人工智能可以基于大数据进行需求预测,这些大数据不仅来自供应链内部的各个环节,还来自行业外的数据,如贸易促销、媒体活动、新产品发布、季节性变化,甚至气候数据预测等。一些公司还利用机器学习算法识别需求模式,其手段是将仓库、企业资源计划(ERP)系统与客户洞察的数据合并利用,使用人工智能算法进行有效分析和判断。

在供应链运营方面,美国多式联运运输公司罗宾逊全球物流(C.H.Robinson)针对卡车货运的运营需求开发了用于预测价格的机器学习模型。模型既整合了不同路线货运定价的历史数据,又将天气、交通以及社会经济突发因素等实时参数加入其中,为每一次货运交易估算出公平的交易价格,在确保运输任务规划合理的前提下实现企业利润的最大化。

用人工智能进行供应链管理和预测可以有效地减少预测误差、提高库存周转率,并能有效地优化库存分布。人工智能掌握和预测需求的动态变化,尤其适合于电子制造、汽车及相关零配件、食品饮料等市场需求变动较大、供应链体系复杂的行业。

综上所述,“人工智能+制造”是中国制造业转型升级的重要途径,其发展的机遇与挑战并存。传统制造企业在全面实施“人工智能+制造”有困难时可以优先发展人工智能质量检测、预测性运营与维护、供应链管理等相对成熟的“人工智能+制造”应用,实现“人工智能+制造”的单点突破。这些系统可以独立运作,带来实实在在的收益,也可以在未来并入“人工智能+制造”大系统。

厉俊,壹行研(InnovaResearch)创始人、总经理。壹行研是领先的、专注于新技术的行业研究公司,研究领域涵盖新材料、新能源、工业互联网和机器人、电动汽车和储能等。

作者:厉俊

本文来自《张江科技评论》

人工智能技术的发展趋势及挑战

人工智能作为一项具有代表性的颠覆性技术,逐渐改变着我们的生活方式。接下来我会从几个方面来介绍一下我对人工智能发展的看法,包含什么是人工智能,人工智能的发展,人工智能所面对的挑战等内容。

什么是人工智能。

人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。

人工智能的定义可以分为两部分,即“人工”和“智能”。“人工”即由人设计,为人创造、制造。

而关于什么是“智能”,较有争议性。这涉及到其它诸如意识、自我、心灵,包括无意识的精神等等问题。人们唯一了解的智能是人本身的智能,这是普遍认同的观点。但是我们对我们自身智能的理解都非常有限,对构成人的智能必要元素的了解也很有限,所以就很难定义什么是“人工”制造的“智能”了。因此人工智能的研究往往涉及对人智能本身的研究。其它关于动物或其它人造系统的智能也普遍被认为是人工智能相关的研究课题。

尼尔逊教授对人工智能下了这样一个定义:“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。”而另一个美国麻省理工学院的温斯顿教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”这些说法反映了人工智能学科的基本思想和基本内容。即人工智能是研究人类智能活动的规律,构造具有一定智能的人工系统,研究如何让计算机去完成以往需要人的智力才能胜任的工作,也就是研究如何应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。

有上述定义所得,人工智能本质就是算法,是一类可以自己学习的算法。

接下来说人工智能的发展。

1950年,一位名叫马文·明斯基(后被人称为“人工智能之父”)的大四学生与他的同学邓恩·埃德蒙,建造了世界上第一台神经网络计算机。这也被看做是人工智能的一个起点同年,“计算机之父”阿兰·图灵提出设想:如果一台机器能够与人类开展对话而不能被辨别出机器身份,那么这台机器就具有智能。

1956年,计算机专家约翰·麦卡锡提出“人工智能”一词。这被人们看做是人工智能正式诞生的标志。麦卡锡与明斯基两人共同创建了世界上第一座人工智能实验室——MITAILAB实验室。

50年代,人工智能迎来高峰期。计算机被广泛应用于数学和自然语言领域,这让很多学者对面机器发展成人工智能充满希望。

70年代,人工智能进入低谷期。科研人员低估了人工智能的难度,美国国防高级研究计划署的合作计划失败,还让大家对人工智能的前景望而兴叹。主要技术瓶颈:计算机性能不足;处理复杂问题的能力不足;数据量严重缺失。

80年代,卡内基梅隆大学为数字设备公司设计了一套名为XCON的“专家系统”。它具有完整专业知识和经验的计算机智能系统。在1986年之前能为公司每年节省下来超过四千美元经费。

1987年,苹果和IBM公司生产的台式机性超过了Symbolics等厂商生产的通用计算机。从此,专家系统风光不再。80年代末,美国国防先进研究项目局高层认为人工智能并不是“下一个浪潮”。至此,人工智能再一次成为浩瀚太平洋中那一抹夕阳红。

1997年,IBM的深蓝战胜国际象棋世界冠军卡斯帕罗夫;2009年,螺丝联邦理工学院发起的蓝脑计划,生成已经成功模拟了部分鼠脑;以及2016年谷歌AlphaGO战胜韩国李世石。

回顾了人工智能60余年的发展历程,科研技术人员不断突破阻碍,让我们可以看到今天人工智能所取得的辉煌成果。随着人工智能的不断发展,科学界对人工智能的看法也渐渐分成两种——悲观学派和乐观学派。

悲观学派的代表是天文物理学家史蒂芬·霍金(StephenHawking),以及特斯拉首席执行官伊隆·马斯克(ElonMusk)。霍金认为AI对人类将来有很大的威胁,主要有以下理由:

AI会遵循科技发展的加速度理论AI可能会有自我改造创新的能力AI进步的速度远远超过人类人类会有被灭绝的危机存在

乐观学派主要是Google、Facebook等AI的主要技术发展者,他们对AI持乐观看法的理由:

人类只要关掉电源就能除掉AI机器人任何的科技都会有瓶颈,“摩尔定律”到目前也遇到相当的瓶颈,AI科技也不会无限成长,依然存在许多难以克服的瓶颈。依目前的研究方向,电脑无法突变、苏醒、产生自我意志,AI也不可能具有创意与智能、同情心与审美等这方面的能力。

这两种学说各有各的道理,目前很难判断那种学派是正确的。就目前的弱人工智能来说,乐观派或许是对的。但我们很难保证之后的强人工智能不会对我们的生存产生威胁。

《新一代人工智能治理原则——发展负责任的人工智能》是为促进新一代人工智能健康发展,更好协调发展与治理的关系,确保人工智能安全可靠可控,推动经济、社会及生态可持续发展,共建人类命运共同体,人工智能发展相关各方应遵循的原则。由国家新一代人工智能治理专业委员会于2019年6月17日印发实施。这份文检里明确指出了人工智能的发展应遵循的原则:和谐友好,公平公正,包容共享,尊重隐私,安全可控,共担责任,开放协作,敏捷治理。文件的主题还是“负责任”,如薛澜所说:“比如我们提出的‘和谐友好’等原则,强调无论是人工智能提供的产品还是服务,都应该是负责任的、全面的,应以增进人类共同福祉为目标,应该符合人类的价值观和伦理道德,避免误用,禁止滥用、恶用。”负责任就是以人为本,一切以服务人类为主。目前还处于弱人工智能阶段,主要需要被约束的还计算机工程师。计算机工程师要负起自己的责任,确保人工智能安全可控可靠,规避风险隐患,做到为人服务,不侵犯用户的权益和隐私。

“考虑到人工智能发展的高度复杂性和不确定性,要按照渐进性的思路推进人工智能的治理。”薛澜表示,《治理原则》是一份框架性文件,对人工智能健康发展主要发挥宏观引导作用,今后还将根据形势的变化和需要,不断进行充实和调整。在薛澜看来,人工智能的发展过程中也面临着一些基础性的工作,立法就是其中之一。“我们发布的《治理原则》,也为今后的立法工作提供了重要基础。”他认为,人工智能发展非常快,而立法的周期较长,因此也很难只用法律框架来支撑人工智能的发展,“这就需要相关的原则准则、行业规范,包括从业者的自律,来协同推进其健康发展。”

防范风险隐患,发扬科技之善,人工智能发展迅速,它只会不断渗透进我们生活,计算机工程师要从八项原则出发,规范自己的道德标准,遵守法律法规,做好应对人工智能“觉醒”的准备,以人为本的发展人工智能,让人工智能为人民服务,才能更好地,健康地发展人工智能。

人工智能未来的挑战

所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。

所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。

不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。

处理好人工智能思维和人类思维的关系,是人工智能发展的最大挑战。模仿人类思维,会显得有局限性;发展机器思维,又会不可控,这两者的平衡如何把握,就看以后的计算机工程师怎么选择了吧。

我国人工智能产业发展面临的三大问题

2019年,人工智能数据、算法、算力生态条件日益成熟,我国人工智能产业发展迎来一轮战略机遇,智能芯片、智能无人机、智能网联汽车、智能机器人等细分产业,以及医疗健康、金融、供应链、交通、制造、家居、轨道交通等重点应用领域发展势头良好。展望2020年,全国各级地方将根据自身实际情况申报和落地人工智能创新应用先导区,国内人工智能产业投融资将更关注易落地的底层技术公司。

2020年形势判断

从产业链建设看,人工智能数据、算法、算力生态条件日益成熟。算法、数据和计算力是推动人工智能技术进步和产业发展的“三驾马车”。

一是在算法方面,2019年,基于视觉、触觉传感的迁移学习、变分自动编码器(VAE)和生成对抗网络(GAN)是无监督学习中新涌现的算法类型。预计2020年,上述新兴学习算法将在主流机器学习算法模型库中得到更高效的实现,Caffe框架、CNTK框架等分别针对不同新兴人工智能算法模型进行收集整合,可以大幅度提高算法开发的场景适用性。

二是在数据方面,2019年,我国5G、物联网、汽车电子等多种新兴技术产业的快速发展,数据总量呈现海量聚集爆发式增长。预计2020年,我国5G通信网络部署加速,接入物联网的设备将增加至500亿台,数据的增长速度越来越快,世界领先的互联网公司大数据量将达到上千PB,传统行业龙头型企业数据量将达到PB级,个人产生数据达到TB级。

三是在算力方面,2019年以来,我国人工智能的算力仍以GPU芯片为主要硬件承载,但随着技术的不断迭代,预计2020年,ASIC、FPGA等计算单元类别将成为支撑我国人工智能技术发展的底层硬件能力。

从政策推动来看,全国各级地方将根据自身实际情况申报和落地人工智能创新应用先导区。2019年,我国31个省份中已有19个省份发布了人工智能规划,其中有16个制定了具体的产业规模发展目标,以北上广深为代表的城市积极地制定了行之有效的政策,对人工智能产业的落地和发展产生了较大的推动作用,成为中国人工智能行业的重要实践者和领头羊。

尤其是2019年下半年以来,上海市和深圳市获批成为我国首批人工智能创新应用先导区,为我国人工智能产业应用发展带来新契机。预计2020年,国内更多城市(群)将聚焦智能芯片、智能无人机、智能网联汽车、智能机器人等优势产业,面向医疗健康、金融、供应链、交通、制造、家居、轨道交通等重点应用领域,积极申报和搭建符合自身优势和发展特点的人工智能深度应用场景,以“先导区”工作为抓手,促进人工智能产业与实体经济深度融合。

从投融资情况看,我国人工智能产业投资市场将关注易落地的底层技术公司。在过去5年间,我国人工智能领域投资曾出现快速增长。2015年,人工智能产业投融资规模达到450亿元。到2019年,仅上半年国内人工智能领域就获得投融资超过478亿元。近四年来,人工智能领域投融资集中在企业服务、机器人、医疗健康、行业解决方案、基础组件、金融等落地前景较好领域。预计2020年,新零售、无人驾驶、医疗和教育等易落地的人工智能应用场景将更加受到资本关注。

同时,由于中国在人工智能底层技术方面仍落后于美国,随着人工智能在中国的进一步发展,底层技术的投资热度将持续增长,那些拥有顶级科学家团队、雄厚科技基因的底层技术创业公司将获得资本市场的持续资金注入。

三大问题

我国人工智能领域的基础创新投入严重不足。

从企业研发创新看,中国人工智能企业的创新研发支出仍远远落后于美国、欧洲和日本。2018—2019年,美国人工智能领域企业投入的科技研发费用占据了全球科技支出的61%,我国人工智能领域企业研发支出虽然快速增加,增速达到34%,但实际占据的全球科技支出份额明显小于美国。

从人工智能知识产权保有量看,我国各类实体拥有的人工智能专利总量超过3万件,位居世界第一,但中国相关企业拥有的人工智能相关专利多为门槛较低的实用新型专利,发明专利仅占专利申请总量的23%。同时,根据世界知识产权组织的数据,我国企业拥有的95%的人工智能设计专利和61%的人工智能实用新型专利将会在5年后失效,相比之下,美国85.6%的人工智能专利技术在5年后仍在支付维护费用。2020年,我国需要在人工智能基础研究与创新,打造核心关键技术长板、加强知识产权保护方面加大投入力度。

我国人工智能产业的算力算法核心基础相对薄弱。我国人工智能发展在数据规模和算法集成应用上都走在世界前列,但在人工智能基础算力方面,能提供国产化算力支持的企业还不多。

在人工智能的算力支持方面,IBM、HPE、戴尔等国际巨头稳居全球服务器市场前三位,浪潮、联想、新华三、华为等国内企业市场份额有限;国内人工智能芯片厂商需要大量依靠高通、英伟达、AMD、赛灵思、美满电子、EMC、安华高、联发科等国际巨头供货,中科寒武纪等国内企业发展刚刚起步。

在人工智能算法方面,主流框架与数据集领域国内外企业龙头企业包括谷歌、脸书、亚马逊、微软等,深度学习主流框架TensorFlow、Caffe等均为美国企业或机构掌握,百度、第四范式、旷视科技等国内企业的算法框架和数据集尚未得到业界的广泛认可和应用。2020年,我国需要进一步部署加强人工智能基础设施建设,并重视国内人工智能算法框架的创新推广。

以算法战、深度伪造为代表的人工智能技术滥用给经济社会带来严重负面影响。算法战指的是将人工智能算法、机器学习等技术全面应用于对敌作战中的情报收集、武器装备、战场勘测、指挥协同、决策制定等环节,核心目标是利用人工智能技术提升军事作战能力;深度伪造(Deepfakes)是“DeepMachineLearning”(深度学习)和“Fake”(造假)的英文组合词,是一种基于深度学习的人物图像合成技术,随着人工智能算法开源不断推进,深度伪造技术门槛正在不断降低,非专业人员已经可以利用简单开源代码快速制作出以假乱真的视频和图像。

2019年以来,基于人工智能的算法战和深度伪造的正在扩大军事影响、形成网络暴力、破坏政治选举、扰乱外交关系等方面被滥用,并给社会和国家带来极大风险。上述对人工智能技术的滥用给我国家安全、产业安全、社会经济安全带来巨大风险,需提前预防可能风险,并寻求国际支持。

对策建议

以算力为核心加强人工智能基础能力建设。首先要大力推进人工智能算法库、解决方案库、数据集及公共服务平台建设,强化人工智能发展基础。其次加强面向人工智能发展应用的5G网络、边缘计算硬件新兴信息基础设施建设。最后要对各行业企业自动化、智能化改造的产出、效果进行科学有效测算,指导企业找准技术研发投入的切入点,利用好人工智能技术实现经济社会高质量发展。

体系化梳理我国人工智能产业供应链现状。我们既要关注重要整机产品以及大厂商、大企业,也要覆盖量大面广的细分领域及增长势头良好的隐形冠军。

推动国内人工智能企业加快开拓国内外应用市场并提升出海抗风险能力。我国需要加强国内应用市场推广,挖掘多种类型的应用场景,培育各种规模的竞争主体,进一步提升新技术的应用水平和应用层级。同时,引导对外应用市场开拓,支持企业开拓海外市场,对出海企业在经营合规管控、知识产权管理、专利诉讼等方面的具体问题给予窗口指导。最后,提升企业自身的抗风险抗打击能力,鼓励新兴领域的独角兽企业尽快做大做强,形成较大规模体量和较强技术竞争力。

在国际社会上提出发展“负责任的人工智能”。首先应加紧研究并提出中国版的人工智能伦理守则或框架,形成人工智能伦理风险评估指标体系或风险管理指南,为人工智能企业提供风险识别、评估及应对的系统指引。其次应加强与联合国、欧盟及其成员国、G20等国际组织的合作,参与搭建多层次国际人工智能治理机制,提出发展“负责任的人工智能”供全球各国讨论,在全球人工智能伦理框架的制定议程中发挥建设性作用。

来源:赛迪研究院

 

更多资讯,请扫描下方二维码,关注中国微米纳米技术学会微信公众号

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇