博舍

探索构建符合中国国情的人工智能治理框架——全国政协“人工智能发展中的科技伦理与法律问题”双周协商座谈会发言摘登 日本发布的针对人工智能发展的政策叫什么

探索构建符合中国国情的人工智能治理框架——全国政协“人工智能发展中的科技伦理与法律问题”双周协商座谈会发言摘登

■编者按:

任何一项重大科技创新都会促进社会生产力和生产关系的变化,也会影响社会生活方式和伦理秩序的调整。人工智能技术具有广泛渗透性和颠覆性,带来的科技伦理与法律问题更加复杂多元,可能引发潜在伦理和法律风险,需要引起高度重视。12月23日,全国政协召开双周协商座谈会,专门就此问题进行协商议政。现将有关发言摘登如下——

 

全国政协副主席,民盟中央常务副主席陈晓光作主题发言

全国政协将“人工智能发展中的科技伦理与法律问题”作为双周协商座谈会的主题,紧扣关乎国家发展的前瞻性、战略性问题协商议政,是充分发挥政协人才库、智慧库优势的一次生动实践。

结合参加调研的感受和委员们的发言,我谈以下几点意见。

一、充分认识人工智能科技伦理与法律建设的战略意义

人工智能的健康发展,必须回答人工智能到底该由谁掌控、人工智能发展的基本准则是什么、人工智能发展的禁区在哪里等问题,必须通过建立理性的伦理规则和法律规范为人工智能发展的风险防范设置“控制阀”。

在发展人工智能技术的同时,必须同步开展伦理和法律层面对人工智能的引领和规范工作,改变“先发展后治理”的模式和“重科技研发、轻治理研究”的思维,大力加强人工智能伦理和法律相关问题的研究。

二、构建多元主体共同参与协同合作的治理体系

充分发挥我国国家制度和国家治理体系优势,在国家层面加强顶层设计,统筹多方力量,构建多元主体共同参与、协同合作的人工智能治理体系。通过制定政策和法律,明确政府对人工智能发展的监督管理和规范指导职责,健全人工智能治理的资源统筹、部门协作、信息共享的工作机制,搭建人工智能治理的框架。鼓励行业协会、标准化组织、产业联盟等社会团体,制定人工智能产业标准、技术标准和行业规范,不断加强行业自律。倡导企业率先开展相关研究,制定企业伦理规则、建立内部审查机制,进行自我监管。建立公众参与人工智能治理机制,保障公众的知情权、参与权、表达权、监督权。

积极推动国际社会在人工智能伦理和法律建设中凝聚共识、开展合作。鼓励国内研究机构、智库等利益主体多方参与人工智能治理。与多国多方多边加强人工智能技术、标准等方面的合作、共享,探索人工智能在应对全球性问题方面的应用。

三、构建远近结合的综合规制体系

总的来看,人工智能治理需要在充分发挥技术手段的基础上,注重伦理与制度的结合,逐步形成“技术防范+伦理规范+法律规制”的综合规制体系。

从近期看,应着重加强技术应对和伦理规范。遵循市场规律,坚持应用导向,完善人工智能标准体系,将基础安全,数据、算法和模型安全,技术和系统安全,安全管理和服务等作为人工智能安全与隐私保护技术标准的重要发力方向。

从中长期考虑,全面研究和论证人工智能法律规制体系,制定立法策略。围绕国家和社会层面的数据安全、数据权利等进行立法。在人工智能发展相对成熟的领域,适时开展相关的规范立法。

四、广泛开展人工智能知识宣传教育活动

在全社会,全面、客观、深入宣传人工智能发展将给人类社会带来的根本性变革,促使公众形成对人工智能的科学、理性认识。抓好学校教育,将人工智能知识、计算机思维普及教育纳入国民教育体系,“从娃娃抓起”,培养良好科技伦理素养。抓好劳动技能培训教育,着眼于人工智能时代对劳动者的要求,积极应对人工智能带来的就业替代。

加强对科研人员的科技伦理和法律教育培训,从源头防范人工智能风险。将科研人员职业道德、学术道德规范等相关内容作为上岗前的重要培训内容,在项目申请、管理中,加大对人工智能科技伦理、法律法规的考核比重。强化大学科技伦理教育,建立系统性、多维度科技伦理人才培养体系,设置科技伦理专业方向;将人工智能伦理法律等课程纳入与人工智能开发、运用相关专业的核心课程,完善教学体系。

全国政协委员、社会和法制委员会副主任,公安部原副部长陈智敏作调研情况综述:高度重视人工智能健康发展和风险防范

为做好本次会议筹备工作,今年9-10月,陈晓光副主席、汪永清副主席分别率专题调研组赴安徽、江苏、北京开展4次调研,深入26家企业、科研院所和高校,与企业负责人、一线科研人员、专家学者和相关部门广泛交流。

调研中看到,新一代人工智能正在与实体经济深度融合,广泛应用于社会民生领域,激发创新活力和社会潜能,成为经济发展新引擎。我国人工智能发展势头迅猛,但发展机遇与风险并存,对人类社会发展也可能带来重大风险和潜在威胁。一是数据信息采集应用可能侵犯公民权利,威胁隐私。二是算法偏好可能加剧社会偏见或歧视,威胁公平。三是机器深度学习难以理解人性和道德,无人驾驶汽车紧急避险等智能决策可能危及特定人群生命,威胁安全。四是人机交互式产品广泛应用带来的工作生活高度依赖,对人类情感体验、家庭社会关系等带来了一定冲击,可能影响未来社会塑造,威胁伦理。

当前,人工智能发展的科技伦理与法律问题研究已经在实践中逐步探索和实施。2017年,国务院发布《新一代人工智能发展规划》,提出了人工智能治理体系建设的时间表和路线图。但总体来看,已经开展的研究和探索基本上还处于自发和分散状态,缺乏规划和统筹,难以形成合力;社会各方面对伦理和法律促进和保障人工智能健康发展的基础性作用,重视不够、认识不足;科技研发和应用中的风险意识、规则意识不强,“科技向善”的融合度、共识度和实践性都有待提高。建议:

一、从国家发展战略高度制定人工智能发展规划,引导人工智能发展与国家创新驱动发展战略相衔接,特别是高端制造业。重视人工智能红利形成的“数字鸿沟”“贫富鸿沟”等社会财富分配问题、人工智能发展引发的就业问题等科技伦理和法律问题研究,构建多部门协同、多学科融合、多元主体参与的风险治理和规则治理研究框架和工作体系。

二、弘扬“科技向善”理念,在科研人员中树立扬善避恶、造福人类的道德准则,明确道德底线。针对深度伪造技术可能引发政治风险、个人信息被窃取倒卖引发刑事犯罪、“数据投毒”导致人工智能系统误判等问题,建立数据安全保障、算法安全审查等制度,为人工智能发展形成正确价值导向和稳定社会预期提供有力保障。

三、立足先发优势,积极参与和引领人工智能治理国际规则制定,为构建适应人类命运共同体安全发展需要的人工智能全球治理新规则新秩序新格局,贡献中国智慧和中国方案。

全国政协常委,湖南省政协副主席,九三学社中央常委、湖南省委会主委张大方:警惕人工智能发展所带来的社会公平问题

人工智能主要以大数据和深度学习为基础,从理论上来说,客观的数据和理性的算法没有情绪也没有偏好,不会带来偏见。但是,往往数据的缺失、数据的质量、算法的歧视和人工的变化,会导致一些偏见出现。也许,人类真正优越于人工智能的,不是更强大的逻辑运算能力或创造力,而是崇高的道德感和同情心。

面对人工智能发展所带来的潜在与现实的社会公平问题,我个人的思考与建议是:

一、“上限”不能过。人工智能发展应该公平地服务于人类的公共利益,而不应该侵害甚至颠覆人类社会的公平与正义。人工智能应该被合乎伦理的设计开发与利用,一切有悖于科学伦理、加剧社会不平等、拉大贫富差距的技术研发,应该受到限制。

二、“底线”不能破。应致力于帮助每个人做好应对的准备,包括帮助学生应对未来的职业挑战,帮助劳动者应对不断变化的行业形势,以及建立相关制度以帮助劳动者和就业机会进行匹配。应大力推广计算思维普及教育,让每一个人都能成为人工智能的理解者与受益者;大力推动各行业数字化转型,让每一家公司都能成为人工智能的使用者与创造者。

三、“红线”不能踩。必须加强政府引导、行业自律、企业自觉及公民共识的氛围营造,从设计研发之始,就要在技术标准化上加以规范,下大力气培养一线从业人员遵从科学道德伦理,自觉规避好奇与邪恶,并从中获得职业释怀的幸福感,从而使人工智能在政策、法律和规范的指导下更具效能。

全国政协常委,湖南省政协副主席,九三学社中央常委、湖南省委会主委张大方:警惕人工智能发展所带来的社会公平问题

人工智能主要以大数据和深度学习为基础,从理论上来说,客观的数据和理性的算法没有情绪也没有偏好,不会带来偏见。但是,往往数据的缺失、数据的质量、算法的歧视和人工的变化,会导致一些偏见出现。也许,人类真正优越于人工智能的,不是更强大的逻辑运算能力或创造力,而是崇高的道德感和同情心。

面对人工智能发展所带来的潜在与现实的社会公平问题,我个人的思考与建议是:

一、“上限”不能过。人工智能发展应该公平地服务于人类的公共利益,而不应该侵害甚至颠覆人类社会的公平与正义。人工智能应该被合乎伦理的设计开发与利用,一切有悖于科学伦理、加剧社会不平等、拉大贫富差距的技术研发,应该受到限制。

二、“底线”不能破。应致力于帮助每个人做好应对的准备,包括帮助学生应对未来的职业挑战,帮助劳动者应对不断变化的行业形势,以及建立相关制度以帮助劳动者和就业机会进行匹配。应大力推广计算思维普及教育,让每一个人都能成为人工智能的理解者与受益者;大力推动各行业数字化转型,让每一家公司都能成为人工智能的使用者与创造者。

三、“红线”不能踩。必须加强政府引导、行业自律、企业自觉及公民共识的氛围营造,从设计研发之始,就要在技术标准化上加以规范,下大力气培养一线从业人员遵从科学道德伦理,自觉规避好奇与邪恶,并从中获得职业释怀的幸福感,从而使人工智能在政策、法律和规范的指导下更具效能。

全国政协委员,北京搜狗科技发展有限公司首席执行官王小川:以未来之眼光看待人工智能

人工智能是引领新一轮科技革命和产业变革的战略性技术,这要求我们跳出今天的思维定式,以未来的眼光看待人工智能。

我想先区分开大数据和人工智能。算法、算力和数据是人工智能的三大驱动力。今天的人工智能是建立在数据智能基础上,数据对人工智能的发展更容易产生作用,但是数据本身涉及个人信息保护等问题,现在已经引起了人们的高度重视。我先抛开大数据不谈,谈人工智能,集中谈算法。

算法在短期内能实现如人们期待的突破吗?当前算法已经取得了一定突破,但短期看突破还不够。长期看,算法能不能实现预期中的突破是不可预测的一件事,需要长时间的思考和科研。因此,我们应该有规划、有规模地开展人工智能技术普及工作,分层次地推进全社会人工智能普及教育。

人工智能是一个未来命题,教育同样也是,需要长远布局。立足当下,我们看到的是人工智能对就业带来影响。越来越多简单的重复性劳动,逐步被人工智能取代,后者甚至达到人类难以企及的速度和精准度。而长远地看,尚没有充分研究成果显示人工智能可以替代人完成创造性的劳动。我们更需要关注如何在教育中鼓励创造,改革那些交给机器做可以更高效、更精准的工作。通过转变教育方式、推动学科改革,实现对人才培养方向的引导,以优化的人才结构适应未来的需要。

以未来的眼光看待人工智能,还意味着要更多关注取舍两难的问题。取舍两难的问题,不是直观的恶与善,他们会伴随人工智能与社会经济发展的深度融合,以穿透科学与人文的复杂方式呈现出来。从社会治理的角度看,这些更需要我们提前去思考和关注。

全国政协委员,九三学社重庆市委会副主委,重庆医科大学校长黄爱龙:加强人工智能应用中的个人隐私保护

人工智能需要大量个人数据支撑,其中很多是个人隐私。隐私信息一旦泄露,可能对消费者人身、财产安全及企业、公共利益造成严重威胁。加强隐私保护,不但是人工智能开发、应用中的伦理道德底线,还是保障公民依法享有《宪法》《民法典》等所规定的人格权、隐私权的重要体现。

从2020国家网络安全宣传周“App个人信息保护”发布活动上了解到,工业和信息化部联合相关单位连续两年开展App违法违规收集使用个人信息专项治理。2020年累计巡查4.8万余款App,专项检查了200余款App,依法处置了7000余款存在违法违规行为的App。可见,问题App占比很大。各部门下了很大力气,制定技术规范、建立举报平台、督促问题整改,取得了很好的效果。

App安全认证制度是一项很好的措施。但目前认证的App数量较少,需要进一步推广,提升实施效果。希望监管部门持续开展治理工作,进一步扩大工作范围,加大处罚力度,提高违法违规成本,对违法违规行为形成有力震慑。加强对举报平台的宣传推广,鼓励公众积极参与提供问题线索,完善公众权益救济渠道,形成全民监督的良好社会氛围。在《App违法违规收集使用个人信息行为认定方法》统一标尺的基础上,针对金融、安防、医疗、教育等重点领域,出台有针对性的细化办法。

另外,我建议隐私信息采集应区分“战时”和“平时”,并坚持“最小够用”原则,比如,“健康码”采集的信息,疫情过后再使用的话,要有相关规定;“行程码”显示的行程信息,建议由逐一列出手机使用者去过的地区,调整为只列出去过的中高风险地区。

同时,建议构建“制度+科技”治理机制,政府、司法、行业、企业等多方协同治理,在推进人工智能应用的同时有效保护隐私。

全国政协委员,上海众人网络安全技术有限公司董事长谈剑锋:支持人工智能发展数据管控需先行

一旦个人隐私数据泄露,就是重大的社会事件,不仅会危及老百姓的财产和生命安全,而且会影响社会稳定。更进一步来看,随着人工智能数据收集、分析以及信息生成技术的不断发展,很多东西可以被仿造,信息仿造不仅会侵蚀社会的诚信体系,还可能会给国家的政治安全、经济安全和社会稳定带来巨大的负面影响。

在海量大数据中,尤其需要关注的是不可再生性数据,比如人脸、指纹、DNA等生物特征数据,以及个人医疗档案数据等。这些数据具有唯一性,是无法更改的,一旦被采集到不安全的网络上,极有可能带来灾难性后果。

人工智能技术的发展是趋势,应该予以支持。但针对个人生物特征、医疗数据等唯一性、不可再生性的重要数据,必须提前设防。生物识别技术应当成为“最后的救济手段”,在使用规范上要有更加严格的要求,防范各类风险。建议采用负面清单制,明确禁止具有唯一特征的不可再生性数据在互联网上的应用,切断风险源头。

我还有一点思考,建议国家设立“数据银行”,成立专门机构来统一管控、存储和应用不可再生性大数据,从而限制企业自行采集收集和垄断,并运用区块链技术分布式存储,运用密码技术严格保护数据。

作为一名数据安全领域的工作者,我认为必须严控大数据的使用场景。科技需要从0到1的创造,而不是滥用场景式的所谓“创新”。要对互联网企业的信息采集进行严格的管理规定,只可针对企业产品的特性进行相关必要的数据采集,不得过度、无序、随意地采集,并出台相关条例,明确规范由谁来采集、如何采集等相关安全技术规范和流程标准,采取严格的安全防范措施。

全国政协委员,最高人民法院副院长姜伟:尽快出台数据权利保护类法律

我们在调研中发现,因数据的权属不明确,有三个问题困扰着有关企业:一是创新难,数据企业之间爬取数据、滥用数据的现象普遍存在。二是交易难,因数据价值缺乏统一评估标准,需要逐一谈判,数据交易成本高。三是维权难,数据平台遭到侵权的问题时有发生。

建议尽快出台数据权利保护类法律,主要有以下几点考虑:

一、数字经济需要法律保障。在信息化时代,迫切需要建立一个安全、有序的数据流通环境。明确数据产权,就是建立一套公平合理的法律规则,规范数据的权属、使用、交易、共享机制,激发市场主体的积极性和创造性,促进数据开放、流动、共享。

二、数据属性需要制度创新。数据形态与现有法律客体的形态和性质均有不同,其权利主体是多元的,权利内容是多维的,涉及个人信息、企业利益、政府资源、数据主权、国家安全等多重维度,无法将数据所有权绝对化,不能简单地套用传统的物权规范。需要根据数据的属性特点建立数据产权制度,破解“个人数据与企业产权”的矛盾、平衡“数据安全与数据利用”的冲突,对各种类型数据合理确权,解决数据属谁所有、数据如何使用、数据收益归谁等问题。

三、司法实践需要法律依据。民法典总则编第127条规定:“法律对数据、网络虚拟财产的保护有规定的,依照其规定。”表明法律保护数据权利的鲜明态度,关键是现有法律规范不健全,后续立法应细化数据权利保护规则,落实这个原则性规定,为司法裁判提供依据。

全国政协委员,香港中文大学工程学院副院长,香港计算机教育学会荣誉会长黄锦辉(视频连线):加强对可解释权的立法

人工智能的任务是仿效人类的行为,并以机器代人为终极目标。医疗及教学是常见的人工智能应用,但不少现有的系统都未能为决定作出合理解释,使用户质疑其效能。比如在没有病征的情况下被确诊为肺炎,但医生没有解释;比如一名学生很努力地写了论文,老师却评为不及格又没有说出理由根据。遇到上述场景,当事人必然感到无奈,从而对医生及老师失去信任。而在这些医疗及教学的人工智能应用背后,所使用的大数据分析算法,都会用到深度学习。

深度学习是制造人工智能系统的关键技术。它利用神经网络算法对输入数据进行表征分析及学习,从而构建出一个对应的信息处理模型。神经网络是一套端对端的学习运算方法,换言之,当操作者输入了数据,网络便会自动学习,找出最佳结果作为输出。尽管如此,它的自动学习算法以黑箱式作业,并不透明,剥夺了数据拥有者的权利。欧盟于2016年推出的《一般数据保护规范》当中,可解释权是一项重要法规。理论上,可解释权是对算法(例如深度学习)输出进行解释的权利。

提两个建议:一是建议国家在人工智能方面加强对可解释权的立法。二是建议国家有关部门邀请香港代表一起,参与联合国在人工智能伦理和治理方面的国际标准制定工作。

全国政协委员,北京市通州区人民法院副院长、民事审判一庭庭长李迎新:为人工智能把好“运行控制关”

如果将“人工智能产业”比作高速行驶的汽车,那么在努力踩好“油门”不断加速的同时,更应提高风险防控意识,把好运行控制关,确保人工智能产业发展始终在造福人民正轨上行驶。

作为一名法律人,我对人工智能系统致人损害时引发的侵权责任问题,谈一点思考。人工智能基于神经网络的深度学习,具备自我学习和进化的能力,拥有不断迭代的自主性。以无人驾驶汽车为例,假设车辆在无人驾驶中发生事故致人伤害,那么事故原因究竟是无人车的生产设计者过错导致的产品瑕疵或缺陷?还是无人汽车使用者自身操作不当?又或者是人工智能系统超越原控制方案通过自主学习而引发的“自身危险行为”?从法律思维角度,应当明确分析原因,界定责任主体。对于人工智能存在的无法归责于生产设计者也不宜归责于使用人的侵权责任,或可考虑设立类似于交强险的“人工智能责任险”,以便及时对被侵权人提供救济,同时分担生产设计者的创新风险。实践中广泛存在的其他人工智能产品可能带来的侵权损害,可以参照上述责任分配机制。请教司法部的领导同志可否借鉴道交中的交强险做法,设置人工智能责任险?

再就人工智能可能带来的“数字鸿沟”“发展鸿沟”谈一点思考。数据是人工智能不断进化的“燃料”。目前主流观点表明,数据集合会产生市场价值倍增。巨型网络交易平台作为原始数据的搬运者和收集者,通过多种渠道获取原始数据,汇总后加工并最终获得价值密度极高的“大数据”,进而以“精准营销”等方式,获取商业利润。就此类因数据产生的利润分配机制是否公平?是否可能导致收入差距进一步加大?目前多国已经针对大型互联网企业及电商交易平台开征或正考虑开征数字税。想请教发改委和工信部的领导同志,如果时机成熟,是否对巨型互联网企业相关互联网业务产生的利润征收适当“数字税”?

全国政协常委,民盟中央副主席、上海市委会主委,上海市副市长陈群:加快构建人工智能健康发展治理体系

随着人工智能赋能百业态势的不断发展,隐私保护、安全可控、公平公正等法律伦理问题逐渐成为社会关注焦点和影响人工智能产业可持续发展的关键。结合上海的探索实践,提三点建议。

一是加快构建促进人工智能健康发展的良好生态。上海近年来探索表明,要推动人工智能健康发展,除了加大科研投入、推动人才集聚、丰富应用场景和政策供给外,还需要着力构建良好的发展生态,目前上海正积极建设人工智能综合性研究机构,打造人工智能算法评测和交易平台,建设面向人工智能主流技术的算法评测标准体系和通用算法库,开展算法知识产权保护;推动制定人工智能应用的企业标准、行业标准和地方标准;加快制定医疗、交通等重点领域人工智能产品和服务责任认定条例,开展人工智能产业发展监管、人工智能数据安全等立法调研。

二是加快构建以人为本的人工智能治理体系。下阶段,人工智能将进一步深入社会生活,需要政府在坚持包容审慎原则的同时,更加积极作为。建议在国家层面搭建人工智能治理框架,设立专业管理机构,加强风险和挑战研判,推动全国性治理原则制定,并探索出台相关法律法规。

三是发声人工智能全球治理。在国家层面加快相关制度创新,布局建设人工智能认证体系和全球赋码系统。同时进一步加强人工智能国际对话合作。

全国政协委员,民盟北京市委会副主委,中科院理化技术研究所副所长汪鹏飞:加强科技伦理宣传教育

先进科技在推动人类社会迅速发展同时,也带来科技重大伦理风险。特别是近年来生物医学科技、人工智能技术的快速发展与普及已引发广泛的伦理与风险问题。就加强人工智能科技伦理风险意识的宣传方面提三点建议。

一、加强宣传力度,提高全社会对科技风险的敏感性以及对科技风险的认知水平和能力。首先强化对教师及科研人员的宣传教育。将教师与科研人员职业道德、学术道德规范等相关内容作为上岗前的重要培训内容,在项目申请、管理中,承担单位应加强宣传教育与培训,提高科研人员在科技伦理、科技安全等方面的责任感与法律意识。强化国家科技伦理方面的法律法规在高校、科研院所及企业等单位的宣传与推广,建立相关宣传体系,推动科技伦理科普宣传,将科技伦理纳入公民科学素质建设中。

二、强化对高校学生的科技伦理教育。建立系统性、多维度科技伦理人才培养体系,强化专业化、多元化人才培养;探索完善科技伦理课程内容设置、教学方法创新,如:将科技伦理法规规范、伦理哲学道德、生物与临床医学伦理、人工智能工程伦理等相关学科课程纳入高校教育核心课程。

三、加强对党政领导干部的人工智能伦理风险教育培训。领导干部需要对人工智能这一科技伦理方面发展的风险有较科学理性的看法,从发展角度辩证、客观地看待发展中存在的问题。

清华大学法学院院长申卫星:关于对人工智能进行多重规制的建议

人工智能是一把双刃剑,深刻改变人类社会生活、改变世界的同时,其发展的不确定性也给个人隐私、经济安全和社会稳定乃至全球治理带来前所未有的新挑战。

针对人工智能技术发展中的风险,应落实以人民为中心的发展思想,在大力发展人工智能的同时,高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险、化解风险,从技术、伦理和法律三个路径共同构建符合人工智能运作基本逻辑的规制体系,确保人工智能安全、可控发展。建议:

一、通过技术手段防范人工智能带来的风险和损害。遵循市场规律,坚持应用导向,完善人工智能标准体系,将基础安全,数据、算法和模型安全,技术和系统安全,安全管理和服务等作为人工智能安全与隐私保护技术标准的重要发力方向。

二、制定促进人工智能发展的伦理规范。伦理准则是保障个人智能安全可靠可控发展的重要措施,要加强人工智能相关伦理和社会问题研究,建立保障人工智能健康发展的伦理道德框架。开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架。制定人工智能产品研发设计人员的道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案。

三、构建综合性立法和具体场景立法相结合的“总-分”式立法体系。综合性立法是进行人工智能顶层设计的最佳形式,通过专门的中央立法可以强有力地指导各地、各领域的人工智能发展。具体场景分别立法的领域包括自动驾驶、自动化决策、精准医疗等,区分不同行业和场景对人工智能技术进行规范。“总-分”的立法体系设计将有利于增强国内外对于中国人工智能技术的信任度,提升人工智能国际竞争中的软实力。为保障立法的科学性,可以分别构建高级别的人工智能发展协调机构和安全治理机构,共同牵头立法组织工作,按照分别起草、逐个审议、汇编成法的思路开展立法工作。同时积极参与人工智能全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作,共同应对全球性挑战。

 

 

 

中科院原院长白春礼最新演讲:关于我国人工智能发展的思考和建议(全文)

刚才朝阳董事局主席讲话我很有感触,我认识他的时候,他取得物理学博士不久,还没有创办搜狐,但是他今天仍然保持对物理学浓厚的兴趣,也支持举办这样的峰会,我觉得特别难得。

刚才暖场视频当中有一段关于人工智能,刚才朝阳讲话当中,提到人工智能方面最新的进展,今天对人工智能发展的几点思考,包括学科的发展和政策建议,来跟大家一起讨论。

最近几年来,人工智能发展日新月异,已经从科学研究领域演变为能够深刻的改变影响各个行业的赋能体,并且作为基础设施来推进经济社会发展,展现了广阔的应用前景,引起各个方面极大的关注,就这个方面谈一点思考。

第一,关于人工智能的引领性和战略主导地位。人工智能具有技术特征,影响的深度和广度,以及辐射带动作用,有望在新一轮科技革命当中成为具有引领和主导地位的战略性关键技术。

从历史维度来看,历史科技革命和产业革命,鲜明的特征都是围绕人的发展和解放。第一次工业革命以蒸汽机为标志,将人从繁重的体力劳动中解放出来,第二次工业革命,以电力技术内燃机为标志,极大地超越了人的体能,满足人类工作生活的多元需求。第三次工业革命以计算机技术互联网为标志,实现了简单脑力劳动的高效替代,并极大拓展了人类发展空间,将人类在更高层次,更高范围来解放出来。第三次工业革命完成了人的体力和脑力的拓展与解放,而人工智能将实现对人类复杂智力智慧活动的模仿、替代和拓展,将人类在更高层次、更大范围解放出来。

从发展的维度来看,人工智能是一项革命性的颠覆性技术,有可能引发新一轮科技革命,进而研发产业革命。人工智能是新一轮科技革命和产业革命的重要力量,能加快新一代人工智能,是新一轮科技革命和产业变革机遇的战略问题。我们也知道,当前哪一类技术真正可以和历次工业革命当中的先导科技相提并论的话,无疑是人工智能。

所以,人工智能整合了机械化、自动化、信息化以来所有科技创新成果,将引领经济社会发展进入一个充满无限可能的新纪元,并将深刻影响和改变全球经济、产业、创新的格局。

当前世界发达国家均把发展人工智能作为提升国家竞争力、维护国家安全的重大战略,力图在国际科技竞争当中掌握主动权。像2019年美国发布了《确保美国人工智能领导地位行政令》,启动国家人工智能研究所计划。截止2021年底共资助18个国家AI研究所,21年国家AI倡议法案,去年明确把AI列为维护国家安全至关重要的关键技术领域。

同样英国也是专门成立了图灵研究所,致力于使英国成为大数据分析与应用领域的全球领跑者,2019年4月,建立4所人工智能跨学科研究所,涉及到健康、环境、能源、交通等领域。

第二,人工智能的主要特征和发展趋势。

1956年,明斯基等科学家在达特茅斯会议上提出人工智能概念,标志着人工智能学科诞生,经过60多年的发展,人工智能发展起起伏伏,最近几年展现出蓬勃快速发展态势。我们搜狐科技峰会,专门搞过人工智能发展的专题。ChatGPT代表的人工智能新一轮的热潮,从学科内在属性来看,人工智能多学科交叉融合特征特别明显,而且它的技术综合性很强,研发难度也很大,人工智能集机械化、智能化、信息化大成的技术,高水平系统研发首先依赖于计算机、集成电路、网络通信、先进计算、机械化结构、传感器、关键材料等领域的直接支撑。而智能水平颠覆性进展,往往需要基础学科领域,如算法等理论突破。着眼于模拟和超越人类智能,人工智能与脑科学、认知科学研究的融合也越来越紧密。

从研发组织模式来看,人工智能需要规模化、高水平的研发平台支撑,也需要大量的人力物力资源投入。

人工智能学科内在属性,决定了只有多学科深度交叉融合的大团队、大平台才有可能实现大突破。这一趋势在这一轮发展浪潮当中尤为明显,如果说之前在发展当中,非常天才的科学家或者团队能发挥决定性的作用,但是这一轮主要的突破,都是大机构和大企业,像Google和微软,IBM的人工智能团队都是数千人,大平台、大团队背后是大投入的支撑,这是研发的组织模式,刚才讲学科内在属性,从研发组织模式来看的。

从发展驱动力来看,我觉得人工智能应用导向非常鲜明,经济、社会等应用需求拉动成为主要驱动力。

在这一轮人工智能发展中,前两轮很大程度上靠技术来推动的,这一轮发展当中,技术进步虽然也发挥重要的作用,但是主要动力是来自于应用场景的不断拓展,以及经济社会等应用领域的深度融合,从而催生出一大批新产业、新业态,比如,像美国OpenAI公司开发的ChatGPT,它的发展确实引起全世界广泛关注。

未来5-10年将是人工智能发展的关键期,在2021年根据统计,我国人工智能核心产业规模将会更大,比2019年同期增长一倍多。根据预测2030年我国人工智能核心产业规模将超过1万亿人民币,30年全球人工智能市场规模将达到16万亿美元,目前还有很大的发展潜力和空间。

第一,关于基础理论和技术领域。有大片的无人区,关于生成式人工智能,类脑智能,感知和芯片,感知器件,都需要持续性突破,才面向实现通用人工智能的终极目标,这方面还需要更多更前瞻甚至未知理论的突破。

第二,应用系统更加智能的方向演进。人工智能将逐步减少对人工设计的网络模型,人工标注的大数据,耗时耗力的训练依赖,通过样本输入,对外界环境感知自主学习和进化,适应不同环境不同任务的能力,从原来人工+智能,走向自主智能,人机协作,脑机接口。从机器智能走向人机混合智能,这是人工智能发展的必然趋势,也是挑战的革命跨越。

第三,体系平台间的竞争成为焦点。人工智能领域的竞争是大体系,大军团的竞争,对海量数据资源跟用户的竞争,发展重点逐步转为开源开放的生态体系,从而对后来者形成新的技术壁垒,像谷歌、IBM、微软、Facebook等科技巨头积极推动人工智能生态建设,抢占开源开放平台的竞争制高点。我把这个趋势做了一个阐述。

最后我谈一谈,关于我国人工智能发展的思考和建议。

中央高度重视人工智能发展,要加强人工智能发展,要求要深刻认识和加快发展新一代人工智能重大意义,加强引导,明确任务,夯实基础,促进经济社会发展融合,推动我国新一代人工智能健康发展。国务院专门制定出台了《新一代人工智能发展规划》,对人工智能的创新链、产业链、应用链等多维度进行了顶层设计和统筹布局,这也为人工智能加速发展篮球提供了有力的政策指导。

总体来看,我国在人工智能方面投入比较大,高水平论文和核心专利数量都在快速提升,一些人工智能领军企业快速发展。另外,我们有巨大的市场规模和市场潜力,有最完备的智能制造和产业链,最大规模的海量数据资源,通过“智能+”行动,将人工智能技术推广渗透到各行各业,形成大规模的智能应用市场,我想这是我国来发展人工智能的一个独特的优势。因为我们的市场非常大。

未来,人工智能领域的竞争将会越来越激烈,为保证我国新一代人工智能快速发展,现阶段着力解决好三个关键问题。

1、核心技术和基础能力不强。我国在人工智能领域进入原始创新和技术积累不足,基础理论构架和芯片等核心关键器件较多依赖进口,可能导致我国在智能化阶段再次“空心化”。这也是我们与美国相比最大的差距所在。

2、产业发展生态不健全。自主技术体系和产业生态发展薄弱,国外利用技术壁垒和先发优势已经的构建起生态体系的壁垒,大量市场应用发展良莠不齐,中低端比较多,同质化竞争明显,市场竞争环境仍有待改善。人工智能涉及到伦理问题、社会问题研究也相对滞后,立法和治理亟待加强。

3、高端人才严重不足。清华大学等单位发布了2022年全球最具影响力学者,AI2000榜单,这一榜单美国最多,1164人次入选,中国有332人次入选,第三是英国115人次入选、由此可见,我国AI高校人才还是不足,很多高校都开设了人工智能专业,前不久我参加国务院教育部关于人工智能学科方面重视的会议,缺乏高质量师资,课程设置与市场需求不相匹配,人才培养规模和质量难以满足发展需求。

综合以上对人工智能的学科特点,发展趋势和存在问题的分析,有如下几个建议:

建议一:充分发挥社会主义市场经济条件下的新型举国体制优势,集中优势病例突破关键核心技术。发挥好庞大市场的需求侧牵引作用,充分激发企业作为技术创新主体的活力和潜力,构建好自主的平台生态,形成科技创新和产业应用互相促进的良好发展局面。尤其行业龙头企业加大投入,联合优势力量协同攻关。

充分发挥好国家战略科技力量的建制化、多学科优势,在短板上抓紧布局,确保关键核心技术牢牢掌握在自己手里。

建议二:强化顶层设计,加强统筹协调和系统布局,加快构建政产学研用的良性互动创新生态。我们知道“两弹一星”,这是举国体制重大成果,相比较于两弹一星,再看航天国家的战略任务,人工智能这一领域,涉及的多学科及其交叉融合,涉及到更广,影响方面更大复杂的系统工程。不仅涉及到多学科及其交叉融合,芯片、操作系统等软硬件系统,复杂的开源平台、海量数据资源和标准体系建设,技术与经济社会各行业应用的互动,市场经济条件下产业竞争力的培育和军民协同,国际竞争合作,以及数量庞大的不同学科领域的人才队伍支撑等。

所以,这方面尤其需要加强顶层设计、综合施策,需要项目、基地、人才、教育等各类政策相互协调配合才能更好地发挥作用。例如,要布局国家级人工智能研究中心和实验室,构建自主可控的国家级开源平台等,包括数据的开源,政策的管理,减少数据孤岛。

建议三:创新人才培养模式,要加快培养造就一支规模宏大、水平一流的人工智能人才队伍。

要结合人工智能学科特点和当前面临的问题,立足自主打造高水平人才培养体系,统筹考虑、系统设计教育培养、人才计划、人才评价等政策。

高层次人才培养方面,加快改革完善人才评价激励制度。建立人才良性竞争机制和合理流动机制。营造有利于突破性、颠覆性创新的创造环境,加强对基础研究和关键核心技术攻关的持续稳定支持。

青年人才培养方面,整合相关学科背景的优秀师资队伍,结合重大项目和重要的应用实践,依托高水平平台来培养跨学科复合型人才。

建议四:加强法律法规、伦理规范和政策体系建设。

人工智能发展引起科学界社会的普遍担忧,埃隆·马斯克上千名专家,呼吁暂停AI研究6个月,大家怎么响应是一回事。而且我们知道,号召各国立即执行,人工智能伦理问题建议书,国家网信办发布了生成式人工智能服务管理办法《征求意见稿》,因此针对人工智能可能带来的安全风险,包括技术伪造,有人担心人工智能伪造信息,大家很难识别。

还有侵犯隐私。我看韩国不让用ChatGPT,就是对话的时候,怕信息暴露出去。还有社会伦理、代替人工改变就业结构,还有如何制定人工智能国际规则等,这些都需要认真研究。要加快构建更加包容审慎的国内监管体系,一方面要监管,同时也要鼓励和支持人工智能快速发展,同时我们中国也需要力争在相关国际规则制定中掌握更大话语权,这方面我们需要更加努力。

来源:麒令咨询

2023年亚洲炼油和化工科技大会

将于6月05-08日召开

敬请期待

免责声明:本文章仅代表作者个人观点,与石化行业走出去联盟无关。其原创性以及文中陈述文字和内容未经联盟证实,对本文以及其中全部或者部分内容的真实性、完整性、及时性石化行业走出去联盟不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。返回搜狐,查看更多

突破发展瓶颈,未来人工智能“爬坡”要靠什么

原标题:突破发展瓶颈,未来人工智能“爬坡”要靠什么?

7月9日,华为在2021世界人工智能大会暨昇腾人工智能高峰论坛上与大连签署大连人工智能计算中心建设协议。7月10日,华为还将和上海签订一个同样指向普惠算力的重要协议。

而我国第一个正式投运人工智能计算中心的城市是武汉。5月31日,它的人工智能计算中心上线即满载运营,正在持续扩容中。

随着人工智能的深入应用,算力建设分散,中小企业或科研单位难以展开复杂模型、海量数据研究的问题日益凸显,建设大规模人工智能计算中心正在成为推动人工智能产业进一步发展的关键要素。

顶层设计引导落地应用

如百度创始人、董事长兼首席执行官李彦宏所言,过去几百年间,资源消耗型的工业发展被认为是社会进步的基石保障。未来几百年,科技的进步足以支撑人类回归到低碳社会这一最初人与自然的相处模式。在这个过程中,人工智能正在帮助人类做出改变,它将成为影响未来40年人类发展的变革力量。

我国高度重视人工智能的发展,《新一代人工智能发展规划》、《促进新一代工人智能产业发展三年行动计划(2018-2020年)》等多个国家政策的陆续出台,推动我国初步形成了较为完善的人工智能产业链。

科技部战略规划司司长许倞在《我国新一代人工智能发展规划实施进展与未来展望》中介绍,在国家整体战略部署下,20多个省市发布了人工智能相关规划及相应的实施方案,出台了若干相应发展的政策。为推动人工智能的发展,科技部支持北京、上海等15个地方建设了国家新一代人工智能创新发展试验区,先行先试积累经验的同时,打造了一批人工智能发展的样本。

当越来越多的人不再仰视一项技术的炫酷,就意味着这项技术已逐渐深入各个行业得以应用。

随着人工智能位列前沿科技领域的最高优先级,上升为国家战略,越来越多高校、科研院所及企业加速入局,我国人工智能技术已经进入行业规模应用推广的关键期。

怎样稳妥加速这一进程,全面重塑行业风貌?华为轮值董事长胡厚崑提出三点建议。一是大力发展以人工智能计算中心为代表的新型城市基础设施,让人工智能算力像水和电一样,成为新型的城市公共资源,让智能触手可及。二是技术要扎到根,根深才能叶茂。三是大胆运用技术手段,改变人工智能应用开发模式,突破人工智能普惠瓶颈。

算力普惠是“破三关”的首要任务

人工智能技术的发展和落地生根有三大难关亟需攻克,算力、算法昂贵,数据孤岛现象依然存在,产业尚未形成增量效应。

如果说算力、算法、数据是人工智能的三驾马车,那么算力就是其中的基础核心。

计算是人类认知世界的一种模式。从大型机到个人计算机,从智能手机到可穿戴设备,计算能力日益成为人类能力的延深。

2012年以来,以深度学习为代表的新一代人工智能技术得到快速突破和应用,并逐渐成为最重要的计算算力资源需求之一。

在人工智能算法愈发复杂、模型规模不断提升,图片、语音、视频等非结构化数据爆炸式增长的同时,人工智能与5G、物联网等行业领域结合落地日益深化,使得人工智能的发展对算力的需求呈指数级增长,带来了人工智能算力的成本也同步高涨。

MIT计算机科学家CharlseLeiserson在《Science》发表的一篇文章中指出:深度学习正在逼近现有芯片的算力极限;计算能力提高10倍相当于三年的算法改进;算力提高的硬件、环境和金钱成本将越来越高。

因此,公众的眼睛看到的是人工智能一派繁荣的景象,现实情况却不乐观。数据显示,当前人工智能全行业整体渗透率只有4%,人工智能初创企业的存活率不到10%。

造成这种局面的根本原因就是,稀缺且昂贵的算力,抬高了人工智能研究和应用的门槛,甚至制约了AI的发展速度。

这直接导致了大量高校、科研院所和中小初创企业等组织普遍面临一个难题:他们研究的课题和项目在技术深度和预期目标上并不输于大型龙头企业,但缺乏难以持续获取算力的研发条件,直接影响创新效率和成果。

算力普惠因此成为普遍而迫切的需求。

赋予人工智能更强“爬坡力”

突破人工智能发展瓶颈,填平AI算力的鸿沟,一个普惠、集约、开放、融合全栈技术的产业平台至关重要,人工智能计算中心的产业价值因此凸显。

算力建设与社会发展需求紧密结合,在不同历史阶段出现了超级计算中心、云计算数据中心、人工智能计算中心等不同形态的算力基础设施。

中国科学技术信息研究所发布的《人工智能计算中心发展白皮书》这样定义人工智能计算中心:以基于人工智能芯片构建的人工智能计算机集群为基础,涵盖基建技术设施、硬件技术设施和软件技术设施的大规模系统工程,是新型技术设施建设的重要组成部分。

该白皮书这样描述具备训练复杂现金模型和处理海量数据能力的人工智能计算中心的价值:可以打造公共算力服务平台、应用创新孵化平台、算力聚合发展平台、科研创新和人才培养平台,形成“1个人工智能计算中心+4个平台”的人工智能产业布局,赋能区域产业集群。

人工智能计算中心是建设国家新一代人工智能创新发展试验区的重要基础设施。

已获批国家新一代人工智能创新发展试验区的武汉集聚了500多家人工智能企业,相关产业规模超200亿元。

武汉智能计算中心的算力底座是由数千颗昇腾AI处理器组成的Atlas900AI集群,一期建设规模为100PFLOPSAI算力(FLOPS即每秒浮点运算次数,或每秒峰值速度),将形成每秒十亿亿次浮点计算的算力,相当于5万台计算机的计算能力。

武汉企业库柏特的智能机器人补药系统,需要对机械臂每一次抓取药盒后进行“拍照”,在武汉人工智能计算中心的支持下,通过视觉处理算法创新,让过去200毫秒一次的拍照时间缩短到50毫秒,效率大大提升。

武汉库柏特科技有限公司总经理闫琳说:“智能计算中心提高了我们的分拣能力,拣药等待时间从每人等待50秒降到3秒。”

从我国多地政府牵头布局人工智能计算中心的趋势看,这样一个共识已达成:建设人工智能计算中心是推动中国人工智能产业发展的关键一步和最佳路径。

但是,人工智能计算中心建设过程中的新挑战不能忽视。如人工智能专用芯片和人工智能框架发展协同问题、大规模建设带来的高能耗问题和赋能企业应用问题等。

胡厚崑说:“就像一个现代化的城市不可能没有电力,一个智能化的社会也不可以没有人工智能的算力。人工智能计算中心虽然已属社会基础资源,它的能力建设一定要跟着需求走,边建设边进行应用落地的推广非常关键。尤其不能搞重复建设,最后变成了面子工程。”(记者刘艳)

(责编:赵竹青、陈键)

分享让更多人看到

世界主要国家在人工智能领域的战略布局

总体而言,美国两任总统在人工智能领域的发力点有所不同,但总体来说其焦点在于如何面对人工智能全面发展的大趋势,着眼长期对国家安全与社会稳定的影响与变革。

美国重点布局互联网、芯片与操作系统等计算机软硬件、金融领域、军事以及能源等领域,目的是为保持其全球的技术领先地位。美国在整体的人工智能规划中,力图探讨人工智能驱动的自动化对经济的预期影响,研究人工智能给社会就业带来的机遇和挑战,进而提出相应计划与措施应对相关影响。

此外,美国也是历史上第一个在财政预算中将人工智能,自主和无人系统作为研发优先事项的国家。国防部以及DAPRA等机构密集部署AI研发,“算法战跨职能小组”、“联合人工智能中心”成为了美国开发人工智能军事应用的大前锋,面部识别、无人机扫描、外骨骼装置等可穿戴系统已在国土安全领域展开了实际应用。

二、中国:覆盖广泛的研究和应用领域

中国已经成为全球第二大经济体,但同样不容忽视的是,在人工智能研发和商用人工智能产品方面,中国正在缩小和美国的差距,中国现在已经是全球人工智能“两巨头”之一。主要评价指标包括:中是——全球人工智能研究论文发表和引用世界第一;AI专利中世界第一;AI风险投资中世界第一;AI公司数量世界第二;AI人才世界第二。

当然,这一切都离不开国家政府对人工智能发展的高度重视与战略布局。

2015年5月,中国政府推出《中国制造2025》,明确了9项战略任务与重点,提出8个方面的战略支撑与保障,目标是成为制造强国。

2016年8月,国务院发布《“十三五”国家科技创新规划》,明确人工智能作为发展新一代信息技术的主要方向。

2017年7月,国务院颁布《新一代人工智能发展规划》,该计划是所有国家人工智能战略中最为全面的,包含了研发、工业化、人才发展、教育和职业培训、标准制定和法规、道德规范与安全等各个方面的战略,目标是到2030年使中国人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。

有评论指出,2017年7月国务院发布的《新一代人工智能发展计划》,与2015年5月发布的《中国制造2025》一道,形成了中国的AI战略的核心。这两份文件,以及更普遍意义上的人工智能问题,得到了的中国最高领导层的持续关注。中国国家和地方政府用于实施这些计划的人工智能支出总额没有公开披露,但显然有数百亿美元。中国至少有两到三个地方政府各自承诺投资1000亿元人民币(约147亿美元)。

中国的人工智能战略覆盖了广泛的研究和应用领域,力图实现人工智能产业的全面发展。中国聚焦人工智能基础理论和关键技术,同时支持对人工智能交叉学科的研究。在应用领域,中国关注人工智能在农业、金融、制造、交通、医疗、商务、教育、环境等领域的应用。

中国的人工智能公司同样引人关注。例如,商汤毫无疑问是计算机视觉AI领域的全球领导者之一,并声称连续三年实现了400%的年收入增长。大疆(DJI)是另一个例子,它占据了74%的市场份额,在全球消费无人机领域处于领先地位,大疆创新地将机器学习技术融入其最新产品中。

三、欧盟:注重人工智能的基础研究及对人类社会的影响

欧盟在推动人工智能发展中可谓不遗余力。从2014年起,欧盟围绕人工智能的相关政策相继出台。

2014年,欧盟委员会发布了《2014-2020欧洲机器人技术战略》报告以及《地平线2020战略-机器人多年发展战略图》,旨在促进机器人行业和供应链建设,并将先进机器人技术的应用范围拓展到海陆空、农业、健康、救援等诸多领域,以扩大机器人技术对社会和经济的有利影响,提高生产力,减少资源浪费,希望在2020年欧洲能够占到世界机器人技术市场的42%以上,以此保持欧洲在世界的领先地位。

2016年5月,欧盟议会法律事务委员会发布《对欧盟机器人民事法律规则委员会的建议草案》。同年10月,又发布《欧盟机器人民事法律规则》,积极关注人工智能的法律、伦理、责任问题,建议欧盟成立监管机器人个人工智能的专门机构,制定人工智能伦理准则,赋予自助机器人法律地位,明确人工智能知识产权等。欧盟在人工智能伦理与法律的研究上已走在世界前列,成为了当之无愧的排头兵。

2018年4月,欧盟委员会发布政策文件《欧盟人工智能》。该报告提出欧盟将采取三管齐下的方式推动欧洲人工智能的发展:增加财政支持并鼓励公共和私营部门应用人工智能技术;促进教育和培训体系升级,以适应人工智能为就业带来的变化;研究和制定人工智能道德准则,确立适当的道德与法律框架。

2018年12月,欧盟委员会及其成员国发布主题为“人工智能欧洲造”的《人工智能协调计划》。这项计划除了明确人工智能的核心倡议外,还包括具体的项目,涉及开发高效电子系统和电子元器件,人工智能应用的专用设计电脑芯片、世界级电脑以及量子技术和人脑映射领域的核心项目。

欧盟作为拥有欧洲27个成员国的大联盟,在发展人工智能的道路上,积极团结成员国展开讨论。相对于美国和中国主张技术发展的战略而言,欧盟更加注重人工智能对人类社会的影响,其研究内容涉及数据保护、网络安全、人工智能伦理等社会科学方面,目前也投入了大量精力与资金开展数字技术培训和电子政务相关研究。

在应用领域,欧盟十分关注人工智能基础研究,以及人工智能在金融经济、数字社会、教育等领域的应用。总体而言,在技术和产业不占特别优势的情况下,欧盟人工智能战略的重头戏放在了人工智能价值观上,强调人工智能伦理、道德、法律体系研究,积极推进人工智能伦理框架的确立。

1、德国:具有强大的“工业4.0”基础

德国是最先提出“工业4.0”的国家,具有高度的前瞻性。在发展人工智能的道路上,也比较积极。

2011年,德国推出“工业4.0”国家战略,这是一个革命性的基础性的科技战略,拟从最基础的制造层面上进行变革,从而实现整个工业发展质的飞跃。“工业4.0”囊括了人工智能、机器人等领域的诸多相关研究与应用。

2014年,德国发布《新高科技战略》,提出推动协同创新与技术转移,扩大产学研合作,支持中小企业创新等举措,以稳固德国在科技和经济领域的领先地位,并成为创新世界领导者。

2018年7月,德国联邦政府发布《联邦政府人工智能战略要点》文件,要求联邦政府加大对人工智能相关重点领域的研发和创新转化的资助,加强同法国人工智能合作建设、实现互联互通;加强人工智能基础设施建设,以将该国对人工智能的研发和应用提升到全球领先水平。

依托其工业4.0计划,德国将人工智能的重点集中在人机交互、机器人自主学习、可穿戴、大数据分析、计算机视觉、语义技术、高性能技术以及信息物理系统等方面。在应用方面,德国着力发展自动驾驶、智慧城市、农业、医疗、能源等领域。

2、法国:后发动力强劲

法国在人工智能发展大潮流中属于后发的强劲队伍行列。面对美、日、英、中等国家在人工智能领域的持续发力,法国担忧被甩在队伍之后,开始了积极布局,追赶人工智能洪流。

2013年,法国政府推出了《法国机器人发展计划》,旨在创造有利条件,推动机器人产业持续发展,并实现“到2020年成为世界机器人领域前五强”的目标。

2017年3月,奥朗德政府时期,法国制定了《国家人工智能战略》,对发展人工智能的具体政策提出了50多项建议,包括完善科研成果商业化机制,培养领军企业、扶持新兴企业,加大公私合作、寻求大量公私资金资助,给予国家政策倾斜并建立专门执行机构等,以动员全社会力量共同谋划促进人工智能发展,确保法国保持领先地位。

2018年3月,法国总统马克龙公布了《法国人工智能发展战略》,将重点结合医疗、汽车、能源、金融、航天等法国较有优势的行业来研发人工智能技术,并宣布到2020年将投资15亿欧元用于开发人工智能研究,为法国人工智能技术研发创造更好的综合环境。

法国的人工智能发展战略注重抢占核心技术、标准化等制高点,重点发展大数据、超级计算机等技术。在人工智能应用上,关注健康、交通、生态经济、性别平等、电子政府以及医疗护理等领域。法国对人才培养和基础研究方面也非常重视,另外,作为欧盟成员国,法国十分赞同欧盟对人工智能伦理开展研究的做法,也在积极部署开展相关工作,探索解答人工智能带来的伦理性和政治性问题。

3、英国:老牌工业强国底蕴深厚

英国大概是欧洲推动人工智能发展最积极的国家,也一直是人工智能的研究学术重阵。

2016年10月,英国下议院科学和技术委员会发布《机器人技术和人工智能》报告,阐述人工智能的创新发展带来的潜在伦理道德与监管挑战,侧重阐述了英国将会如何规范机器人技术与人工智能系统的发展,以及如何应对其带来的伦理道德、法律及社会问题。

2016年11月,英国政府科学办公室发布了《人工智能:未来决策的机会与影响》报告,阐述了人工智能对个人隐私、就业的影响,并指出人工智能在政府层面大规模使用的潜在可能性,就如何利用英国的独特人工智能优势,增强英国国力提出了建议。

2017年10月,英国政府发布了《在英国发展人工智能》报告,对当前人工智能的应用、市场和政策支持进行了分析,从数据获取、人才培养、研究转化和行业发展四方面提出了促进英国AI产业发展的重要行动建议。该报告被纳入英国政府2017年《政府行业策略指导》白皮书中,成为了英国发展人工智能的重要指引。

2018年4月,英国政府发布了《人工智能行业新政》报告,涉及推动政府和公司研发、STEM教育投资、提升数字基础设施、增加AI人才和领导全球数字道德交流等方面内容,旨在推动英国成为全球AI领导者。

英国作为老牌的工业大国,在工业革命的时候引领全世界发达国家,而在人工智能的问题上,布局颇为深远。英国将大量资金投入人工智能、智能能源技术、机器人技术以及5G网络等领域,更加注重实践与实用,已在海域工程、航天航空、农业、医疗等领域开展了AI技术的广泛应用。同时,英国发展人工智能的另一特点是注重人工智能人才的培养,在这一方面可为出手不凡,斥巨资吸引、培养AI人才。

四、日本:实现人工智能技术与各行业领域的对接

日本政府和企业界非常重视人工智能的发展,不仅将物联网、人工智能和机器人作为第四次产业革命的核心,还在国家层面建立了相对完整的研发促进机制,并将2017年确定为人工智能元年。虽然相对于中美而言,日本在以烧钱著称的人工智能和机器人行业的资金投入并不算高,但其在战略方面的反应并不迟钝。

2015年1月,日本政府公布了《机器人新战略》,拟通过实施五年行动计划和六大重要举措达成三大战略目标:“世界机器人创新基地”、“世界第一的机器人应用国家”、“迈向世界领先的机器人新时代”,使日本实现机器人革命,以应对日益突出的社会问题,提升日本制造业的国际竞争力,获取大数据时代的全球化竞争优势。

2016年,日本提出“社会5.0”战略,将人工智能作为实现超智能社会的核心,并设立“人工智能战略会议”进行国家层面的综合管理。

2017年3月,日本AI技术战略委员会发布《人工智能技术战略》报告,阐述了日本政府为人工智能产业化发展所制定的路线图,包括三个阶段:在各领域发展数据驱动人工智能技术应用(2020年完成一二阶段过渡);在多领域开发人工智能技术的公共事业(2025-2030年完成二三阶段过渡);连通各领域建立人工智能生态系统。

日本一直以来都是亚洲制造强国,尤以名列世界前茅的机器人产业而独享美誉。日本已经在机器人、脑信息通信、语音识别、大数据分析等领域投入了大量科研精力。

日本的人工智能战略主张人工智能技术与各领域实现对接,在工业、农业、医药业、物流运输、智能交通等行业落实应用。日本希望通过大力发展人工智能,保持并扩大其在汽车、机器人等领域的技术优势。逐步解决人口老龄化、劳动力短缺、医疗以及养老等社会问题。由此可见,日本的人工智能研发与应用,既保持了日本社会的传统文化特点,也显示了日本政府解决社会问题的决心与方法。

五、韩国:注重对人工智能人才和企业的培育

韩国政府对人工智能发展非常重视,大力扶植人工智能产业及相关企业,重点布局物联网、云端、大数据、语音识别等领域。在人工智能应用方面,韩国关注人工智能技术在金融、医疗、智慧城市、交通等领域的实际应用。但韩国已认清的事实是其在人工智能专业知识储备、人才培养、专利等方面,与其他国家差距较大,因而,政府出台的政策更加注重对人才的培养,注重对人工智能企业的培育,具有很强的针对性。

韩国政府为大力扶植人工智能产业及相关企业,已出台多项政策。

2016年3月,韩国政府宣布人工智能“BRAIN”计划,以破译大脑的功能和机制,开发用于集成脑成像的新技术和工具,并宣布了在人工智能领域投资30亿美元的五年计划。

2016年8月,韩国政府确定九大国家战略项目,包括人工智能、无人驾驶技术、轻型材料、智慧城市、虚拟现实(VR)、精细粉末(FINEDUST)、碳资源、精密医疗和新型配药。其中,人工智能最引人关注,韩国政府目标是在2026年前将人工智能企业数量提升至1000家,并培养3600名专业人才,争取10年后韩国人工智能技术水平赶超发达国家。

2018年5月,韩国政府制定了《人工智能发展战略》,将从人才、技术和基础设施三方面入手,计划在2020年前新设6所人工智能研究生院,推动人工智能技术发展,追赶人工智能世界强国。

六、印度:强调人工智能的实用性

印度在莫迪总理上台后,不断大力推动科技创新与发展,在人工智能领域更是卯足了劲儿,不甘落后掉队。

凭借移动互联网技术与软件技术发展迅速,已经有越来越多的欧美调查报告与战略评估,开始把印度和中国并列,甚至认为未来可能出现中美印人工智能三强争霸的局面。但印度在人工智能国家战略层面显然处于落后位置。

2018年5月,印度政府智库发布《国家人工智能战略》,旨在实现“AIforall”的目标。该战略以“AI卓越研究中心”(CORE)与“国际AI转型中心”(ICTAI)两级综合战略为基础,投资科学研究,鼓励技能培训,加快人工智能在整个产业链中的应用,最终实现将印度打造为人工智能发展模本的宏伟蓝图。

印度将重点放在云计算、5G、机器学习、大数据等技术的发展上。同时,印度强调人工智能的实用性,期望在健康护理、农业、教育、智慧城市和基础建设与智能交通等领域看到人工智能所带来的实际变化。印度在人工智能的发展大潮中,信心不比决心小,力图在印度建立起人工智能生态系统,从而不仅仅要赶上,而是要大步跨越地进入人工智能驱动的未来。

七、俄罗斯:偏向人工智能技术在军事和国防领域的应用

俄罗斯非常重视人工智能发展。上至总统下至业界,正在狂热地推动俄罗斯的学术和工业资源在人工智能领域的突破。2017年,普京总统就曾公开表示“人工智能是人类的未来,而掌握它的国家将统治世界”,足以见人工智能在这位“战斗民族”总统心中的重要性。俄罗斯更偏向于发展和资助人工智能技术在军事与国防领域的应用。

今年早些时候,俄罗斯国防部宣布了一项“机器人技术设计师”竞赛,特别关注大数据技术、机器视觉和机械制造,旨在开发人工智能。国防部成立的先进技术研究基金会(FoundationOfAdvancedStudies)强调发展图像识别、语音识别、自主军事系统控制以及武器生命信息支持等人工智能技术。从举行剑指技术信息发展的讨论会、机器人设计大赛,到呼吁民间专家加入军方研究,俄罗斯正以举国之力筹划人工智能在军事领域的研发。

总体来看,世界各国的整体AI技术水平、数据资源、法律法规都存在很大差异,各自的资源禀赋也不尽相同,因此各国AI政策的关注焦点、预期目标都各具特色。其中,美国、中国拥有最优秀的AI研究人员和海量的数据资源,成为发展人工智能技术的圣地,两国的人工智能政策也较为全面,旨在通过人工智能的发展提升制造、交通、医疗、农业和金融等各领域。欧洲科技强国在AI高端人才、数据资源方面并无优势,反而将研究重心转向了人工智能的伦理道德和标注制定,力争在人工智能发展浪潮中取得一席之地。俄罗斯延续了“战斗民族”的风格,偏向人工智能在军事和国防领域的应用。日本、韩国在机器人、汽车、半导体、消费电子等领域产业优势明显,两国的人工智能战略均强调AI在上述领域的实际应用与产品落地。相较而言,印度在AI技术水平、数据资源和产业资源上都没有优势,该国的AI战略主要强调实用性,目的是通过人工智能的发展驱动基础设施建设、交通、医疗和教育等方面的进步。

八、获取产业主导权,各国战略及政策的主要特点

中国社会科学院工业经济研究所研究员分析指出,人工智能之所以成为世界各国竞争的焦点和产业政策发力的重点,是因为其在经济社会发展全方位都具有巨大价值。一方面,人工智能拥有强大的经济带动性。人工智能是当代通用目的技术,也就是说它是一种能够在国民经济各行业获得广泛应用并持续创新的技术,这意味着经济社会对人工智能的需求十分巨大,人工智能技术能够发展成规模巨大的产业。另一方面,人工智能可对其他产业产生颠覆性影响,加快产业行业的技术创新、商业模式和业态变革,提高生产效率、改善用户体验。

对于这样一种刚进入产业化初期且快速发展的前沿技术,目前没有哪个国家已经具备绝对优势,更没有哪个国家能够像掌控传统产业那样在这一领域形成垄断地位,因此,如果能及早进入这一领域就可能占据一席之地,甚至获取未来产业发展的主导权,反之则很有可能被其他国家甩在后面。

当前世界主要国家的人工智能战略和相关产业政策主要呈现五大特点:

一是大力支持人工智能科技创新。美国在2015年对人工智能相关领域投入的研发资金为11亿美元,后续的人工智能发展政策仍强调对人工智能研究进行长期投资,以保持美国在这一领域的世界领先地位;欧盟委员会计划将“地平线2020”等研究和创新项目中的人工智能投入增加70%,预计在2018年至2020年间达到15亿欧元,并通过公私合作带动额外25亿欧元的投资;法国计划在2022年前投入15亿欧元用于支持人工智能的技术创新和创业。

二是推动数据扩大开放。由于人工智能的发展是由深度学习算法的突破和海量数据形成所推动的,因此数据的开放对于人工智能的发展至关重要。美国《为人工智能的未来做好准备》报告提出,将实施“人工智能公开数据”计划,实现大量政府数据集的公开;《美国人工智能倡议》也提出增强对高质量和完全可追溯的联邦数据、模型和计算资源的访问。

三是加快标准制定。人工智能技术的发展和实际应用需要机器设备、产品、服务、场景之间的连接和数据交换,因此许多国家的人工智能战略强调建立统一的人工智能技术标准与测试基准,以减少人工智能技术开发和应用进程中的障碍。同时,对标准的掌握也意味着掌控了人工智能发展的国际话语权。

四是加强人才培养。人工智能应用的爆发加剧了人才短缺的问题,一些国家把加强国民教育、在职培训和人才引进作为解决人才缺口的重要手段。包括在高等教育阶段开设人工智能课程,加强继续教育和在职训练课程,使在职人员掌握人工智能技能,同时帮助被人工智能所替代岗位的劳动者掌握新技能等。更为长远的是,通过强化科学、技术、工程、数学课程,增加人们对人工智能的学习机会,培养更多适应人工智能发展的人才。

五是完善法律法规。人工智能的发展将对个人隐私、社会伦理、市场竞争、网络安全、产业安全等各方面产生深远影响。不少国家加紧完善人工智能相关法律法规,这既是为了打破既有规则对人工智能科技和产业发展的束缚,又是未雨绸缪,保障个人基本权利,防范因人工智能技术滥用而造成的负面影响。

总而言之,人工智能国际竞争的大幕已经开启,这个“新赛场”的赛况将直接影响未来国际格局演变的进程。为此,我国需从国家战略高度重视人工智能技术及其产业发展,积极借鉴国际经验,在技术创新与研发投入、数据开放、标准制定、人才培养和法律法规制定等方面加以支持和推动,完善产业发展的环境,并以此带动民间投资,更好激发个人和企业的创新创业创造活力。返回搜狐,查看更多

核心算法缺位,人工智能发展面临“卡脖子”窘境

图集

“徐匡迪之问”引发业界共鸣——

核心算法缺位,人工智能发展面临“卡脖子”窘境

“中国有多少数学家投入到人工智能的基础算法研究中?”日前,在上海召开的院士沙龙活动中,中国工程院院士徐匡迪等多位院士的发问引发业界共鸣,被称为“徐匡迪之问”。

“我国人工智能领域真正搞算法的科学家凤毛麟角。”在4月28日召开的“超声大数据与人工智能应用与推广大会”上,东南大学生物科学与医学工程学院教授万遂人表示,“徐匡迪之问”直击我国人工智能发展的核心关键问题,“如果这种情况不改变,我国人工智能应用很难走向深入、也很难获得重大成果”。

我国人工智能领域发展的现状如何?依靠开源代码和算法是否足够支撑人工智能产业发展?为什么要有自己的底层框架和核心算法?

缺少核心算法,会被“卡脖子”

“如果缺少核心算法,当碰到关键性问题时,还是会被人‘卡脖子’。”浙江大学应用数学研究所所长孔德兴教授对科技日报记者表示,我国人工智能产业的创新能力并没有传说中的那样强,事实是,产业发展过度依赖开源代码和现有数学模型,真正属于中国自己的东西并不多。

4个月零基础学会人工智能、16讲入门人工智能、算法线下大课……类似培训在网络上非常火爆,通过对于现有算法、模型的学习和训练,成长为人工智能工程师的“短平快”可见一斑。

既然代码是开源的,拿来用就好,为什么还有可能被“卡脖子”?

孔德兴解释,开源代码是可以拿过来使用,但专业性、针对性不够,效果往往不能满足具体任务的实际要求。以图像识别为例,用开源代码开发出的AI即使可以准确识别人脸,但在对医学影像的识别上却难以达到临床要求。“例如对肝脏病灶的识别,由于边界模糊、对比度低、器官黏连甚至重叠等困难,用开源代码很难做到精准识别。在三维重构、可视化等方面难以做到精准反应真实的解剖信息,甚至会出现误导等问题,这在医学应用上是‘致命’的。”

“碰到专业性高的研究任务,一旦被‘卡脖子’将会是非常被动的,所以一定要有自己的算法。”孔德兴说。换句话说,是否掌握核心代码将决定未来的AI“智力大比拼”中是否拥有胜算。用开源代码“调教”出的AI顶多是个“常人”,而要帮助AI成长为“细分领域专家”,需以数学为基础的原始核心模型、代码和框架创新。

有算法之“根”才能撑起产业“繁茂”

所谓“树大根深”,人工智能的发展也是同样道理,越在底层深深扎下根基,越能够发展出强大的产业。

那么,借助开源代码,“半路出家”的AI产业为什么会难以为继?

孔德兴解释说,在获得同样数据的前提下,以开源代码运行,AI深度学习之后或许能输出结果,但由于训练框架固定、算法限制,当用户进行具体的实际应用时,将很难达到所期望的结果,而且难以修改、完善、优化算法。

“如果从底层算法做起,那么整个数学模型、整个算法设计、整个模拟训练‘一脉相承’,不仅可以协同优化,而且可以根据需求随时修改,从而真正解决实际问题。”孔德兴说,基础算法往往是指研究共性问题的算法,它涉及到基础数学理论、高性能数值计算等学科,可以应用到多种实际问题中;而针对性强的应用算法往往会应用到具体问题所涉及的“具体知识、先验信息”,从而更好地解决实际应用问题。

“基础算法和应用算法都很重要,拥有基础算法将更有助于应用算法的丰富与深入。”孔德兴说,AI要应对的现实生活是复杂、多变的,当能够“应对自如”时,才能够促成产业的“繁茂”。

呼吁三方协力,让数学不再置身事外

“一方面是政策引导,其实国家已经在加大这方面的扶持,例如科研基金上的设置等。”针对如何解决“徐匡迪之问”反映出来的问题,孔德兴认为,第二方面是行业企业在进行科技创新时,应有意识将数学学者纳入进来。

“如果通过算法的开发,最终产品落地了,企业应该将算法开发时的数学学者纳入到成果分享中来。”孔德兴说,社会目前对于数学科学等“软实力”的认可程度不足,行业或法规层面应该做好数学研究成果的产权保护工作。

“第三方面,数学家本身应该积极参与到人工智能发展的浪潮里。”孔德兴呼吁,AI的未来发展需要数学家深度参与。由于目前仍处于“弱人工智能”时代(可以说是数据智能时代),AI的实现主要是依赖计算机的巨大算力和巨大的存储能力,底层算法的问题或许并不突出,但在未来的发展,AI将可能融入逻辑、思维等智慧的内容,这些都需要数学科学的原始创新,有大量的基础问题亟待数学家攻克。

算法的进阶一定是来源于“原创者”,而不是“跟随者”。孔德兴说:“实际上深度学习的应用已遇到了天花板,我们需要新的数学技术(如部分依赖逻辑、部分依赖数据的‘聪明算法’),让计算机变得聪明起来。这些工作都需要数学家的参与。”(本报记者张佳星)

+1【纠错】责任编辑:郝多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇