博舍

构建公开透明人工智能全过程监管体系 人工智能监管手段包括什么

构建公开透明人工智能全过程监管体系

王春晖

人工智能技术的发展被称为第四次工业革命,是一个融合计算机科学、统计学、脑神经学和社会科学的前沿综合学科,可以代替人类实现某种识别、认知、分析和决策等功能,已经成为当今世界各国一争高下的重要场域。

不过,到目前为止,人工智能并没有确切的定义,有人推测人工智能的发展远景将经历三个阶段:一是弱人工智能阶段;二是强人工智能阶段;三是超人工智能阶段。笔者认为,目前所有的人工智能技术尚属于弱人工智能阶段。

人工智能面临的伦理与法律问题

已故著名物理学家、剑桥大学教授史蒂芬·霍金在世时曾警告:在我的一生中,见证了许多社会深刻变化,其中最深刻的,同时也是对人类影响与日俱增的变化,就是人工智能的崛起。霍金认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

笔者认为,人工智能在其发展进程中面临的最大问题不是技术本身,而是伦理和法律问题。2017年6月,由联合国国际电信联盟主办的主题为“人工智能造福人类”的全球峰会在日内瓦召开。这次峰会聚焦了人工智能的两大国际性问题:一是加速人工智能的研发和应用,以应对贫困、饥饿、健康、教育和环境保护等全球性挑战;二是探讨如何确保人工智能的安全性并符合伦理规范,防止其带来意想不到的后果。

2016年,标准制定组织IEEE发布了首份人工智能报告(2016),其名称为:“利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景”。该报告提出了一个发展人工智能的一般性原则,主要涉及的是高层次伦理问题,报告认为,人工智能发展的一般性原则将适用于所有类型的人工智能和自主系统。在确定一般原则时,主要考虑三大因素:一是体现人权;二是优先考虑最大化对人类和自然环境的好处;三是削弱人工智能的风险和负面影响。

原则之一:人类利益原则。人类利益原则要求考虑,如何确保人工智能和自主系统不侵犯人权。为了实现人工智能和自主系统尊重人权、自由、人类尊严及文化多样性,在使用年限内是安全、可靠的,一旦造成损害必须能够找出根本原因(可追溯性)等目的,应当构建治理框架,包括标准化机构和监管机构,增进公众对人工智能和自主系统的信任。

原则之二:责任原则。责任原则涉及如何确保人工智能和自主系统是可以被问责的。为了解决过错问题,避免公众困惑,人工智能系统必须在程序层面具有可责性,证明其为什么以特定方式运作。

首先,立法机构/法院应当阐明人工智能系统开发和部署过程中的职责、过错、责任、可追责性等问题,以便于制造商和使用者可以知晓其权利和义务分别是什么;其次,人工智能设计者和开发者在必要时考虑使用群体的文化规范的多样性;再次,当人工智能及其影响游离于既有规范之外时,利益相关方应当一起制定新的规范;第四,自主系统的生产商/使用者应当创建记录系统,记录核心参数。

原则之三:透明性原则。透明性原则意味着,自主系统的运作必须是透明的,人们能够发现其如何以及为何作出特定决定。人工智能的不透明性,加上人工智能开发的去中心化模式,加重了责任确定和责任分配的难度。透明性对每个利益相关方都意义重大:第一,对使用者,透明性可以增进信任,让其知道人工智能系统可以做什么及其这样做的原因;第二,对人工智能和自主系统批准和认证机构,透明性能确保人工智能系统可以接受审查;第三,如果发生事故,透明性有助于事故调查人员查明事故原因;第四,事故发生之后,参与审判的法官、陪审团、律师、专家证人需要借助透明性来提交证据,作出决定;第五,对于自动驾驶汽车等颠覆性技术,一定程度的透明性有助于增强公众对技术的信心。

原则之四:教育和意识原则。教育和意识原则涉及如何扩大人工智能和自主系统技术的好处,最小化其被滥用的风险。在人工智能和自主系统越来越普及的时代,需要推进伦理教育和安全意识教育,让人们警惕人工智能和自主系统被滥用的潜在风险。这些风险可能包括黑客攻击、赌博、操纵、剥削等。

2018年7月,中国发展研究基金会在其发布的一份《未来基石——人工智能的社会角色与伦理》的报告中也指出,尽管有少数哲学和社科领域的学者开始关注人工智能带来的伦理问题和社会挑战,但是这些讨论并未进入公共政策视界,而且讨论的重点也多集中在超级人工智能这样仍相对遥远的议题上。该报告认为,在人工智能问题上,围绕可能出现的挑战,无知、忽视、偏狭、误解交织在一起,可能会导致真正的风险。该报告建议:在社会层面,高校和研究机构开展前瞻性的科技伦理研究,为相关规范和制度的建立提供理论支撑;各国政府、产业界、研究人员、民间组织和其他利益攸关方展开广泛对话和持续合作,通过一套切实可行的指导原则,鼓励发展以人为本的人工智能;人工智能企业应该将伦理考量纳入企业社会责任框架中。

事实上,人工智能和自主系统带来了许多复杂的伦理问题,这些伦理问题往往直接转化为具体的法律挑战,或是引发复杂的连带法律问题。每个伦理问题一般都涉及相关法律问题。笔者认为,当前的人工智能本质上是一种建立在大数据基础上的自我学习、判断和决策的算法,算法的核心是基于网络的编程技术,但这种编程技术绝非中立,人工智能的算法决策具有典型的“黑箱”特点,这应当引起现代法律人的高度警惕,进行深入研究,应当从伦理学和法律融合的角度深入审视和研究人工智能的算法。笔者呼吁,人工智能的算法必须确立法律的可追溯性原则,人工智能的行为决策全程应当处于法律监管之下。

构建公开透明的人工智能全过程监管体系

我国应当建立健全公开透明的人工智能监管体系,重点在人工智能的设计问责和应用监督并重的双层监管结构上做充分的准备,实现对人工智能算法设计、产品开发和成果应用等的全过程监管。促进人工智能行业和企业自律,切实加强人工智能协同一体化的管理体系,加大对人工智能领域数据滥用、算法陷阱、侵犯个人隐私、违背道德伦理等行为的惩戒力度。

在人工智能技术研发的同时,要加强人工智能相关法律、伦理和社会问题的同步研究,尤其要关注人工智能模仿人类传播错误信息或将商业无人机转化为目标武器攻击人类,建立和优化保障人工智能健康发展的法律法规和伦理道德框架。法律研究领域要开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、机器伦理与破坏力评价等伦理与法律问题的交叉研究,建立人工智能的可追溯和问责制度,明确人工智能的设计者、控制者、使用者等相关法律主体的权利、义务和责任。

关于人工智能监管的原则,科幻作家艾萨夫·阿西莫夫于1942年提出的“机器人学三律”仍具有参照价值,非常值得借鉴:

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

笔者建议,国家有关部门或行业组织应当制定人工智能产品研发设计人员的道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案。同时,我国应当积极参与人工智能的全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作,构建我国人工智能领域的国际制度性话语权。

(作者为南京邮电大学教授、联合国世界丝路论坛网络空间国际合作委员会主席)

人工智能技术助力食品安全智慧监管

原标题:明略新行动――食品安全AI化

“人工智能技术迭代定会在食品安全的前提下发现并解决问题,实现行业的智慧监管及管理。”明略科技CEO助理兼数字卫生业务负责人鲁邹尧在第十一届中国食品安全论坛分论坛上发言说到。

近日印发的《中共中央国务院关于深化改革加强食品安全工作的意见》(以下简称《意见》)中提出,推进“互联网+食品”监管。建立基于大数据分析的食品安全信息平台,推进大数据、云计算、物联网、人工智能、区块链等技术在食品安全监管领域的应用,实施智慧监管,逐步实现食品安全违法犯罪线索网上排查汇聚和案件网上移送、网上受理、网上监督,提升监管工作信息化水平。《意见》同时也提出加大科技支撑力度。将食品安全纳入国家科技计划,加强食品安全领域的科技创新,引导食品企业加大科研投入,完善科技成果转化应用机制。完善食品安全事件预警监测、组织指挥、应急保障、信息报告制度和工作体系,提升应急响应、现场处置、医疗救治能力。加强舆情监测,建立重大舆情收集、分析研判和快速响应机制。

食品安全与科技之间的关系也因此变得更加紧密。对此,鲁邹尧表示,人工智能技术的加入可提升从食品源头延伸至成品的安全保障,不仅可以帮助政府提高监管效率,同时也能帮助企业落实食品安全主体责任。

人工智能时代的汹涌浪潮正改变着越来越多的行业轨迹。为什么一家企业级人工智能产品与服务平台会进入食品安全行业?鲁邹尧谈到:“明略科技是一家以新一代人工智能技术落地为方向的企业。通过多模态人工智能和大数据技术,实现具有分析决策能力的人工智能应用。由于服务企业众多,行业分散,在探究新兴业务时发现零售与大连接是未来将保持持续增长的新领域,为此明略组建了新服务事业群,现阶段重点聚焦在餐饮和零售板块。”

鲁邹尧介绍道:“新服务事业群采用明略‘HAO’智能体系,来进行前端数据采集、打通感知、认知技术,运用知识图谱逻辑,综合机器人的视觉/听觉等终端设备,以及服务员工的能力,更好对传统服务业进行改造升级。”

明略科技创始人兼CEO吴明辉曾提到,十多年来每天和数据打交道,大数据分析及人工智能的相关应用商业模式已经纯熟于胸,以前做大数据平台搭建,后来做人工智能应用,而在更多的细分领域里,明略已经在做“感知-认知-行动”闭环的人工智能解决方案。而不断变革的技术也带来新数据的产生,从而带给各行各业商业模式的迭代。食品行业更是在迭代与摸索中探寻的新方向。

“半年来,越来越多的企业开始重视人工智能在自身行业中的应用,食品安全行业更是作为国家重点领域再次提升高度。‘明快安’多模态智慧食安平台也就是在这样的环境下诞生,力图运用大数据+AI赋能食品安全,用数据治理食品安全,用科技助力食品卫生。”鲁邹尧谈到。

市场监督管理总局在2018年4月印发的《餐饮服务明厨亮灶工作指导意见》中提到:明厨亮灶,是指餐饮服务提供者采用透明、视频等方式,向社会公众展示餐饮服务相关过程的一种形式。国家市场监督管理总局相关负责人也表示,2019年,我国餐饮行业明厨亮灶推广要达到30%以上。

但由于不同地域的环境特殊性,“明厨亮灶”的推广仍存在很大难度。鲁邹尧表示:“‘明厨亮灶’是食品安全的第一道闸门,而明略正在做的可以看做‘明厨亮灶3.0’,结合视频厨房等新形势打造了事前、事中、事后三道防线。”他具体解释道:“明快安是一款综合立体地解决食品安全问题的应用级系统,能自动辨识并发现后厨的食品安全风险点,7x24小时监管食品加工过程,预防不可预估的食安风险,并针对食安风险提供解决闭环,从而提高监管效率,降低合规成本。同时它也是一款全天候360°的智能监管系统,具备明厨亮灶基础能力的同时,还可应用于后厨人员管理和环境管理。运用人员合规性智能识算法别和卫生环境合规性智能识别算法,能有效监管后厨人员的穿戴与操作规范,食品存储条件与环境消毒卫生等食品安全核心场景。”

为了保证餐品的品质,事前的溯源便显得尤为重要,为此,鲁邹尧提到:“目前国内的冷链物流比某些低,中国只有7%,而国外可以达到80%,差别很大。为了提升冷链效率,通过大数据与人工智能算法,进行自动配载与路线优化,在通过测试后在物流成本上压缩了一大截。同时食品溯源信息及数字化后可以有效提升监管。”

吴明辉曾在采访中诙谐地提到:现在明略科技做的事很有趣,在利用AI抓老鼠。鲁邹尧说:“在‘明快安’的系统中通过有效识别老鼠行为轨迹并提供针对性的专业解决方案,帮餐厅解决后顾之忧。通过与某大型PCO公司合作,在其持续服务的中式餐厅中进行专业对比,使用明快安可以使其消杀治理的效率提升3倍。”为了让食品安全形成完整链条,明略也利用自身优势打造事后的舆情监测机制,提升食品安全后端的保障。

吴明辉曾说,一个餐饮机构一年花1万去整顿后厨的卫生安全,中国有800万家餐饮企业,如果所有餐厅都按照国家的食品安全要求去做,全中国这一块就有800亿的市场,这是一个巨大的市场。根据数据显示,2019年中国同步餐饮企业数量只占1%,营业额占比为7%,但承载的监管压力达到了23%,为了让餐饮行业在同一个起跑线起跑,让更多的企业可以有更加公平的竞争环境,明略正在努力推进‘明快安’的大规模项目落地。

人工智能目前发展最好的当属计算机视觉及听觉,业内已经有大批企业正猛攻这两个方向,而明略除皆有布局外,将知识图谱的概念深化并且放大,利用数据分析下的理解和关联打造了完整的系统级应用,在硬件技术已经成熟的当下利用优势打造属于自己的纵深地带,这或许会创造更大的社会价值。

据悉,目前,明快安已拥有多业态解决方案,定制服务了多家连锁企业,覆盖连锁餐企、食品加工厂、酒店、购物中心等客户,实现食品安全全业态覆盖。未来,明略科技也将在更多服务领域内建立细分市场的系统级应用,力图通过人工智能与数据的结合打造科技赋能的生态服务环境。(郑伟)

(责编:实习生1、张希)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇