夏少昂:人工智能伦理问题的时代镜像与调适
人工智能技术自一出现,便伴随着伦理争议和道德评判。正因为人工智能发展前景的不确定性,及其可能导致的伦理后果难以预测,人们对人工智能问题争议不断。作为一种具有颠覆传统、重塑未来强大力量的技术,人工智能所带来的伦理问题已引起学界的广泛关注。如何准确把脉人工智能的时代镜像,透视人工智能发展的伦理风险,构建和谐共生的人机主体间性伦理新形态,是摆在我们面前亟须解决的一个重大时代课题。
人工智能时代的伦理问题
人工智能正处于蓬勃发展的大好机遇期,人类社会吁求高阶科学技术力量的伦理支撑。一方面,人工智能的发展离不开伦理反思的支撑作用;另一方面,人工智能又被称为伦理学科发展的新引擎。不断出现的人工智能伦理新问题,对于伦理学的发展提出了新的更高要求,丰富和拓展了伦理学研究的领域,这反过来又成为助力人工智能发展的重要精神因素。人工智能是一种全新的技术形态,通过语义网络、知识图谱、大数据及云计算等,极大地推动了社会生产力的迅猛发展,改变了人类生产生活方式,拓展了人类生存的意义与价值。依托于算法的人工智能技术,通过一系列的运算、反馈和调整,展现了人工智能的智能程度。以围棋的“人机大战”为例,“阿尔法狗”(AlphaGo)以其强大的计算能力战胜人类顶尖棋手李世石,并且通过“深度学习”的方法不断促进自身进步,完成了在部分领域对人类智能的超越。这种超越是人类利用科技力量延伸自身能力,以及追求提升自身价值的体现。另外,在日常生产生活领域,人工智能在增强人类能力的同时,也日益凸显出其对于人类自身解放的重要作用。
机遇与挑战并存,人工智能发展在取得巨大成就的同时,也面临着严峻的伦理挑战。从人与技术的关系来说,人工智能在一定程度上威胁着人的主体性。控制论之父维纳就曾预言:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。”人工智能与一般人造物存在巨大不同,它不是单纯延伸人的体力的机械物。人工智能模拟的对象是人的大脑和思维方式。而人作为思维主体,是人之为人的本质所在。基于人工智能的特殊性,许多人担心一旦人工智能发展到某个临界点,如诞生强人工智能,它就可能解构人的主体地位,彻底压倒人类。从技术与社会的关系来看,如何有效控制技术力量的消极作用,是社会发展过程中日益凸显的难题。人工智能在给人类带来巨大利益的同时,也产生了诸多社会性问题。例如,企业可以借助人工智能收集大量用户数据,并基于此了解目标对象的偏好和行为倾向,这造成了巨大的权利不对称。再如,人工智能在推动专业化分工和创造新工作机会之余,会使得那些没有能力迈过技术性壁垒的人成为“无用阶级”。又如,在一些情境中,人工智能导致法律责任的归属成为困难。
伦理风险与挑战的学理透视
人工智能本质上是人类智慧和智能高度聚合的表现形式,是人类价值和意义在技术层面的展开与呈现。它所面临的伦理困境就是当前人类社会面临的伦理风险。首先,从人工智能的运行场域来看,伦理情境发生了深刻变革。越来越强大的人工智能的出现,催生了跨人类主义的伦理学问题,传统的伦理学旨趣与伦理情境已然发生重大变化。一是在创制人工智能的过程中,多元伦理理论并没有形成统一共识,从而在设计起点难以嵌入有效伦理规范,这极有可能造成对人工智能约束的失范。二是人工智能技术的强化,不仅逾越了自然的限制,而且很有可能逾越人的限制,进而成为主宰人、支配人、控制人的技术形式,将无法回应人类社会发展的伦理诉求。三是道德伦理编码嵌入人工智能的规范性结构时,既存在正当性辩护的困境,也存在法理性的质疑,这是对于传统伦理提出的新挑战。其次,从人类的伦理认知角度来看,正确认识人工智能的伦理地位,积极避免人工智能带来的伦理失范,是推进人工智能技术的前提。人工智能不仅仅是单纯的工具性“智能机器”,作为对人类智能的模仿或者模拟,其目标是成长为高阶智能形态,这要求必须在其中嵌入道德因子。随着人工智能的工具性力量日益增强,越应强化相关规范性价值,对技术能力的价值规范和伦理规范的强调,是进一步提升人工智能化水平的重要保障。最后,从人机关系的伦理模式来看,当前以人为主导的人机关系模式,具有单纯的规范性取向,即人类已有道德能力和水平决定了人工智能的道德能力建构水平。如果人类在道德问题的判别方面具有不确定性,再加之人类个体道德经验的有限性,那么人工智能造成的伦理冲突将表现得更加突出。
我们当前所面临的人工智能伦理风险,一方面是传统伦理情境、伦理形态面临着总体性困境,人工智能不断解构传统伦理,并在日渐紧张的伦理冲突中提出愈加迫切和急需解决的伦理问题;另一方面是人与自身造物之间关系模式面临解体与重塑,人类自身的伦理禀赋与人工智能的伦理地位之间存在着一定矛盾,特别是在技术力量全面突破人类智慧的时候,如果没有有效的伦理建构和调适,人类社会将会在“技术决定论”中迷失伦理和道德责任。
建构和谐共生的伦理关系
在推动人工智能技术发展水平的过程中,我们不仅在创制“提高人类劳作效率”的机器,也在创制“提升人类思维能力”的机器,更是在创制“契合人类伦理责任”的机器。为此,我们应顺应时代对人工智能发展的新要求,积极进行伦理调适。
其一,明确目标,厘清人机责任。人工智能的伦理调适,其终极目标在于增进人类利益,促进人类整体发展。只有将人工智能发展置于人类发展的历史高度,才有助于构建“人—机命运共同体”。一切都从人类利益出发,是人工智能伦理规范的最根本要求。所有创制人工智能的人类个体,必须把全人类共同利益放在第一位,并且在人机合作中重新定义人类利益,使其更加符合时代发展的新要求。与此同时,我们还必须厘清人机责任,这是责任伦理的重要体现。人工智能能够根据数据运算提供最优化行动方案,人类则会因为情感等直观因素作出情景类选择,这种行为模式生成途径的不同,决定了两者承担的责任伦理也必然存在差异。对于人工智能来说,其创制者、使用者、消费者,基于不同的情境承担着不同的责任伦理,这就要求我们从全过程角度重新诠释“人—机命运共同体”。
其二,制定原则,体现人文价值。人工智能作为一种技术发展到现在,其工具性一面有了长足的进步和体现。而在人工智能伦理挑战日益凸显的今天,必须在人工智能发展过程中厚植深厚人文价值尺度。首先,必须遵循开放合作原则。鼓励跨学科、跨领域、跨国界的交流合作,推动不同组织和部门及社会公众在人工智能发展与治理中的协调互动。开展国际交流对话与合作,在充分尊重各国人工智能治理原则的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。其次,必须谨守伦理底线。人工智能发展在很多领域事实上正不断突破界限、挑战伦理底线。在涉及伦理道德根本问题,如维护公平正义、保护隐私等时,必须谨慎对待人工智能越界可能带来的严重后果,该坚守住的底线一定要守住,该厘清的界限一定要厘清。最后,必须体现人的目的性。人工智能系统被设计和使用的全过程,始终都应与人类尊严、权利、自由和文化多样性理想一致。人工智能创造的繁荣局面,应被广泛地共享,惠及全人类。
其三,重构伦理形态,协同主体关系。传统伦理形态面临着时代性重构,人类思维和道德情境都在技术社会中被重新认识和改造,场域的深刻变化要求我们重构当代伦理形态。具体而言,重构人工智能时代伦理形态的核心在于构建人机协同合作新模式,这是基于合作化道德准则做出的化解伦理风险、重塑伦理意蕴的理性选择。通过自主学习和深度学习,引导人工智能在人机共生的基础上不断升级,进而提高道德责任能力。通过人工智能在相关伦理问题上的反馈结果,人类自身要提升理性反省和学习能力,从对人工智能道德的单向度要求,转向追求达成人机交互主体间的道德共识。人机之间的相互学习和伦理共鉴,能够不断丰富人机关系的时代内涵,在伦理调适中不断变革传统伦理形态,构建出主体间性的伦理新形态,最终实现人机和谐共生。(作者:夏少昂南京大学社会学院)
周涛:大数据与人工智能的伦理挑战
简而言之,伦理问题就是判断好与坏、对与错的问题,大数据与人工智能的伦理研究是站在人类整体利益的角度去审视判断大数据与人工智能哪些技术何种应用对人类是有利的、哪些是危险的、哪些是不应触碰的,其最终的目的是要找到路径、梳理规范,以保证大数据和人工智能的发展给人类带来的利益远大于伤害。
大数据与人工智能的伦理问题引起了全球学界、业界和政府广泛的关注。2016年,奥巴马政府发表了题为《为人工智能的未来做好准备》的报告[9],强烈建议要评估人工智能技术和产品带来的风险;2017年,欧洲经济和社会委员发表了题为《大数据伦理——在欧盟政策背景下,实现大数据的经济利益与道德伦理之间的综合平衡》的报告,对大数据的伦理问题进行了概括,特别强调了数据采集和使用带来的安全和隐私问题;2018年,英国议会发表了《英国人工智能的准备、计划和能力》的报告[11],呼吁政府为人工智能研发和应用设定伦理原则;美国电气与工程师协会、美国未来生命研究所等研究组织和微软、谷歌等科技公司也陆续发布了相关的研究报告。其他国际上相关的报告例子还很多,不一一举出。
中国也开始意识到这些伦理问题的重要性,例如我国2017年发布的中指出制定人工智能《新一代人工智能发展规划》发展的伦理规范是促进人工智能发展的重要保证措施,2017年12月8日,中共中央政治局就实施国家大数据战略进行第二次集体学习,习近平主席主持学习并发表了讲话,在提出实施国家大数据战略加快建设数字中国要求的同时,特别强调了数据安全、数据隐私、数据确权、数据版权、数据治理政策储备和治理规则等与数据伦理相关的问题。
与欧美等国相比,我国学界、业界和政府在大数据与人工智能伦理问题上系统性的深入研究还较少,目前尚未形成具有国际影响力的伦理研究报告和政策实施方案,与习近平主席提出的“要加强国际数据治理政策储备和治理规则研究,提出中国方案”这一要求尚有较大差距。
因为大数据和人工智能的发展是高度融合的,所以本文不拟特别区分大数据的伦理问题和人工智能的伦理问题,而是结合讨论从数据采集、存储和应用,一直到数据挖掘、机器学习等典型人工智能技术发展所带来的一系列伦理问题。
限于篇幅,文章将集中讨论中立性、时效性、导向性、边界问题、隐私问题和责权问题六个方面。本文尽量采用通俗的语言和生动的例子来说明这些问题,既可以作为政府相关管理人员以及学者和从业人员了解大数据与人工智能伦理问题的入门材料,也可以作为一般读者的科普读物。
表面上客观的数据和理性的算法,也可以产生非中立性的结果。事实上,数据和算法导致的歧视往往更难发现也更难消除。数据和算法对中立性的破坏,可能来自三方面的原因:一是采集数据或设计算法的相关人员蓄意为之;二是原始数据本身就存在偏见,因此该数据驱动的算法结果也会有偏见;三是所设计的算法会导致有偏见的结果。第一种原因归根到底是人的问题,在任何时代和任何环境中都可能存在,数据和算法不过是他们利用的工具罢了。因此本文着重分析后面两种情况。
即便数据是人类社会客观中立的记录,如果人类社会本身就存在偏见、歧视和不公平,那么相关数据自然也会带入我们社会的不公。例如,互联网求职的简历数据显示,在职场中身高和性别的歧视都非常严重[12]:平均身高越高,平均收入越高;在同等学历条件和行业背景下,女性要多工作5-10年才能获得和男性相当的薪水。显然,使用这类简历数据进行职位的推荐时,其结果必然自带歧视。
卡内基梅隆大学的Datta等人最近的研究就显示,Google广告系统的人工智能算法在推送职位招聘信息的时候,同等教育背景和工作经历下的男性要比女性以高得多的频率收到高收入职位招聘信息[13]。普林斯顿大学Caliskan等人使用常见的纯统计机器学习模型,在万维网的标准文本语料库上进行训练,发现计算机可以“学会”沉淀在人类语言记录中隐含的偏见——既包括一些无关道德也无伤大雅的偏见,例如昆虫让我们联想到不愉快而花朵则常与欣愉的事情相伴,还包括一些严重的偏见,包括来自性别和种族的歧视[14]。
实际上,有些我们人类自己都没有注意到的潜在的歧视,计算机也能通过机器学习捕捉到。这些数据上存在的偏见,会通过算法表现为带歧视的结果,这些结果可能进一步加大歧视,从而新的数据包含的偏见有可能被加剧,造成恶性循环。比如说数据中显示每十个前1%高年薪的高端职位只有一位女性,于是“性别为女性”这个特征值在获得高端职位推荐中将是一个负面的因素,算法也将避免给女性推高端职位信息。
在没有基于大数据和人工智能的招聘信息服务的情况下,男性和女性获取高端职位信息的数量可能相差不大,这种情况下女性真正获聘高端职位的可能性也远低于男性。如今,计算机的自动服务在源头上就让女性更少知道信息,所以可以预期女性获得高端职位的比例将进一步降低,而这又再次加强了数据的偏差,从而让算法更少向女性推荐高端职位。这种恶性循环,会进一步放大原本就有的不公。
算法的设计和学习过程,也可能带来偏见甚至歧视。个性化推荐算法是目前在大数据和人工智能领域应用最为广泛的算法[15],其目的是根据用户过往的浏览、点击、收藏、购买等记录,向用户推荐用户他需要或者喜欢的资讯、商品等等。淘宝的猜你喜欢和今日头条的个性化新闻推荐就是推荐算法非常典型的应用。在电商网站上,同一个品类下商品的价格差别巨大,例如都是灌开水的热水袋,在外观和功能差别不大的情况下,从十块钱到数千元都有。
类似地,一支钢笔,从几元到几万元都有。如果某目标用户以前在电商网站收藏和购买的商品,在相关品类中价格排名都特别靠后,那么算法可能会在一个名为“价格敏感度”的特征维度上给该用户标上高分。于是乎,当该用户搜索一个关键词后,如果自己不做调整,可能从前到后翻十页,他看到的都是便宜货。
尽管算法的初衷是提高该用户的点击率——这被认为对用户和商家都好——但是这事实上形成了同类商品展示对低收入消费者的歧视。试想如果在一个购物商场中部分人被告知因为收入过低不允许进入LV的店面,或者因为收入过低而要排队数小时才能入店,而高收入者有专享通道。这种歧视肯定是我们不能容忍的,而在互联网上,数据和算法带来的偏见与之类似但更为隐蔽。
随着数据化浪潮的进一步发展,个人获取和处理信息的难度会进一步加大,我们会更加依赖各种各样的信息中介。例如我们到一个陌生的城市,如何规划一条一日游的路线?又比如我们如何通过在线教育,选择若干课程,进入一个新的领域?再比如我们怎么在读书的时候就规划和选择自己的职业道路?
高度发达的人工智能会充分考虑包括家庭、性别、民族、消费水平等等关于你的各种数据,给出“最适合你的选择”。于是,不同收入和不同家庭背景的人会抵达城市中不同的角落、下载不同的课程、规划不同的人生。在大数据的时代,不同出身的人所获取到的信息差异,可能比现实世界的差异还大,因此很可能形成更早就形成截然不同的视野、格局和能力,从而加剧而不是减少阶级的固化。
与人类相比,计算机有一种特别突出的能力,就是能够保真存储和分析很多年以前的数据,并通过算法对未来某些事件给出远远比人精确的预测。
Mayer-Schönberger曾讨论过一个未来的可能情形,就是当智能机器预测到你将在某时某地犯罪,就可以在你还没有实施犯罪的时候逮捕你[3]。幸运的是,这个比Orwell笔下的世界[16]还可怕得情景,只是Mayer-Schönberger设想的一种极端情况,实际上并没有发生过。Dormehl讲了一个温和得多但已经现实发生的版本[17],就是美国政府根据姓名、出生地、宗教信仰、历史行为数据——例如所有旅行数据、人脸图片数据等等,会利用机器学习算法,对每一位航空旅客是恐怖分子的嫌疑度进行打分。
一些无辜的人因为疑似恐怖分子或者近期有较高从事恐怖活动的可能性,而经常在机场被羁留检查,甚至多次错过飞机。通过数据和算法,机器可以预测一个人犯罪的概率,如果这个概率足够大,那么在他还没有实施犯罪行为时,就已经实质上受到了惩罚,尽管他可能是完全无辜的。从功利主义的角度讲,这些智能化的方法能够降低犯罪率,但是这里面一个核心的伦理问题就是“我们是否应该为尚未发生的一种可能性付出代价”。
反恐的例子距离普通人的生活较远,下面我们来看一个现实生活中的例子——酒驾。对于机动车驾驶员来说,饮酒驾车是违法,醉酒驾驶可入刑。这条法律受到了数据有力的支撑:“当驾驶者血液中酒精含量达80mg/100mL时,发生交通事故的几率是血液中不含酒精时的2.5倍;达到100mg/100mL时,发生交通事故的几率是血液中不含酒精时的4.7倍;即使在少量饮酒的状态下,交通事故的危险度也可达到未饮酒状态的2倍左右。”
事实上,这条法规的出台,有效降低了严重交通事故的发生率。尽管驾车不违法、喝酒也不违法,但法律赋予了对酒驾者惩处的合法性——因为他触犯了酒驾的法规,就已经是犯罪,而不是尚未犯罪。不过这条法律的基本精神是惩处可能的尚未发生的更严重的犯罪。这当然无可厚非,例如危害公共安全罪背后的法理出发点也是类似的。当数据的采集能力和算法的分析能力进一步增强之后,我们肯定能够发现更多可能危害公共安全的因素,并把它们写进法律中。
几十年后,如果自动驾驶的车辆占有相当的比例,很可能主要的交通事故都是由人类操纵驾驶车辆引起的。那个时候的法律,可能就不是针对饮酒和吸毒后驾车了,但凡活人开车,都得抓了。因为人驾驶车辆本身,就是一种对公共安全的危害。那么,今天能接受酒驾入刑的人,明天能够接受手驾入刑吗?在使用数据和算法预测能力的时候,是否也需要有一个限度?
计算机让人类更加望尘莫及的,是记录和回顾历史的能力。因为大量过往被数据记录下来,所以我们今天的错误可能会带来很长时间难以消除的影响。中学时间一次冲动的打架斗殴,大学期间因为攀比借了款又没有及时还款……这些记录可能会在十年后呈现给潜在的雇主和金融机构,影响一个人职场的发展,降低他申请车贷房贷的成功率,甚至让他的创业融资遭遇阴影。
我们年少轻狂时在自己博客、微博、微信或者其他论坛、贴吧上留下的冲动言论,又或者我们脑残时光上传的裸露、暴力或者炫富的照片,都可能在未来成为我们感情和事业再上一个台阶时的潜水炸弹。我们在本文第6节还会详细讨论数据隐私方面的挑战,如果考虑到隐私泄露的危险,那么你新交的女友或许花10元钱就能扒出你的恋爱史,以及那些你曾经许给不止一个人的山盟海誓。
中国有句古话,叫做“浪子回头金不换”。父母亲友也许会选择原谅甚至忘记,但大数据和人工智能不会遗忘。Mayer-Schönberger就曾经强烈呼吁应该给我们的数据一个“被遗忘的权利”——除了出于科学研究、档案管理、公共安全或其他特殊的既非盈利也不面向一般公众的目的,个人和企业不应该存储、分析、使用和传播超出一定年限的数据[18]。
一些科技企业已经开始了类似的尝试,例如著名的社交网站Snapchat起家的时候就是推出了“阅后即焚”的功能——你发给朋友的信息和图片,对方阅读后一段时间内自动消失。2017年,腾迅投资了Snapchat,实际上腾迅在微信的私信助手中也有“阅后即焚”的功能,还可以设定多长时间后删除消息。但是,你和你的好友虽然看不到了,Snapchat和腾迅原则上可以保存和利用这些信息。
另外,社交媒体产生的数据,相比于一个人所有被记录下来的行为数据,毕竟只是很小的一部分,而绝大部分与我们紧密相关的数据都不是我们主动上传或发送的。越来越多的企业认识到了数据的价值,因此主动删除或者放弃某些数据的使用权,似乎并不是一家盈利性企业优先考虑的问题。尽管Mayer-Schönberger的呼吁已经过去了五年多,我们还没有看到在这个方面任何实质性的进展。
我们每个人都应该尊重历史,都应该怀揣梦想,但更多的时候我们生活在当下。当一个人每做一件事情,都可能承受因过往历史的影响,都必须考虑对未来发展的影响,那这样的人生是不堪重负的。如果数据的使用时限不受控制,这种机制下最安全的选择只能是沿着数据和算法所青睐的某种智能时代的主流道路前进。人类与生俱有的自由狷狂和特立独行恐怕最终都不得不服从机器制定的优化后的规则。
算法根据其优化目标函数所产生的结果对受众,尤其是一般C端用户产生的引导效果,可能与用户真实的需求大相径庭,也可能虽然能够满足用户短期的需求,但是带来中长期的负面效果。我们把这类问题归纳为导向性问题,其短期、中期和长期的具体表现有所不同。
短期表现为算法给出的结果与用户真实需求不符合,用户立刻就有负面的感知。可以说,算法诱骗用户在其需求没有获得有效或充分满足的情况下,帮助算法完成了它拟实现的优化目标。举个例子,在给用户进行个性化新闻推荐或者自动生成新闻的时候[19],如果算法的目标是最大化推荐的新闻或者自动生成新闻的点击次数,那么计算机自己就会变成一个“标题党”,选择甚至自己生成一些耸人听闻的标题,又或者与当前新闻热点紧密联系的标题,但新闻的实际内容却和标题毫无关系或只有及其浅薄的联系。
用户点击进入新闻页面,发现与其需求和期望严重不符合,立刻就会有上当的感觉。但是用户的点击行为实际上帮助完成了算法的既定目标,而且还让计算机认为“推荐这类新闻或者生成这些标题是正确的”,因此算法可能会变本加厉,越来越标题党。
对于这类问题,如果算法的设计和使用人员本身不存恶意,其实是较好解决的。因为我们可以通过设计更好的目标函数来提升用户体验——毕竟任何一个目标函数都不可能完全覆盖用户的意图,所以优化目标函数以提升用户体验是一个长期的过程。举个例子,一篇新闻打开后用户停留阅读的时间,或者一个微信打开后被转发和点赞的比率,都可以纳入到目标函数中来。
但如果算法的设计和使用人员本身存有恶意,或者完全被短期商业利益绑架,这就可能变成一个难以舒缓的矛盾。譬如百度的魏则西们,搜索病情相关知识的时候,被漫天遍野真假难辨的广告诱骗采用一些不适病情的治疗方案,最终人财两空;又或者如作家木木吐槽在百度搜索上海美国领事馆官网的地址,出来一推广告却几页翻不出真身。如何有效打击这类“恶人利用算法作恶”的问题,就不是简单调整目标函数可以完成的任务了。
中期表现为算法能够满足用户即时需求,但其累积效果与用户的发展利益不一致。简而言之,就是短期虽然满足了用户,但这种“满足”对用户而言或许并非好事。一些大型的游戏开发公司,可以对海量用户的行为数据进行深入挖掘分析,了解用户容易退出游戏的时间点和前兆行为,分析哪些场景、关卡和境遇最易让用户退出游戏,从而通过赠予装备,下发新任务等方式尽最大可能让用户获得更好的游戏体验,延长游戏时间。
一些视频网站,尤其是短视频的网站,正在尝试通过个性化推荐,为用户创造一种沉浸式的美好体验,让用户连续不断地点开视频,停不下来。这些算法很好地满足了用户的需求,用户也不会有负面体验,但是时间长了,对于用户自身的健康成长和学业工作或许会起到负面的作用[20]。某些企业创造经济价值的同时也带来环境的破坏,后者被称为外部成本。类似地,这些累积产生的负面效果也可以看作是“算法的外部性”。由于用户和商家都在这类算法中直接获益,所以这种外部性问题的解决,还需要外部的力量来干预。
举例而言,2018年8月30日,教育部官网发布八部门关于印发《综合防控儿童青少年近视实施方案》的通知,其中国家新闻出版署明确将对网络游戏实施总量调控,采取措施限制未成年人使用时间。之后腾迅立刻提出将推进最严格的实名游戏制度,避免未成年人过度沉迷于王者荣耀等游戏。需要特别强调的是,对用户行为数据的分析挖掘这一技术本身是没有善恶的,类似的技术可用于判断在线课程中哪些地方是学习者普遍认为的难点,从而帮助他们更高质量完成课程学习[21]。
长期表现为算法累积的效果与人类社会整体发展的目标和价值不一致。譬如我们很早就知道,一个人的家庭出身和这个人未来学业和事业所能取得的成绩在统计上是高度相关的[22][23],因此如果我们能够掌握充分的数据,聪明的算法会在成长的早期和学业工作关键抉择点上倾向于把最优质的资源推荐给家庭背景比较好的人。
就一些可以客观量化的指标,如经济发展指标而言,这个算法也许表现优异,但它可能会大幅度加剧阶级的固化,使得原本贫穷、缺少教育或因种族肤色等原因受到歧视的家庭,改变命运的机会变得更加渺茫。如果我们只看数字利益,阶级的流动并不一定带来比阶级的固化更好的经济表现。但是人类整体发展的目标和价值,不是一群人奴役压迫另一群人而获得更高的效率,所以经济上的成功,数目字上的成功,并不一定代表整个人类社会的成功。
又比如大规模电子商务网站(如阿里巴巴、京东等)和大规模内容网站(如腾迅视频、爱奇异等)的出现,使得所有流量和关注向少数几个平台汇聚。平台在运营流量的时候,会采用以个性化推荐[15][24]为代表的一系列算法来吸引用户更多点击、浏览、收藏和购买。尽管这些算法都考虑了用户个性化的特征,所给出的推荐结果也不尽相同,但事实上受算法驱动的用户整体的行为所表现出来的多样性会降低,因为推荐小众对象的风险毕竟要大得多[25]。
长久而言,小众的喜好和小众的商品都会失去萎缩,人类社会的多样性以及非主流的个性和创造力,都有可能在信息高度丰富的时代反而降低,这对人类社会长远的发展也可能是不利的。
周涛博客链接地址:http://blog.sciencenet.cn/blog-3075-1132200.html
C2
个人会员:返回搜狐,查看更多
人工智能发展至今面临了哪些方面的伦理挑战
人工智能技术的飞速发展为生产效率的提高带来了跨越式的改变,但同时也给人类未来引发了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能伦理问题的争议。《银翼杀手》《西部世界》等影视剧中人工智能反抗甚至超越人类的场景是否真的可能出现?我们又将如何有效规制人工智能技术和产业的发展呢?带着这些问题,看看新闻knews记者专访了上海社会科学院互联网研究中心主任、研究员惠志斌。
看看新闻knews记者:“人工智能发展至今面临了哪些方面的伦理挑战?”
惠志斌:“人工智能的技术,是一个变革性的技术,它对整个政治经济社会等各领域都是全方面的重塑。第一从经济层面来说结构性的失业是一个很大的问题。智能化的技术会去取代我们的一些简单重复性的劳动职业,比如说我们的收银员,比如说我们的流水线上一线工人都会有可能被结构性地替代。第二我觉得从社会层面来说,我们面临着数据隐私方面非常大的挑战。我们走在这样一个智慧城市的体系里面,我们是不是需要担心我们的所有的行踪,我们所有做的一些行为都会被无差别地记录下来。第三方面的影响在军事领域。越来越多的自动化武器系统的产生,会不会就颠覆了我们传统的一些战争形态。第四方面从家庭伦理的角度考量,类似陪护这样机器人的出现,有可能它会对我们的婚姻制度造成重大的挑战。”
看看新闻knews记者:“人脸识别技术的广泛应用引发争议,大家认为在技术进步的同时也侵犯了公民隐私权,就此您如何看待?”
惠志斌:“人脸识别等等一系列方面的应用,其实很多国家已经开始对它进行一些规范,不是说完全不用或者不是说完全放弃这样的一个人脸识别技术。就是说我们在使用这样的人脸识别技术的时候,需要考虑更多的对公民的隐私权的一些保护,不要进行一些大规模的、无差别的,没有经过用户同意和授权的,或者是不仅仅是公共场所,甚至一些半公共场所,甚至一些涉及到比如说我们的有一定的私人领域里,都进行了这样的人工智能的技术的一种监控,那这个会带来我觉得对一些社会的一些影响。”
看看新闻knews记者:“facebook选择关闭智能对话机器人项目,IBM、亚马逊和微软声明不再向警方提供人脸识别。您认为这是不是公司为了避免陷入伦理争议而做出的一种放弃?”
惠志斌:“这些技术的创新尤其是在过去的二十年,发展非常之快。但是原来的一些配套性制度、法律,其实相对来说它还是一个滞后的状态,那么在这样的一个滞后状态下很多社会的共识又没有完全形成。在这个过程中很多公司他们也在积极地去尝试,做制度层面的一些探索。我认为这些公司它并不是不使用,并不是完全放弃这个技术。它可能需要去等一等,它需要看到社会对这个技术的接纳或者是适应的程度究竟如何,法律与相关的其他配套性制度有没有逐步地完善起来。当这些逐步地完善起来的时候,我相信技术可以更好地发展。这就像两个轮子一样,它需要两个去协调和配套。当一个轮子跑太快的时候那肯定是要翻车的,所以一个轮子它在等另一个轮子怎么走上来,怎么让制度建设这个轮子更好地去配合科技产业这个轮子的发展。”
看看新闻knews记者:“伦理问题的争议是否有可能对人工智能的发展产生影响呢?”
惠志斌:“人工智能这样的一个技术所带来的其实是对传统的一些经济社会形态的重大改变。那在这个里面它必然伴生着一些伦理问题的产生。这就好像是一个硬币的两个方面,当我们不能够很好地解决这样的伦理问题,包括法治的、安全的等等一系列的问题的时候,我们人工智能的产业、技术也有可能受到限制。它在发展中间也许就会对这个社会造成重大的冲击。当社会无法承受的时候,可能就反向地会去遏制人工智能技术人工智能产业的健康发展。”
看看新闻knews记者:“伦理问题在人工智能发展过程中的意义是什么?”
惠志斌:“我们都要有一定的共识,到底什么样的人工智能的技术和应用是应该去倡导的,是应该去鼓励的;什么样的人工智能技术我们还需要去看一看,还需要去等一等。我们首先考量它的风险到底有多大,再去看它的技术到底用不用。那在伦理这个层面,我们经过深入探讨,有了更多的共识以后,然后我们才可以更加精准地去进行一些符合未来发展方向的立法和执法,以及其他配套性的制度建设。所以伦理是基础,是人工智能发展过程中大家共识形成的一个过程。”
看看新闻knews记者:“公众对于人工智能可能摆脱人类控制甚至反噬人类的担忧,您如何看待?”
惠志斌:“目前人工智能总体来说还处于一个弱人工智能时代,在这个阶段里面,我觉得大部分的人工智能产品和技术还是相对可控的。但是随着技术的发展,人工智能必然向着强人工智能或者是通用人工智能的时代去演进,但在这个过程中间,我们还是需要去高度警惕。因为人工智能可能是人类有史以来唯一无法试错的这样的技术,一旦它脱离了人的控制,有可能对人类就是一个灭顶之灾。” 责任编辑:pj
腾讯发布人工智能伦理报告 倡导面向人工智能的新的技术伦理观
腾讯科技讯近日,腾讯研究院和腾讯AILab联合发布了人工智能伦理报告《智能时代的技术伦理观——重塑数字社会的信任》。人工智能伦理是国际社会近几年关注的焦点话题。最近,国内外都有重大进展,OECD成员国采纳了首个由各国政府签署的AI原则,即“负责任地管理可信AI的原则(PrinciplesforresponsiblestewardshipoftrustworthyAI)”,这些原则之后被G20采纳,成为人工智能治理方面的首个政府间国际共识,确立了以人为本的发展理念和敏捷灵活的治理方式。无独有偶,我国新一代人工智能治理原则也于近日发布,提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八项原则,以发展负责任的人工智能。
在此背景下,在腾讯研究院过去几年对人工智能伦理进行的持续研究的基础上,腾讯研究院和腾讯AILab联合研究形成了这份人工智能伦理报告《智能时代的技术伦理观——重塑数字社会的信任》,认为在“科技向善”理念之下,需要倡导面向人工智能的新的技术伦理观,包含三个层面:技术信任,人工智能等新技术需要价值引导,做到可用、可靠、可知、可控(“四可”);个体幸福,确保人人都有追求数字福祉、幸福工作的权利,在人机共生的智能社会实现个体更自由、智慧、幸福的发展;社会可持续,践行“科技向善”,发挥好人工智能等新技术的巨大“向善”潜力,善用技术塑造健康包容可持续的智慧社会,持续推动经济发展和社会进步。
以下为报告主要内容:
互联网的前三十年,是一个连接一切的故事,这个故事以前所未有的速度和规模改变着人类和人类社会。如今,以人工智能、大数据为代表的新技术集群加速发展,有望引领第四次工业革命,智能时代的大幕正在拉开,无处不在的数据和算法正在催生一种新型的人工智能驱动的经济和社会形式,生物层、物理层、技术层可能融合为三位一体。简言之,人工智能正在改变这个世界。
因此在当前,以人工智能为代表的这一轮新技术具有巨大的潜力和价值,无疑能够成为一股“向善”的力量,继续造福于人类和人类社会。但任何具有变革性的新技术都必然带来法律的、伦理的以及社会的影响。例如,互联网、大数据、人工智能等数字技术及其应用带来的隐私保护、虚假信息、算法歧视、网络安全、网络犯罪、网络过度使用等问题已经成为全球关注焦点,引发全球范围内对数字技术及其应用的影响的反思和讨论,探索如何让新技术带来个人和社会福祉的最大化。
因此,人工智能伦理开始从幕后走到前台,成为纠偏和矫正科技行业的狭隘的技术向度和利益局限的重要保障。正如华裔AI科学家李飞飞所言,要让伦理成为人工智能研究与发展的根本组成部分。在此背景下,从政府到行业再到学术界,全球掀起了一股探索制定人工智能伦理原则的热潮,欧盟、德国、英国、OECD、G20、IEEE、谷歌、微软等诸多主体从各自的角度提出了相应的人工智能伦理原则,共同促进AI知识的共享和可信AI的构建。要言之,各界已经基本达成共识,人工智能的发展离不开对伦理的思考和伦理保障。
从最早的计算机到后来的信息再到如今的数据和算法,伴随着技术伦理的关注焦点的转变,技术伦理正在迈向一个新的阶段。在新的发展阶段,我们提出新的技术伦理(technologyethics),探索AI、个人、社会三者之间的平衡。就AI技术自身而言,AI需要价值引导,应做到可用、可靠、可知、可控(“四可”),从而让人们可以信任AI,让AI可以给个人和社会创造价值;就AI与个人之关系而言,幸福是人生的终极目的,需要构建和谐共生的人机关系,保障个人的数字福祉和幸福工作权利,实现智能社会人机共生,让个体更自由、智慧、幸福地生活和发展;就AI与社会之关系而言,AI所具有的巨大的“向善”潜力是历史上任何时候都无法比拟的,可以成为一股“向善”的力量,助力经济社会健康包容可持续发展。
?
?信任(trust):人工智能需要价值引导,做到可用、可靠、可知、可控(“四可”)
就AI而言,虽然技术自身没有道德、伦理的品质,但是开发、使用技术的人会赋予其伦理价值,因为基于数据做决策的软件是人设计的,他们设计模型、选择数据并赋予数据意义,从而影响我们的行为。所以,这些代码并非价值中立,其中包括了太多关于我们的现在和未来的决定。更进一步,现在人们无法完全信任人工智能,一方面是因为人们缺乏足够信息,对这些与我们的生活和生产息息相关的技术发展缺少足够的了解;另一方面是因为人们缺乏预见能力,既无法预料企业会拿自己的数据做什么,也无法预测人工智能系统的行为。因此,我们需要构建能够让社会公众信任人工智能等新技术的规制体系,让技术接受价值引导。
作为建立技术信任的起点,我们认为,人工智能等新技术的发展和应用需要遵循伦理原则。为此,秉持“负责任研究与创新”(responsibleresearchandinnovation)、“科技向善”等理念,我们进一步阐述“四可”原则,用以引导负责任地发展和应用工智能技术,使其可以造福于人类和人类社会。并将“四可”翻译为“ARCC”(available,reliable,comprehensible,controllable,即ARCC,读作ark)。正如传说中保存人类文明火种的诺亚方舟,人工智能的健康发展需要以“伦理方舟”为保障,确保将来友好、和谐、共生的人机关系。
第一,可用(available)。发展人工智能的首要目的,是促进人类发展,给人类和人类社会带来福祉,实现包容、普惠和可持续发展。为此,需要让尽可能多的人可以获取、使用人工智能,让人们都能共享技术红利,避免出现技术鸿沟。可用性还意味着以人为本的发展理念、人机共生、包容性以及公平无歧视,要求践行“经由设计的伦理”(ethicsbydesign)理念,将伦理价值融入到AI产品、服务的设计当中。
第二,可靠(reliable)。人工智能应当是安全可靠的,能够防范网络攻击等恶意干扰和其它意外后果,实现安全、稳定与可靠。一方面人工智能系统应当经过严格的测试和验证,确保其性能达到合理预期;另一方面人工智能应确保数字网络安全、人身财产安全以及社会安全。
第三,可知(comprehensible)。人工智能应当是透明的、可解释的,是人可以理解的,避免技术“黑盒”影响人们对人工智能的信任。研发人员需要致力于解决人工智能“黑盒”问题,实现可理解、可解释的人工智能算法模型。此外,对于由人工智能系统做出的决策和行为,在适当的时候应能提供说明或者解释,包括背后的逻辑和数据,这要求记录设计选择和相关数据,而不是一味追求技术透明。换句话说,技术透明或者说算法透明不是对算法的每一个步骤、算法的技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。相反,在AI系统的行为和决策上实现有效透明将更可取,也能提供显著的效益。此外,在发展和应用人工智能的过程中,应为社会公众参与创造机会,并支持个人权利的行使。
第四,可控(controllable)。人工智能的发展应置于人类的有效控制之下,避免危害人类个人或整体的利益。短期来看,发展和应用人工智能应确保其带来的社会福祉显著超过其可能给个人和社会带来的可预期的风险和负面影响,确保这些风险和负面影响是可控的,并在风险发生之后积极采取措施缓解、消除风险及其影响。长期来看,虽然人们现在还无法预料通用人工智能和超级人工智能能否实现以及如何实现,也无法完全预料其影响,但应遵循预警原则(precautionaryprinciple),防范未来的风险,使未来可能出现的通用人工智能和超级人工智能能够服务于全人类的利益。
?
?当然,信任的建立,需要一套规则体系。在这些原则之下,人们可以探索制定标准、法律、国际公约等。对于人工智能需要采取包容审慎、敏捷灵活的治理方式,应避免严格、细致的法律要求,而是可以采取事后监管或者通过出台标准、行业公约、伦理框架、最佳实践、技术指南等调整人工智能等新技术的发展应用,支持行业自律。
幸福(happiness):在人机共生的智能社会,确保人人都有追求数字福祉、幸福工作的权利
各种智能机器正在成为人类社会不可或缺的一部分,和我们的生活和生产息息相关。这给人类与技术之间的关系提出了新的命题,需要深入思考智能社会如何实现人机共生(human-computersymbiosis)。
第一,保障个人的数字福祉,人人都有追求数字福祉的权利。一方面需要消除技术鸿沟和数字鸿沟,全球还有接近一半人口没有接入互联网,老年人、残疾人等弱势群体未能充分享受到数字技术带来的便利。另一方面减小、防止互联网技术对个人的负面影响,网络过度使用、信息茧房、算法偏见、假新闻等现象暴露出了数字产品对个人健康、思维、认知、生活和工作等方面的负面影响,呼吁互联网经济从吸引乃至攫取用户注意力向维护、促进用户数字福祉转变,要求科技公司将对用户数字福祉的促进融入到互联网服务的设计中,例如Android和iOS的屏幕使用时间功能、Facebook等社交平台的“数字福祉”工具、腾讯视频的护眼模式对用户视力的保护等。
第二,保障个人的工作和自由发展,人人都有追求幸福工作的权利。目前而言,人工智能的经济影响依然相对有限,不可能很快造成大规模失业,也不可能终结人类工作,因为技术采纳和渗透往往需要数年甚至数十年,需要对生产流程、组织设计、商业模式、供应链、法律制度、文化期待等各方面做出调整和改变。虽然短期内人工智能可能影响部分常规性的、重复性的工作。长远来看,以机器学习为代表的人工智能技术对人类社会、经济和工作的影响将是深刻的,但人类的角色和作用不会被削弱,相反会被加强和增强。未来二十年内,90%以上的工作或多或少都需要数字技能。人们现在需要做的,就是为当下和未来的劳动者提供适当的技能教育,为过渡期劳动者提供再培训、再教育的公平机会,支持早期教育和终身学习。
?
?可持续(sustainability):践行“科技向善”,善用技术塑造健康包容可持续的智慧社会
技术创新是推动人类和人类社会发展的最主要因素。而这一轮技术革命具有巨大的“向善”潜力,将对人类生活与社会进步带来突破性的提升。在二十一世纪的今天,人类拥有的技术能力,以及这些技术所具有的“向善”潜力,是历史上任何时候都无法比拟的。换言之,这些技术本身是“向善”的工具,可以成为一股“向善”的力量,用于解决人类发展面临着的各种挑战,助力可持续发展目标。与此同时,人类所面临的挑战也是历史上任何时候都无法比拟的。联合国制定的《2030可持续发展议程》确立了17项可持续发展目标,实现这些目标需要解决相应的问题和挑战,包括来自生态环境的,来自人类健康的,来自社会治理的,来自经济发展的,等等。
将新技术应用于这些方面,是正确的、“向善”的方向。例如,人工智能与医疗、教育、金融、政务民生、交通、城市治理、农业、能源、环保等领域的结合,可以更好地改善人类生活,塑造健康包容可持续的智慧社会。因此,企业不能只顾财务表现,只追求经济利益,还必须肩负社会责任,追求社会效益,服务于好的社会目的和社会福祉,给社会带来积极贡献,实现利益与价值的统一。包括有意识有目的地设计、研发、应用技术来解决社会挑战。如今,“人工智能造福人类”(AIforGood)已经成为全球发展趋势,呼吁与行动并存。以腾讯为例,自2018年1月在国内首次提出“科技向善”以来,腾讯已将“科技向善”作为新的愿景与使命,并身体力行地在医疗、社会治理(如寻找失踪人口)、FEW(粮食、能源、水源)等方面践行“科技向善”理念。
以智能时代的技术伦理重塑数字社会的信任
互联网、人工智能等数字技术发展到今天,给个人和社会带来了诸多好处、便利和效率,未来还将持续推动经济发展和社会进步。如今,步入智能时代,为了重塑数字社会的信任,我们需要呼吁以数据和算法为面向的新的技术伦理观,实现技术、人、社会之间的良性互动和发展。最终,我们希望以新的技术伦理观增进人类对于技术发展应用的信任,让人工智能等技术进步持续造福人类和人类社会发展进步,塑造更健康包容可持续的智慧社会。
人工智能之于法律的可能影响
原标题:人工智能之于法律的可能影响智能时代由人工智能(简称AI)发展而来。人工智能主要运用在开发某些项目,研究某个理论和探索智能技术等领域,其是信息时代的一门新科学,它的发展将会不断改善人类的生活,引领人类进入新时代。随着时代的发展,人们的生活越来越离不开人工智能技术。目前,人工智能技术已经渗透到人类生活的方方面面。从人类驾驶汽车到无人驾驶汽车,从人类战斗机到无人战斗机,甚至医疗等方面纷纷离不开人工智能,人工智能不断改善人们的生活。人工智能技术是为人类服务的,不能超越人类的底线,更不能对人类造成伤害。当然,人工智能的发展必然会带来一些问题,这就需要制定一定的法律法规对人工智能进行管理、约束,这样才能更好地为人类所用,才能让人类过上更好的生活。
人工智能领域不容忽视的法律问题
人工智能与劳动者劳动权保障。人工智能在机械制造方面也有重大突破,机器人是人工智能技术的主要研究成果。由于机器人的出现,将人类从繁重的劳动中解脱出来,节省了大量的人力资源和物力资源,同时也让人类从一些危险的工作中解脱出来。人工智能技术运用到工业生产当中,这样既节省了雇佣劳动人员的资金又提高了生产的效率,推动了工业经济的发展。但是,人工智能技术让人―机关系成为社会生活的一部分,使得社会构造可能产生本质性的变革。
人工智能提高司法审判和行政工作效率。将现有的法律法规和法律文献以及判决文本储存在电脑当中,是目前为止非常安全的手段。人们通过计算机的记忆和文字搜索功能翻阅资料,节省了人们的大量时间。计算机系统还弥补了人类的记忆力不足和文字检查不正确等问题,这同时省去了律师查询文件的劳动和解决问题的推理活动。这些都依靠人工智能计算机系统完善的推理代码以及处理大量数据的功能。律师可以通过计算机系统对数据进行统计分析,推算出最好的法律解决方案。在律师接到一个新案例之后,就可以利用人工智能计算机系统对案件进行统一分析并给出合理的意见。计算机系统可以对逻辑程序,交易记录,日常消费,人口籍贯等方面进行行政化管理。所以说人工智能的崛起必然能提高司法的审判和行政工作的效率。
人类隐私保护的人格权问题。网络空间是一个真实的虚拟存在,是一个没有物理空间的独立世界。无论是现今还是未来时代,将互联网、大数据、人工智能这些元素整合之后,人们可以查阅信息的手段越来越多,自身的信息再也没有秘密性可言。因为数据可以广泛查询,那么对于个人来说自身的隐私就可能会被曝光,所以面对这个时代应该采取一定措施来保护自身隐私不被侵犯。主要有下列几点建议:第一个方面是对自身的隐私保护意识增强。在这个科技进步的时代,人工智能逐渐进入生活当中,人们可以通过机器来对别人的隐私进行攻击,因此如果想要保护自身隐私,那么就应该减少对机器的信息泄露。第二个方面是树立企业保护用户隐私安全的意识。企业自身一定要有保护自身用户的一切信息安全的义务和责任,这也是用户信息安全是否能得到良好的保障前提。第三个方面颁布有关用户信息安全的法律。让用户从根本上认识到有法律可依靠。该法律不但要落实到各个企业,而且要走入人们的生活当中,而且在执行法律的过程中,应该按照严格的法律规定来执行,这样才能使个人信息安全得到保障。
法律如何“智能”地应对人工智能化
制定和完善相关的道德法律准则。现在科技的发展不单单可以使人们生活更加便捷,而且还可以加快社会的进步。与此同时,也会有一些弊端浮出水面,如果推动人工智能来服务人类,使人类文明上升到更高的层面,忘记了以人为主的本真,人们就很难接受人工智能。那么如何来控制以人为主,我国推出了一系列法律准则来约束这项要求。人工智能技术是现阶段科学家努力想要达到的效果,该项技术还是比较新颖,没有严格的法律规定来使用这项技术,同时对于这项技术的开发还没有法律的约束。由于这项技术刚刚进入人们的生活,其需要法律来约束,要根据后续的一系列问题来进行新的调整,从而可以使这项技术更好地被人们所利用。
构建以技术和法律为主导的风险控制机制。由于现在科技的发展,对于人工时代的到来所造成的一系列风险应该如何来先行处理和防范成了现在科学家急需攻破的难题。法律控制是处理风险的主要手段之一,人们可以通过技术上的控制或是法律上的控制来对这项技术进行有效管理。制订法律的人必须站在人们的角度,注重风险防范的重要性。还要利用其他的法律来对人工智能这项技术的其他领域扩展进行限制和约束。通过技术上的管理和控制有效地降低了风险。对于人工智能技术造成的风险我们应该做出有效地防范措施,不单单在法律的基础之上来制定措施,而且也要在不伤害他人的利益基础之上来进行该技术的约束和管理。与此同时,构建一个完善的体系来进行人工智能技术的管理。
运用智能与传统相结合的方式对人工智能的社会应用情况进行法治监督。对于人工智能技术的发展趋势许多科学家做出了假设,该项技术一定会在互联网的基础之上,采集大量的信息来进行技术上的提升。虽然这样有利于人工智能技术的发展,但是由于信息量的不断提升,对于管理这项技术也有一定的难度。如果监管部门没有做好本职工作,那么不法分子就有机可乘,进入其内部窃取信息,从而导致损失较大利益。这对人工智能技术的发展部门来说尤为重要,所以要求监管部门做到与时俱进,将整个人工智能技术的运行做到心中有数。第一个方面就是需要监管部门根据不同的区域来制定不同的监管制度,但是要遵循以人为本的角度来进行管理,还需要完善的整体体系来进行监管,以便于监管部门发现在发展人工智能技术过程当中出现违反规定的行为,可以及时出手制止;第二个方面就是需要企业做到应对一些紧急情况的智能化机制,研发人工智能技术过程当中,如若发现紧急情况及时向企业内部进行汇报,然后再经过这个机制进行数据上的分析,最后制定一系列的方案来解决问题。假设出现不能用机制来解决的问题,可以采用强制断电或者是切断网络的措施来解决问题。在人工智能技术研发的过程中,要遵循颁布的法律进行研发。
人工智能革命引发的法律问题才刚刚开始,法律研究者需要秉持理性主义精神,不断拓展知识储备,跟进理论创新和制度创新,探索和发现一个更适合人工智能时代的法律制度体系。综上所述,在这个人工智能时代,我们相信法律制度的理性之光与科学技术的智慧之光将交相辉映、大放异彩。
(作者为中央司法警官学院副教授)
【参考文献】
①吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》,2017年第9期。
人工智能与伦理道德
计算机的色彩表示——十六进制颜色码罴罴熊:好像没写完,透明色到底怎么表示
计算机的色彩表示——十六进制颜色码罴罴熊:好像没写完,透明色到底怎么表示
计算机的色彩表示——十六进制颜色码罴罴熊:好像没写完,透明色到底怎么表示
计算机的色彩表示——十六进制颜色码罴罴熊:好像没写完,透明色到底怎么表示
计算机的色彩表示——十六进制颜色码罴罴熊:好像没写完,透明色到底怎么表示