“信息茧房”、隐私外泄,如何应对人工智能带来的伦理风险
0分享至过去十几年里,人工智能技术取得了长足进步,应用到各行各业之中,并带来生产力的大幅提升。不过,在具体实践中,人工智能的应用也暴露出侵犯数据隐私、制造“信息茧房”等种种伦理风险。尤瓦尔·赫拉利在畅销书《未来简史》夸张地预言,智人时代可能会因技术颠覆,特别是人工智能和生物工程技术的进步而终结,因为人工智能会导致绝大多数人类失去功用。尽管危言耸听,但赫拉利无疑为人类敲响了一面警钟。人工智能发展带来的伦理风险需要也正在被越来越多的国家重视。我们要警惕技术带来的哪些风险?需要采取什么样的措施未雨绸缪呢?人工智能带来的伦理挑战信息茧房:用户被算法圈住,受困于狭窄的信息视野:▶过滤气泡(FilterBubble),即根据用户喜好提供展示内容,网站内嵌的推荐算法会透过使用者所在地区、先前活动记录或是搜寻历史,推荐相关内容。社交媒体网站从千百万用户那里获得的使用数据,会构成无数个过滤气泡的小循环。▶回声室效应(EchoChamber),在社交媒体所构建的社群中,用户往往和与自己意见相近的人聚集在一起。因为处于一个封闭的社交环境中,这些相近意见和观点会不断被重复、加强。数据隐私:数据隐私引发的人工智能伦理问题,今天已经让用户非常头疼。例如,尽管很多国家政府出台过相关法案、措施保护健康隐私,但随着人工智能技术的进步,即便计步器、智能手机或手表搜集的个人身体活动数据已经去除身份信息,通过使用机器学习技术,也可以重新识别出个人信息并将其与人口统计数据相关联。算法透明性与信息对称:用户被区别对待的“大数据杀熟”屡次被媒体曝光。在社交网站拥有较多粉丝的“大V”,其高影响力等同于高级别会员,在客服人员处理其投诉时往往被快速识别,并因此得到更好地响应。消费频率高的老顾客,在网上所看到产品或服务的定价,反而要高于消费频率低或从未消费过的新顾客。歧视与偏见:人工智能技术在提供分析预测时,也曾发生过针对用户的性别歧视或是种族歧视的案例。曾经有企业使用人工智能招聘。一段时间后,招聘部门发现,对于软件开发等技术职位,人工智能推荐结果更青睐男性求职者。深度伪造(Deepfake):通过深度伪造技术,可以实现视频/图像内容中人脸的替换,甚至能够通过算法来操纵替换人脸的面部表情。如果结合个性化语音合成技术的应用,生成的换脸视频几乎可以达到以假乱真的程度。目前利用深度伪造技术制作假新闻、假视频所带来的社会问题越来越多。全球人工智能伦理法律体系建设现阶段,全球范围内许多国家都认识到制定人工智能治理框架的必要性,但这一框架的制定也面临着以国家间文化多样性为基础的道德多元化的挑战。01人工智能伦理设置原则牛津大学学者LucianoFloridi和JoshCowls在2019年哈佛数据科学评论杂志上发表的文章中提出了如今被学术界广为认可的AI伦理五原则:行善(Beneficence)、不伤害(Non-maleficence)、自治(Autonomy)、正义(Justice)以及算法可解释性(Explacability)。其中,前四项由传统的生物伦理原则沿用而来,最后一项则是针对人工智能算法而提出的新原则。五项总体AI核心原则后来又被衍生出更多细化的分支:1/行善增进人类福祉(well-being);社会利益(socialgood);共同利益(commongood)2/不伤害隐私(Privacy);安全(Security);正直(Integrity)3/自治自主决定权(Autonomy);选择权(Choice);知情同意(Consent);自由(Freedom)4/正义避免不公平(Avoidunfairness);不歧视与不偏见(non-bias/non-discrimination)5/可解释性明确的问责(Accountability);透明性(Transparency)近年来,技术界也越来越关注AI伦理问题。全球人工智能顶会IJCAI、NeurIPS、AAAI上出现了越来越多的AI伦理论文,话题范围涉及AI可解释性,安全AI,隐私与数据收集,公平与偏见等。而在近20年以来各个大型AI会议上提及伦理关键字的论文标题的数量都在逐年增加。02欧盟,人工智能伦理立法先驱2015年1月欧盟议会法律事务委员会(JURI)成立专门工作小组,开始研究机器人和人工智能发展相关的法律问题;2019年4月,欧盟委员会发布了正式版的人工智能道德准则《可信赖人工智能的伦理准则》,提出了实现可信赖人工智能(TrustworthyAI)全生命周期的框架。该准则提出,可信赖AI需满足3个基本条件:1合法的(lawful),即系统应该遵守所有适用的法律法规;2合伦理的(ethical),即系统应该与伦理准则和价值观相一致;3稳健的(robust),不管从技术还是社会的角度来看,AI系统都可能会造成伤害。所以系统中的每个组件都应该满足可信赖AI的要求对于AI从业者,该准则包含四项道德原则,确保AI从业者以值得信赖的方式开发、部署和使用人工智能系统:尊重人的自主性(respectforhumanautonomy):人类与人工智能系统之间的功能分配应遵循以人为本的设计原则,并为人类选择留下有意义的机会。预防伤害(preventionofharm):人工智能系统及其运行的环境必须安全可靠,确保不会被恶意使用。弱势群体应得到更多关注。还必须特别注意人工智能系统可能由于权利或信息不对称而导致或加剧不利影响的情况。公平性(fairness):人工智能系统的开发、部署和使用必须是公平的,公平体现既有实质性的也有程序性的。可解释性(explicability):可解释性对于建立和维护用户对AI系统的信任至关重要:流程需要透明、人工智能系统的能力和目的需要公开沟通、并且决策(在可能的范围内)可以向直接和间接受影响的人解释。有时候,解释为什么一个模型产生了一个特定的输出或决策并不总是可能的。这些情况被称为“黑盒”算法,在这些情况下,需要其他可解释性措施,例如,系统功能的可追溯性、可审计性和透明通信等。2018年5月25日,欧盟《通用数据保护条例(GDPR)》正式生效。这一条例明确定义了个人数据及其适用范围,为数据保护提供合法性基础,并明确了数据主体权利、数据控制者义务、数据流通标准、数据救济和处罚等,已经成为全球众多国家与地区制定数据保护条例的重要参考。之后,欧盟又陆续颁布了更多的数据相关法案。2020年2月欧盟发布《数据战略》,带来数据治理的整体规划,按照其规划,又相继于2021年末至2022年初密集发布了一系列数据法案,包括《数据治理法案(DGA)》、《数据服务法案(DSA)》、《数据法案(DA)》、《数据市场法案(DMA)》等。中国人工智能伦理立法稳步推进2017年7月,中国国务院发布了《新一代人工智能发展规划》。规划呼吁,不仅要重视人工智能的社会伦理影响,而且要制定伦理框架和伦理规范,以确保人工智能安全、可靠、可控发展。2018年1月,在国家人工智能标准化总体组的成立大会上发布了《人工智能标准化白皮书2018》。白皮书论述了人工智能的安全、伦理和隐私问题,认为人工智能技术需遵循的伦理要求设定要依托于社会和公众对人工智能伦理的深入思考和广泛共识上,并遵循一些共识原则。2019年2月,科技部在北京召开新一代人工智能发展规划暨重大科技项目启动会,成立了新一代人工智能治理专业委员会。同年6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则》。《治理原则》提出,为发展负责任的人工智能,人工智能发展相关各方应遵循以下原则:和谐友好,公平公正,包容共享,尊重隐私,安全可控,共担责任,开放协作以及敏捷治理。9月,专委会正式发布《新一代人工智能伦理规范》(以下简称《伦理规范》),细化落实《新一代人工智能治理原则》,将伦理道德融入人工智能全生命周期,为人工智能应用的相关活动提供伦理指引。这是中国发布的第一套人工智能伦理规范。相比于2019年《治理原则》中针对人工智能发展需遵循的原则,2021年发布的《伦理规范》中提出了更加细化与严谨的6项基本伦理要求:1增进人类福祉坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。2促进公平公正坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。3保护隐私安全充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。4确保可控可信保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。5强化责任担当坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。6提升伦理素养积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。2022年3月,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》(以下简称《意见》,明确指出科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范,是促进科技事业健康发展的重要保障。《意见》包含制定生命科学、医学、人工智能等重点领域的科技伦理规范、指南等,通过建立并完善科技伦理相关规范和标准,明确科技伦理要求;建立科技伦理审查和监管制度;提高科技伦理治理法治化水平,同时鼓励和加强科技伦理理论研究。图表10.多国人工智能伦理原则关注对比展望未来:人工智能应如何约束?1、平衡治理监管与产业协调发展尽管欧盟在规范AI伦理问题上下手早,但其过度监管也给相关市场的发展带来了限制,造成欧盟在数字产业的发展上全面落后于全球。在全球技术主权激烈竞争的背景下,立法与监管政策需要保持谨慎思考,在治理与发展之间做好平衡,在方便企业满足AI伦理风险的同时,为企业、行业以及相关产业提供充分的发展空间。2、针对人工智能伦理的高风险场景特别立法为了降低人工智能伦理执法的难度,一些国家针对特定部门/高风险应用场景单独立法。如许多国家把人工智能系统在医疗领域中应用列为需要关注的场景,在这些领域中,算法产生的结果将直接关乎人类的生命福祉。按照针对不同风险等级制定不同严苛程度的管理思路,可以通过分场景监管,做到有收有放,进而实现治理与发展的平衡。3、提升科研机构和企业对人工智能伦理的认知及自律在规避人工智能可能产生的伦理风险上,科研机构和企业更容易在相关实践中获得第一手信息,也更应该承担起构建安全人工智能技术的主要责任。4、提高全社会科技伦理意识伦理问题涉及到社会行为准则与规范,而治理伦理问题则需从公共管理的角度出发,在充分了解人工智能技术所带来的潜在社会影响,找到相对应的解决办法,并形成社会对人工智能伦理的共识。建议利用各种渠道广泛的进行科技伦理宣传、活动与交流,提升公众的科技伦理意识,进而加强全社会对人工智能伦理的广泛监督。作者:阿里研究院韩冰意、苏中责编:斌卡(转载及媒体合作请评论区留言)参考文献:https://www.wired.co.uk/article/tiktok-filter-bubbleshttps://physicsworld.com/a/fighting-flat-earth-theory/https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2719130https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08Ghttp://news.shcaoan.com/zixun/25798.htmlhttps://www.npr.org/2022/03/16/1087062648/deepfake-video-zelenskyy-experts-war-manipulation-ukraine-russiahttps://github.com/iperov/DeepFaceLabhttps://www.frameworksinstitute.org/publication/communicating-about-the-social-implications-of-ai-a-frameworks-strategic-brief/Floridi,L.,&Cowls,J.(2022).AunifiedframeworkoffiveprinciplesforAIinsociety.MachineLearningandtheCity:ApplicationsinArchitectureandUrbanDesign,535-545.https://onlinelibrary.wiley.com/doi/abs/10.1002/9781119815075.ch45DanielZhang,NestorMaslej,ErikBrynjolfsson,JohnEtchemendy,TerahLyons,JamesManyika,HelenNgo,JuanCarlosNiebles,MichaelSellitto,EllieSakhaee,YoavShoham,JackClark,andRaymondPerrault,“TheAIIndex2022AnnualReport,”AIIndexSteeringCommittee,StanfordInstituteforHuman-CenteredAI,StanfordUniversity,March2022.https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-aihttps://gdpr-info.eu/http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htmhttps://www.most.gov.cn/kjbgz/202109/t20210926_177063.htmlhttp://www.gov.cn/zhengce/2022-03/20/content_5680105.htmhttps://www.wired.com/story/gdpr-2022/?spm=a2c6h.12873639.article-detail.6.7c3b3a56MfwCEt特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端人工智能与数据隐私保护
随着大数据和云计算技术的深入应用,人工智能时代的机器学习和深度学习更需日益增长的数据,因此数据安全与隐私保护变得更加迫切。
随着人工智能技术的发展,公民的隐私数据被记录越来越多,大数据厂商对一个人了解越深,越容易掌握更多个人信息数据。各行各业对数据的重视程度很高,都利用数据进行相关分析和挖掘,做出最佳决策,但也出现很多问题:一是个人用户的数据安全和隐私保护意识不强,随意注册平台账号;二是企业对数据的安全和用户隐私保护不重视,企业收集的信息随意被其他合作单位获取;三是数据安全与公民隐私信息保护法律不健全;四是监管跟不上技术进步,导致技术失控带来数据安全和隐私保护隐患。
在各行各业,大数据应用规模不断增大,安全隐私保护难度也越发增加,用户个人行为数据在收集和统计过程中存在隐私泄露的问题。除了隐私保护外,工作人员的状态及行为都可能对数据带来不安全影响。
大数据的共享带来了不容忽视的数据隐私安全问题。在人工智能时代,隐私数据由于经济利益或其他原因被扩散后,使得各种侵权行为极易发生。泄露的隐私数据在数据科学技术的分析、提炼、挖掘下将隐私数据用于精准广告营销。因此在大数据使用量上必须进行一定的控制,对大数据进行权限管理、对角色进行行为限定。
用户信息被贩卖、隐私被敲诈勒索、银行卡被盗刷等问题,表明隐私保护不是一个单独的问题,而是需要国家政策层面、行业企业自律、用户个人意识等多个层面来保护:一是国家出台法律法规是维护市场和公民合法权益的根本保障;二是企业加强自律,肩负社会责任和坚守法律底线,尽量要求所有APP等程序采集用户数据坚持“最少采集”原则,合理采集和利用;三是增强用户个人的隐私保护意识;四是提高隐私保护技术,着眼开发研究新的安全技术,从技术上保护隐私,认真分析大数据环境中的漏洞,有针对性地进行隐私保护技术研发,通过对数据溯源、数据水印、身份认证、数据匿名发布等研究,开发出适合人工智能时代高效、安全、可靠的隐私保护技术。
(《科普时报》 3.6)
中国社会科学杂志社
当前,人工智能被深度应用于社会的各个领域,推动了社会生产效率的整体提升。然而,作为一种具有开放性、颠覆性但又远未成熟的技术,人工智能在带来高效生产与便利生活的同时,不可避免地对现有伦理关系与社会结构造成冲击,且已引发不少伦理冲突与法律问题。在技术快速更新的时代,如何准确把握时代变迁的特质,深刻反思人工智能引发的伦理风险,提出具有针对性、前瞻性的应对策略,是摆在我们面前的重大时代课题。
技术伦理风险
技术是一把双刃剑,其在推动社会进步的同时,也在很大程度上带来了技术风险。人工智能技术也是如此。现阶段,人工智能的技术伦理风险主要体现在以下三个方面。
人工智能的设计风险。设计是人工智能的逻辑起点,设计者的主体价值通过设计被嵌入人工智能的底层逻辑之中。倘若人工智能设计者在设计之初,秉持错误的价值观或将相互冲突的道德准则嵌入人工智能之中,那么在实际运行的过程中便很有可能对使用者生命、财产安全等带来威胁。
人工智能的算法风险。算法是人工智能的核心要素,具备深度学习特性的人工智能算法能够在运行过程中自主调整操作参数和规则,形成“算法黑箱”,使决策过程不透明或难以解释,从而影响公民的知情权及监督权,造成传统监管的失效。人工智能算法可能在不易察觉或证明的情况下,利用算法歧视或算法合谋侵害消费者的正当权益,进而扰乱市场经济秩序和造成不公平竞争。近年来被广泛曝光的“大数据杀熟”,正是这一风险的具体体现。
人工智能的数据安全风险。隐私权是人的一项基本权利,隐私的保护是现代文明的重要体现。但在众多的人工智能应用中,海量的个人数据被采集、挖掘、利用,尤其是涉及个人生物体征、健康、家庭、出行等的敏感信息。公民的隐私保护面临巨大挑战,人工智能所引发的隐私泄露风险已被推到风口浪尖。而不少隐私泄露事件的发生,也在一定程度上加深了公众对人工智能广泛应用的担忧。隐私保护与人工智能的协调发展,已成为当前亟待解决的问题。
社会伦理挑战
人工智能不仅有着潜在的、不可忽视的技术伦理风险,伴随数字化的飞速发展,人工智能对现有社会结构及价值观念的冲击亦愈发明显。人类社会的基本价值,如尊严、公平、正义等,也正因此面临挑战。
人工智能的发展对人类道德主体性的挑战。2017年智能机器人索菲亚被授予沙特阿拉伯王国公民身份,这引发了许多人对人工智能挑战人类主体性的担忧。通常人被认为是唯一的道德主体,人的道德主体性的依据在于人的某些精神特点(如意识、思维)。当前,人工智能虽仍处于弱人工智能阶段,还无法形成自我意识,但是,智能机器人不仅在储存、传输、计算等多方面的能力超越了人脑,而且借助材料学等现代技术,智能机器人可能在外形上“比人更像人”,甚至拥有更丰富的情感(比如索菲亚能够模拟62种面部表情)。这样的智能机器人究竟是否是“人”?是否应确立为道德主体?如果赋予人工智能主体资格,那么其究竟是一种与人类对等的主体,还是一种被限制的主体?这些问题表明:人工智能对人类道德主体性的挑战,不只是电影小说中的浪漫想象,而是已日益成为一种现实风险。
人工智能的发展对社会整体公平正义的挑战。首先,人工智能的发展可能加剧社会的贫富差距。由于年龄、所在地区、从事行业、教育水平等的差异,人们接触人工智能的机会并不均等,实际使用人工智能的能力并不相同,这就造成了“数字鸿沟”现象。“数字鸿沟”与既有的城乡差别、工农差别、脑体差别等叠加在一起,进一步扩大了贫富差距,影响了社会发展的公平性。其次,人工智能的发展可能引发结构性失业大潮。由于智能机器相较于人类工人有着稳定、高效等优势,越来越多的人类工人正在被智能机器所取代,成为赫拉利(YuvalNoahHarari)在《未来简史》中所谓的“无用阶级”。麦肯锡全球研究所的研究数据显示,到2030年,全球将有8亿人因工作流程的智能化、自动化而失去工作。虽然人工智能的发展也会带来新的工作岗位,但是由于“数字鸿沟”的存在,不少人并不能找到新的工作,结构性失业大潮可能汹涌而至。这将成为激化社会矛盾、破坏社会稳定、挑战社会公平正义的又一重大潜在风险。
应对防范策略
技术伦理风险与社会伦理挑战的图景展示表明,人工智能“安全、可靠、可控”的良性发展依然任重道远。对于人工智能风险、挑战的应对防范,事关未来社会的发展方向与人类整体的前途命运,需要我们运用哲学的反思、批判,作出审慎恰当的抉择。
确立人工智能发展的基本价值原则。面对风险、挑战,我们应当避免马尔库塞(HerbertMarcuse)所说的“技术拜物教”倾向,要将伦理、道德等价值要素纳入到人工智能发展的内在考量之中,尽快构建起具有广泛共识的人工智能伦理体系。应确立如下基本价值原则,作为建构人工智能伦理体系的“阿基米德支点”。一是人本原则。人工智能始终是“属人”的造物,是为增进人类的福祉和利益而被创造出来的。无论人工智能有多么接近“图灵奇点”,也不应改变其属人性。人本原则是人工智能研发、应用的最高价值原则。二是公正原则。人工智能的发展要以绝大多数人的根本利益为归趋,不能片面地遵循“资本的逻辑”与“技术的逻辑”,坐视“数字鸿沟”的扩大,而应当让每一个人都拥有平等接触、使用人工智能的机会,从而使绝大多数人都能从人工智能的发展与应用中受益。三是责任原则。明晰道德责任,对于防范和治理人工智能伦理风险具有重要意义。要加强人工智能设计、研发、应用和维护等各个环节的责任伦理建设,尤其要注意设计者、开发者的道义责任感培养,明确各方主体的权利、义务和责任,建立健全完备、有效的人工智能事故追究问责机制。
建立人工智能发展的具体伦理规范。在确立人工智能伦理基本原则的同时,还需要制定人工智能产品设计者、开发者及使用者的具体伦理规范与行为守则,从源头到下游进行规范与引导。针对人工智能的重点领域,要研究具体细化的伦理准则,形成具有可操作性的规范和建议。应当加强教育宣传,推动人工智能伦理规范共识的形成。进一步,可以将取得广泛共识的伦理规范嵌入于算法之中,避免人工智能运行过程中的“算法歧视”与“算法欺诈”问题。此外,要充分发挥伦理审查委员会及其相关组织的作用,持续修订完善《新一代人工智能伦理规范》,定期针对新业态、新应用评估伦理风险,促进人工智能伦理规范的与时俱进。
健全人工智能发展的制度保障体系。在社会层面,应加大对“数字弱势群体”的政策帮扶,如税收减免、财政补贴等,确保人工智能发展的共同富裕方向。面对可能到来的结构性失业问题,可以为劳动者提供持续的终身教育和职业培训。在法律层面,应积极推动《个人信息保护法》《数据安全法》的有效实施,建立对人工智能技术滥用与欺诈的处罚细则,逐步加快《人工智能法》的立法进程。在行业层面,应加强人工智能行业自律体系建设。建立并充分发挥伦理委员会的审议、监督作用,加强国际合作,推动人工智能行业发展朝着“安全、可靠、可控”的方向健康发展。
(作者单位:南京大学哲学系)