博舍

人民日报势所必然:兼顾人工智能应用和隐私保护 人工智能侵犯隐私权怎么办

人民日报势所必然:兼顾人工智能应用和隐私保护

作为新一轮科技革命和产业变革的重要驱动力量,人工智能正在深刻影响社会生活、改变发展格局。同时,人工智能如同一把“双刃剑”,如果应用不当,就可能带来隐私泄露的伦理风险。如何在人工智能应用中兼顾隐私保护,确保安全、可靠、可控,是一项亟须关注的伦理课题。

人工智能应用存在隐私泄露的伦理风险。人工智能应用需要以海量的个人信息数据作支撑。数据是人工智能的基础,正是由于大数据的使用、算力的提高和算法的突破,人工智能才能快速发展、广泛应用,并呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征。人工智能越是“智能”,就越需要获取、存储、分析更多的个人信息数据。可以说,海量信息数据是人工智能迭代升级不可缺少的“食粮”。获取和处理海量信息数据,不可避免会涉及个人隐私保护这一重要伦理问题。今天,各类数据信息采集无时不有、无处不在,几乎每个人都被置于数字化空间之中,个人隐私极易以数据的形式被存储、复制、传播,如个人身份信息数据、网络行为轨迹数据以及对数据处理分析形成的偏好信息、预测信息等。可以预见,在不远的未来,越来越多的人工智能产品将走进千家万户,在给人们生活带来便利的同时,也会轻易获取更多有关个人隐私的数据信息。借助获取的数据信息,基于日益强大的数据整合、处理能力,人工智能技术可以为用户精准“画像”,而其中就潜藏着不容忽视的隐私泄露风险。如果人工智能应用得不到合理管控,人类将被置于隐私“裸奔”的尴尬境地,从而产生严重的伦理风险。

人工智能应用与隐私保护并非不可兼得。尽管人工智能应用在一定程度上存在隐私泄露的风险,但这并不意味着它与隐私保护之间是绝对对立的关系。一方面,人工智能应用决不能以隐私泄露为代价。隐私权不容侵犯,它既是公民的基本权利,也是社会文明进步的显著标志。有效保护隐私有利于人们维护人格尊严、保持心情舒畅,有利于促进人的全面发展。人工智能技术无论如何发展、发展到什么程度,归根结底都是为了辅助人、服务人,为使用者提供便利,而不能成为肆意损害人格权利、恶意泄露个人隐私的工具。这是人工智能应用必须坚守的底线,否则人工智能技术就会失去价值,也难以走远。另一方面,不能因为存在隐私泄露的伦理风险,就延缓甚至放弃人工智能应用。目前,人工智能应用得到世界主要国家的高度重视,被认为是科技创新的下一个“超级风口”,具有溢出带动性很强的“头雁”效应。在一定程度上讲,谁把握住了人工智能技术,谁就把握住了未来。加快发展新一代人工智能技术,是我国发展必须牢牢抓住的宝贵机遇。我们既要有效防范伦理风险,又要加快人工智能技术发展。事实上,人工智能应用与个人隐私保护之间并不是非此即彼的关系,完全可以通过多种手段从伦理层面对人工智能应用加以正确引导,将隐私泄露的风险降至最低。作为一种新兴技术,人工智能本身并无善恶、对错之分,关键在于使用者能否在符合伦理规范的前提下对其进行正当应用。隐私泄露现象是人工智能应用不当导致的,从深层看则大多是利益驱动的结果。所以,不能将隐私泄露简单归为技术层面的问题,也不能简单归咎于人工智能。

在推进人工智能应用中加强隐私保护。习近平同志强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。在人工智能应用中加强隐私保护,需要加强人工智能应用的风险研判和防范,综合运用技术创新、伦理规范、法律制度等手段方式,防止其“野蛮生长”,确保在符合伦理规范的前提下实现人工智能健康发展。在技术层面,要加快研发和应用隐私保护的安全技术,可将用户隐私保护需求嵌入人工智能系统设计中,让最大限度保护隐私成为系统的默认规则。在伦理层面,要探索和确立保护个人隐私的原则。2019年6月17日,我国新一代人工智能治理专业委员会发布《新一代人工智能治理原则――发展负责任的人工智能》,要求人工智能发展应尊重和保护个人隐私,充分保障个人的知情权和选择权。人工智能从业人员要树立社会主义核心价值观,加强自律,规范技术应用的标准、流程、方法,最大限度尊重和保护个人隐私。在法律层面,应加快制定加强隐私保护的法规制度。当前,我国隐私保护法律体系还不能完全适应人工智能发展需求,应在相关法律法规中进一步强化隐私权保护,并在条件成熟时制定针对人工智能应用中保护公民隐私的法律条文细则,充分保障公民在人工智能应用中的知情权和选择权,严格规范人工智能应用中个人信息的收集、存储、处理、使用等程序,反对窃取、篡改、泄露和其他非法收集利用个人信息的行为。

(作者为南京艺术学院教授、江苏省伦理学会执行会长)

《人民日报》(2019年07月12日09版)

(责编:岳弘彬、仝宗莉)

分享让更多人看到

AI换脸惹争议,用户隐私权不容侵犯

(原标题:AI换脸惹争议,用户隐私权不容侵犯)

未来已来,人工智能不仅是一个技术问题,也是一道治理考题。

▲ZAOApp爆火,但其AI换脸功能被指存在侵权和个人信息安全隐患。网络截图

一款新推出的AI换脸软件火爆社交网络,但同时也引发严重的隐私争议。根据介绍,使用AI技术,用户只需提供一张正面人脸照片上传到该软件,就可以把选定视频中的明星面部替换掉,生成以自己为主角的视频片段。

该软件一夜刷屏,但之后却又引发舆论对其涉嫌侵犯用户隐私权的严重质疑。因为在用户使用前必须签署的授权协议中有规定,用户上传发布内容后,意味着同意授予某些相关方在“全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利”,一些网友和法律人士认为其涉嫌非法收集用户面部信息,进而担心这些被收集的面部信息会被滥用,抑或被黑客盗用。

现在还很难判断软件运营方收集人脸数据和授权是否出于恶意,但网友的担心却是可以理解的。因为就在上个月的第四届全球金融科技峰会上,央行科技司司长李伟刚刚警示了AI人脸识别技术可能带来的新风险,他说,“人脸支付的时候,一刷脸钱就没了,更可怕。银行卡可能还揣在兜里,脸是平常露在外面,识别出来非常容易,现在有的技术在3公里之外识别你的人脸。”

李伟这番话在报端被广泛传播,使消费者意识到随着AI等技术的进步,人脸作为数据不但是有价值的,而且还会带来新的风险。但李伟的本意实际上是在告诫那些掌握前沿技术的公司:有技术也不能滥用,有技术也不能任性。

▲随着技术的进步,“刷脸支付”日渐普及,个人信息安全问题也日益突出。网络截图

但从AI换脸软件所引发的质疑可以看出,并不是所有的公司把这番告诫放在心上。而这背后则存有多重原因:有商业利益上的原因,在数字经济形态下,数据已经成为新的生产要素,数据优势就是竞争优势,同时也是商业优势和经济优势,以逐利为主要目的的公司很难主动割舍这种优势;也有法律没有及时跟进,以及企业普遍缺乏自我商业道德约束的原因。

尤其是后者,如果从改革开放开始计算,中国融入现代商业社会不过四十余年,企业间的商业伦理建设并不完善,游走在法律边缘与灰色地带的企业极多,而主动从用户权益出发者较少,还有很大提升空间。在美国,如何面对人脸数据同样是新生课题,处于模糊地带,但微软却在今年主动选择删除了其最大的公开人脸识别数据库,原因就是担心侵犯公众隐私权、“数据权”。

AI换脸软件所引发的争议表面上是围绕隐私保护,但在本质上却反映了一个全社会甚至全人类必须面对的新课题:人类技术在飞速进步,在不断进入新的领域,它不仅给人类带来更高品质的生活,同时也会引发大量创造性破坏。这对人类现有制度体系、运行机制、法律规则和社会秩序等都造成前所未有的挑战。

▲央行官员此前曾针对人脸信息安全发出警示。网络截图

AI换脸侵犯隐私并不是小问题,它实际上反映出人类在AI时代的一种现状:在大数据和算法之下,所有人都是“裸露”的,个人隐私无处逃遁,普通人对于利用AI作恶也无力抵抗。而且,随着AI能力的提高以及更普遍的应用,还有更多难题必须面对,比如智能机器人是人还是机器?有没有主体资格?人工智能直接造成的损害谁来承担?甚至人工智能失控了怎么办?

这并非危言耸听。未来已来,人工智能不仅是一个技术问题,也是一道治理考题。为此,发展人工智能,治理也需跟上。理想的状态是人工智能技术与立法齐头并进,甚至法律能做到未雨绸缪。但人类社会的常态却是治理往往落后于技术进步。这种情况下,就需要科技企业自发地承担伦理责任,保持敬畏之心,坚持科技向善,维护人类价值,避免技术发展和应用突破人类伦理底线。也只有恪守科技伦理,企业才能在“良性发展”的路上行稳致远。

编辑:何睿校对:杨许丽

新京报:AI换脸惹争议 用户隐私权不容侵犯

原标题:AI换脸惹争议,用户隐私权不容侵犯

未来已来,人工智能不仅是一个技术问题,也是一道治理考题。

▲ZAOApp爆火,但其AI换脸功能被指存在侵权和个人信息安全隐患。网络截图

一款新推出的AI换脸软件火爆社交网络,但同时也引发严重的隐私争议。根据介绍,使用AI技术,用户只需提供一张正面人脸照片上传到该软件,就可以把选定视频中的明星面部替换掉,生成以自己为主角的视频片段。

该软件一夜刷屏,但之后却又引发舆论对其涉嫌侵犯用户隐私权的严重质疑。因为在用户使用前必须签署的授权协议中有规定,用户上传发布内容后,意味着同意授予某些相关方在“全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利”,一些网友和法律人士认为其涉嫌非法收集用户面部信息,进而担心这些被收集的面部信息会被滥用,抑或被黑客盗用。

现在还很难判断软件运营方收集人脸数据和授权是否出于恶意,但网友的担心却是可以理解的。因为就在上个月的第四届全球金融科技峰会上,央行科技司司长李伟刚刚警示了AI人脸识别技术可能带来的新风险,他说,“人脸支付的时候,一刷脸钱就没了,更可怕。银行卡可能还揣在兜里,脸是平常露在外面,识别出来非常容易,现在有的技术在3公里之外识别你的人脸。”

李伟这番话在报端被广泛传播,使消费者意识到随着AI等技术的进步,人脸作为数据不但是有价值的,而且还会带来新的风险。但李伟的本意实际上是在告诫那些掌握前沿技术的公司:有技术也不能滥用,有技术也不能任性。

▲随着技术的进步,“刷脸支付”日渐普及,个人信息安全问题也日益突出。网络截图

但从AI换脸软件所引发的质疑可以看出,并不是所有的公司把这番告诫放在心上。而这背后则存有多重原因:有商业利益上的原因,在数字经济形态下,数据已经成为新的生产要素,数据优势就是竞争优势,同时也是商业优势和经济优势,以逐利为主要目的的公司很难主动割舍这种优势;也有法律没有及时跟进,以及企业普遍缺乏自我商业道德约束的原因。

尤其是后者,如果从改革开放开始计算,中国融入现代商业社会不过四十余年,企业间的商业伦理建设并不完善,游走在法律边缘与灰色地带的企业极多,而主动从用户权益出发者较少,还有很大提升空间。在美国,如何面对人脸数据同样是新生课题,处于模糊地带,但微软却在今年主动选择删除了其最大的公开人脸识别数据库,原因就是担心侵犯公众隐私权、“数据权”。

AI换脸软件所引发的争议表面上是围绕隐私保护,但在本质上却反映了一个全社会甚至全人类必须面对的新课题:人类技术在飞速进步,在不断进入新的领域,它不仅给人类带来更高品质的生活,同时也会引发大量创造性破坏。这对人类现有制度体系、运行机制、法律规则和社会秩序等都造成前所未有的挑战。

▲央行官员此前曾针对人脸信息安全发出警示。网络截图

AI换脸侵犯隐私并不是小问题,它实际上反映出人类在AI时代的一种现状:在大数据和算法之下,所有人都是“裸露”的,个人隐私无处逃遁,普通人对于利用AI作恶也无力抵抗。而且,随着AI能力的提高以及更普遍的应用,还有更多难题必须面对,比如智能机器人是人还是机器?有没有主体资格?人工智能直接造成的损害谁来承担?甚至人工智能失控了怎么办?

这并非危言耸听。未来已来,人工智能不仅是一个技术问题,也是一道治理考题。为此,发展人工智能,治理也需跟上。理想的状态是人工智能技术与立法齐头并进,甚至法律能做到未雨绸缪。但人类社会的常态却是治理往往落后于技术进步。这种情况下,就需要科技企业自发地承担伦理责任,保持敬畏之心,坚持科技向善,维护人类价值,避免技术发展和应用突破人类伦理底线。也只有恪守科技伦理,企业才能在“良性发展”的路上行稳致远。

责任编辑:刘光博

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇