人脸识别技术推广受信息泄露困扰
在“风口”更在“刀尖”
人脸识别技术推广受信息泄露困扰
在“风口”,更在“刀尖”——最近一年,或许没有哪一项新技术比人脸识别更配得上“毁誉参半”这个词。
随着央视2021年“3·15”晚会曝光了多家门店利用摄像头获取人脸信息的案例,人脸识别技术再次被推上风口浪尖。是“利器”,还是“凶器”?《经济参考报》记者调查发现,作为前沿科技,人脸识别技术近年来被广泛应用于城市安防、支付转账等领域,呈现加速落地趋势。然而去年以来,国内外抵制人脸识别的现象愈发突出,由于信息泄露风险大、安全漏洞难消除等问题,人脸识别的落地应用正面临重重阻力。
人脸识别技术遭遇“全球抵制”
今年初,福州市仓山区某小区发出公告称,小区已全面启用人脸识别门禁,原有门禁卡将失效,业主需在一个名为“亲邻科技”的小程序上,录入个人人脸、身份证、姓名等信息,采用人脸识别后,业主可以实现“无接触”进出小区。
然而部分居民却对此提出异议,“最大担心是个人隐私泄露,人脸生物信息同时捆绑了身份证、家庭住址等,一旦商业公司保管不善,后果不堪设想。”这并非个例,据了解,今年以来,北京、江苏等地均出现业主联合抵制小区人脸识别门禁的现象。
记者梳理发现,近年来,人脸识别被广泛应用于小区门禁、支付转账、实名登记、解锁解密、公司考勤等场景,部分地区甚至连垃圾桶和厕纸供应机都需要使用人脸验证。企查查数据显示,目前我国共有超过1万家人脸识别相关企业,2019年新增企业2110家,同比增长36%。权威报告显示,中国是人脸识别设备最大的消费区域,预计2023年占全球比例将达到44.59%。
作为人工智能发展到一定阶段的产物,人脸识别不可谓“无用”。例如在安防领域,新技术可有效防范犯罪分子的身份欺诈,同时帮助寻找失踪儿童等;而在互联网领域,刷脸支付等为优化用户体验提供新的想象空间。
然而,一面攻城略地的同时,人脸识别也遭遇前所未有的阻力。去年,济南一名购房者为避免被人脸识别系统判定为“熟客”导致多花钱,甚至无奈戴上头盔看房——为防止人脸信息泄露,多地均已出现类似“墨镜遮面”“口罩挡脸”的场景。
针对人脸识别技术引发的不满,天津市于今年1月1日起规定,市场信用信息提供单位不得采集自然人的信仰、血型、疾病和病史、生物识别信息以及法律、行政法规规定禁止采集的其他个人信息。浙江、江苏、天津、北京等地均出台政策,限制人脸识别在物业管理、售楼处等领域的应用。
而在海外,抵制的声浪同样不小。美国已有多个州市颁布禁令,禁止执法部门、政府机构使用人脸识别和监控技术。去年初,欧盟还草拟了一项计划,未来3到5年内禁止在公共场所使用人脸识别技术。
新技术发展尚存三大隐忧
处在“风口”中的人脸识别技术,为何被频频推上“浪尖”?记者发现,与指纹识别等技术相比,人脸识别可实现无接触访问,在当前疫情防控背景下,更加安全高效,然而新技术当前遭遇的落地困境,一定程度上反映了技术发展仍存缺陷,难以打消公众疑虑。
滥用趋势明显,信息泄密风险大。近年来,人脸成为不少App和小程序过度索取的生物信息。以网游陪玩为例,用户想注册接单,就必须在App中录入人脸,而在一些高校和租房类App上,人脸信息已经成为注册的第一道门槛。
在线下,人脸识别被滥用的现象更为普遍。2019年,南都个人信息保护研究中心曾在北京多个商场调查发现,不少商场都装有人脸识别系统,并对顾客进行刷脸,跟踪记录消费轨迹,但没一家商场告知顾客并征得同意。
“许多企业并没有有效的安防措施,随意采集人脸信息很难保证数据安全。”中国电信福建公司高级工程师曹曦说,目前国内在人脸识别核心算法上拥有自主知识产权的企业极少,市场上人脸识别产品质量良莠不齐、安全防护技术不统一,因系统安全漏洞造成个人影像数据泄露的事件频有发生。
记者发现,一些小型商业公司甚至会将人脸信息以0.5元一份的价格主动出售。今年2月,公安部发布数据显示,去年全国公安机关共破获窃取、贩卖人脸数据案件22起,抓获犯罪嫌疑人60名。
“与此同时,不同于密码等信息,人脸属于个人生物信息,无法更改,一旦泄露将对个人的人身与财产安全造成极大的危害。”他说。
技术发展不成熟,安全漏洞难消除。记者发现,近年来,“攻破人脸识别技术”的案例屡有出现。去年,国内警方破获的两起盗用公民个人信息案中,犯罪嫌疑人均用“AI换脸技术”非法获取公民照片进行一定预处理,再通过“照片活化”软件生成动态视频,成功骗过人脸核验机制,从而实施犯罪。
“人脸识别技术发展尚未成熟,仍不足以防止伪造数据进行认证。不法分子容易利用人脸识别技术的某些安全漏洞,对身份识别系统发动攻击非法登入账户。”浙江大学网络空间安全学院院长任奎说。
技术专家分析,一方面,基于模板匹配、几何特征等传统算法的人脸识别技术,由于其特征提取方法由人工设计,导致其在识别上存在重大缺陷,另一方面,基于深度学习的人脸识别技术尚处于初级阶段,在环境复杂多变的现实应用中同样存在较大误判风险。
值得一提的是,目前金融、安防以及考勤门禁是人脸识别应用最广泛的领域,一旦发生误判系统被攻破,后果往往不堪设想。
新技术过早沦为“商业杀熟”工具。据报道,去年以来,已有多家售楼处承认安装了人脸识别系统,主要用于识别购房的消费者是否是首次看房、是由第三方中介还是售楼处销售首次完成接待等。根据类型的不同,房企提供不同的折扣力度,差价可达到几万元到几十万元不等——换而言之,消费者在不知情的情况下,已经受到了“价格歧视”。
“大数据杀熟”早已不是秘密。新用户粘性低,对价格敏感,相比之下,老用户认可度高,为了留住新客,互联网企业对老用户“开刀”的套路屡见不鲜。然而人脸识别的应用,不仅让信息获取更加高效,也将“杀熟”场景从线上延伸到线下,进一步损害消费者权益。
完善防伪技术加强人脸信息采集主体监管
毋庸置疑,随着技术变革和应用需求不断提升,人脸识别的应用将有广阔空间,但其所遭遇的困境,也一定程度反映新技术尚有很长的路要走。
一是以技术突破为驱动,提升防伪技术。曹曦认为,当前人脸识别技术尚存安全漏洞,应从硬件、软件两方面出发,进行技术攻关。硬件方面重点研发高精度光学镜头、半导体成像器件等产品,为人脸识别技术落地提供坚实的硬件支撑。软件方面,重点研究深度学习网络框架等,提高防伪技术。
二是加强对人脸信息采集主体的监管。“对于一些高信任的服务提供商,在技术到达一定程度之后,是完全可以应用人脸识别技术的,例如政府单位;但是对于一些低信任度的服务提供商,应当要求他们在提供人脸识别服务的同时,应当提供其他的认证方式,例如密码认证。”任奎建议。
两会期间,全国政协委员马进接受采访时曾建议,应明确人脸采集使用场景并颁发采集许可证。相关部门应出台人脸采集使用场景的限制性规定,并根据该规定就特定场所人脸采集的必要性、合理性以及场所所属企业的技术能力与管理能力进行评估,对符合条件的企业与场所颁发许可证。取得许可证后,企业方可在规定的场景下进行人脸采集。
三是完善人脸识别应用相关法律法规。福建重宇合众律师事务所首席合伙人涂崇禹律师建议,应在现有一般性法律规定的基础上尽快建立健全和完善细化自然人生物识别信息采集、使用、保管及相关设备设计、生产、销售制度规范,探索建立规范采集流程、保障被采集对象知情权和消费者合理选择权的市场准入与监督机制,适当限制人脸识别技术具体应用场景、采集深度与数据合理保存期,推进人脸数据相关立法,逐步确立个人信息(共同)控制权、删除权等信息基本权利。(记者吴剑锋)
【纠错】【责任编辑:尹世杰】人工智能的安全、伦理和隐私问题
人工智能的安全、伦理和隐私问题一、人工智能的安全问题1.人工智能网络安全问题众所周知,很多行业在应用入工智能这项技术以及相关的知识的时候都是依附于计算机网络来进行的,而计算机网络这个行业是错综复杂的,很多计算机网络的安全问题也是目前我国面临的很严重的问题之一,相应的人工智能的网络安全问题也是还存在问题的,比如机器人在为人类服务的过程中,操作系统可能遭到黑客的控制,机器人的管理权限被黑客拿到,使机器人任由黑客摆布;亦或突然源代码遭受到攻击,人工智能的信息基本通过网络进行传输,在此过程中,信息有可能遇到黑客的篡改和控制,这就会导致机器人产生违背主人命令的行为,会有给主人造成安全问题的可能性。不仅如此,在人工智能的发展过程中,大量的人工智能训练师需要对现有的人类大数据进行分析和统计,如何防止信息的泄漏和保护个人信息的隐私也是人工智能领域需要关注的问题。
2.人工智能应用范围限定的问题对一些发展不成熟、会有引起安全问题的可能性的领域以及技术的应用范围给出一定的限定,这是保障人类与社会和谐发展的一种手段,也是不能或缺的一个步骤。目前,人工智能的发展也是如此的,这也是人工智能目前安全问题所面临的问题之一。目前各行各业都有人工智能的应用,比如无人驾驶、各类机器人等,很多行业都会看到人工智能的存在,小到购物APP中的客服机器人,大到国际比赛中机器人的应用,在许多危险的领域,如核电、爆破等危及人类生命安全的场景,发挥了至关重要的作用。这些领域的应用如果应用的成功那没什么问题,一旦出现问题就会产生很严重的安全性问题。对于人工智能应用的范围,目前并没有给出明确的界定,也没有明确的法律依据,这就需要相关组织和机构,尽快对人工智能的适用场景进行梳理,加快人工智能标准和法律的建设步伐,防止一些不法分子,利用法律漏洞将人工智能运用到非法的范围中,造成全人类不可估量的损失。
3.人工智能本身的安全标准人工智能的产生以及应用的本身目的并不是为了赶超人类或者达到人类的智力水平,它本身存在的价值是服务于人类,可以成为人类生活的更好的一种工具,人类需要对其有着一定的控制的能力。但是近几年来,很多人工智能的存在是为了与人类的智力水平以及人类为标准,忽略了部分人类伦理的问题,甚至涉及到部分人权问题,这就偏离了人工智能本身存在的目的,而这种的偏离会产生一定的安全问题,从而影响人工智能的发展。所以人们应对机器人的道德和行为判断力进行判定,确保其在人类的道德伦理范围中,避免人工智能产物做出危害人类安全的行为。人类必须对人工智能的行为进行严格的监管,也要大力发展人工智能自身的伦理监督机制,使其为人类所用。
二、人工智能的伦理问题1.人工智能算法的正义问题依托于深度学习、算法等技术,从个性化推荐到信用评估、雇佣评估、企业管理再到自动驾驶、犯罪评估、治安巡逻,越来越多的决策工作正在被人工智能所取代,越来越多的人类决策主要依托于人工智能的决策。由此产生的一个主要问题是公平正义如何保障?人工智能的正义问题可以解构为两个方面:第一,如何确保算法决策不会出现歧视、不公正等问题。这主要涉及算法模型和所使用的数据。第二,当个人被牵扯到此类决策中,如何向其提供申诉机制并向算法和人工智能问责,从而实现对个人的救济,这涉及透明性、可责性等问题。在人工智能的大背景下,算法歧视已经是一个不容忽视的问题,正是由于自动化决策系统日益被广泛应用在诸如教育、就业、信用、贷款、保险、广告、医疗、治安、刑事司法程序等诸多领域。从语音助手的种族歧视、性别歧视问题,到美国犯罪评估软件对黑人的歧视,人工智能系统决策的不公正性问题已经蔓延到了很多领域,而且由于其“黑箱”性质、不透明性等问题,难以对当事人进行有效救济。
2.人工智能的透明性和可解释性问题人工智能系统进入人类社会,必然需要遵守人类社会的法律、道德等规范和价值,做出合法、合道德的行为。或者说,被设计、被研发出来的人工智能系统需要成为道德机器。在实践层面,人工智能系统做出的行为需要和人类社会的各种规范和价值保持一致,即价值一致性或者说价值相符性。由于人工智能系统是研发人员的主观设计,这一问题最终归结到人工智能设计和研发中的伦理问题,即一方面需要以一种有效的技术上可行的方式将各种规范和价值代码化,植入人工智能系统,使系统在运行时能够做出合伦理的行为;另一方A面需要避免研发人员在人工智能系统研发过程中,将其主观的偏见、好恶、歧视等带入人工智能系统。算法歧视与算法本身的构建和其基于的数据样本数量及样本性质密不可分。算法歧视问题其实取决于底层数据的积累,数据积累越多算法计算就越准确,对某一人群的算法描述就越精准。同时,随着算法复杂性的增加和机器学习的普及导致算法黑箱问题越来越突出。美国计算机协会公共政策委员会在《算法透明性和可问责性声明》中提出七项基本原则,第一项基本原则即为解释,其含义是鼓励使用算法决策系统对算法过程和特定决策提供解释,并认为促进算法的可解释性和透明性在公共政策中尤为重要。未来人工智能系统将会更加紧密地融入社会生活的方方面面,如何避免诸如性别歧视、种族歧视、弱势群体歧视等问题,确保人工智能合伦理行为的实现,这需要在当前注重数学和技术等基本算法研究之外,更多地思考伦理算法的现实必要性和可行性。
三、人工智能的隐私问题1.个人隐私的过度收集互联网的发展以及人工智能技术的应用在很大程度上降低了大数据在分析应用方面的成本,摄像头已经遍布我们生活的大部分角落,走在街上我们的一行一动,都随时随地在电子监控的掌控之中;计算机被广泛利用来准确地记录人们的浏览记录:移动通信设备随时跟踪人们的通话记录,聊天记录等。在人工智能时代,在收集个人信息面前,人们面对无处可逃的命运。在人工智能的应用中,监控发生了根本性的变化,融合了各种类型的监控手段,监控的力度也变的越来越强大。以CCTV视频监控为例,它不再是单一的视频监控或图像记录和存储,其与智能识别和动态识别相结合,大量的视频监控信息构成了大数据,在此基础上通过其他技术的智能分析就能进行身份的识别,或是与个人的消费、信用等的情况进行关联,构成一个人完整的数字化的人格。人工智能应用中的数据米源于许多方面,既包括政府部门也有工商业企业所收集的个人数据资料,还包含着用户个人在智能应用软件中输入和提供的数据资料,比如在可穿戴设备中产生的大量个人数据资料,以及智能手机使用所产生的大量数据资料都可能成为人工智能应用中被监控的部分,它在不改变原有形态的前提下对个人的信息进行关联,将碎片化的数据进行整合,构成对用户自身完整的行为勾勒和心理描绘,用户很难在此情况下保护自己的个人隐私。视频监控还可能借助无线网络通信,使隐私遭遇同步直播成为现实,一些非法的同步录像行为,具有侵犯隐私利益的可能性。此类人工智能技术的广泛应用,让我们隐私无处安放,不仅超出了公众所能容忍的限度,也是对整个社会隐私保护发起的挑战。
2.个人隐私的非法泄露在人工智能不断发展,应用领域不断拓展,人工智能技术在各行各业中都发挥着越来越重要的作用,渗透在各大领域之中,带动着产业的发展,同时我们也必须承认该项技术的发展和应用无法避免的隐患。很多情况下,我们在不自知或不能自知的状态下向智能应用的运营商或者服务提供商提供我们的数据信息,每个人的数据都可能被标记,被犯罪分子窃取并转卖。以“Facebook”数据泄露为例,2018年3月17日,美国《纽约时报》曝光Facebook造成5000多万的用户隐私信息数据被名为“剑桥分析(CambridgeAnalytica)”的一家公司泄露,这些泄露的数据中包含用户的手机号码和姓名、身份信息、教育背景、征信情况等,被用来定向投放广告。“而在此次事件中,一方面是由于使用智能应用的普通用户对自身隐私数据缺乏危机意识和安全保护的措施,另一方面Facebook应用中规定只需要用户的单独授权就能收集到关联用户的相关信息,其将隐私设置为默认公开的选项给第三方抓取数据提供了可乘之机。同样Facebook之所以受到谴责的一个重要原因就是未能保护好用户的隐私数据,欠缺对第三方获取数据目的的必要性审查,对第三方有效使用数据缺乏必要的监控,使个人数据被利益方所滥用,欠缺网络安全事件的信息公开和紧急处理的经验,不仅会侵害网络用户个人的合法权利,也会对社会的发展进步产生消极的影响。Facebook在对数据使用和流转中,并未对个用户数据提起重视、履行责任。在向第三方提供数据共享的便利同时并没有充分考虑到用户隐私保护的重要性和必要性,以及没有采取必要的预防策略,极易对平台数据造成滥用的风险。不难看出,从分析用户的隐私数据来定向投放广告追求商业价值和经济利益,到一再发生的泄密事件使得用户隐私数据信息泄露变得更加“有利可图”。一方面,人工智能应用由于在技术上占有优势,在获得、利用、窃取用户的隐私数据时有技术和数据库的支撑,可以轻松实现自动化、大批量的信息传输,并在后台将这些数据信息进行相应的整合和分析;另一方面,后台窃取隐私数据时,我们普通的用户根本无法感知到,在签订隐私条款时很难对冗长的条文进行仔细的阅读,往往难以发现智能应用中隐藏着的深层动机。在此次数据泄露事件中,该平台本身并没有将用户的数据直接泄露出去,而是第三方机构滥用了这些数据,这种平台授权、第三方滥用数据的行为更加快了隐私泄露的进程。
3.个人隐私的非法交易在人工智能时代,个人信息交易已形成完整的产业链,在这个空间中,一个人的重要隐私信息几乎全部暴露在外,包括身份证号,家庭住址,车牌号,手机号码和住宿记录,所有这些的信息都成为待出售的对象。在人工智能技术广泛应用的同时,人们常用的智能手机、电脑以及社交媒体平台都在无时无刻的记录着我们的生活轨迹,各种垃圾广告和邮件可以实现精准的推送,推销电话、诈骗短信等成为经常光顾的对象,尽管我们没有购买理财产品,没有购房需求,没有保险服务等,也没有向这些公司提供过自己的隐私数据信息,但无法避免而且能经常接到理财公司、房地产商、保险公司等的推销电话。探究这些公司对用户偏好和兴趣精准了解的缘由,那便是人工智能应用中个人隐私的非法交易行为,我们保留在网站或企业中的个人信息,除了由该企业本身使用外,这些企业还经常与其他的个人和企业共同分享、非法交易,而忽略了公民的个人隐私安全。目前,人们的个人数据,如电话号码,银行卡信息,购车记录,收入状况,网站注册信息等,已成为私人非法交易的严重灾区,这些个人信息被不法分子通过非法交易获得并通过循环使用来获利。现阶段,这类专门进行个人信息买卖的公司在国内不计其数,大大小小的分布在各种隐蔽的角落,甚至有一些正规的大型企业也免不了买卖个人信息的行为。当今社会,公民的很多日常行为都不得不提供自己的私人信息,如应聘工作、参加考试、购买保险、购买车票、寻医看病等等。这些信息提供给企业商家后,他们就有义务对用户的信息进行保密,而目前对用户信息保密的相关法律规定还比较欠缺,因此往往寄希望于企业商家通过自律行为来保护用户的隐私。但是目前的现状是大多数企业的自身素质不高,单纯将对隐私保护寄希望于商家企业的自律是不现实的,这些数据往往会被企业商家非法买卖,甚至将这些非法买卖的个人信息用于诈骗、传销。
人工智能与数据隐私保护
随着大数据和云计算技术的深入应用,人工智能时代的机器学习和深度学习更需日益增长的数据,因此数据安全与隐私保护变得更加迫切。
随着人工智能技术的发展,公民的隐私数据被记录越来越多,大数据厂商对一个人了解越深,越容易掌握更多个人信息数据。各行各业对数据的重视程度很高,都利用数据进行相关分析和挖掘,做出最佳决策,但也出现很多问题:一是个人用户的数据安全和隐私保护意识不强,随意注册平台账号;二是企业对数据的安全和用户隐私保护不重视,企业收集的信息随意被其他合作单位获取;三是数据安全与公民隐私信息保护法律不健全;四是监管跟不上技术进步,导致技术失控带来数据安全和隐私保护隐患。
在各行各业,大数据应用规模不断增大,安全隐私保护难度也越发增加,用户个人行为数据在收集和统计过程中存在隐私泄露的问题。除了隐私保护外,工作人员的状态及行为都可能对数据带来不安全影响。
大数据的共享带来了不容忽视的数据隐私安全问题。在人工智能时代,隐私数据由于经济利益或其他原因被扩散后,使得各种侵权行为极易发生。泄露的隐私数据在数据科学技术的分析、提炼、挖掘下将隐私数据用于精准广告营销。因此在大数据使用量上必须进行一定的控制,对大数据进行权限管理、对角色进行行为限定。
用户信息被贩卖、隐私被敲诈勒索、银行卡被盗刷等问题,表明隐私保护不是一个单独的问题,而是需要国家政策层面、行业企业自律、用户个人意识等多个层面来保护:一是国家出台法律法规是维护市场和公民合法权益的根本保障;二是企业加强自律,肩负社会责任和坚守法律底线,尽量要求所有APP等程序采集用户数据坚持“最少采集”原则,合理采集和利用;三是增强用户个人的隐私保护意识;四是提高隐私保护技术,着眼开发研究新的安全技术,从技术上保护隐私,认真分析大数据环境中的漏洞,有针对性地进行隐私保护技术研发,通过对数据溯源、数据水印、身份认证、数据匿名发布等研究,开发出适合人工智能时代高效、安全、可靠的隐私保护技术。
(《科普时报》 3.6)
国研网
Copyright©1998-2023DRCNet.AllRightsReserved
版权所有国研网
增值电信业务经营许可证京ICP证030059号
增值电信业务经营许可证京B2-20070136
出版物经营许可证新出发京批字第直210398号
京公网安备11010102002958号