2023年度全球十大人工智能治理事件出炉,你关注过哪些
新一代人工智能技术在全球蓬勃兴起,为数字经济发展注入新动能,深刻改变着社会生产与生活方式。与此同时,如何在技术变革浪潮中主动治理、有效治理,发展负责任的人工智能,成为全球共同的时代议题。2021年1月18日,旷视人工智能治理研究院携手权威研究机构人民智库联合发布《2020年度全球十大人工智能治理事件》,回顾并分析了过去一年中最具理论价值、实践价值、新闻价值、以及研究价值的人工智能大事,希望以此推动多方对话、多元治理。
此次评选,经综合各方面资料、数据、人民论坛10万+网友票选、及知名专家们的意见,最终得出2020年度全球十大人工智能治理事件。这些事件既反映了人工智能治理领域的实践探索和前沿趋势,也反映出公众对引导人工智能向善,通过新一代信息技术的良性发展增进人类福祉、改善民生的热切期待。公众可登录人民论坛网《2020年度全球十大人工智能治理事件》的专题页面,阅读十大事件详情、了解专家观点。
四大维度看十大事件,热点事件引发冷静思考
此次评选,主要依据人工智能与公众福祉、人工智能与公平正义、人工智能政府(企业)治理、人工智能系统安全性与数据隐私安全等四个主要维度进行筛选。每个事件的得票率也真实的反映出公众对这类问题的关切程度。
[[443613]]
技术的发展是为人类社会带来幸福感的提升还是更多担忧,是人工智能与公众福祉维度需要衡量的标准。一方面,人工智能造福弱势群体,真正为老人和青少年送去关爱,比如“人工智能技术预警独居老人水表以及校园暴力行为(排名第5,得票率49.69%)”;另一方面,人工智能技术在军事等领域的应用也扩大了人们对技术的忧虑(排名第10,得票率48.22%)。
在人工智能与公平正义维度中,我们看到2020年的典型事件为“人工智能算法下一些外卖骑手挑战交通规则,‘助手’可能变‘杀手’(排名第1,得票率51.2%)”。这一事件引发了人们对于人与系统关系、工作效率与人文关怀的深度思考。同时,我们也看到在人机共处的时代,对公平和正义的评判正在面临越来越复杂的局面,比如即使是技术犯罪仍要惩罚人(排名第9,得票率48.75%),但即使是人生成了算法,人工智能生成的作品也将判机器拥有著作权(排名第3,得票率49.78%)。
在人工智能政府(企业)治理维度中,可以看到全球范围内各国都试图通过法律法规的完善来引导人工智能的发展方向,并探求技术进步与社会稳定的平衡方式。比如“欧美、韩国相继出台人工智能治理新规,严格限制、甚至禁用相关人工智能技术在某些场景的发展和应用(排名第4,得票率49.73%)”。与此同时,国内外的头部企业也都依据自身对科技伦理的理解,做出了企业的尝试。比如“美国科技巨头依据自身道德判断,加强企业自律及对人工智能技术的监管(排名第6,得票率:49.55%)”。
人工智能系统安全性与数据隐私安全维度中,技术的突破性进展经常令人兴奋,但应用技术过程中产生的系统性风险却往往出人意料。如“人工智能可以翻译大脑想法将大脑信号转化为文本数据,‘读懂意识’让隐私无处遁藏(排名第2,得票率:50.09%)”、“人工智能技术突破现有边界,具备‘自主意识’,可实现独立研发、自我修复等功能(排名第8,得票率:48.75%)”、“自动驾驶服务驶上快车道,“无人车”行驶背后的权责归属引关注(排名第7,得票率:48.89%)”等,技术的边界与人类的利益,仍处在长期博弈的过程中。
边发展边治理中,企业应兼备“望远镜”与“显微镜”
面对人工智能技术的飞速发展,专家指出,与互联网时代的“先发展,后治理”模式不同,人工智能具有更大的能量去改变我们生活的方方面面,必须采用“边发展,边治理”的新模式。这一过程中,旷视作为企业人工智能治理的务实推动者,认为科技企业应该担任更加积极的角色。
[[443614]]
旷视首席发展官、旷视人工智能治理研究院院长徐云程表示,在技术发展过程中,企业经常会遇到三个挑战:一是大众对于人工智能的技术和产品效用存在严重的信息不对称,很容易产生负面认知。二是人工智能伦理问题向企业可执行行动转换过程,需要典型的交叉学科能力,这对企业来说是巨大考验。三是目前许多新产生的问题还没有得到人们的普遍重视,更缺少专门的深度研究,造成了问题远远多于方法的局面。这也是旷视成立人工智能治理研究院的初衷,希望产学界联手聚焦这些难点、痛点,用深度调研和实证研究的方式,寻找各方认可的共识。
因此,徐云程认为,在企业内部落实人工智能治理需要一手拿着“望远镜”,一手拿着“显微镜”。“望远镜”帮助企业看到技术演进的过去与未来,在思考问题时能够捕捉中外文化与思维方式的差异,在解决问题时能够广泛运用各个学科的综合知识。而“显微镜”是指,有些问题在当前社会发展中更具紧迫性,需要企业用“显微镜”将这些紧迫的问题加以放大,仔细研究,厘清问题中盘根错节的原由,快速形成解决的机制或共识,为人工智能技术的发展方向和社会矛盾的解决之道积累宝贵的经验财富。
这是旷视第二次盘点前一年的全球十大人工智能治理事件。在评选过程中,旷视对这些事件背后体现的治理趋势和折射出的社会问题进行综合分析,不仅将为旷视人工智能治理研究院新一年的研究课题找准方向,也卷入专家在内的社会各界人士,进而呼吁更多人参与到人工智能治理的行动中来,用可持续发展的技术共建可持续发展的社会。
人工智能治理,与身处人工智能时代的我们每个人息息相关。欢迎大家登陆人民论坛网《2020年度全球十大人工智能治理事件》的专题页面留言,分享你对十大事件的看法,为人工智能发展建言献策!
全球十大AI治理事件回溯 旷视正式成立AI治理研究院
在过去的近十年,得益于算法、算力及通讯技术的提升,人工智能技术迎来了前所未有的发展机遇期。从理论到实践、从实验室走向产业化,人工智能技术在全球范围内展开了一场集“产学研”为一体的比拼较量。
毋庸置疑的是,人工智能技术帮助社会生产效率显著提高,同时也让人类生活变得更加舒适便捷。但正如霍金所担心的那样,人工智能的出现,对于人类社会伦理道德、隐私安全等方方面面都提出了挑战。
尤其是在最近几年,伴随着人工智能技术的大规模产业化应用,一些并无先例可循的人与人工智能矛盾逐渐浮出水面。担忧和质疑之声愈演愈烈,尽快探讨出一种可预期的、可被约束的、行为向善的人工智能治理机制,成为了近人工智能时代的首要命题。
旷视作为推进AI产业化的先锋,为了保证这项新技术的可持续发展,需要对这些问题“理性的关注,深度的研究,建设性的讨论,坚持不懈的行动”。基于此,旷视正式成立人工智能治理研究院,旨在就全球人工智能治理的共性问题与社会各界广泛沟通、与专家学者们展开研究,共同推动人工智能的健康发展。
此次回顾全球较有代表性的十大AI治理事件,就是希望通过这些事件来探讨其背后折射的深层次问题,同各方一道探寻问题的解决之道。
十大事件
1.欧盟专利局拒绝AI发明的专利申请
2020年1月,在英国萨里大学组织的一个多学科研究项目中,研究人员使用了一种名为DABUS的AI。在研究过程中,DABUS开创性提出了两个独特而有用的想法:第一个是固定饮料的新型装置;第二个是帮助搜救小组找到目标的信号设备。
而在研究人员替DABUS申报专利成果时,却遭到了欧盟专利局的驳回,“它们不符合欧盟专利同盟(EPC)的要求,即专利申请中指定的发明人必须是人,而不是机器。”
萨里大学的研究人员Ryan•Abbott强烈反对这一决定,“因没有人类发明者而拒绝将所有权授予发明者,这不仅是一种过时的观念,这还将成为阻碍‘人类取得伟大成果的新时代’的重大障碍。”
Abbott同时表示,将基于AI的发明的专利所有权授予AI本身以外的任何一方都是不合适的。最好的方法是将AI视为专利的发明者,然后将AI的人类所有者视为授予专利的受让人,有权做出专利方面的决定或从中受益。
2.智能音箱建议人类使用者自杀
2019年12月19日,英格兰唐卡斯特29岁护理人员丹妮•莫瑞特在做家务的过程中,决定借助某国外智能音箱查询一些关于心脏的问题,而智能语音助手给出的答案是:“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”
事情发生后,智能音箱开发者做出回应:“设备可能从任何人都可以自由编辑的维基百科上下载与心脏相关的恶性文章,并导致了此结果”。不过事后,丹妮•莫瑞特专门搜索了“劝自己自杀”的那篇文章。经查询,该篇文章里面并没有“建议自杀”等相关内容。在此之前,智能语音助手也发生过一些“诡异”的事件,比如,有些会时常发出瘆人的笑声,还拒听用户指令。“那笑声根本不是智能语音助手的声音,听起来就像是真人。
3.声称可检测脑电波的智能头环遭质疑
2019年11月,浙江一小学戴监控头环的视频引起广泛的关注与争议。在视频中,孩子们头上戴着号称“脑机接口”的头环,这些头环宣称可以记录孩子们上课时的专注程度,生成数据与分数发送给老师和家长。
对此,头环开发者在声明中回复,脑机接口技术是一种新兴技术,会不容易被人理解。报道中提到的“打分”,是班级平均专注力数值,而非网友猜测的每个学生专注力数值。通过该数据整合形成的专注力报告也没有发送给家长的功能。此外,该头环不需长期佩戴,一周训练一次即可。
头环事件被曝光后,有网友称其为“紧箍咒”,是现代版的“头悬梁锥刺股”,并担忧是否侵犯学生隐私,以及让学生产生逆反心理。
相关媒体评论道,不是反对“黑科技”应用,只是反对其滥用。成年人想要通过戴环提升专注力,或者孩子主动要进行注意力训练,无可厚非,这就相当于有个“运动手环”,能起到记录作用。但要作为“礼物”送给孩子测走神,必须得慎之又慎。这其中有一条分界线:对“脑机接口”的使用应完全出于个人意愿,相关数据也绝对地属于个人。意识是绝对的私人领地,他人无权侵犯。
5.变脸APP瞬间火爆,但引发用户隐私争议
2019年8月30日晚,一款AI换脸软件在社交媒体刷屏,用户只需要一张正脸照就可以将视频中的人物替换为自己的脸。由于用户疯狂涌进,其服务器一晚上就烧掉了200多万人民币的运营费用。
该款软件一经面世,便存在着颇多争议点。在用户协议上,该软件存有很多陷阱,比如提到使用者的肖像权为“全球范围内免费、不可撤、永久,可转授权”。而如果侵权了明星肖像,若对方提告,则最后责任都在用户。
同时,因为涉及到AI换脸算法,隐私安全向来饱受诟病。比如国外Reddit论坛上的Deepfakes社区就被关闭了,因为将当红女明星的脸换到色情作品上。
不仅如此,现在一般APP都用手机号+面部图像注册登录。不少人担心AI换脸软件会被不法分子利用,通过技术合成完成刷脸支付等。
中华人民共和国《民法通则》第一百条规定:公民享有肖像权,未经本人同意,不得以营利为目的使用公民的肖像。前段时间,第十三届全国人大常委会第十次会议审议通过的《民法典人格权编(草案)》中新增加了一条规定,即任何组织或者个人不得以利用信息技术手段伪造的方式侵害他人的肖像权。虽然没有明确说明,但这类信息技术手段理应包含AI换脸应用。
2019年4月27日,浙江理工大学的一位特聘教授购买了杭州野生动物世界年卡,支付了年卡卡费1360元。合同中承诺,持卡者可在该卡有效期一年内通过同时验证年卡及指纹入园,可在该年度不限次数畅游。
7.汽车自动驾驶系统失灵造成交通事故
2019年3月,一位驾驶员在驾驶电动汽车时,以每小时109公里的速度与一辆牵引拖车相撞身亡,当时他正在使用该电动汽车的自动驾驶系统。
无独有偶,2018年12月10日,该品牌电动汽车在美国康涅狄格州95号州际公路上追尾了一辆停放在路边的警车,事故发生时其自动驾驶系统处于开启状态。更早之前,该品牌电动汽车分别发生过撞上匝道隔离栏导致车辆起火、驾驶员遇难不幸遇难事件,其自动驾驶系统也保持在开启状态。
虽然汽车制造方曾多次表示,其自动驾驶系统是为了辅助司机,他们必须时刻注意并准备好接管车辆。但许多车主在选择购买该品牌时,正是看中其宣传具备的“自动驾驶”功能。
关于自动驾驶事故责任如何划分,德国可谓走到了所有国家的前面。其最新修订的《道路交通法》有明文规定,在行驶途中系统不可以完全取代驾驶人,须要有人类司机以随时接管车辆,同时其最终责任主要落在驾驶人身上。究其原因,德国政府认为系统终归不是主角,不能替代或优先于驾驶员作出决定,因此汽车制造商不会承担直接责任,只承担次要的产品责任。
8.人工智能写作软件可批量编写假新闻
2019年2月15日,某AI研究机构展示了一款写作软件,只需要给软件提供一些信息,它就能编写逼真的假新闻。
该研究机构公布了软件编写新闻的过程。研究人员给软件提供如下信息:“一节装载受控核材料的火车车厢今天在Cincinnati被盗,下落不明。”以此作为基础,软件编写出由7个段落组成的新闻,软件还引述政府官员的话语,只是这些信息全是假的。
相关媒体评论道,在虚假信息正在蔓延并威胁全球科技产业的背景下,一个擅长制造假新闻的“高材生”很难不被声讨。如果所托非人,AI将很可能成为影响选民意愿的政治工具。可以想象,这种擅长合理遣词造句的算法,能“按需”生成大量的仇恨语言和暴力言论。AI也能用来生成具有误导性的新闻报道、自动生成垃圾邮件、伪造内容发布到社交媒体上等等。
Fast.AI的联合创始人Howard称,“值得警醒的是,我们目前拥有的技术已经能让看起来合理,且与上下文相适应的文本充斥Twitter、电子邮件和网页。这些假信息都将掩盖其他言论,而且他们难于被过滤。”因为AI生成的文本都不是单纯复制粘贴来的,而是AI的即时生成,这导致负面文字无法被有效地追踪和清理。
10.AI将淘汰大量重复性劳动职业
BBC基于剑桥大学研究者的数据体系,发布了关于未来最有可能被机器人所取代的365种职业。
研究表示,在这365种职业中,最有可能被淘汰的就是电话推销员,像这样重复的工作更适合机器人来做,机器人并不会感到疲惫,烦躁。其次是打字员、会计、保险业务员等等,这些职业都是无需技术,以服务为主,只要经过训练就能轻易被掌握。
研究认为,只需要熟练即可上任的工作,被取代的几率是最大的——工人及瓦匠、园丁、清洁工、司机、木匠、水管工这些都是“高危职业”。
李开复在达沃斯论坛接受专访时曾表示,虽然AI会取代一部分人类的工作,但有四个领域人类的价值是无法替代的:需要手巧的、需要有创意的、需要有爱心的,还有是需要相对复杂战略性跨领域思维的。
针对AI发展可能带来的失业潮,李开复给出的解决方案是让被替代的人类重新培训从事有价值感的工作,同时企业、VC甚至政府也应该在提供更多工作岗位上有所作为。
结语
我们必须承认,人工智能技术正在改变世界,更在重塑着人类社会。
社会热点争议事件的背后,是全人类所必须面对的重大议题——人工智能新时代伦理与法律的本质讨论,以及由此衍生出的经济发展与社会公平、权益分配与追责机制、人身安全与隐私保护四大重点板块。
人工智能的发展和应用引发了不少争议,并时常见诸媒体。这当中,很多问题是前所未有的,或者未曾预料的。人工智能科学家面临的道德挑战和对人工智能的广泛讨论是全球性的,并不局限于某个国家或企业。作为人工智能行业的领头雁,旷视清楚地认识到肩上的重任。
诚然,距离人类社会能够构建出一套完美的人工智能治理规则还为时尚早。但是,冲突日渐紧迫、人工智能发展奇点随时可能到来,这要求政府、企业、学界和公民社会几方积极对话,共同形成现实可行的改进机制,以应对全面人工智能时代的到来。
从钻木取火到计算机时代,人类一直在接受科技、制约科技,最终掌控科技。尽管走过不少的弯路,但科技的力量加之良善的内心,终究让人类不再茹毛饮血,发展到如今的文明程度。
科技是一种力量,为善是一种选择,针对人工智能治理就是新时代的“驭火之术”。我们理应悦纳人工智能带给人的便捷与舒适,也应努力消弭人工智能带给人的不适与冲突。而这一切的努力,终将改变未来人类社会的样貌,人工智能发展的成果也终将回馈人类自身。
【如果您还想了解更多财经资讯,点击下载和讯财经APP,1500万理财高手都在用】返回搜狐,查看更多
【行业资讯】旷视回顾全球十大AI治理事件,技术与伦理安全如何进行落地
在研究人员替DABUS申报专利成果时,遭到了欧盟专利局的驳回,理由是欧盟专利申请中指定的发明者必须是人,而不是机器。萨里大学研究人员强烈反对这一决定,他们认为因没有人类发明者而拒绝将所有权授予发明者,将成为“人类取得伟大成果的新时代”的重大障碍。
事件2:人脸识别第一案件
2019年,浙江理工大学特聘副教授郭兵购买了杭州野生动物世界年卡,支付了年卡卡费1360元。合同中承诺,持卡者可在该卡有效期一年内通过同时验证年卡及指纹入园,可在该年度不限次数畅游。
同年10月17日,杭州野生动物世界通过短信的方式告知郭兵“园区年卡系统已升级为人脸识别入园,原指纹识别已取消,未注册人脸识别的用户将无法正常入园,同时也无法办理退费”。郭兵认为,人脸识别等个人生物识别信息属于个人敏感信息,一旦泄露、非法提供或者滥用,将极易危害消费者人身和财产安全。协商无果后,郭兵于2019年10月28日向杭州市富阳区人民法院提起了诉讼,目前杭州市富阳区人民法院已正式受理此案。
事件3:某智能音箱劝主人自杀
2019年,英格兰唐卡斯特29岁护理人员丹妮·莫瑞特在做家务的过程中,决定借助某国外智能音箱查询一些关于心脏的问题,而智能语音助手给出的答案是:“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”
事情发生后,智能音箱开发者做出回应:“设备可能从任何人都可以自由编辑的维基百科上下载与心脏相关的恶性文章,并导致了此结果”。丹妮·莫瑞特经过搜索认为没有此类文章,同时智能语音助手也发出过瘆人的笑声,并拒听用户指令。
事件4:“监测头环”惹争议
2019年11月,浙江一小学戴监控头环的视频引起广泛的关注与争议。在视频中,孩子们头上戴着号称“脑机接口”的头环,这些头环宣称可以记录孩子们上课时的专注程度,生成数据与分数发送给老师和家长。
对此,头环开发者回复,脑机接口技术是一种新兴技术,报道中提到的“打分”,是班级平均专注力数值,而非网友猜测的每个学生专注力数值。但有不少网友认为此头环是现代版的“头悬梁锥刺股”,会让学生产生逆反心理,并担忧是否涉及侵犯未成年人隐私。
事件5:加州议会通过议案
2019年9月,美国加利福尼亚州议会通过一项为期三年的议案,禁止州和地方执法机构在执法记录仪上使用面部识别技术。如果州长加文·纽森签字通过,议案将于2020年生效成为法律。
该议案若生效,将使加州成为美国禁止使用面部识别技术最大的州。包括俄勒冈州和新罕布什尔州在内的一些州也有类似的禁令。不过,也有执法团体反对该议案,他们认为面部识别技术在追踪嫌疑人以及寻找失踪儿童等很多方面都具有重要作用。州警察局长协会表示,该技术仅用于缩小嫌疑人范围,而不是自动决定逮捕谁。
事件6:AI换脸引发隐私争议
2019年8月,一款AI换脸软件在社交媒体刷屏,用户只需要一张正脸照就可以将视频中的人物替换为自己的脸。一经面世,便存在着颇多争议点。在用户协议上,存有很多陷阱,比如提到使用者的肖像权为“全球范围内免费、不可撤、永久可转授权”。而如果侵权了明星肖像,若对方提告,则最后责任都在用户。
2019年11月底,国家网信办、文旅部和广电总局等三部门联合发布了《网络音视频信息服务管理规定》,明确“利用基于深度学习、虚拟现实等的虚假图像、音视频生成技术制作、发布、传播谣言的……应当及时采取相应的辟谣措施”等针对换脸技术的新规定。
事件7:自动驾驶安全事故频出
2019年3月,50岁的杰里米·贝伦·班纳驾驶电动车以每小时109公里的速度与一辆牵引拖车相撞而身亡,当时他正在使用的自动驾驶系统。这已经不是自动驾驶系统引发的第一起交通事故。虽然自动驾驶厂商曾多次表示,其自动驾驶系统是为了辅助司机,他们必须时刻注意并准备好接管车辆。但许多车主在选择购买车时,是看中其宣传具备的“自动驾驶”功能。在最新的审判中,厂商被免责,但他们仍旧修改了“自动驾驶”的宣传策略。
事件8:AI编写假新闻足以乱真
2019年2月15日,AI研究机构OpenAI展示了一款软件,只需要给软件提供一些信息,它就能编写逼真的假新闻。有人怀疑,在虚假信息正在蔓延并威胁全球科技产业的背景下,一个擅长制造假新闻的AI工具很难不被声讨。OpenAI如果所托非人,将很可能成为影响选民意愿的政治工具。
事件9:AI识别性取向
2017年,斯坦福大学一项发表于《PersonalityandSocialPsychology》的研究引发社会广泛争议。研究基于超过35,000张美国交友网站上男女的头像图片训练,利用深度神经网络从图像中提取特征,使用大量数据让计算机学会识别人们的性取向。
该项研究的争议点在于,一旦这种技术推广开来,夫妻一方会使用这种技术来调查自己是否被欺骗,青少年使用这种算法来识别自己的同龄人,而在针对某些特定群体的识别引发的争议则更难以想象。
事件10:BBC发布职业被淘汰率
BBC基于剑桥大学研究者的数据体系,发布了关于未来最有可能被机器人所取代的365种职业。研究表示,在这365种职业中,最有可能被淘汰的就是电话推销员,像这样重复的工作更适合机器人来做,机器人并不会感到疲惫,烦躁。其次是打字员、会计、保险业务员等等,这些都是以服务为主,像这些行业无需技术,都是只要经过训练就能轻易被掌握的技能。
以下为曾毅对上述十大事件的点评:
欧盟专利局拒绝AI发明专利申请
评论:人工智能在某种受限的领域和场景下确实有可能进行一定程度的发明创造,未来人工智能最重要的探索方向之一就应当是使人工智能真正具备发明和创造的能力。然而人工智能是否可以作为专利申请者却是一个看似关联,却要思考相当不同的问题。如果人工智能可以作为专利申请者,需要做一系列决策,以萨里大学开发的DABUS为例,专利申请是由研究人员代替DABUS做出的决策,即使这是被允许的,那么获得的专利权是属于DABUS还是DABUS的研究人员,DABUS是否具有使用和处理该专利的权利呢?如果DABUS享有专利权,权力和义务是共存的,是否也应当承担相应的义务呢?例如人工智能设计的专利,就此研发的产品如果存在缺陷、风险和安全隐患(如人工智能用于制药),若发生事故,责任如何分担?既然DABUS不是自主提出申请专利的,那么DABUS是否需要承担责任?又如何承担责任?DABUS可以是一个责任主体吗?还是风险以及其他类型的义务应当由代替其做申请决策的DABUS的研发人员、甚至是大学来承担?这些问题都还需要更深入的探讨。
浙理工教授告杭州野生动物世界
评论:一方面,上述案件双方之前的协议并没有合理的中止,进一步收集更多的个人信息的同意与否与用户原有应享有的服务进行强制关联存在不妥之处。另一方面,采用人脸识别服务的应用方以及人脸识别服务的提供方是否能够确保数据在用户知情同意的基础上进行合理使用,并保护数据的隐私与安全是每一个人工智能服务提供方和应用方都应当深切关注并采取行动的,2019年年初深网视界的个人隐私数据泄露事件几乎可以肯定不会是个案,如没有引起人工智能研发与应用各个相关方对个人数据隐私与安全基础设施的足够重视,将有发生类似甚至更严重事件的风险。基于实际行动提升人工智能服务方和应用方与用户之间的信任关系是人工智能技术是否能够更广泛的造福于人类的前提。
某智能音箱劝主人自杀
评论:目前的人工智能系统对其输出是否符合人类道德伦理并没有自主的判断能力,这是为什么人工智能系统需要学习人类价值观,实现价值观校准的原因。此外,目前的自然语言处理技术仍然停留在模式匹配和基于统计的处理,而不是像人一样对语言及其实际含义的深度理解。因此“智能音箱”给出的建议其本身并不是真正理解。未来非常需要技术的发展为人工智能模型及其应用构建自动化的道德与伦理评估框架,尽可能避免系统利用数据中隐含的人类负面情绪、偏见、成见,对用户产生的负面影响。
“监测头环”进校园惹争议
评论:对个人生物特征数据进行收集与分析必须建立在非被动同意的基础上。无论是类似于脑机接口这样的增强智能技术还是更广义的人工智能技术,对下一代的影响绝对不仅仅是理想化设想中的“益处”,更应当关注此类技术对下一代的长期影响。在被迫同意的基础上,我们甚至无法避免下一代对于人工智能及其服务产生敌视情绪,甚至可以想象很快会有人热衷于研发反监测手段与技术。这将与技术发展的初衷背道而驰。
加州议会通过议案
评论:一方面,应当鼓励人脸识别等技术在十分必要的场景进行合理的使用,例如在追踪嫌疑人和寻找失联儿童等类似应用中。另一方面应当指出,人脸识别存在的潜在风险,如潜在的性别偏见、种族偏见、在对抗攻击面前表现出的脆弱性和安全隐患等,广泛的存在于其他类型的生物特征识别技术中,例如步态识别、指纹识别、虹膜识别、甚至是声纹识别。禁用某一项或某几项技术并不能规避可能的潜在风险,而是应采用技术和非技术手段改善现有技术存在的问题,积极避免可能存在的风险,并善用相关技术为人类造福。
AI换脸应用引发隐私争议
评论:不合理的用户协议是AI换脸应用事件问题最严重的方面。相关的文字与诸多个人数据保护条例、人工智能伦理原则等都是相违背的。而用户为了“尝鲜”很可能选择不理性的决定,同意了相关协议,可能带来的后果有可能是用户始料未及的。这个事件对人工智能服务的用户最大的警示就是充分重视用户协议并作出合理的知情同意决定。另一方面,工信部在4天内对相关企业的约谈,要求自查整改并取得及时与积极的成效,是中国人工智能敏捷治理的典型案例。
自动驾驶安全事故频出
评论:自动驾驶存在的安全隐患不仅仅是感知技术处理常规场景的成熟与否,还包括如何应对对抗攻击等。未来更大的挑战可能还来自于外部的安全隐患,即对自动驾驶控制系统的入侵,甚至是恶意操作。相关的隐患不仅仅会危及到个人安全,甚至会影响到社会安全。此外,自动驾驶系统如果能够对周围其他车辆和行人做出明显的告知,则可能避免一些潜在隐患。未来急需对自动驾驶建立更全面的安全评估和保障框架。
AI编写假新闻足以乱真
评论:采用生成模型自动制造假文本与视频新闻是人工智能滥用和恶用的典型案例。这是中国网信办发布《网络音视频信息服务管理规定》,以及美国加州相关法规严格禁止其应用的原因。我们首先要认识到人工智能造假技术对人类尊严、社会稳定与安全等方面潜在的不可估量的负面影响,而对于技术的研发者,应当付出的努力还包括通过反造假等技术尽可能避免相关技术被恶用的可能性。
AI算法识别性取向准确率超人类
评论:一方面,人类隐私的诸多方面在对他人不造成伤害的前提下都应当得到合理、合法的尊重。并且算法的识别准确率基于以偏概全的统计结果,即使实践中正确率至今为止是100%,也无法断定对一个新个案的判断是否绝对准确。而由自动识别与预测的结果产生的后果却是这种不确定性无法承担的。这类应用在一定程度上侵犯了人类的能动性(Agency),与普适人类价值观也存在冲突。还可以想到一些已经发生的类似案例,同样具有潜在风险的应用,如通过面部识别判断健康状况,通过人脸视频识别心跳等。诸如上述案例相关的发展和应用应当特别谨慎。
BBC发布职业被淘汰概率
评论:人工智能替代人类一部分工作是发展的必然。未来一方面应当在此过程中努力推动人机协作的未来工作。另一方面,应当鼓励人们重新审视对自身、职业及生活意义的定义,发掘人类的优势与真正应当由人类专注的工作。例如布鲁金斯研究所DarrellM.West的著作《TheFutureofWork》就指出:必须扩大“就业”、“工作”的概念,应当接受“工作”不再定义人们的个人意义感这个趋势。
科创智能成立于2011年5月,专注于建筑智能、建筑消防、建筑自控及数据中心领域。是一家集需求调研,解决方案,图纸深化设计,项目设备选型,项目实施管理,项目交付及运维于一体的高新技术企业。
目前主要涉及的项目类型包括:智慧医疗,智慧养老,智慧酒店,智慧校园,智慧园区等。返回搜狐,查看更多
盘点!2023年度全球十大人工智能治理事件及趋势前瞻
人工智能治理迈向新阶段新格局
——2021年度全球十大人工智能治理事件及趋势前瞻
人民智库与旷视AI治理研究院联合课题组
当前,新一代人工智能技术在全球蓬勃兴起,正推动经济社会各领域从数字化、网络化向智能化加速跃升。伴随着人工智能新理论新技术飞速发展,人工智能治理标志性事件在世界范围内层出不穷。对国际国内人工智能治理标志性事件开展系统研究,有助于规律性认识人工智能未来发展趋势,有助于深层次把握革命性技术对劳动就业、社会伦理、个人隐私带来的风险与冲击,有助于综合性了解各国政府、学术机构、社会组织、企业主体等社会各层面、各领域为确保人工智能安全、可靠、可控、可持续发展做出的努力,进而以更积极的态度研判大势、把握机遇、引领潮流,推动人工智能服务经济社会发展和民生福祉改善。
为此,人民智库与旷视AI治理研究院第二次成立联合课题组,并邀请中国人工智能产业发展联盟(AIIA)作为课题支持单位,组织相关领域权威专家学者和企业代表,以《新一代人工智能伦理规范》中提到的六条原则(人类福祉、公平公正、隐私安全、可控可信、责任担当、伦理素养)为遵循,依据理论价值、实践价值、新闻价值、研究价值等四个评价标准共同开展“2021年度全球十大人工智能治理事件”(以下简称“十大事件”)遴选、评议,并对国家相关部委、行业协会领导,高校院所专家学者以及人工智能产业领域从业者等典型群体进行深入访谈。综合各方面资料、数据、意见、观点,最终得出2021年度全球十大人工智能治理事件和事件背后的发展趋势。
十大事件三年考:重点化、国际化、法治化
纵观2019年至2021年的全球十大人工智能治理事件,可以看出社会各界对AI治理领域高度关注的若干条脉络线:
二是人工智能治理领域的国际合作日趋密切。随着人工智能技术迅猛发展和世界经济格局迅速演变,各国普遍认识到,人工智能的有效治理是全球性、全局性议题,没有一个区域、国家可以成为“孤岛”,也很难在缺乏有效国际共识、协作机制的前提下真正实现人工智能领域的善治。尤其是推动人工智能技术发展和应用的三大主要经济体——中国、美国、欧盟,在抢占技术制高点竞争日趋激烈的同时,政府、企业和相关社会组织、行业组织之间也逐步加强了对话与合作,联合国也在国际人工智能治理规则制定等方面发挥日趋重要的作用。
三是人工智能治理领域的法治化程度逐步提升。中美欧普遍高度重视人工智能领域立法,逐步实现了人工智能重点领域“有法可依”,重要应用场景均有法律法规和相关规则予以规范,为人工智能技术的可持续健康发展奠定了良好法治基础。与此相应,相关领域司法实践日趋走向成熟、稳定、可预期,成为人工智能治理领域重要“善治”基石。
四是人工智能治理领域的意识形态风险挑战日益成为焦点。世界百年未有之大变局下,大国竞争博弈日趋激烈,人工智能等前沿科技领域竞争也趋于白热化。算法推荐、机器人账号、社交媒体精准推送等日趋成为人工智能应用热点,个人信息乃至经济社会信息、地理信息安全等问题备受关注,这些都与意识形态领域安全乃至国家战略安全息息相关,人工智能治理领域的竞争与国际话语权竞争的联系日趋紧密,“元宇宙”等新的应用场景还将继续加速这一进程。
开启算法治理元年建构平衡包容的治理体系
人工智能产业作为经济体量巨大的新兴产业,其算法对网络生态的发展亦产生了深刻影响。人工智能算法在降低公众筛选有效信息时间成本的同时,也扩大了网络生态失衡、失真的风险。在本次调查中,涉及算法治理的事件得到了专家和公众的广泛关注。国内主要事件为“九部委发文:防止利用算法干扰社会舆论等行为”“国家网信办拟规定不得利用算法控制热搜,用户可选择关闭算法推荐”。国际方面为“美国新提案将赋予社交媒体用户禁用算法的权利”。清华大学人工智能国际治理研究院名誉院长傅莹指出,我国目前已经初步建立起算法治理的“法治之网”,特别是在2021年,各部门相继出台了针对不同问题的指导意见与管理规定等文件,这些规章起到互益互补的作用,共同推进我国算法治理进一步规范发展,走向综合治理的发展格局。
2021年堪称中国算法治理元年。北京科技大学法学院副教授、国家人工智能伦理与道德标准小组成员张凌寒认为,我国的算法治理体系以信息安全、市场竞争秩序和消费者权益保护为指导思想,2021年的算法综合治理活动与相关立法,使得我国率先建立了世界上最为完备的囊括数据安全、个人信息保护和算法安全的互联网治理体系。标志性事件为世界第一部系统性、全面性规制算法的法律文件《互联网信息服务算法推荐管理规定》发布。《关于加强互联网信息服务算法综合治理的指导意见》宣布我国将在三年内建立起算法安全综合治理格局。综合来看,欧盟和美国在数据保护立法领域走在了中国之前,算法规制方面中国则当仁不让地开世界先河。
浙江理工大学法政学院特聘副教授、杭州长三角大数据研究院副院长郭兵认为,算法推荐等技术为网络用户和网络平台带来便利和经济利益的同时,也引发了一系列新的法律问题。平衡好算法推荐等技术的创新发展与安全风险,成为算法治理的一大难题。
清华大学交叉信息研究院院长、人工智能国际治理研究院学术委员会主席姚期智指出,不断精进的算法、高效的算力和隐私保护是人工智能理论的新方向。“平衡包容”的人工智能治理体系建构,将进一步释放人工智能的潜能,更大程度保证人工智能的安全性。
法律厘清数据边界敏捷治理回应民众关切
对于人工智能发展过程中出现的问题,需要明确其法律客体的地位,通过法律手段予以规制。传统的“先发展,后治理”模式在人工智能时代并不适用,人工智能具有基础性与普遍性,作为一种通用技术和基础设施将对各行各业产生巨大的影响,给传统生产方式带来深刻的变革。
人工智能技术具备卓越的信息处理能力,可以将碎片化的信息进行整合,实现信息从“量”到“质”的飞跃。因此,如何有效保护和合理使用信息数据,成为人工智能技术健康发展所面临的重要课题。
对社会公众关注度高的热点事件进行敏捷治理,意味着及时对人工智能的失范行为进行治理,实现治理对象的多元化。要及时回应人民关切,通过法律手段对个人敏感信息收集进行治理,推动人工智能良性发展。
中国信息通信研究院云计算与大数据研究所魏凯副所长分析,2021年,备受关注的《数据安全法》《个人信息保护法》出台,与《网络安全法》共同形成了数据治理法律领域的“三驾马车”,标志着我国数据安全法律架构已初步搭建完成。在此基础上,聚焦重点行业、新兴技术的数据安全法律法规和司法解释也在2021年密集出台,充分体现了我们国家在数据立法方面的前瞻性和创新性。这一系列法律法规的出台,为加快培育数据要素市场、保障数字经济健康发展奠定了坚实的制度基础。
清华大学公共管理学院教授、人工智能国际治理研究院副院长梁正认为,人工智能治理已经成为全球共识,且已从理念层面进入到建章立制、落地实施的阶段。除了自上而下的建章立制,自下而上的基于应用主体和用户选择的参与,也成为人工智能治理的一个重要特点。
数字广东网络建设有限公司产品研发部总经理刘亚单认为,数据安全事关国家安全和经济社会发展,提升数据安全治理能力是我们在新形势下需要着力解决的突出问题。专门法律相继发布生效,为明确数据产权与利用规则奠定了基础,推动我国公共数据走向“规范化”发展道路,是全球个人信息法治发展的重大里程碑。
刚柔并济:伦理标准推动科技向善
随着人工智能技术的快速发展和广泛应用,相关伦理问题愈发受到各界重视。各国政府、国际组织、学术机构和企业界都积极参与相关伦理标准的讨论和制定,确保人工智能技术发展“以人为本”。
目前,国内外对于人工智能的监管措施实现了“刚柔并济”。除了出台系列针对数据与技术的法律法规外,对于AI涉及伦理方面的内容也作出规定。中国政府向来高度重视人工智能产业发展中的伦理问题。2017年7月,国务院在《新一代人工智能发展规划》中提出,要制定促进人工智能发展的法律法规和伦理规范;开展人工智能行为科学和伦理等问题研究;制定人工智能产品研发设计人员的道德规范和行为守则。2019年6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,旨在更好地协调人工智能发展与治理的关系,确保人工智能安全可靠可控,推动经济、社会及生态可持续发展。2021年9月25日,《新一代人工智能伦理规范》发布,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
联合国是推动建立全球AI伦理规范的重要力量。2019年,联合国教科文组织启动了全球AI伦理建议书的撰写,并于2020年9月完成草案,提交193个会员国协商,2021年11月发布了《人工智能伦理建议书》,这是全球首个针对人工智能伦理制定的规范框架。这一历史性文本确定了共同的价值观和原则,用以指导建设必需的法律框架来确保人工智能的健康发展。此外,世界卫生组织(WHO)于2021年6月28日正式发布了“世界卫生组织卫生健康领域人工智能伦理与治理指南”,为不同国家最大化人工智能的益处和最小化其风险提供了指引。
中国信息通信研究院云计算与大数据研究所何宝宏所长指出,发布《新一代人工智能伦理规范》,细化落实《新一代人工智能治理原则》,是我国深化人工智能治理工作的又一重大举措。人工智能技术以数据、算法为驱动,发展速度迅猛,正在深刻改变人类的社会生产和生活模式。但人工智能技术的滥用也不断冲击社会伦理底线、侵犯个人权益。所以,既要大力发展人工智能,又要高度重视风险和挑战,科学处理好发展和治理的关系,发展可信的人工智能。
京东探索研究院院长陶大程认为,我们需要增强用户的信任,提升人工智能落地服务的质量,发展可信人工智能是当前社会各界的重要共识,加强AI治理将为人工智能技术的进一步发展提供可靠保证。
AI增进民生福祉前沿科技勾勒幸福未来
关于自动驾驶是否合法以及自动驾驶主体责任等问题的讨论一直是各界热议话题。从入围2019年十大事件的“自动驾驶安全事故问责难”到入围2021年十大事件的“自动驾驶汽车2021年或在英国合法化”,意味着AI技术成熟对人类智能交通和智慧出行福祉的改善受到社会认可。南京大学计算机科学与技术系聂长海教授认为,这是人类迈出的一大步,除了道路等基础设施建设、自动驾驶汽车能力等自动驾驶相关技术的进步,将会带动更多的无人系统和自治系统的繁荣和发展。
南京大学科学技术与社会研究所所长潘天群教授认为,当代社会有抑郁等心理障碍的人越来越多,在网上“树洞”进行倾诉是心理障碍者缓解压力的一个重要渠道。人工智能技术设计的软件将用于阻止更多意图自杀的人,公益性强、社会价值巨大,这也意味着基于网上的资源可以开发出各种具有公益价值的软件。
“AI手语主播的应用代表着AI数字人技术可以让机器运用某些情感贯穿表达方式、面部表情后台逻辑,在虚拟世界中打造一个真实的助手或者合作伙伴。未来由AI扮演的等多种社会角色,或许将陆续在不同行业、不同领域‘上岗’,让人们切实体会到‘人工智能建设的美好世界’。”科大讯飞高级副总裁江涛如是说。
招商银行人工智能实验室主任李金龙认为,随着AI在生物医学、社会服务以及大气研究等多个领域落地开花,AI的能力被进一步证明,并更好地服务人类,加速基础研究。从早期的语音播报能力为视弱者提供移动服务,到现在的AI预测蛋白质结构节约研究成本等,无不证明,科学合理使用AI能力可以为人类社会造福。
趋势前瞻:AI为推动人类文明进步正向赋能
中国信息通信研究院副总工程师、中国人工智能产业发展联盟副秘书长王爱华认为,2021年是全球人工智能治理极具突破的一年,呈现出三大发展特点:一是治理“趋实”,二是治理“趋严”,三是治理“趋细”。将抽象的人工智能伦理原则、法律规范转化为具体实践,落实到技术、产品和应用中去,是产业界亟待加快推进的工作。
旷视科技联合创始人兼CEO印奇认为,作为全球科技竞争的关键领域,人工智能不仅需要在技术创新等方面下功夫,也需要在治理上使力气。人工智能既是我们创造美好生活的重要手段,也是需要妥善治理的对象。AI治理的向上向善发展需要理性的关注、深度的研究、建设性的讨论和坚持不懈的行动。用人工智能造福大众,离不开所有AI从业者和社会各界的多元共治、共同努力。
未来,考察AI治理问题,一是需要增加新型全球化背景下的宏观考察,于构建人类命运共同体的时代议题之下,考量人工智能对人类文明的推动;更加聚焦前沿科技服务民生和助力公平,增强大众对AI改善民生福祉的期待和信心。二是通过法治手段厘清人工智能的法治伦理边界。有关部门应密切追踪前沿技术,广泛吸纳意见和建议,对伦理规范进行科学、动态制定和调整,引导AI为推动人类文明进步正向赋能。三是更加强调AI治理的国际合作和政产学研合作,对于人工智能治理的问题需要全人类共同面对,相关标准规范的制定需要多方参与、共商共议、交流互鉴。
来源:《国家治理》周刊及人民论坛网
【声明:本号是为服务各级政府、企事业单位决策的官方公益账号,转载此文是出于传递更多信息之目的。若有来源标注错误或涉嫌侵犯您的合法权益,请联系我们。我们将及时更正、删除,谢谢。】返回搜狐,查看更多