博舍

人工智能视野下,AI主播引发的问题探讨 人工智能存在的伦理问题

人工智能视野下,AI主播引发的问题探讨

人工智能它是研究开发用于模拟延伸和扩展人的智能理论,方法技术及应用系统的一门新的技术科学。

近年来,以虚拟主播为代表的人工智能,在传媒领域的研发和应用,未来媒体行业的发展带来了新的机会,同时也带来了诸多的风险和挑战。人工智能主播的出现,更是在传统媒体和新兴媒体的变革发展中引发了媒体从业者对于自身处境的担忧,焦虑与恐慌。

一、人工智能主播的出现

人类进入21世纪人工智能主播的本质是通过数字技术处理,深沉的仿真人形象,不论是客观存在的机器主播,还是以声音和虚拟图像出现在屏幕上的虚拟主播,现在都被纳入人工智能主播的研究领域。

在我国虚拟主播小龙,作为最早出现在虚拟主播,在2004年《光影周刊》栏目亮相,但由于受技术限制,小龙只是达到了虚拟主播的技术标准,其播报与主持工作需要在人力支持下才能完成。

2013年,安徽卫视在《黄金年代》节目中首创360度无死角舞台和吴主播的综艺先河。

2015年,东方卫视的人工智能主播微软小冰亮相。

2018年12月,搜狗和新华社联合推出了一款人工智能机器人,小浩。

随着智能组播技术的发展,2019年春节,在央视网络春晚中,虚拟主播小小撒首次亮相央视,这位虚拟主播跟主持人撒贝宁同台秀技,就连撒贝宁本人都忍不住说:“我的天我感觉跟照镜子一样”。其他在场的主持人朱迅高博龙洋的孪生主持人。朱小迅,高小博,龙小洋也纷纷亮相。

二、人工智能技术的发展与困境

随着人工智能技术的飞速发展和在各领域的广泛运用,尤其是他“深度学习”能力的快速演进和提升,超级计算机技术的迭代更新的“赋能”“无止境的进化”理论以及“新物种产生”的预言,等渐次展开,使得他对人类的特性超长凸显,人们也逐渐意识到它所带来的挑战和威胁。

由此可见,对人工智能的认识不能只停留在技术层面,人工智能近年来的爆发式发展所带来的社会伦理影响,已经引起全社会的高度关注,加强相关法律伦理和社会问题研究,构建保障人工智能健康发展的法律法规和伦理道德框架,是当前值得关注的重大命题。

注明:本文节选自《中国广播影视》,如有侵权,请联系后台做删除处理

一航考研

艺术类

公共课

一航英语:yihangyingyu

主编:小罗师哥

责任编辑:立西师姐返回搜狐,查看更多

人工智能迫切需要一个“伦理转向”

当前人工智能的发展主要受益于以深度学习为代表的机器学习技术,这让计算机可以从大量数据中自主学习与进化,从而作出比人类更高效、更精准、更廉价的预测与决策。正因如此,人工智能作为新的通用型技术,被认为将给经济和社会带来变革性影响,已被各国上升到国家战略和科技主权高度,成为不断升温的全球科技竞争的新焦点。

在应用层面,人工智能已经渗透到各行各业,算法帮我们过滤掉垃圾邮件,给我们推荐可能喜欢的歌曲,为我们翻译不同的语言文字,替我们驾驶汽车。新冠肺炎疫情暴发以来,人工智能在辅助医疗诊断与新药研发等方面崭露头角,无人物流配送、无人驾驶汽车等新模式助力非接触服务发展。总之,人工智能潜力巨大,可以成为一股向善的力量,不仅带来经济增长,增进社会福祉,还能促进可持续发展。

但与此同时,人工智能及其应用的负面影响与伦理问题也日益凸显,呼吁人们在技术及其产业化之外更加关注伦理视域。例如,人工智能模型训练及其应用离不开大量数据的支持,可能导致违法违规或过度收集、使用用户数据,加深人工智能与数据隐私保护之间的紧张关系;人脸识别技术在一些场景的应用也引发了国内外对该技术侵犯个人隐私的争议。人工智能技术也可能被不法分子滥用,例如用来从事网络犯罪,生产、传播假新闻,合成足以扰乱视听的虚假影像等。

随着算法歧视的不断发酵,人工智能参与决策的公平性问题也备受关注。有研究发现,很多商业化的人脸识别系统都存在种族、性别等偏见,这样的技术用于自动驾驶汽车,就可能导致黑人等深色皮肤的人更容易被自动驾驶汽车撞到。人工智能在招聘、广告投放、信贷、保险、医疗、教育、司法审判、犯罪量刑、公共服务等诸多方面的应用也伴随公平性争议。此外,人工智能的知识产权保护问题也日益浮现,目前人工智能已能够独立创造诗歌、小说、图片、视频等,知识产权制度将需要尽快回应人工智能创造物的保护问题。自动驾驶汽车、AI医疗产品等人工智能应用一旦发生事故,也面临谁来担责的难题。最后,人工智能的应用可能取代部分手工的、重复性的劳动,给劳动者就业带来一定冲击。

2020年被认为是人工智能监管元年,美欧采取的监管路径大相径庭。欧盟《人工智能白皮书》提出的“重监管”模式更多倚重事前的规制,考虑为技术开发与应用设置严苛条件;美国《人工智能应用监管指南》提出的“轻监管”模式更多倚重标准、指南等弹性手段,考虑为人工智能应用设置避风港、“监管沙箱”等。在全球科技竞争日趋激烈、数字经济日趋成为国家核心竞争力等背景下,考虑到我国科技行业发展实际,我国对人工智能需要创新治理,倚重敏捷监管、伦理治理、技术治理等多元手段来共同确保人工智能正向应用与向善发展。

首先,监管不仅需要对人工智能应用分级分类、以问题和风险防范为导向,而且需要具有敏捷性与适应性。人工智能技术的一个核心特征是快速发展迭代,制定强制性法律必然赶不上技术发展步伐,所以国外大都采取出台指南、伦理框架等“软法”。此外,自动驾驶汽车、智能医疗等人工智能应用的发展落地仍面临较多法规政策障碍,需要考虑修订阻碍性的法律法规,同时通过“数字沙箱”“安全港”“试点”等方式推动其试验与应用落地。

其次,采取伦理治理,把伦理原则转化为伦理实践。目前,国内外很多科技公司都出台了人工智能伦理原则,也在通过伦理审查委员会、伦理嵌入等方式落实其伦理原则。行业的这些伦理治理措施已在国内外获得较大共识,更能适应AI技术发展。

再次,以技术手段防范人工智能滥用。例如,深度合成作为一项人工智能应用,在影视制作、教育、医疗、娱乐等领域具有很大正向应用价值,但也可能被不法分子滥用来制造、传播虚假影像以从事欺诈欺骗活动。对此,行业内已在积极研发、部署内容鉴别与溯源技术,以对抗深度合成的滥用。面对复杂性与迭代速度不断增强的人工智能应用,技术治理将发挥越来越大的作用。

(作者:曹建峰,系腾讯研究院高级研究员)

(责编:杨光宇)

分享让更多人看到

人工智能应用中的安全、 隐私和伦理挑战及应对思考

隐私保护挑战

大数据驱动模式主导了近年来人工智能的发展,成为新一轮人工智能发展的重要特征。隐私问题是数据资源开发利用中的主要威胁之一,因此,在人工智能应用中必然也存在隐私侵犯风险。

数据采集中的隐私侵犯

随着各类数据采集设施的广泛使用,智能系统不仅能通过指纹、心跳等生理特征来辨别身份,还能根据不同人的行为喜好自动调节灯光、室内温度、播放音乐,甚至能通过睡眠时间、锻炼情况、饮食习惯以及体征变化等来判断身体是否健康。然而,这些智能技术的使用就意味着智能系统掌握了个人的大量信息,甚至比自己更了解自己。这些数据如果使用得当,可以提升人类的生活质量,但如果出于商业目的非法使用某些私人信息,就会造成隐私侵犯。

云计算中的隐私风险

因为云计算技术使用便捷、成本低廉,提供了基于共享池实现按需式资源使用的模式,许多公司和政府组织开始将数据存储至云上。将隐私信息存储至云端后,这些信息就容易遭到各种威胁和攻击。由于人工智能系统普遍对计算能力要求较高,目前在许多人工智能应用中,云计算已经被配置为主要架构,因此在开发该类智能应用时,云端隐私保护也是人们需要考虑的问题。

知识抽取中的隐私问题

由数据到知识的抽取是人工智能的重要能力,知识抽取工具正在变得越来越强大,无数个看似不相关的数据片段可能被整合在一起,识别出个人行为特征甚至性格特征。例如,只要将网站浏览记录、聊天内容、购物过程和其他各类别记录数据组合在一起,就可以勾勒出某人的行为轨迹,并可分析出个人偏好和行为习惯,从而进一步预测出消费者的潜在需求,商家可提前为消费者提供必要的信息、产品或服务。但是,这些个性化定制过程又伴随着对个人隐私的发现和曝光,如何规范隐私保护是需要与技术应用同步考虑的一个问题。

伦理规范挑战

伦理问题是人工智能技术可能带给人们的最为特殊的问题。人工智能的伦理问题范围很广,其中以下几个方面值得关注。

机器人的行为规则

人工智能正在替代人的很多决策行为,智能机器人在作出决策时,同样需要遵从人类社会的各项规则。比如,假设无人驾驶汽车前方人行道上出现3个行人而无法及时刹车,智能系统是应该选择撞向这3个行人,还是转而撞向路边的1个行人?人工智能技术的应用,正在将一些生活中的伦理性问题在系统中规则化。如果在系统的研发设计中未与社会伦理约束相结合,就有可能在决策中遵循与人类不同的逻辑,从而导致严重后果。

机器人的权力

目前在司法、医疗、指挥等重要领域,研究人员已经开始探索人工智能在审判分析、疾病诊断和对抗博弈方面的决策能力。但是,在对机器授予决策权后,人们要考虑的不仅是人工智能的安全风险,而且还要面临一个新的伦理问题,即机器是否有资格这样做。随着智能系统对特定领域的知识掌握,它的决策分析能力开始超越人类,人们可能会在越来越多的领域对机器决策形成依赖,这一类伦理问题也需要在人工智能进一步向前发展的过程中梳理清楚。

机器人的教育

有伦理学家认为,未来机器人不仅有感知、认知和决策能力,人工智能在不同环境中学习和演化,还会形成不同的个性。据新华网报道,国外研发的某聊天机器人在网上开始聊天后不到24个小时,竟然学会了说脏话和发表种族主义的言论,这引发了人们对机器人教育问题的思考。尽管人工智能未来未必会产生自主意识,但可能发展出不同的个性特点,而这是受其使用者影响的。机器人使用者需要承担类似监护人一样的道德责任甚至法律责任,以免对社会文明产生不良影响。

启示与建议

人类社会即将进入人机共存的时代,为确保机器人和人工智能系统运行受控,且与人类能和谐共处,在设计、研发、生产和使用过程中,需要采取一系列的应对措施,妥善应对人工智能的安全、隐私、伦理问题和其他风险。

加强理论攻关,研发透明性和可解释性更高的智能计算模型

在并行计算和海量数据的共同支撑下,以深度学习为代表的智能计算模型表现出了很强的能力。但当前的机器学习模型仍属于一种黑箱工作模式,对于AI系统运行中发生的异常情况,人们还很难对其中的原因作出解释,开发者也难以准确预测和把握智能系统运行的行为边界。未来人们需要研发更为透明、可解释性更高的智能计算模型,开发可解释、可理解、可预测的智能系统,降低系统行为的不可预知性和不确定性,这应成为人工智能基础理论研究的关注重点之一。

开展立法研究,建立适应智能化时代的法律法规体系

欧盟、日本等人工智能技术起步较早的地区和国家,已经意识到机器人和人工智能进入生活将给人类社会带来的安全与伦理问题,并已着手开展立法探索,如2016年5月,欧盟法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议》的报告草案,探讨如何从立法角度避免机器人对人类的伤害。有效应对未来风险挑战需强化立法研究,明确重点领域人工智能应用中的法律主体以及相关权利、义务和责任,建立和完善适应智能时代的法律法规体系。

制定伦理准则,完善人工智能技术研发规范

当人工智能系统决策与采取行动时,人们希望其行为能够符合人类社会的各项道德和伦理规则,而这些规则应在系统设计和开发阶段,就需被考虑到并被嵌入人工智能系统。因此,需要建立起人工智能技术研发的伦理准则,指导机器人设计研究者和制造商如何对一个机器人做出道德风险评估,并形成完善的人工智能技术研发规范,以确保人工智能系统的行为符合社会伦理道德标准。

提高安全标准,推行人工智能产品安全认证

可靠的人工智能系统应具有强健的安全性能,能够适应不同的工况条件,并能有效应对各类蓄意攻击,避免因异常操作和恶意而导致安全事故。这一方面需要提高人工智能产品研发的安全标准,从技术上增强智能系统的安全性和强健性,比如完善芯片设计的安全标准等;另一方面要推行智能系统安全认证,对人工智能技术和产品进行严格测试,增强社会公众信任,保障人工智能产业健康发展。

建立监管体系,强化人工智能技术和产品的监督

由于智能系统在使用过程中会不断进行自行学习和探索,很多潜在风险难以在研发阶段或认证环节完全排除,因此加强监管对于应对人工智能的安全、隐私和伦理等问题至关重要。建议在国家层面建立一套公开透明的人工智能监管体系,实现对人工智能算法设计、产品开发、数据采集和产品应用的全流程监管,加强对违规行为的惩戒,督促人工智能行业和企业自律。

推动全球治理,共同应对风险挑战

人工智能的快速发展是全球各国共同面临的问题,应明确科学家共同体、政府与国际组织各自的职责,引导各国积极参与人工智能全球治理。加强机器人伦理和安全风险等人工智能国际共性问题研究,深化人工智能法律法规、行业监管等方面的交流合作,推进人工智能技术标准和安全标准的国际统一,使人工智能科技成就更好地服务于人类社会。

致谢:本研究受科技部改革发展专项“中国人工智能2.0规划编制”(2016GH010036)、科技部科技创新战略研究专项“重大科技项目和科技工程形成机制研究”(ZLY2015133)资助。

(责任编辑王丽娜)

作者简介:李修全,中国科学技术发展战略研究院,副研究员。

注:本文发表在2017年第15期《科技导报》,欢迎关注。本文部分图片来自互联网,版权事宜未及落实,欢迎图片作者与我们联系稿酬事宜。

返回搜狐,查看更多

人工智能大数据时代下的工程伦理问题探讨

人工智能大数据时代下的工程伦理问题探讨一、引言人工智能技术以及大数据建设作为二十一世纪新兴技术,给人们带来更便捷的生活,社会中涌现出许多新技术,人与人工智能也越来越密不可分。伦理的本意是人伦道德之理,具体指人与人相处的相应道德准则。而现代科技的发展,使得伦理不仅只限于人与人的交往,当前出现了网络伦理,医学伦理,生物伦理等新的概念,当然了还有人工智能伦理学的研究。人工智能道德风险即人工智能技术带来的伦理结果的不确定性,其既有主观因素也有客观因素,具体表现有道德算法风险、道德决策风险、隐私数据泄露风险等。风险主要成因有技术主体、政治、经济、文化等社会因素。结合当下大数据驱动的人工智能算法特点,如何运用风险治理思想分析其背后的工程伦理问题对人工智能领域发展具有重要意义。二、人工智能时代人工智能(ArtificialIntelligence,缩写为AI)一词,是在1956年的达特茅斯会议上被首次提出来的。经历数次低谷与发展浪潮,人工智能再次活跃在大众的视野中,并以脑科学、认知科学为基础,成为一门新兴的交叉学科,被称为本世纪三大科技成就之一。目前来说,人工智能主要涉及计算机领域,它试图了解人类智能的实质,进而能够生产出一种媲美人类智能的软件系统、机器人、仿生人或者生化人,以更完备的生态以及更强的活力积极改变我们的生活,最后乃至能够全面超越当今人类的“新人类”。而在当今AI的实际应用上,随着大数据基础设施建设的日趋完备,人工智能孕育出许多产业,如:数据挖掘、人脸识别、语音识别、自动驾驶等。同时医疗卫生、交通运输、仓储物流、游戏等行业都已经或正在接受人工智能的优化。2019年6月,全国第一个智慧车站在广州塔地铁站建成。广电运通以“AI+大数据”技术助力智慧车站示范工程,为该站提供了智慧安检系统、智能语音服务系统、智能售票机、人脸识别闸机、智能客服中心等系统解决方案。广电运通创新地将安检流程中的“安检+票务”合二为一,乘客可以“刷脸”无感快速过闸。此外,开放式的智能客服中心不仅实现了多项业务的在线自助办理,还能收集分析乘客在站内的消费习惯、通勤线路、服务焦点等行为信息,在智能客服后台形成乘客出行服务个性化需求库。以往存在于PPT上的智慧出行设想成为了实际应用,快速有效推动交通领域从“票”转向“人”的核心场景升级,实现对实名乘客的精准、细致服务,而在其背后做支撑的是一套完整的基于大数据的人工智能系统。目前,百度、阿里、腾讯、谷歌等主流互联网公司正在大力投资人工智能相关产业与技术,而与此同时全球正有上千家公司全力押注人工智能,并且这个趋势依旧保持稳定增长的速度。三、人工智能伦理问题人工智能的蓬勃发展不但扩大了人类对于技术的恐慌,也不可避免地带来了许多伦理问题,像是自动驾驶汽车产生交通事故的问责问题,医学机器带来的医疗事故归责等由人工智能带来的生产生活上的损害,这些都是具体的问题体现。就我而言,将人工智能的伦理问题暂时归结为以下的三个方面。1、身份模糊人工智能的发展后,如何给那些人工智能安排好合适的身份标签,将会是伦理困境之一。对待一个自动驾驶的软件,人们对待它无法像对待现实世界中,自己在劳务市场招聘来的司机一样,现实中的司机有血有肉,有的脾气暴躁一些,会骂骂咧咧,有的还会在车内吸烟,需要别人禁止。长年累月的相伴下,可能雇主还会和司机称兄道弟,但是和软件不会,软件只会自动开门,自动驾驶,如果需要可以加一些幽默程序,来讲些趣事,但是它们不会被生活上的柴米油盐琐事困扰,它们虽然可以说出来这些麻烦事,但是还是无法被人所认同,可是它对人们的悉心照顾又不亚于那些现实的司机,不能简单地看待它们作为一个可以随用随装的软件程序。同时,智能家居里面的管家系统,替代了类似电视剧里面传统大宅门内的老管家,新的管家们更加无微不至地照顾学生的起居饮食,但是无法定位它们的独特身份,它们的所有记忆可以被当作日志保存下来,即使遭到了破坏也可以及时恢复,它们无法像那些管家们一样,融入所服务的家庭,然后成为其中一员。当前来看,人们还是无法定位这些智能体是作为一款随用随弃的工具,还是将成为一个可以寄托情感的“类人“体。2、工作取代第一次工业革命极大提高了生产力,将人类的双手从纺纱机上释放出来,这是它的优点,可是由此失业的人很多。毋庸置疑的是,未来那些工作枯燥,重复简单的工作将会被那些机器人取代,这一批下岗工人本来就是社会上的弱势群体,那么,他们的生活保障由谁负责,或者说,他们莫名地被下岗了,这本来可能就不符合伦理规范。换个方面来说,这对那些需要提高生产效率的企业家,以及提高生活舒适度的消费者来说又有些不公正,他们所追求的是利益最大化,生活满意程度最高,在现有的科技水平之下,不让他们使用这些科技又不符合他们的利益需求,这就导致了那些人工智能的分工困境,哪些工作能做,哪些工作不能被取代陷入两难。有的人建议说:只让人工智能取代那些具有高危险性的工作,这也产生了不公,这些人虽然只是社会的小部分,但是他们的利益却被影响了,生命的利益得到了保证,生存的利益却可能遭到了侵犯。3、赏罚制度人工智能的惩罚方法是无法像对待人类一样,轻则监禁,重则枪毙,对那些智能程序的赏罚,没有合适的实施方法,如果以人类的体验标准来看,程序体会不到痛苦的感觉,也享受不到被赞美的快乐,这就使对它们的惩罚只单单变成一种触发条件,在必要的时候不得不触发,没有了相应的作用。总而言之,如何规范人工智能的行为,制定合适的赏罚方案,也是伦理问题之一。四、总结作为一门新兴学科,人工智能所涉及到的普通科技伦理问题,诸如无人驾驶汽车问题、数据隐私问题、军事机器人伦理问题,随着科技的发展,很快都会有完善的解决方案。对于功利主义者而言,“人类中心主义”将是发展人工智能的重要伦理依据:必要的领域应该限制机器的智能超过人类的智能,即使将来某一天超过了,掌握权还要在人类的手中。俗语说,堵不如疏。倘若人类真的要在人工智能这条路上走下去,将伦理的判断完全掌握在人类手中或是全权交给“更智慧”的人工智能都是不可行的;将人类自身与人工智能放到统一的维度去审视,方能产生一个相较而言最为完善的人工智能伦理关系。

强化人工智能安全治理(新论)

作为新一轮科技革命和产业变革的重要驱动力量,人工智能技术发展与应用拓展正在按下“快进键”。今年11月,习近平总书记主持召开的中央政治局会议强调,加快提升生物安全、网络安全、数据安全、人工智能安全等领域的治理能力。这为推动人工智能健康发展提供了重要指引。

在人机协同、跨界融合、共创分享的智能时代,人工智能的应用场景愈发广泛。人工智能为经济社会发展注入活力的同时,也给人类生活带来了新的风险挑战,比如对个人隐私权、知情权、选择权的侵犯,以及窃取、篡改、泄露等非法收集利用个人信息的行为,等等。为此,迫切需要加快提升人工智能安全治理能力,加强人工智能相关法律、伦理、社会问题等研究,建立健全保障人工智能健康发展的法律法规与伦理体系。

加快提升人工智能安全治理能力,需要完善相关的法律法规及行业标准。人工智能的安全秩序包含算法安全、数据安全、伦理安全、国家安全等维度。2019年以来,中国先后发布《新一代人工智能治理原则――发展负责任的人工智能》《全球数据安全倡议》等文件,明确了人工智能治理框架和行动指南。今年9月发布的《新一代人工智能伦理规范》强调,将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题,为从事人工智能相关活动的自然人、法人和其他相关机构等提供了伦理指引。

加快提升人工智能安全治理能力,要引导社会公众正确认识人工智能。人工智能监管者要提高站位,加强宏观战略研究与风险防范;人工智能研发者要坚持正确价值导向,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性;人工智能的技术提供者要明确告知义务,加强应急保障;人工智能产品的使用者,应当保证这一技术不被误用、滥用或恶用。要对各类伦理道德风险保持高度警惕,坚持以人为本,落实科技向善理念,弘扬社会主义核心价值观。

加强人工智能发展的潜在风险研判和防范,确保人工智能安全、可靠、可控,也是摆在世界各国面前的重要课题。在推动完善人工智能全球治理方面,中国是积极倡导者,也是率先践行者。2020年9月,中国发布《全球数据安全倡议》,明确提出秉持共商共建共享理念,齐心协力促进数据安全;今年5月,中国担任联合国安理会轮值主席期间,主持召开“新兴科技对国际和平与安全的影响”阿里亚模式会议,推动安理会首次聚焦人工智能等新兴科技问题,为国际社会探讨新兴科技全球治理问题提供了重要平台,体现了大国责任担当。

数字化浪潮扑面而来,信息化、数字化、智能化趋势不断演进。主动加强对人工智能的伦理与法律规范,才能更好适应人工智能快速发展的新变化、新要求,在法治轨道上推动人工智能向善发展、造福人类。

(作者为北京理工大学法学院教授)  

《人民日报》(2021年12月30日05版)(责编:袁勃、赵欣悦)

分享让更多人看到

规范人工智能:伦理问题在自动驾驶领域最为突出

文/张剑

编辑/鲁伟

人工智能技术飞速发展,但由此引发的相关问题仍然突出和多发。

9月25日,在“2021中关村论坛”上,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(下称《规范》)。《规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等六项基本伦理要求。

无独有偶。9月28日,“2021年世界互联网大会”举行闭幕新闻发布会,会上提出要坚持科技伦理,打击不法行为,人工智能发展要确保增进人类福祉,有效防范和打击黑客等网络不法行为,保护公平竞争和推动创新,消除数字鸿沟,让数字文明造福全人类。

有关专家对《财经》E法表示,自动驾驶、算法推荐、金融及医疗人工智能等领域,是目前人工智能伦理问题的多发领域。

新规提18项具体伦理要求

《规范》提出,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。同时,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展。

《规范》指出,人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范等共18项具体要求。其中,管理规范包含推动敏捷治理、积极实践示范、正确行权用权、加强风险防范、促进包容开放;研发规范包含强化自律意识、提升数据质量、增强安全透明、避免偏见歧视;供应规范包括尊重市场规则、加强质量管控、保障用户权益、强化应急保障;使用规范包含提倡善意使用、避免误用滥用、禁止违规恶用、及时主动反馈、提高使用能力。 

加强风险防范方面,需要增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力;保障用户权益方面,在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。

上海交通大学网络信息中心副主任姜开达表示,人工智能技术以数据、算法为驱动,发展速度确实迅猛,已经深刻改变了人类的社会生产和生活模式。但人工智能技术的滥用也冲击法律与社会伦理、涉嫌侵犯个人隐私。所以,既要大力发展人工智能,又要高度重视风险和挑战,科学处理好发展和安全的关系。通过出台法律法规、伦理规范以及行业自治,降低负面影响,促进人工智能的健康和可持续发展。

事实上,针对人工智能伦理问题,欧盟、美国此前已颁布类似规范。

2019年4月8日,欧盟委员会发布人工智能伦理准则。该准则由欧盟人工智能高级别专家组起草,列出了“可信赖人工智能”的七个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。欧盟将“人工智能”定义为“显示智能行为的系统”,它可以分析环境,并行使一定的自主权来执行任务。

2019年10月,美国国防创新委员会发布了一份关于人工智能伦理原则的报告,这份报告名为《人工智能原则:国防部人工智能应用伦理的若干建议》,提出“负责、公平、可追踪、可靠、可控”五大原则。

自动驾驶领域问题最突出

人工智能伦理问题讨论最多的领域当属自动驾驶。2018年3月18日晚,在美国亚利桑那州坦佩市(Tempe),一位名叫伊莱恩·赫兹伯格(ElaineHerzberg)的行人被一辆正在测试的自动驾驶汽车撞倒,因伤势过重而不幸身亡。肇事的车内当时有一名驾驶人,但车辆由一个完全的自驾系统(人工智能)所控制。此事件成为全球首例自动驾驶汽车撞死人案,事发后引发了全球各地公众对人工智能中伦理、道德和法律问题的思考。屡被提及的问题是:究竟该由谁对这一不幸事件负责,是这辆自动驾驶汽车公司的测试部门,还是人工智能系统的设计者,甚至是机载传感设备的制造商?

9月13日,上海交通大学开学第一天,“人工智能思维与伦理”课程在闵行校区开讲。该校凯原法学院教授郑戈的授课内容围绕自动驾驶中的伦理问题及与现行法律的衔接展开。郑戈在“理性的人工智能”专题中提出,自动驾驶系统如何尽到注意义务?注意义务是一个重要的法律概念,法律上的过失就是指违反注意义务。自动驾驶达到L3、L4级别后(美国汽车工程师学会(SAE)提出,自动驾驶的L3级别为“有条件自动化”,L4级别为“高度自动化”),如果发生交通事故,该由谁承担违反注意义务的责任?

“《道路交通安全法(修订建议稿)》已引入自动驾驶系统开发单位的责任,但这个问题其实很复杂。自动驾驶系统是一个由感知、定位、决策和控制模块组成的复杂系统,每个模块都有开发者。发生事故后,5G网络服务供应商有没有责任?高精地图供应商有没有责任?这些单位的法律责任界定问题,需要进一步研究。”郑戈希望通过对这个问题的讲解,让学生认识到,今后开发自动驾驶系统的各个模块时要尽到注意义务,从而使整个系统成为“理性的人工智能”。  

除了自动驾驶领域的问题,多位人工智能研究学者向《财经》E法介绍了人工智能伦理问题在其他领域的情况,主要可以归纳为:以算法为驱动的精准营销、内容推送领域,以及金融领域的智能风控、医疗人工智能等领域。

在算法驱动的精准营销领域,网络经营者通过收集并处理用户网络行为所形成的数据,绘制成数据化的人格图像,并以此为依据进行精准的广告投放。这样能够让经营者通过高效投放广告获得更高的营销收益比。但与此同时,“大数据杀熟”的问题屡被提及。

此外,用户的性别、年龄、地点、兴趣爱好、浏览行为、个人移动轨迹、手机型号、网络状况等信息,都是平台常规收集的内容。这可能会导致推荐系统过度收集用户个人数据,甚至在用户完全不知情的情况下跟踪和识别用户。

内容推送领域的问题如出一辙。定向推送以用户的喜好为主要标准,确实能为用户精准推送他喜欢的内容。但这也会出现由于用户频繁点击其所喜欢的内容,推荐系统便如同收到指令一般,为其源源不断地推送相似的内容,会导致限制用户接受其他新领域的信息,出现“信息茧房”。

在金融领域的智能风控领域,金融领域数据与用户的个人信用直接相关,金融机构在收集用户的海量数据(如年龄、收入、职业、学历、资产等)时,既要保证数据的安全性,即数据不被泄露、窃取或篡改,又要保证数据的准确性。现有的金融数据收集处理体系尚不完备、过程尚不够透明,用户的个人信用数据可能在用户不知晓的情况下发生负面变化;算法的缺陷,还容易引发大范围的歧视问题。

在医疗人工智能领域,人工智能在医疗场景下主要被应用于诊断、治疗和研究等领域。在这个过程中,可能出现算法安全和准确性问题,损害患者的身体健康;人工智能提供的医疗诊断方案源于算法,而算法存在的不可解释性与作为病人基本权利的知情权可能产生冲突。

资深人工智能专家、《计算广告》作者刘鹏对《财经》E法表示,虽然中国出台了人工智能伦理规范,但人工智能伦理问题依然复杂,面临的挑战还很多。从紧迫性角度来看,自动驾驶领域问题摆在首位,因为它与安全性密切相关。

自动驾驶技术升级完善的过程中,同样包含智能性与安全性的博弈,也包含复杂的伦理问题。刘鹏表示,目前智能汽车厂商倾向于把测试的环节尽可能缩短,让车的新功能先推向用户,在实际使用中去打磨和优化,并解决遇到的各种问题。但这种做法可能会让车主、行人等承担一定风险,在伦理上是值得商榷的。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇