多名专家做客“人工智能与技术伦理”课程
2021年11月9日、23日、30日下午,清华大学公共管理学院教授、人工智能治理研究中心主任、人工智能国际治理研究院副院长梁正教授、信息国家研究中心助理研究员顾心怡博士和西南政法大学高等研究院院长、人工智能法律研究院院长侯东德教授,先后做客我校核心通识课“人工智能与技术伦理”,分别在线做了题为“人工智能的负责任创新:从伦理到治理”、“由准则走向实践:企业的人工智能伦理构建”和“人工智能伦理与法治”的前沿讲座,并进行了线上同步直播。
梁正教授的讲座内容包括人工智能与社会相互嵌入的技术系统、人工智能风险与挑战、人工智能的负责任创新系统三大方面。梁教授系统介绍了人工智能在公共管理、科研、金融、政府决策等各个领域的嵌入。人工智能正在推动社会生活和公共治理的转型和变革,也带来了一定的影响与风险,风险不仅来源于人工智能技术本身,也来源于技术应用中的多种相关社会因素。为了应对这些风险,梁教授提出了从伦理到治理的新角度——构建一个多维共治的负责任的人工智能社会技术系统,即负责任的人工智能创新既需要创新者个人的伦理意识和自觉行动,也需要发挥政府监管、行业自律和社会监督的合力,建立三位一体的负责任创新系统。
侯东德教授的讲座内容包括伦理视野下的人工智能法治,人工智能生成物的法律保护,智能决策导致的法律责任和人工智能时代的法治建设四个方面。侯教授从伦理的视角解析了人工智能法治的内涵、价值追求和四大基本原则,探讨了如何定位人工智能的法律地位。侯教授认为人工智能不具备成为法律主体资格的条件,应定性为法律的客体。法学界对于人工智能生成物的保护也存在争议,侯教授认为在当前的假设和条件下,人工智能生成物既不具备作品的独创性,但人工智能生成物在法律上具有邻接权。针对未来人工智能技术的应用给人类带来各种程度损害的可能情况,侯教授分别从民事、刑事和行政三个层面分析了相关的责任归属问题,以及在法律内外针对不同程度风险采取不同防范措施的必要性。
顾心怡博士的讲座内容包括企业伦理的发展沿革与伦理构建、人工智能企业现状与伦理问题和构建企业人工智能伦理的措施与机制三个部分。在人工智能时代,企业是人工智能伦理的实践主体,顾老师回顾了企业伦理学的发展历程以及与企业伦理相关的理论基础,以及企业的组织关系、商业模式和伦理责任的变革。企业伦理建设涉及技术安全、数据治理、算法公平和可问责性几大方面,伦理的竞争也成为当今商业竞争的核心。企业不仅要重视经济利益,也要重视道德价值的实现。顾老师提出了一些具体的企业构建的伦理准则与机制,建立联通企业经济效益与社会效益之间相互促进的协调机制,实现技术与产业的可持续发展。
三位老师都和同学们进行了积极互动,解答了他们提出的问题。同时,他们希望AI领域的科研和技术人员能够充分重视AI伦理与治理的重大意义,促进AI技术健康可持续发展。三位老师的讲座为本科课程增添了新的内容,为师生们在人工智能及伦理治理的学习和研究中提供新的思路与视角。
梁正,清华大学公共管理学院教授,人工智能治理研究中心主任,清华大学人工智能国际治理研究院副院长,清华大学中国科技政策研究中心副主任,清华大学科技发展与治理研究中心学术委员会秘书长,兼任中国科学学与科技政策研究会常务理事、副秘书长,中国知识产权研究会高校知识产权专业委员会和中国城市经济学会城市公共经济与政策专业委员会副主任,《科学与管理》、《中国标准化》杂志编委。先后获第八届高等学校科学研究优秀成果一等奖,中国科学学与科技政策研究会优秀青年奖等多项奖励。主要研究方向为科技创新政策、研发全球化、标准与知识产权、新兴技术治理。
侯东德,西南政法大学民商法学院教授,高等研究院院长,人工智能法律研究院院长,中国法学会商法学研究会理事。长期从事民商法学的教学和理论研究工作,主持及参加课题研究十余项,出版学术专著及教材五部,发表学术论文三十余篇。
顾心怡,北京大学哲学系伦理学博士,清华大学信息国家研究中心助理研究员。曾参编教材《人工智能伦理导引》,于《科学技术哲学研究》等刊物发表论文,如《脑机接口的伦理问题研究》。主要研究方向为人工智能伦理、脑机接口伦理等。
(计算机学院,人文学院)
人工智能伦理研究,正让从业者感到无比疲惫
0分享至当玛格丽特·米切尔意识到自己需要休息一下时,她刚刚在工作了两年。“我开始定期出现精神崩溃,”说,她创立了并共同领导了该公司的人工智能伦理团队。“这是我以前从来没有经历过的事情。”在与心理治疗师交谈后,她才明白了问题所在:工作让她精疲力尽。最终由于压力太大,她选择了休病假。现在是人工智能初创公司的首席伦理科学家,她的遭遇并非孤例。蒙特利尔人工智能伦理研究所的创始人、波士顿咨询集团顾问阿比谢克·古普塔()表示,职业倦怠在与“负责任的人工智能(ResponsibleAI)”相关的团队中变得越来越普遍。科技公司正面临着来自监管机构和活动人士的越来越大的压力,要求他们确保其人工智能产品在开发时就采用一些减轻潜在危害的方法。作为应对措施的一部分,他们投资并组建了团队,评估人们的生活、社会和政治系统如何受到人工智能系统的设计、开发和部署方式的影响。等科技公司被迫为内容审核员等员工提供补偿和额外的心理健康支持,这些员工往往需要筛选可能造成创伤的图片和暴力内容。但员工们告诉《麻省理工科技评论》,研究负责任人工智能的团队往往只能“自求多福”,尽管这项工作像内容审核一样让人身心俱疲。最终,这可能会让团队中的人感到被低估,从而影响他们的心理健康,导致职业倦怠。鲁姆曼·乔杜里()领导着的机器学习伦理、透明度和责任团队,也是应用人工智能伦理的先行者,她曾在之前的职位中面临过相同的问题。“有那么一瞬间,我感到无比疲惫,情况有点绝望。”所有接受《麻省理工科技评论》采访的从业者都热情地谈论了他们的工作:它由激情、紧迫感和为真实问题构建解决方案的满足感所推动。但如果没有正确的支持,这种使命感可能会难以为继。说:“你会感觉自己一刻都不能松懈。在科技公司工作的这群人,他们的工作是保护这个平台上的用户。我有一种感觉,如果我去度假,或者没有24小时都保持注意力,就会有糟糕的事情发生。”还在继续研究人工智能伦理,她说,“因为它是如此的被需要,而且很显然,很少有人让真正从事机器学习的人意识到它。”但目前也面临很多挑战。科技公司向个人施加巨大的压力,要求他们在没有适当支持的情况下解决重大的系统性问题,而与此同时,公司本身也在网络上面临着持续不断的激进批评。(来源:STEPHANIEARNETT/MITTR|UNSPLASH)认知失调人工智能伦理学家或人工智能伦理团队成员的角色差异很大,从分析人工智能系统的社会影响,到制定负责任的策略和政策,再到解决技术问题。通常情况下,这些工作人员还被要求找到减轻人工智能危害的方法,从传播仇恨言论的算法,到以歧视性方式分配住房和福利的系统,再到暴力图像和语言的传播。这其中包括,试图解决人工智能系统中的种族歧视、性别歧视等根深蒂固的问题,比如亲自分析包含各种有毒内容的大型数据集。人工智能系统能够反映出我们社会中最严重的问题,比如种族主义和性别歧视,甚至是加剧这些问题。有问题的技术包括将黑人归为大猩猩的面部识别系统,还有将色情视频人物换头的深度伪造软件。处理这些问题对女性、有色人种和其他边缘群体来说尤其费力,这对人工智能道德工作施加了更大的压力。虽然职业倦怠并不是人工智能伦理从业者所特有的,但《麻省理工科技评论》采访的所有专家都表示,他们在该领域面临着特别棘手的挑战。说:“你所做的工作使你每天都受到伤害。这让歧视存在的事实变得更糟糕,因为你不能忽视它。”但是,尽管公众越来越意识到人工智能构成的风险,但伦理学家发现自己仍需努力得到人工智能领域的同事的认可。有些人甚至贬低了人工智能伦理学家的工作。开发开源文字转图片AI系统的公司的CEO埃马德·莫斯塔克()在上说,围绕他的技术的道德辩论是“家长式的”。和该公司都未回应《麻省理工科技评论》的置评请求。“在人工智能领域工作的人大多是工程师,他们对人文不感兴趣,”人工智能伦理学家、智库全球人工智能伦理研究所(GlobalAIEthicsInstitute)的创始人伊曼纽尔·戈菲()说。表示,公司只想要一个快速的技术修复方案;他们希望有人“带着三张幻灯片、列出四个要点,就能向他们解释清楚如何合乎伦理。”补充说,(真正的)伦理思维需要更深入,它应该应用于整个组织的运作方式。他说:“从心理上讲,最困难的部分是,你必须每天、每一分钟都在你的信仰和你必须做什么之间做出妥协。”说,科技公司的态度,尤其是机器学习团队,加剧了这个问题。“你不仅要努力解决这些棘手的问题,你还必须向他们证明这些问题值得被解决。这根本算不上获得支持,而是减少抵抗。”补充说:“有些人认为(人工智能)伦理是一个毫无价值的领域,认为我们这些伦理工作者对人工智能的进步持否定态度。”社交媒体也让研究人员更容易遭到批评人士的攻击。说,与那些不重视自己工作的人接触没有意义,“但如果你被标记或特别攻击,或者你的工作被提起,就很难不接触这些人。”飞速发展而又危机四伏
人工智能研究的快速发展也没有带来任何帮助,人工智能领域的新突破总是又多又快。仅在过去的一年里,科技公司就推出了从文本生成图像的人工智能系统,仅仅几周后,我们就看到了更令人印象深刻的从文本生成视频的人工智能软件。这是一个令人印象深刻的进展,但每一个新突破都可能带来新的潜在危害,造成持续的负面影响。从文本到图像的人工智能可能会侵犯版权,它可能会在充满有毒内容的数据集上进行训练,从而导致不安全的结果。说:“追逐上的热点话题实在让人筋疲力尽。”她说,伦理学家不可能在每一个新突破所带来的无数不同问题上成为专家,但她仍然觉得,她必须跟上人工智能信息周期的每一个转折,以免错过一些重要的东西。说,作为一个资源丰富的团队的一员,让她觉得安心,因为她不必独自承担负担。她说:“我知道我可以离开一个星期,也不会有太大的问题,因为还有其他同事。”但在一家大型科技公司工作,该公司有足够的资金,并且会雇佣一个团队来研究人工智能伦理。并不是每个人都这么幸运。澳大利亚数据分析伦理研究初创公司Multitudes的数据分析师卡蒂亚尔(VivekKatial)表示,在较小的人工智能初创公司工作的人,会从投资方面临更大的业务发展压力,与投资方签署的合同并不会清楚地写上“为了建立负责任的技术而花费XXX”。卡蒂亚尔说,科技行业应该要求更多的风险投资者认识到,“他们需要为更负责任的技术支付更多的钱。”问题是,根据麻省理工学院斯隆管理评论和波士顿咨询集团2022年发布的一份报告,许多公司甚至看不出他们有问题。42%的受访者认为,人工智能是首要战略重点,但只有19%的受访者表示,他们的组织构建了负责任的人工智能项目。说,一些人可能认为自己在考虑如何降低人工智能的风险,但他们没有雇佣合适的人担任正确的角色,也没有给他们必要的资源,将负责任的人工智能付诸实践。他补充道:“人们由此开始感到沮丧并产生职业倦怠。”不断增长的需求关于是否要采取行动支持人工智能伦理,企业在不久的将来可能再也无法自主选择,因为监管机构正开始起草针对人工智能的法律。欧盟即将出台的人工智能法案和人工智能责任法,将要求企业记录他们是如何减轻危害的。在美国,纽约、加州和其他地方的立法者正在努力对高风险行业的人工智能进行监管,比如招聘领域。2022年10月初,白宫公布了人工智能权利法案,其中列出了美国人在自动化系统方面应该拥有的五项权利。该法案可能会推动联邦机构,加强对人工智能系统和公司的审查。尽管动荡的全球经济导致许多科技公司冻结招聘,并且进行大规模裁员,但负责任的人工智能团队从未像现在这样重要,因为推出不安全或非法的人工智能系统,可能会使公司面临巨额罚款或要求删除其算法的风险。例如,2021年春天,美国监管机构发现了慧俪轻体(WeightWatchers)非法收集儿童数据,其算法被强行删除。开发人工智能模型和收集数据库是一笔重大投资,而被监管机构强迫完全删除他们,对公司而言是一个巨大的打击。精疲力竭和持续的被低估感可能会导致人们完全离开人工智能伦理领域,这可能会损害整个人工智能治理和伦理研究领域。那些在解决人工智能造成的危害方面经验最丰富的人,可能往往是最疲惫的,因此他们心灰意冷的风险尤其大。说:“仅仅失去一个人就会严重影响整个组织,因为一个人积累的专业知识极其难以替代。”2020年底,解雇了其人工智能伦理团队的联合领导人,并且在几个月后解雇了,还有其他几名成员在接下来的几个月也离开了。说,这种人才流失对人工智能伦理方面的进步带来了“严重的风险”,并且使企业更难遵守他们的项目。2021年,宣布将人工智能伦理的研究人员增加一倍,但此后没有对其进展发表评论。告诉《麻省理工科技评论》,它提供了心理健康弹性培训,同事对同事的心理健康支持计划,并且为员工提供数字工具来帮助实现正念。还为员工提供在线的心理健康服务,但它没有回答有关在公司工作时间的问题。表示,它已经投资了一些福利,比如每年为员工及其家人提供25次免费(心理)治疗。表示,它提供员工咨询和辅导课程,以及职业倦怠预防培训。还有一个专门关注心理健康的同伴支持项目。这些公司都没有提到,专门为人工智能伦理团队的员工提供了哪些支持。说,有关人工智能合规和风险管理的需求正在增长,科技公司的高管们需要确保他们在负责任的人工智能项目上投入了足够的资金。这些改变是从上到下的。他说:“高管们需要讨论他们需要分配的资金、时间、资源。”否则,从事人工智能伦理工作的人“注定会失败”。补充说,成功的负责任的人工智能团队需要足够的工具、资源和人员来解决问题,但他们也需要跨机构和组织的关系,以及推行改变所需的权力。乔杜里说,科技公司的许多心理健康资源集中在时间管理和工作、生活平衡上,但对于那些工作性质就很糟糕的人,则需要更多的支持。她补充说,专门为人工智能伦理的技术人员提供的心理健康资源也会有所帮助。说:“人们还没有对从事此类工作的人产生足够认可,更不会支持或鼓励人们脱离它。”“大型科技公司处理这种事情的唯一机制,就是忽视它的现实。”支持:Ren原文:https://www.technologyreview.com/2022/10/28/1062332/responsible-ai-has-a-burnout-problem/特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端