多名专家做客“人工智能与技术伦理”课程
2021年11月9日、23日、30日下午,清华大学公共管理学院教授、人工智能治理研究中心主任、人工智能国际治理研究院副院长梁正教授、信息国家研究中心助理研究员顾心怡博士和西南政法大学高等研究院院长、人工智能法律研究院院长侯东德教授,先后做客我校核心通识课“人工智能与技术伦理”,分别在线做了题为“人工智能的负责任创新:从伦理到治理”、“由准则走向实践:企业的人工智能伦理构建”和“人工智能伦理与法治”的前沿讲座,并进行了线上同步直播。
梁正教授的讲座内容包括人工智能与社会相互嵌入的技术系统、人工智能风险与挑战、人工智能的负责任创新系统三大方面。梁教授系统介绍了人工智能在公共管理、科研、金融、政府决策等各个领域的嵌入。人工智能正在推动社会生活和公共治理的转型和变革,也带来了一定的影响与风险,风险不仅来源于人工智能技术本身,也来源于技术应用中的多种相关社会因素。为了应对这些风险,梁教授提出了从伦理到治理的新角度——构建一个多维共治的负责任的人工智能社会技术系统,即负责任的人工智能创新既需要创新者个人的伦理意识和自觉行动,也需要发挥政府监管、行业自律和社会监督的合力,建立三位一体的负责任创新系统。
侯东德教授的讲座内容包括伦理视野下的人工智能法治,人工智能生成物的法律保护,智能决策导致的法律责任和人工智能时代的法治建设四个方面。侯教授从伦理的视角解析了人工智能法治的内涵、价值追求和四大基本原则,探讨了如何定位人工智能的法律地位。侯教授认为人工智能不具备成为法律主体资格的条件,应定性为法律的客体。法学界对于人工智能生成物的保护也存在争议,侯教授认为在当前的假设和条件下,人工智能生成物既不具备作品的独创性,但人工智能生成物在法律上具有邻接权。针对未来人工智能技术的应用给人类带来各种程度损害的可能情况,侯教授分别从民事、刑事和行政三个层面分析了相关的责任归属问题,以及在法律内外针对不同程度风险采取不同防范措施的必要性。
顾心怡博士的讲座内容包括企业伦理的发展沿革与伦理构建、人工智能企业现状与伦理问题和构建企业人工智能伦理的措施与机制三个部分。在人工智能时代,企业是人工智能伦理的实践主体,顾老师回顾了企业伦理学的发展历程以及与企业伦理相关的理论基础,以及企业的组织关系、商业模式和伦理责任的变革。企业伦理建设涉及技术安全、数据治理、算法公平和可问责性几大方面,伦理的竞争也成为当今商业竞争的核心。企业不仅要重视经济利益,也要重视道德价值的实现。顾老师提出了一些具体的企业构建的伦理准则与机制,建立联通企业经济效益与社会效益之间相互促进的协调机制,实现技术与产业的可持续发展。
三位老师都和同学们进行了积极互动,解答了他们提出的问题。同时,他们希望AI领域的科研和技术人员能够充分重视AI伦理与治理的重大意义,促进AI技术健康可持续发展。三位老师的讲座为本科课程增添了新的内容,为师生们在人工智能及伦理治理的学习和研究中提供新的思路与视角。
梁正,清华大学公共管理学院教授,人工智能治理研究中心主任,清华大学人工智能国际治理研究院副院长,清华大学中国科技政策研究中心副主任,清华大学科技发展与治理研究中心学术委员会秘书长,兼任中国科学学与科技政策研究会常务理事、副秘书长,中国知识产权研究会高校知识产权专业委员会和中国城市经济学会城市公共经济与政策专业委员会副主任,《科学与管理》、《中国标准化》杂志编委。先后获第八届高等学校科学研究优秀成果一等奖,中国科学学与科技政策研究会优秀青年奖等多项奖励。主要研究方向为科技创新政策、研发全球化、标准与知识产权、新兴技术治理。
侯东德,西南政法大学民商法学院教授,高等研究院院长,人工智能法律研究院院长,中国法学会商法学研究会理事。长期从事民商法学的教学和理论研究工作,主持及参加课题研究十余项,出版学术专著及教材五部,发表学术论文三十余篇。
顾心怡,北京大学哲学系伦理学博士,清华大学信息国家研究中心助理研究员。曾参编教材《人工智能伦理导引》,于《科学技术哲学研究》等刊物发表论文,如《脑机接口的伦理问题研究》。主要研究方向为人工智能伦理、脑机接口伦理等。
(计算机学院,人文学院)
人工智能加速发展 如何合理看待和利用
当我们关注人工智能发展的时候,惊叹人工智能会怎样深刻影响我们的生活、影响我们的社会;当我们不断惊叹人工智能变化的时候,它又会带给我们的现实生活什么样的争论和无奈?文字、声音、图片、视频,人工智能正在给社交媒体带来什么?
如何看待人工智能合成技术的应用?
中科院自动化研究所人工智能伦理与治理研究中心主任曾毅:利用人工智能做内容的生成是近几年开始出现的现象。我想跟以前不同的是,现在的人工智能技术做内容生成,它的逼真度确实已经非常接近真实,在有一些场景下确实比较难分辨了。所以很多内容在其他场景下出现的时候,并没有明确声明的情况下,它的误导性非常强。所以我认为只要是利用人工智能内容生成这样的技术,相关的视频、文本在任何场景下出现时,实际上都应当保留明确的声明,否则误导性非常强。
如何解决人工智能加速发展过程中的风险?
中科院自动化研究所人工智能伦理与治理研究中心主任曾毅:对于未来人工智能相关的使用、服务,它的教育需要有一个专门的环节,对可能的人工智能的伦理产生的挑战也应当融入教育环节当中。对于伦理的教育,我觉得是一个不可或缺的环节。技术可能的风险是什么,如何避免滥用和恶用,应该纳入到职业以及教育过程当中去。
当“眼见未必为实”时,我们能做些什么?
中科院自动化研究所人工智能伦理与治理研究中心主任曾毅:现在实际上要提升的是关于类似于人工智能这样的技术在进入社会时我们的愿景问题。我们作为人工智能技术的研发者、使用者和部署者,以及用户、政府、技术提供方都有不同的责任。对于公众来讲,信息是不是相关的、真实的,自己要有一定的鉴别能力,要提升对技术的认知和伦理的意识。另一方面,在人工智能的服务和应用上,各个相关方都有自己的责任。如果每一方都尽到了自己的责任,实际上人工智能滥用和误用的可能性是可以被大大降低的。
怎样把握治理人工智能的度?
中科院自动化研究所人工智能伦理与治理研究中心主任曾毅:在进行人工智能应用的时候,我们关注它的伦理问题、治理问题,目的并不是阻碍人工智能技术发展,恰恰是保障人工智能稳健健康发展。如果在人工智能研发和应用的时候没有进行伦理审查及治理,人工智能这项技术是很有可能野蛮生长的。所以在这种情况下,我们应当在发展的同时伦理先行,建立相对完善的治理体系,保障人工智能技术的研发使用能够稳健。
来源:央视新闻客户端
编辑:高珊珊
流程编辑:郭丹