德国伦理委员会
前德国文化部部长朱利安·尼达-诺姆林教授强调人类责任的意义。不能将责任“分配给机器或与机器分担责任”。伦理委员会认为,在媒体和通讯中使用人工智能,如搜索引擎、新闻推送或社交媒体,如果不能实现透明使用人工智能,那将存在巨大风险。特别是个性推送会给人造成是客观选择的印象,但实际上这是人工智能处理过用户行为后的反映。究其原因是私人供应商需要将用户与企业捆绑并从中获得商业利益。“所提供的信息和意见的范围被缩小,这就是结果。”朱利安·尼达-诺姆林警告说。伦理委员会认为,应对这种情况的方法之一可以是建立一个公共数字通信结构——用于替代私人数字企业的平台。尼达-诺姆林说,这不应与德国的公共广播混为一谈,这些平台可以由公共基金会运营,不受到过多的国家影响。
©www.deutschland.de
您希望定期接收到有关德国的信息?在此注册:
我国人工智能伦理监管需求分析及对策研究
[1] 吴红,杜严勇.人工智能伦理治理:从原则到行动[J].自然辩证法研究,2021,37(4):49–54.WuH,DuYY.Artificialintelligenceethicalgovernance:Translatingprinciplesintopractices[J].StudiesinDialecticsofNature,2021,37(4):49–54.链接1
[2] 李茂久,张静.人工智能危害风险的理性审视与治理体系研究[J].大连理工大学学报(社会科学版),2021,42(3):15–23.LiMJ,ZhangJ.Arationalreviewofharmfulrisksoftheartificialintelligenceandagovernancesystem[J].JournalofDalianUniversityofTechnology(SocialSciences),2021,42(3):15–23.链接1
[3] 王立,王洁.我国自动驾驶汽车管理与法制保障研究——以道路交通安全管理为视角[J].北京警察学院学报,2021(1):8–12.WangL,WangJ.ResearchonthemanagementandlegalguaranteeofChina’sautomaticdrivingvehicle:Fromtheperspectiveofroadtrafficsafetymanagement[J].JournalofBeijingPoliceCollege,2021(1):8–12.链接1
[4] 赛迪智库信息化形势分析课题组.2020年中国信息化发展形势展望[N].中国计算机报,2020-01-20(12).CCIDThinkTankInformationizationSituationAnalysisGroup.ProspectsforChina’sinformationdevelopmentin2020[N].ChinaInformationWorld,2020-01-20(12).
[5] FutureofLifeInstitute.AsilomarAIprinciples[EB/OL].(2017-01-17)[2021-03-15].https://futureoflife.org/ai-principleschinese/?cn-reloaded=1.链接1
[6] 徐玖玖.数据法治安全与发展价值的衡平路径——以《数据安全法(草案)》的突破与困境为视角[J].山东科技大学学报(社会科学版),2021,23(2):38–43.XuJJ.Equitablepathofsecurityanddevelopmentvalueindataundertheruleoflaw—FromtheperspectiveofthebreakthroughanddilemmaoftheDatasecuritylaw(“Draft”)[J].JournalofShandongUniversityofScienceandTechnology(SocialSciences),2021,23(2):38–43.链接1
[7] 李安.算法影响评价:算法规制的制度创新[J].情报杂志,2021,40(3):146–152.LiA.Algorithmimpactassessments:Institutionalinnovationofalgorithmregulation[J].JournalofIntelligence,2021,40(3):146–152.链接1
[8] 彭兰.网络传播概论(第四版)[M].北京:中国人民大学出版社,2017.PengL.Introductiontonetworkcommunication(4thEdition)[M].Beijing:ChinaRenminUniversityPress,2017.
[9] ShemtovDN.AstudyoninventorshipininventionsinvolvingAIactivity[EB/OL].(2019-10-10)[2021-03-15].https://www.uspto.gov/sites/default/files/documents/Carl-Yelland_RFC-84-FR-44889.pdf.链接1
[10] 高超.大数据技术的“隐私”与“知悉”伦理反思[J].西部学刊,2021(4):20–23.GaoC.Ethicalreflectionson“privacy”and“knowing”ofbigdatatechnology[J].WestJournal,2021(4):20–23.链接1
[11] 巩辰.全球人工智能治理——“未来”到来与全球治理新议程[J].国际展望,2018,10(5):36–55.GongC.GlobalAIgovernance:Theearlyarrivaloffutureandanewagendaglobalreview[J].GlobalReview,2018,10(5):36–55.链接1
[12] 王国豫.推进新时代科技伦理学新发展[N].中国社会科学报,2020-01-14(6).WangGY.Promotingthenewdevelopmentofethicsofscienceandtechnologyinthenewera[N].ChinaSocialSciencesToday,2020-01-14(6).
[13] 梁俊兰.信息伦理学:新兴的交叉科学[J].国外社会科学,2002(1):46–50.LiangJL.Informationethics:Anewinterdisciplinaryscience[J].SocialSciencesAbroad,2002(1):46–50.链接1
[14] 雷瑞鹏,邱仁宗.新兴技术中的伦理和监管问题[J].山东科技大学学报(社会科学版),2019,21(4):1–11.LeiRP,QiuRZ.Ethicalandregulatoryissuesinemergingtechnologies[J].JournalofShandongUniversityofScienceandTechnology(SocialSciences),2019,21(4):1–11.链接1
[15] 刘志辉,孙帅.大科学时代我国科技伦理中待解决的问题——以“主体–工具–价值”为框架的分析[J].中国高校科技,2020(11):69–73.LiuZH,SunS.Problemstobesolvedintheethicsofscienceandtechnologyinthebigscienceera:Ananalysisbasedontheframeworkof“subject-tool-value”[J].ChineseUniversityScience&Technology,2020(11):69–73.链接1
[16] 国家信息化专家咨询委员会秘书处.中国信息化形势分析与预测(2018—2019)[M].北京:社会科学文献出版社,2019.SecretariatofAdvisoryCommitteeforStateInformatization.AnalysisandforecastofChina’sinformatizationforms(2018—2019)[M].Beijing:SocialSciencesAcademicPress(China),2019.
《新一代人工智能伦理规范》发布
9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。
《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。
《伦理规范》全文如下:
新一代人工智能伦理规范
为深入贯彻《新一代人工智能发展规划》,细化落实《新一代人工智能治理原则》,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展,制定本规范。
第一章总则
第一条本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。
第二条本规范适用于从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等。
(一)管理活动主要指人工智能相关的战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。
(二)研发活动主要指人工智能相关的科学研究、技术开发、产品研制等。
(三)供应活动主要指人工智能产品与服务相关的生产、运营、销售等。
(四)使用活动主要指人工智能产品与服务相关的采购、消费、操作等。
第三条人工智能各类活动应遵循以下基本伦理规范。
(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。
(二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。
(三)保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。
(四)确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。
(五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。
(六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。
第四条人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范。
第二章管理规范
第五条推动敏捷治理。尊重人工智能发展规律,充分认识人工智能的潜力与局限,持续优化治理机制和方式,在战略决策、制度建设、资源配置过程中,不脱离实际、不急功近利,有序推动人工智能健康和可持续发展。
第六条积极实践示范。遵守人工智能相关法规、政策和标准,主动将人工智能伦理道德融入管理全过程,率先成为人工智能伦理治理的实践者和推动者,及时总结推广人工智能治理经验,积极回应社会对人工智能的伦理关切。
第七条正确行权用权。明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序。充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。
第八条加强风险防范。增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。
第九条促进包容开放。充分重视人工智能各利益相关主体的权益与诉求,鼓励应用多样化的人工智能技术解决经济社会发展实际问题,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的人工智能治理框架和标准规范。
第三章研发规范
第十条强化自律意识。加强人工智能研发相关活动的自我约束,主动将人工智能伦理道德融入技术研发各环节,自觉开展自我审查,加强自我管理,不从事违背伦理道德的人工智能研发。
第十一条提升数据质量。在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。
第十二条增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。
第十三条避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。
第四章供应规范
第十四条尊重市场规则。严格遵守市场准入、竞争、交易等活动的各种规章制度,积极维护市场秩序,营造有利于人工智能发展的市场环境,不得以数据垄断、平台垄断等破坏市场有序竞争,禁止以任何手段侵犯其他主体的知识产权。
第十五条加强质量管控。强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。
第十六条保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。
第十七条强化应急保障。研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。
第五章使用规范
第十八条提倡善意使用。加强人工智能产品与服务使用前的论证和评估,充分了解人工智能产品与服务带来的益处,充分考虑各利益相关主体的合法权益,更好促进经济繁荣、社会进步和可持续发展。
第十九条避免误用滥用。充分了解人工智能产品与服务的适用范围和负面影响,切实尊重相关主体不使用人工智能产品或服务的权利,避免不当使用和滥用人工智能产品与服务,避免非故意造成对他人合法权益的损害。
第二十条禁止违规恶用。禁止使用不符合法律法规、伦理道德和标准规范的人工智能产品与服务,禁止使用人工智能产品与服务从事不法活动,严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益等。
第二十一条及时主动反馈。积极参与人工智能伦理治理实践,对使用人工智能产品与服务过程中发现的技术安全漏洞、政策法规真空、监管滞后等问题,应及时向相关主体反馈,并协助解决。
第二十二条提高使用能力。积极学习人工智能相关知识,主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用。
第六章组织实施
第二十三条本规范由国家新一代人工智能治理专业委员会发布,并负责解释和指导实施。
第二十四条各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。
第二十五条本规范自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。
国家新一代人工智能治理专业委员会
2021年9月25日
(来源:科技部战略规划司)
原标题:《《新一代人工智能伦理规范》发布》
【中国科学报】人工智能伦理迈向全球共识新征程
日前,联合国教科文组织(UNESCO)正式发布《人工智能伦理建议书》(以下简称《建议书》),这是关于人工智能伦理的首份全球性规范文书。
作为UNESCO人工智能伦理特设专家组成员,中科院自动化研究所中英人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅参与了《建议书》的起草与修改。
曾毅在接受《中国科学报》采访时表示,“《建议书》是目前全世界在政府层面达成的最广泛的共识,是全球人工智能发展的共同纲领,将为进一步形成人工智能伦理有关的国际标准、国际法等提供强有力的参考。”
走向全球共识
隐私、安全、公平、对人类的潜在风险……人工智能在飞速发展的同时,也给社会带来了根本性的挑战。
虽然不同国家、政府间组织、科研和产业界已经发布了不少关于人工智能发展、伦理与治理原则,但这些原则并没有形成统一观念,人工智能伦理亟待达成全球共识。
UNESCO总干事阿祖莱在《建议书》发布会上表示,“我们呼吁所有的成员国立即行动起来开始实施这份建议书。民众、企业等全社会都应当行动起来。这项工作已经开始了,20余个国家已经表态当《建议书》被采纳后,将受《建议书》的启发开启评估。UNESCO将推进务实的评估落地工作。”
此次发布的《建议书》的核心是价值观、伦理原则及相关的政策建议、监测与评估。在价值观方面,《建议书》从尊重、保护和促进人权和基本自由以及人的尊严,环境和生态系统蓬勃发展,确保多样性和包容性,以及在和平、公正与互联的社会中共生等4部分进行了阐述。
曾毅认为,《建议书》囊括了针对现代人工智能(人工智能作为信息处理工具和赋能技术)伦理考虑的最重要方面。
例如,虽然大规模数据处理及算力的提升促进了现代人工智能的发展,但也带来了潜在的环境问题。
为此,《建议书》在价值观“环境和生态系统蓬勃发展”部分指出,应减少人工智能系统对环境的影响,包括但不限于碳足迹,以确保将气候变化和环境风险因素降到最低,防止会加剧环境恶化和生态系统退化的对自然资源的不可持续开采、使用和转化。
此外,《建议书》还考虑了不适用人工智能的场景,并在“相称性与不损害”的原则部分提出,人工智能技术本身并不一定能确保人类、环境和生态系统蓬勃发展。在有可能对人类、人权和基本自由、个别社区和整个社会,或者对环境和生态系统造成损害时,应确保落实风险评估程序并采取措施,以防止发生此类损害。
不仅如此,《建议书》在此部分还明确提出人类应当确保在关键领域进行有意义的控制,并确保人类的决策权,并对高风险领域进行了警示。
“和谐共生”价值观被部分采纳
在曾毅看来,《建议书》在一定程度体现了全球不同文化的包容性思想。其中“在和平、公正与互联的社会中共生”的价值观充分体现了来自亚洲和非洲等国专家的共同愿景与贡献。
在UNESCO特设专家组撰写草案期间,鉴于部分国家和政府间组织的人工智能原则强调自身的价值观和利益优先,曾毅提议纳入“和谐共生”的价值观。
在曾毅看来,“和谐共生”的价值观,是倡导人类社会与人工智能技术和谐发展,人工智能赋能人类、社会、生态之间的和谐发展,号召各个国家通过人工智能促进人类命运共同体的构建。
他告诉记者,“和谐共生”的思想在由国家新一代人工智能治理专委会制定的《新一代人工智能治理原则》以及《新一代人工智能伦理规范》中以“和谐友好”等形式和内容体现相似表述,是我国发展人工智能技术,处理技术与社会关系的总纲。
虽然“和谐共生”的提议被来自亚洲和非洲等多国的特设专家组专家及部分政府间磋商代表所赞同,但在随后的环节,由于部分国家代表未能接受“和谐”“人类命运共同体”的提法,随后改为“在和平、公正与互联的社会中共生”,“和谐共生”的核心要义得以部分保留和采纳。
例如,《建议书》在“在和平、公正与互联的社会中共生”的部分强调“每个人都属于一个更大的整体,当这个整体中的组成部分都能够繁荣兴旺时,整体才会蒸蒸日上”等内容。
曾毅对此感到有些遗憾,“‘和平共生’与‘和谐共生’的意义并不完全相同。‘和谐共生’在和而不同、和舟共济的基础上还有发展的意义,倡导优化共生,而‘和平共生’这种表述难以表达求同存异,谋求发展的意义。”
但他也表示,虽然《建议书》没有直接采纳“和谐共生”的表述,但相关思想得以保留,被各国专家认为是《建议书》中融入非西方价值观的重要体现。
“‘和谐共生’的理念已经作为我国人工智能伦理与治理原则的特色,未来必然会成为中国对世界的贡献。”曾毅表示。
可持续发展的共同愿景
可持续发展目标是联合国各机构力推的全球发展共同愿景,我国发布的《新一代人工智能治理原则》以及《新一代人工智能伦理规范》都将可持续发展作为新一代人工智能的总体愿景和赋能全球人工智能发展的重要途径。然而很多国家在人工智能发展和伦理原则中并没有明确提出可持续性。
因此,在《建议书》原则部分的撰写阶段,曾毅提出,虽然可持续的理念隐含在文本中的若干方面,但作为全球共同愿景,发展人工智能必须赋能可持续发展目标的实现,同时还要密切关注人工智能应用于可持续发展相关目标领域时,是否带来阻碍该目标实现的风险,寻求发展与治理的协同。“‘可持续’应当作为原则明确列入《建议书》。”
最终,该意见被《建议书》不同阶段广泛接受,并在政策部分,特别针对环境和生态系统领域如何通过人工智能赋能实现可持续性给出了具体建议。
实际上,除了参与起草和修改《建议书》,曾毅还在UNESCO组织的区域性专家咨询会上代表UNESCO特设专家组向亚太地区各国政府专家代表宣讲了《建议书》草案,并作为政府间专家磋商的中方专家代表参加磋商。
曾毅告诉记者,起草和宣讲《建议书》时,他从未感到紧张,因为在那个阶段,他的角色更多的是贡献学术观点的独立的学者。但在政府间代表磋商阶段,特别是被称为“成员国中国代表”时,他倍感责任重大。
目前,UNESCO正在依据《建议书》建立伦理评估工具和针对国家人工智能伦理完备指数评估的辅助系统,以敦促和帮助各国落实伦理规范。
在曾毅看来,人工智能的国际协作是通过技术赋能助力实现人类命运共同体,而人工智能伦理与治理的国际交流与协作是确保人工智能国际合作能够达成共识,并持续推进的基石。
“因此,十分有必要推进形成由类似于UNESCO这样的政府间机构、各国政府、学术界、产业、公众紧密交互的多利益相关方人工智能治理体系,通过深度协同扩大共识、避免误解、减小分歧,确保人工智能的全球发展及其治理最终促进人类和生态的整体协同发展。”曾毅表示。
类脑院伦理委员会章程(试行)
复旦大学类脑人工智能科学与技术研究院伦理委员会章程(试行)
为确保复旦大学类脑人工智能科学与技术研究院研究人员计划开展的涉及人体的科学研究遵守国家有关规定及有关国际组织颁布的指导规程,且涉及对象的尊严、安全和权益得到保护,根据世界医学协会WMA通过《赫尔辛基宣言》(2013年版)所阐述的原则,世界卫生组织(WHO)国际医学科学理事会(CIOMS)合作的《涉及人的生物医学研究的国际伦理准则》(2016),中华人民共和国国务院令第717号《中华人民共和国人类遗传资源管理条例》(2019)中规定的有关遗传资源(含数据)收集、保存和使用的相关要求,以及我国卫生部制定的《涉及人的生物医学研究伦理审查办法》(2016)的相关要求,制定本章程。
第一章总则
第一条宗旨
复旦大学类脑人工智能科学与技术研究院伦理委员会的宗旨是对科研项目申报及进行中涉及人体样本或数据、涉及个人身份信息进行审查。加强对科研项目伦理的管理,使科学研究在符合伦理规范的前提下持续发展,保证涉及人类研究项目中对生命的尊重和相关权益的保护,类脑研究院根据国家有关规定及有关国际组织签署的适用规程,设立"复旦大学类脑人工智能科学与技术研究院伦理委员会"(以下简称类脑智能伦理委员会)。
第二条组织架构
类脑智能伦理委员会由类脑研究院授权建立,是类脑研究院负责科学研究伦理审查管理工作的常设机构。伦理委员会相对独立运行,严格执行国家有关法律法规。伦理委员会接受政府部门相应伦理审查管理机构的业务指导。
第二章组织与管理
第三条委员组成
伦理委员会设主任1人,副主任2人,委员人数不少于6人。委员组成包括:从事生命科学和生物技术、基础及临床医学、生命医学和法律学的专家。在对具体研究项目进行伦理审查时,可以根据实际需要邀请特聘专家参加项目伦理审查。
第四条任职条件
委员应具有个人的能力、兴趣、伦理和科学的知识以及专家素养,并愿意承担义务,能自愿为伦理委员会的工作投入必要的时间和精力;愿意公开与伦理审查存在的利益冲突,包括科研利益、经济利益;愿意公开其姓名、职业和隶属关系;同意公开与参加伦理审查工作相关的交通、劳务等补偿;必须签署利益冲突声明及保密承诺;由类脑研究院相关部门负责聘请。
第五条任期与换届
伦理委员会主任和委员由类脑研究院聘任,任期两年,可连任。为保持工作的连续性,委员每次换届人数不超过三分之一。伦理委员会委员应同意公开其姓名、职业和隶属关系,签署有关审查项目、受试者信息和相关事宜的保密协议,签署利益冲突声明。对不遵守本章程规定或不能胜任审查工作的委员,类脑智能伦理委员会可提出解聘动议,予以辞聘。
第六条独立顾问
伦理委员会可以聘请独立顾问或委任常任独立顾问。独立顾问应伦理委员会的邀请,就试验方案中的一些问题向伦理委员会提供咨询意见,但独立顾问不具有伦理审查表决权。独立顾问可以是伦理或法律方面的、特定疾病或方法学的专家,或者是特殊疾病人群、特定地区人群/族群或其他特定利益团体的代表。
第七条任职资格
伦理委员会应针对新委员和委员的继续教育建立培训计划,组织GCP等相关法律法规、药物临床试验伦理审查技术以及伦理委员会标准操作规程的培训以取得任职资格。
第三章职责要求
第八条伦理受理的范围
根据国家有关规定和国际组织颁布的指导规程对科学研究伦理审查管理工作的要求,任何涉及人体的项目都不能免于经受伦理委员会的审查。根据实际情况,类脑研究伦理委员会受理在类脑研究院以及上海其它地方开展的涉及人体研究项目的伦理审查和批准。具体由伦理委员会自行决定。
第九条伦理审查的职责
类脑研究院伦理委员会需审阅和监督任何和所有类型的涉及到人体的研究项目。包括以下职责:
1)审查所有涉及人体研究项目。
2)向研究人员要求修订过的实验步骤和知情同意文件,作为初审或再审通过的条件之一。
3)批准新的研究项目和延续批准过的研究项目。
4)否决不合伦理规范的新的研究项目的开展。
5)使用任何必要的方式对审批通过项目的开展进行监测,包括按规定定期复审,以及对审批通过项目的实验步骤和知情同意程序的执行、实施中的变化或负面事件进行核查。
6)在必要的时候进行审计。
7)对曾经审批通过的任何研究项目,在运行过程中假使出现未曾预料的危及受试者的问题,或严重、持续地与任何一条政府法规或者伦理委员会的要求或决定发生冲突,则对该项目进行暂停或终止。一旦发现有违反伦理原则的人体实验研究,有权向学校或政府主管部门举证,并请求予以制止。
第四章伦理审查的申请与受理
第十条审查申请
申请伦理审查的研究申办者需进行伦理培训,并从考卷一、二中选择一套进行线上考试,手机或电脑均可。考卷一链接:https://ks.wjx.top/m/63596130.aspx,考卷二链接:https://ks.wjx.top/m/63965605.aspx,分数90以上视为通过。
第十一条审查方式
伦理委员会的工作会议根据申请需求不定期召开。项目审查会议由主任或由主任委托的秘书召集。伦理委员会委员在项目评审过程中须以严肃、认真、公正的态度对送审项目提出客观的评审意见。
第十二条审查决定
伦理委员会应当对审查的研究项目作出批准、不批准、修改后批准、修改后再审、暂停或者终止研究的决定,并说明理由。
伦理委员会作出决定应当得到伦理委员会全体委员的1/2以上同意。
第十三条利益冲突管理
伦理委员会委员与送审项目有利益冲突应该回避,委员会委员对委员会相关文件和送审项目资料负有保密责任,未经书面许可不得引用、泄漏有关信息。
第五章附则
第十四条解释权
本章程解释权归类脑人工智能科学与技术研究院伦理委员会。
第十五条实施
本章程的制定及修改,由伦理委员会三分之二以上同意方可通过,报复旦大学校伦理委员会批准后生效。
复旦大学类脑人工智能科学与技术研究院伦理委员会
二〇二〇年四月五日