医疗人工智能伦理问题的六方面应对策略和发展建议
2021年4月24日,国家卫生健康委员会医院管理研究所、《中国数字医学》杂志社、社会科学文献出版社共同发布了《人工智能蓝皮书:中国医疗人工智能发展报告(2020)》。
随着大数据、云计算和移动互联网等现代信息技术的飞速发展,人工智能被广泛应用于智慧医疗。“大健康”“生命全周期健康管理”“医疗大数据”等概念,将民众健康提高至战略地位,也促进了人工智能医疗领域的发展。医疗人工智能快速发展,将对医学事业产生革命性变化,同时带来了新的伦理学问题。
基于此,蓝皮书分析指出了医疗人工智能伦理问题的六方面应对策略及发展建议。
(一)伦理审查
1. 建立多级伦理审查监督机构
由于不同的研究对应的伦理风险等级不同,以及伦理审查的时效性不同,本研究建议建立不同级别的伦理审查委员会。对于高风险的医疗人工智能研究,可由国家级伦理委员会审查;对于中等风险的研究,可由省级或者相当级别的伦理委员会审查;对于低风险的研究可由市级或者研究单位的伦理委员会审查。
伦理审查委员会和伦理审查的主要职责是保护受试者。各级伦理审查机构应该不断加强伦理审查委员会的制度建设和能力建设,所有的伦理审查办法必须符合世界医学会制定的《赫尔辛基宣言》和国际医学科学组织理事会与世界卫生组织制定的《涉及人的健康相关研究国际伦理指南》(InternationalEthicalGuidelinesforHealth-relatedResearchInvolvingHumans)等国际国内通用的伦理准则以及我国原国家卫生与计划生育委员会颁布的《涉及人的生物医学研究伦理审查办法》。
与医疗人工智能有关的伦理审查委员会成员应该包含伦理学专家,以及有关智能科学、医学信息学、临床医学、法学、生物信息学等多学科专业领域的专家,从伦理和专业技术的角度全面分析解决医疗人工智能技术基础研究和临床转化中可能涉及的敏感的、特有的科学及伦理问题。
2. 审查范围和要求
有关医疗人工智能的研究中,凡涉及人类研究受试者的试验,无论支持研究的资金来源如何,均应先按一定管理程序提交特设的伦理审查委员会审议、评论、指导,获得机构伦理审查委员会批准后,科学研究才能开始。科研人员应当遵循伦理学基本原则,在理论学可辩护框架内展开相关的研究及临床技术应用。一旦发现严重不良事件或非预期风险事件,任何人员均可向相关监管部门提出。伦理委员会有权监督正在进行的实验,对违规研究采取暂停,限制或终止行动,乃至向国家权威管理机构提交完整的事件报告,对于违法事情,建议可以采取进一步行动。
3. 伦理培训
我国医学研究领域长期存在医学伦理培训不到位、培训体系不健全、培训研究不足等问题导致我国的医学科研人员对伦理知识和规范的认知还比较滞后,医学科研人员在进行项目申请及项目开展中对是否涉及伦理问题的判断存在较大误差。因此建立规范有效的伦理培训体系并在全国医疗领域进行培训的任务任重道远。各级医疗系统或研究机构、高等院校应根据本单位的实际情况和历史使命等,充分发挥其伦理培训教育职能,将伦理意识内化为研究者自身的道德标准,从而推动我国医学科学的健康持续发展。
(二)技术安全性人工智能是否能被应用于临床,首先要进行临床前研究,到临床研究/试验,再到临床应用。参照国家食品药品监督管理总局(CFDA)发布的《医疗器械分类目录》(2017年版)中的分类规定:对于仅通过算法提供辅助诊断建议,而非直接给出诊断结论的诊断软件(属于第二类),不要求做临床试验;对于通过算法提供明确诊断提示的软件(属于第三类),则必须通过临床试验。智能辅助诊断技术的临床应用必须遵循国家卫计委办公厅制(修)订的《人工智能辅助诊断技术管理规范(2017版)》。有关人工智能临床应用的技术安全应该充分考虑以下几点。
第一,必须明确人工智能在临床上的适用范围、使用限制及注意事项。在严格遵守已有的相关专业疾病诊疗指南的同时应该综合考虑受试患者病情、经济承受能力、对人工智能的接受程度、尊重受试患者的知情权等因素,根据个体需要决定是否对患者采用人工智能技术。
第二,进行人工智能治疗前应当明确医疗责任主体,划清权责范围。医护人员应当严格掌握人工智能的适应证和禁忌证,遵循“综合分析,相互协作”的伦理要求,对经人工智能得到的医学结果进行分析、判断是否存在误诊或漏诊等。医护人员可以依据人工智能做出判断而非依赖。
第三,试验设计必须科学可信,应当充分考虑医疗人工智能应用场景和应用重要程度的不同,以及医护人员本身的认知差异等对辅助诊断结果的影响,将临床试验的风险控制在合理范围内。对受试患者要进行不断而严格的长期随访,以及对受益和风险的动态评估。
第四,建立可靠的监管机制,建立特定的独立的伦理审查委员会。
(三)数据采集与管理
数据的安全性具有重大意义,数据泄露遭到恶意利用可能造成巨大的社会损失甚至危害到国家安全。研究中所用数据的采集、管理等应遵守国家信息安全、数据安全相关法律法规,可以参考信息安全相关国际标准及规范,如美国的《联邦隐私权法》《个人隐私和国家信息基础设施(NII):个人信息的使用和提供原则》,欧盟的《通用数据保护条例》等,做好相关数据采集、处理、标注、存储等说明文档的撰写与保存。医疗人工智能数据采集管理应该充分考虑以下几点。
1. 数据收集要合法
不得欺诈、诱骗和强迫受试者提供数据,不得从非法渠道获取个人信息,不得收集法律法规明令禁止收集的个人信息。保护数据所有人的信息,应充分考虑数据及数据使用给数据提供者带来的风险。针对人工智能领域进行政策制定时,应当进一步完善通过设计保护隐私、默认保护隐私、知情同意、加密等概念的标准。
2. 明确数据的用途,合理、合法使用数据应从数据
收集开始前就要有特定和明确的目的,数据的使用应当在知情同意书中指明。对数据内容所适用的应用方向进行合理考量;数据的使用应有必要的人为监督,数据的访问、使用和共享应尽量透明,确保数据不被用于其他商业目的或恶意滥用。如果需要收集个人敏感信息时,收集者在收集前应向个人信息主体逐一说明个人敏感信息收集的必须性,并允许其逐项选择是否提供或同意自动采集个人敏感信息。
3. 确保收集数据的准确性
设计适当流程对收集数据的准确性进行核查,并记录该数据的来源;及时记录错误数据信息,并进行明确标识;对于来自研究受试者等个人的数据,尊重个人纠正数据准确性的权利。为了方便研究数据提交至科研、政府、行业监管机构,并对数据质量实施评价,需遵从统一的数据标准规范,如统一的数据模型、术语体系、编码规范和分类体系等。
4. 做好预防机制
医疗人工智能技术可能会出错,如果错误难以发现或产生连锁反应,可能会产生严重后果。因此需要科研人员、监管部门、第三方机构等严格验证医疗人工智能系统的输出,识别可能的数据偏倚,对未出现的问题要有预备的处理机制。医疗人工智能技术可能被恶意使用,因此需要科研人员充分考虑到人工智能的双重用途,做好应对医疗人工智能技术被恶意使用的充足准备。
5. 定时评估系统的规范性管理机制
医疗人工智能研究快速发展会衍生新理论、新算法,需建立定时评估系统的规范性管理机制,评估新理论、新算法对临床研究及转化安全性和有效性的影响。
(四)促进医疗人工智能知识产权保护
应该利用既有专利规则、版权规则、职务发明等知识产权规则,加快步伐构建一套完善的对医疗人工智能的全方位知识产权保护体系。医疗人工智能开发过程中涉及的专利技术,应当经过专业技术人员评估,如果可保密性强,被反向工程的可能性不大,则只需通过商业秘密进行保密而保护,如果被反向工程或者披露的可能性较大,则应当及时进行专利申请,以公开换取独占性保护。重点医疗人工智能产品应及时进行产品名称和标志的商标申请和保护,使产品能够在市场上获得认知,扩大产品品牌影响力。
(五)强化医疗人工智能系统安全
可靠的医疗人工智能系统应具有强大的安全性能,能够有效应对各类恶意攻击。在法律上建议可以考虑通过安全标准、安全评估义务等规范达到强化系统安全的目的。从技术上可以增强智能系统的安全性,用以提高医疗人工智能产品研发的安全标准,推行智能系统安全认证制度,对医疗人工智能技术和产品进行严格测试,增强社会公众信任。从管理上可以强化安全评估义务主体责任,针对医疗人工智能应用场景和应用程度的不同,有针对性地制定技术标准和评估方案,满足不同系统安全风险与保障的差异化需求。
(六)防止医疗人工智能歧视
目前医疗人工智能,在发展过程中可能由于技术不完善、算法不健全或算法不公开、不透明等原因,面临种族歧视、性别歧视等问题,并由此产生很多负面效果。国际社会日益重视在医疗人工智能领域对数据的收集和分析进行规范,以防止歧视或偏见。因此,我国也应制定防止医疗人工智能歧视的相关法律,并思考如何通过技术提高来避免类似问题的发生。
(参见《人工智能蓝皮书:中国医疗人工智能发展报告(2020)》p180-185,社会科学文献出版社2020年12月)