浅谈人工智能背景下的医疗器械的发展
作者:刘丰贺
受益于人工智能领域技术创新发展,人工智能医疗产品逐渐得到了许多从业技术人员的支持,以及巨大的技术支撑。
在大数据构造方面,医疗行业各类数据量已呈现指数级攀升,随着电子病历和健康数据的建立与推行,医疗数据得到不断积累。计算能力方面,得益于图形处理器(GPU)、现场可编程阵列(FPGA)等高速数据处理芯片技术的进步,人工智能需求的运算能力在不断得到满足。人工智能算法方面,深度学习算法模型迭代迅速,大大提高了人工智能化水平,使得人工智能在医疗领域的应用不断扩大。另外,在人工智能算法模型发展、应用的推动下,计算机视觉、语音识别、自然语言处理同步得到了提升。
人工智能医疗器械在我国发展飞快,目前已经有十余个产品获得第三类医疗器械注册证。为支持产业发展,我国相关监管部门早已开展了卓有成效的监管研究,在AI医用软件产品的分类界定、AI医疗器械产品的审评审批、软件产品生产质量管理等环节发布了多个重要的指导原则和技术文件,从而对产业提供指导。
AI标准规范体系的建立
人工智能作为一项引领未来的战略技术,使得许多的世界发达国家和地区,纷纷围绕人工智能出台规划和政策。其中:美国建议通过标准和基准来衡量和评估人工智能技术;法国高度重视人工智能领域的工业标准体系建设;欧盟委员会建议制定一套新的人工智能道德准则,以解决公平、安全和透明等问题。我国为了提升人工智能核心竞争力,对标准化工作提出了顶层要求。国务院于2017年印发《新一代人工智能发展规划》(国发[2017]35号),指出要加强人工智能标准体系研究;工信部于2017年印发《促进新一代人工智能产业发展三年行动计划(2018-2020年)》(工信部科[2017]315号),明确要建设人工智能产业标准规范体系。
2019年,国家药品监督管理局正式成立了AI医疗器械标准化技术归口单位,并组织了我国AI医疗器械标准的制修订,为监管和产业提供技术支持。
为加强人工智能领域标准化顶层设计,最大发挥标准价值,有效指导新一代人工智能建设,2020年7月,国家标准委、中央网信办、国家发展改革委、科技部、工信部联合印发《国家新一代人工智能标准体系建设指南》。该指南的发布将推动人工智能产业技术研发和标准制定,促进我国人工智能产业健康可持续发展。
AI+医疗器械的应用前景
人工智能+医疗设备,即采用人工智能技术的医疗器械,包含了人工智能独立软件、人工智能软件组件等内容。AI+医疗设备在医疗领域有着广泛的应用前景,在医学临床上(如辅助治疗、医学影像处理等领域)的应用愈发广泛,已逐渐成为了未来医疗器械行业发展热点赛道之一。
随着新一代人工智能技术的兴起,医疗行业在“如何实现智能化转型”的问题上,也找到了许多新的思路和手段。我国人工智能医疗器械产业发展势头迅猛,人工智能医疗器械产业生态已经基本形成,面向未来,AI+医疗器械必将取得突破性进展,如借助人工智能系统改善医院运营工作流程和数据管理效率等应用,将逐渐在临床诊疗当中普及开来。
人工智能在医疗服务的各个环节应用示意图
企业布局人工智能医疗器械行业
从AlexNet赢得了ImageNet竞赛、Alphago击败人类冠军围棋选手等新闻能看出,人工智能具有深度学习的能力,并且能够在专业领域获取到高精度的信息资源。医疗产业高利润、高技术含量等特点吸引各类在人工智能技术有所涉猎的企业在医疗领域进行重点布局,随着人工智能在医疗器械领域的应用逐渐广泛,国内外许多企业都加大了医疗设备领域的人工智能应用的综合研究。
在2015年,IBM沃森健康成立,主要涉及心脑血管疾病、肿瘤、糖尿病的诊断和治疗技术。2016年,IBM沃森健康进军中国市场。
同在2015年,谷歌重组了Alphabe和Verily专注于人工智能医疗领域的研究。涉及医疗数据生成、疾病检测和健康生活管理。
微软亚洲研究院智慧医疗是以人工智能大数据为基础,专注和研究的领域包括基础的医学自然语言理解,数字医学影像识别及诊断,语音识别和自然语言理解技术所进行的医疗文字档案处理等。
而国内如腾讯、阿里、百度等企业,也早就开始布局人工智能医疗领域。如腾讯觅影的主要研究领域有AI医学影像分析(包括肺癌、食管癌、结直肠癌、乳腺癌等)和人工智能辅助诊疗。全国超120余家三甲医院引进该设备,使得医生的诊疗效率和准确率有所提高;阿里云也开发了病历智能化质检系统和门诊智能化监控平台。阿里医疗大脑在医学影像平台建设、糖尿病精准预测管理等领域研究成果同样喜人;讯飞医疗的主要研究领域包括口腔电子病历管理、云医声、超声助理、医疗机器人等。并且,讯飞医疗还在和医院等医疗机构共建智慧医院;2016年10月,百度推出旗下的百度医疗大脑。百度医疗大脑为百度医生在线问诊提供智能化协助,为医院远程医疗提供协助,以及为患者建立用户数据库建设以便进行慢病精细化管理。
可以预见,未来将会有更多如药物挖掘、辅助诊疗、虚拟助手、手术机器人、内窥镜、超声等先进的AI医疗设备,在大环境的支持下逐渐开发落地。
医疗人工智能分布领域
目前仍面临的挑战
尽管人工智能早已开启布局,但目前仍面临许多问题,例如核心基础薄弱,技术存在瓶颈、产业的闭环商业模式尚未形成、产业发展支撑环境需完善优化等的问题。
拿行业规模发展来举例:目前我国医疗器械行业目前还大多聚集在全球产业链的中低端,面临着行业集中度低的问题。受到核心技术的影响,我国医疗器械生产企业大多数集中在中低端市场“血拼”,本就不高的产品利润率被进一步压缩。
并且,由于医疗器械细分领域众多,产品种类众多,导致尽管市场整体空间巨大,但细分市场极易触碰天花板,多数细分市场规模在几十亿左右。虽然不少细分领域出现了如鱼跃医疗、新华医疗等龙头企业,但在细分领域中的发展受到行业规模的限制。
医疗器械的研发、生产是跨域医学、电子、机械等多学科的复杂工程,对研发人才队伍要求极高,中低端产品的研发周期在2-5年,而高端产品的研发周期则有5-7年。
虽然拥有不小的挑战,但总的来说,我国当前人工智能医疗器械产业仍处于快速发展阶段,尚有大量产品处于研发和申报上市阶段。相信通过加快科技创新和技术应用、优化监管政策体系及从研发到上市各环节的推进政策,未来我国人工智能医疗器械在医疗中将发挥更大作用,人民群众的健康水平也将日益提升,同时助力我国医疗器械产业在国际舞台实现“弯道超车”、创新发展。
医疗人工智能面临四方面的主要法律问题
2021年4月24日,国家卫生健康委员会医院管理研究所、《中国数字医学》杂志社、社会科学文献出版社共同发布了《人工智能蓝皮书:中国医疗人工智能发展报告(2020)》。
医疗人工智能面临的法律问题,其核心或者出发点是对大数据与核心算法的规制。因为大数据与核心算法是医疗人工智能的灵魂与表现形式。然后确立规制医疗人工智能的基本原则。医疗人工智能基本原则是安全、有益、平等,最终目的是以人为本。还有一个问题是医疗人工智能的知识产权问题。在确定了出发点与最终目的之后,就从以下几个方面进行规制。
1. 是否可以确立医疗人工智能(或者“机器人医生”)的法律人格
医疗人工智能的法律人格问题可以分为两个层面:一个是是否必须确定医疗人工智能法律人格的问题;另一个是如何确立医疗人工智能的法律人格的问题。人工智能通过深度学习,逐渐呈现出一些“自主性”的特征。“机器人是人吗?”这个问题变得越来越重要。因为人工智能的民事主体身份的确认是明确其法律行为、法律责任、归责原则等问题的基础。在传统的民法体系中,民事主体有自然人、法人、非法人组织、国家与国际组织。深度学习的强人工智能是否可以被赋予有限的民事能力,是否能以“机器人”的名义位列民事主体是一个重大的法律问题。
2. 如何设定医疗人工智能的诊疗规则
法律是以国家名义颁布的、以权利义务为内容的、以国家强制力保障的主体的行为规范。无论是设定医疗人工智能的民事主体身份,还是把医疗人工智能当作医生的医疗辅助手段,都必须有相关的法律文件对医疗人工智能的诊疗行为进行规制,例如,关于机器人手术的相关法规,2012年,国家卫计委印发的《机器人手术系统辅助实施心脏手术技术规范(2012年版)》和《机器人手术系统辅助实施心脏手术技术培训管理规范(2012年版)》。但实际上,手术机器人不仅做心脏手术,还做脑部、胸部、腹部、四肢等多部位手术,但其他的相关法律法规的设立还在摸索初期,国际公认的手术机器人标准也尚未形成。
3. 法律责任归责原则与承担方式
医疗人工智能导致医疗损害的责任认定要从两个层面去进行法律架构:一个是法律责任的归责原则;另一个是法律责任的承担方式。医疗人工智能有可能因硬件故障、程序漏洞、深度学习后的自主性等引发医疗事故,例如,在英国2015年首例“达·芬奇”手术机器人心瓣修复手术中,机械手臂乱动打到医生的手,还把病人心脏放错位置,戳穿了患者的大动脉。我国《侵权责任法》规定:“责任医师或医疗机构对患者在医疗服务中所受的损害有过错的,医疗机构应承担赔偿责任。医疗器械产品缺陷导致的医疗损害,由医疗机构和生产者承担连带赔偿责任,适用无过错责任原则。”很显然,《侵权责任法》考虑到了由医疗器械导致的损害的责任承担问题。但是在由具有自主性、独立性和拟人性的医疗人工智能导致的医疗损害的案件中,谁是责任主体、应用什么归责原则,却是一个新问题。
4. 风险防范问题
(1)隐私风险
患者个人的医疗数据包括个人基本信息,比如姓名、年龄、性别、住所、籍贯、工作单位、联系方式等,还包括身体指标、既往病史、诊疗记录、生物基因信息等健康信息。这些相关的隐私信息如何收集,如何储存,如何使用,如何在保障患者知情权的情况下,合法获取患者的疾病信息都是重要的法律问题。
(2)数据安全
医疗人工智能的深度学习需要收集并分析海量的数据资源。而这些数据资源关系到国计民生,甚至国家战略决策,一旦泄露后果不堪设想,例如,2015年我国深圳某基因科技服务有限公司、某医院与英国牛津大学开展合作研究,研究中国人类遗传资源。在合作过程中,中国公司把人类遗传资源信息通过网络传递到国外,且没有经过相关部门的批准与许可,因此收到科技部的行政处罚书。2016年,英国伦敦皇家自由医院为了研究肾脏医疗新方法,约160万名患者的相关信息被该医院交给“深度思维”公司,因为侵犯患者隐私,侵犯患者知情同意权,“深度思维”公司数据来源的合法性和正当性受到质疑,同时皇家自由医院也因传递患者信息这一行为被英国信息委员会要求整改。因此如何充分利用大数据以供人工智能的深度学习同时保护好大数据安全也是一个期待解决的法律问题。
(3)医疗人工智能深度学习后的“自主性”导致的风险
上海交通大学江晓原教授认为人工智能的发展的会对人类造成远期、中期、近期的三大威胁。“近期威胁是大规模失业与人工智能的军事化应用。中期威胁是人工智能的失控与反叛。远期威胁是至善全能的人工智能消解人类的生存意义。”人工智能通过大数据的喂养与“自主性”地深度学习,成为各个领域的实际控制者。民众不知不觉地被无形的、强大的算法技术管控与统治,无法抗拒。如被算法控制的打车平台、自动驾驶与导航系统、银行对个人或者企业的信任风险评估体系、互联网的广告分发系统、媒体软件的内容推送系统、犯罪预警系统、股票与基金模型等,其中一些具有偏见与歧视的算法被数据科学家称为“数学毁灭武器”。尤其是人工智能的反叛与失控可能会给人类带来毁灭性的打击,因此如何防范人工智能深度学习后的“自主性”导致的风险是一个极其重要的法律问题。
(4)伦理风险
人工智能有可能因为设计者的偏见与歧视,或者经过深度学习后习得了偏见与歧视,这种有意或者无意的偏见与歧视会导致不公平,或者对某些特定群体不利。因此我们要防止技术的滥用和异化,尽量避免歧视与偏见,避免损害生命体的尊严。在真实世界中,昂贵的医疗人工智能诊疗新技术的应用有可能侵犯贫困患者平等的生命健康权利;优生优育计算软件有可能剥夺某些缺陷胎儿的生存权利;利用医疗数据软件指导开发的某些药物与医疗器械有可能不利于某些特定人群、种族、性别等。算法的不透明,有可能严重影响消费者利益,甚至有可能通过辅助决策与执行影响公共政策。当然还有战争机器人的伦理问题等。
(参见《人工智能蓝皮书:中国医疗人工智能发展报告(2020)》p127-131,社会科学文献出版社2020年12月)