机器人手术失败了,谁负责手术机器人的伦理风险问题与对策研究
近年来,机器人在医疗系统的推广应用不断取得积极进展。医疗机器人可以分为手术机器人、康复机器人、辅助机器人、服务机器人四大类,目前应用最广发且最具前景的是手术机器人。手术机器人克服了传统外科手术精准度欠佳、手术时间长、医生疲劳和缺乏三维精度视野等问题,在为病人带来更好的临床转归的同时,也缩短了医生对于复杂手术的学习曲线。
一、手术机器人市场快速增长,融资并购火热
近年来全球医疗机器人市场规模增长迅速,其中手术机器人规模最大,且保持较快增速。2019年全球遥控型手术机器人市场规模已经达到66亿美元。此外,全球手术机器人领域的融资并购持续保持高热度,2019年是手术机器人行业融资爆发的一年,融资并购金额巨大的事件频频发生。
2019年2月,强生子公司Ethicon以34亿美元收购了AurisHealth及其获得FDA认证的Monarch手术机器人,成为迄今为止规模最大的医疗机器人并购交易。Auris的MonarchPlatform机器人技术目前用于支气管镜诊断和治疗,将在强生公司的肺癌计划中发挥重要作用。2019年8月,西门子医疗以11亿美元收购手术机器人公司CorindusVascularRobotics。由Corindus开发的用于介入治疗的CorPath远程手术机器人,是首个经FDA批准用于辅助经皮冠状动脉介入治疗(PCI)程序的医疗设备,能够帮助医生提高放置支架时的精确度。2019年9月,史赛克以5亿美元收购MobiusImaging及其子公司CardanRobotics。史赛克通过这次收购获得了Mobius的AiroCT移动诊断成像设备,以及CardanRobotics旗下与之配合执行内窥镜脊柱手术的Orian手术机器人,从而具备了提供从影像到导航再到手术机器人的一站式解决方案的能力。
从国内来看,手术机器人的应用也越来越普及。自2006年解放军总医院引进第一台达芬奇机器人以来,美国IntuitiveSurgical公司的达芬奇机器人在中国市场拥有垄断地位。为打破外企垄断局面,近年来国内的天智航、威高、博实、柏惠维康、术锐、思哲睿等代表性企业已经纷纷进入赛道。
图12013-2019年国内医院达芬奇手术机器人装机量
数据来源:火石创造根据公开资料整理
二、手术机器人面临的伦理风险问题
手术机器人在为众多患者带来福音的同时,也面临着技术安全、责任认定、患者隐私泄露、公平受益等伦理风险与挑战。
1.技术安全风险
手术机器人作为新兴科技的产物,技术尚未十分成熟,本身难以避免地存在一定的技术或设计缺陷。现阶段来看,手术机器人是一组器械的组合装置,通常由一个内窥镜(探头)、刀剪等手术器械、机械臂、微型摄像头和操纵杆等器件组装而成。目前的手术机器人是一个外科手术辅助系统,它本身并不具有完全智能来自主进行手术的能力,而是需要通过遥控和机械驱动为外科医生提供帮助。被手术的患者及其家属最担心的问题,就是能否确保手术机器人的绝对安全。虽然每次手术进行前,都会对手术机器人进行长时间的调试和校准,手术也会由经验丰富的外科医生全程操作,但仍然难以保证手术机器人的运作万无一失。
手术机器人在手术中直接作用于患者身体中的某个器官,它并不具备应对特殊状况的自主调节能力,一旦发生安全隐患,手术机器人的机械臂无法像外科医生一样凭借临床经验做出自主性调整,并将伤害降到最低。目前大部分手术机器人仍然属于初级阶段的半自动协同机器人,对于电力系统和控制系统的稳定性要求极高,如果手术中出现突然断电重启或者控制系统故障等意外情况,重启复位的手术机械臂很可能对患者的身体器官造成无法弥补的损害。虽然发生安全事故的概率很低,但是一旦发生,对患者的生命健康产生的损害是不可挽回的。美国FDA发布的数据显示,达芬奇手术机器人在2000年至2013年间的近60万次手术过程中,一共涉及到144人的医疗事故死亡。除了致死的患者,达芬奇手术机器人在手术中拉弧或打火造成了193名病人烧伤;其脱落的零件掉入病人体内发生100余次;视频故障或系统错误造成的不良事件更是多达800例以上。
2.责任认定风险
与外科医生不同,手术机器人在手术过程中是没有自我意识和情感投入的,如果在手术中发生系统故障,损害了患者的生命健康,这类医疗事故发生后的责任认定将会十分困难。手术机器人是一个技术辅助系统,从其运行原理来看,尽管手术机器人直接接触患者并实施手术,但控制实施手术的主体仍然是外科医生,手术的成功需要医生和机器的有效配合。手术机器人造成的医疗损害事故,有的可能是因为外科医生操作失误导致的,有的则可能是产品设计缺陷或机器质量问题引起的。一般认为,手术机器人自身质量问题造成的损害事故应该由生产厂商负责,而在手术过程中发生的操作不当应该由医生承担主要责任。
国内有相关法律文件对医疗侵害进行责任划分,但是对于手术机器人导致的医疗意外,责任应由哪方来承担,目前法律尚无相关的明文规定。类似的责任认定难题,在其他国家也同样存在。据报道韩国曾发生过一个案例,一名韩国艺人在利用手术机器人进行肾脏切除手术的过程中,发生了十二指肠破裂导致后遗症并最终死亡的悲剧。患者家属将该医院和手术团队告上法庭,但韩国检察部门认为该事件与院方及手术团队没有直接联系,宣判上诉无效。对于手术机器人这种新生事物,国际公认的医疗机器人法规标准尚未建立,目前有国际组织正在开展相关研究,而中国的相关标准制定也处于起步阶段。
3.患者隐私泄露风险
智慧医疗的发展,给患者隐私的保护带来了新的难题。手术机器人需要采集、储存和传送大量患者的个人基本信息、病理信息、手术过程信息和生物基因等敏感性私密信息。手术机器人的生产维修厂商、医务工作者、医疗机构及相关信息技术部门都可能会接触到这些信息。患者信息的安全管理是手术机器人使用过程中不可忽视的重要环节。2018年5月,欧盟出台《通用数据保护条例》(GDPR),条例规定了数据的合法性使用、用户的被遗忘权(即用户个人可要求责任方删除自己的数据记录)、数据泄露的违法处理等。我国2018年9月制定的《国家健康医疗大数据标准、安全和服务管理办法(试行)》,也对责任主体就医疗数据、患者隐私的管理提出了原则性要求,其中第十七条规定“责任单位应当建立健全涉及国家秘密的健康医疗大数据管理与使用制度,对制作、审核、登记、拷贝、传输、销毁等环节进行严格管理。”
4.公平受益问题
手术机器人的研发周期非常漫长,高风险、高投入、核心人才匮乏等问题使得我国手术机器人产业还未形成相应的规模,技术和市场由外国制造商主导垄断,利润空间巨大。我国大部分医院使用的都是由国外进口的达芬奇手术机器人,此类机器人的成本在100万美元左右,而国内的价格却贵了大约三倍之多。除去机器本身的购置费用,其维护成本也居高不下。鉴于现有的医疗条件与经济发展水平,有条件使用手术机器人的医院大部分都集中在经济发达、人口密集的发达城市。医疗资源公平有效的配置是至关重要的,让大多数患者享受技术先进、服务优质的医疗,伦理上涉及社会公正与正义,如果大部分患者享受不到医疗技术进步带来的好处,那么公众将对手术机器人产生抵触情绪,从而影响其发展。手术机器人的发展可能激化医疗资源配置的矛盾,如何贯彻医学的公正原则是现阶段需要解决的一个难题。
5.对医生主体性地位的挑战
人类相对于人工智能,在脑容量和学习能力方面具有一定的局限性。人工智能拥有远超人类的学习能力和计算能力,其高效、精准和不知疲倦等优势将在很大程度上降低成本、提高效率,有望逐步取代越来越多的人工劳动。早在2016年,美国著名肿瘤外科专家、虚拟手术创始人Dr.ShafiAhmed实施了全球第一例用虚拟手术方法进行的直肠癌切除手术。上百万人观看了手术全过程,术后,Ahmed教授声称“手术机器人逐步替代外科医生只是个时间问题,未来外科手术室里,不会再有一群医生在那里从早到晚有做不完的手术了。”AI赋能的医疗机器人已经在医学影像、辅助诊疗等核心医疗环节发挥着越来越重要的作用,医师的主体性地位日益受到挑战。手术机器人对患者信息有更强的识别率,手术操作上具有更高的精度和更低的失误率,相比外科医生有一定的优势。医疗AI的深入应用,必将推动现有医疗模式的变革,也将对医务人员提出更高的要求。
三、应对手术机器人伦理风险问题的对策
1.明晰手术机器人医疗损害事故的责任认定
为预防和减少手术机器人医疗损害风险的发生,应加强对手术机器人的技术监管与伦理监管。技术监管方面,可以给每一台手术机器人设置单独的编码,记录机器人设计者、生产者的信息;使用手术机器人的医生在操作之前应录入身份信息。手术机器人的生产厂商应定期帮助医院维护、升级机器人辅助系统,降低手术机器人技术故障的风险。手术机器人的操作过程,通过电子监测技术全程记录下来,可结合数据分析和视频分析来厘定责任主体。伦理制度方面,医疗卫生行业应成立专门的伦理委员会,针对手术机器人进行伦理监管,全面评估手术机器人的安全风险和伦理风险。
2.多措并举,加强数据安全管理
数据信息的管理和使用应进行一些技术上的防泄密操作,对数据采取“匿名化”处理、加密存储等措施。例如,可对患者的姓名、身份证号、住址、电话等信息做必要的隐藏处理;对数据的电子文档进行加密设置;对数据管理使用的电脑和网络系统安装严密专业的加密程序。为兼顾医疗数据共享与患者隐私安全,加强数据安全管理必不可少。有关责任单位应建立健全相关数据安全管理制度、操作规程和技术规范,加强统筹管理和协调监督,让相关人员有章可循、按章办事。按照国家网络安全等级保护制度要求,构建可信的网络安全环境,提升关键信息基础设施和重要信息系统的安全防护能力,有效防范“黑客”等盗取信息者。依法依规使用医疗大数据有关信息,严格规范不同等级用户的数据接入和使用权限,建立严格的电子实名认证和数据访问控制机制,确保数据访问行为可管可控及服务管理全程留痕,对任何数据泄露事故及风险都可查询、可追溯到相关责任单位和责任人。同时,对擅自利用医疗数据或非法获取患者隐私等违法行为,要加大打击力度,最大限度保护患者隐私和数据安全。
3.坚持以人为本,明确医生主体地位
手术机器人虽然具有某些特定的功能,但其本身是人类创造并操控使用的,并且缺乏像人类一样的情感表达。目前的手术机器人还不能独立完成整个手术或诊疗过程,只是作为医生的辅助工具,医生应当毫无争议地在医疗行业发挥主导作用。医生选择和使用手术机器人时,应综合考虑手术的复杂程度、患者的接受程度、医疗卫生硬件条件等因素,审慎、合理地选择手术机器人的使用范围和频率,避免出现难以预料的风险。手术机器人的技术开发也应与人文关怀携手共进,手术机器人的功能、技术及外观设计都要注重细节,避免粗放式人机交互可能产生的负面影响。
结语
手术机器人为外科手术的形式带来了革新,改变着传统医疗救助模式,提高了医疗手术的精准度和效率,但随之而来的一些伦理风险问题也值得人们深思。随着手术机器人技术的不断成熟和伦理监管机制的日益完善,手术机器人将大力促进医学事业的发展,更好地为维护人类生命健康服务。
*声明:本文为火石创造原创文章,作者刘宇,未经授权不得转载。
人工智能大数据时代下的工程伦理问题探讨
人工智能大数据时代下的工程伦理问题探讨一、引言人工智能技术以及大数据建设作为二十一世纪新兴技术,给人们带来更便捷的生活,社会中涌现出许多新技术,人与人工智能也越来越密不可分。伦理的本意是人伦道德之理,具体指人与人相处的相应道德准则。而现代科技的发展,使得伦理不仅只限于人与人的交往,当前出现了网络伦理,医学伦理,生物伦理等新的概念,当然了还有人工智能伦理学的研究。人工智能道德风险即人工智能技术带来的伦理结果的不确定性,其既有主观因素也有客观因素,具体表现有道德算法风险、道德决策风险、隐私数据泄露风险等。风险主要成因有技术主体、政治、经济、文化等社会因素。结合当下大数据驱动的人工智能算法特点,如何运用风险治理思想分析其背后的工程伦理问题对人工智能领域发展具有重要意义。二、人工智能时代人工智能(ArtificialIntelligence,缩写为AI)一词,是在1956年的达特茅斯会议上被首次提出来的。经历数次低谷与发展浪潮,人工智能再次活跃在大众的视野中,并以脑科学、认知科学为基础,成为一门新兴的交叉学科,被称为本世纪三大科技成就之一。目前来说,人工智能主要涉及计算机领域,它试图了解人类智能的实质,进而能够生产出一种媲美人类智能的软件系统、机器人、仿生人或者生化人,以更完备的生态以及更强的活力积极改变我们的生活,最后乃至能够全面超越当今人类的“新人类”。而在当今AI的实际应用上,随着大数据基础设施建设的日趋完备,人工智能孕育出许多产业,如:数据挖掘、人脸识别、语音识别、自动驾驶等。同时医疗卫生、交通运输、仓储物流、游戏等行业都已经或正在接受人工智能的优化。2019年6月,全国第一个智慧车站在广州塔地铁站建成。广电运通以“AI+大数据”技术助力智慧车站示范工程,为该站提供了智慧安检系统、智能语音服务系统、智能售票机、人脸识别闸机、智能客服中心等系统解决方案。广电运通创新地将安检流程中的“安检+票务”合二为一,乘客可以“刷脸”无感快速过闸。此外,开放式的智能客服中心不仅实现了多项业务的在线自助办理,还能收集分析乘客在站内的消费习惯、通勤线路、服务焦点等行为信息,在智能客服后台形成乘客出行服务个性化需求库。以往存在于PPT上的智慧出行设想成为了实际应用,快速有效推动交通领域从“票”转向“人”的核心场景升级,实现对实名乘客的精准、细致服务,而在其背后做支撑的是一套完整的基于大数据的人工智能系统。目前,百度、阿里、腾讯、谷歌等主流互联网公司正在大力投资人工智能相关产业与技术,而与此同时全球正有上千家公司全力押注人工智能,并且这个趋势依旧保持稳定增长的速度。三、人工智能伦理问题人工智能的蓬勃发展不但扩大了人类对于技术的恐慌,也不可避免地带来了许多伦理问题,像是自动驾驶汽车产生交通事故的问责问题,医学机器带来的医疗事故归责等由人工智能带来的生产生活上的损害,这些都是具体的问题体现。就我而言,将人工智能的伦理问题暂时归结为以下的三个方面。1、身份模糊人工智能的发展后,如何给那些人工智能安排好合适的身份标签,将会是伦理困境之一。对待一个自动驾驶的软件,人们对待它无法像对待现实世界中,自己在劳务市场招聘来的司机一样,现实中的司机有血有肉,有的脾气暴躁一些,会骂骂咧咧,有的还会在车内吸烟,需要别人禁止。长年累月的相伴下,可能雇主还会和司机称兄道弟,但是和软件不会,软件只会自动开门,自动驾驶,如果需要可以加一些幽默程序,来讲些趣事,但是它们不会被生活上的柴米油盐琐事困扰,它们虽然可以说出来这些麻烦事,但是还是无法被人所认同,可是它对人们的悉心照顾又不亚于那些现实的司机,不能简单地看待它们作为一个可以随用随装的软件程序。同时,智能家居里面的管家系统,替代了类似电视剧里面传统大宅门内的老管家,新的管家们更加无微不至地照顾学生的起居饮食,但是无法定位它们的独特身份,它们的所有记忆可以被当作日志保存下来,即使遭到了破坏也可以及时恢复,它们无法像那些管家们一样,融入所服务的家庭,然后成为其中一员。当前来看,人们还是无法定位这些智能体是作为一款随用随弃的工具,还是将成为一个可以寄托情感的“类人“体。2、工作取代第一次工业革命极大提高了生产力,将人类的双手从纺纱机上释放出来,这是它的优点,可是由此失业的人很多。毋庸置疑的是,未来那些工作枯燥,重复简单的工作将会被那些机器人取代,这一批下岗工人本来就是社会上的弱势群体,那么,他们的生活保障由谁负责,或者说,他们莫名地被下岗了,这本来可能就不符合伦理规范。换个方面来说,这对那些需要提高生产效率的企业家,以及提高生活舒适度的消费者来说又有些不公正,他们所追求的是利益最大化,生活满意程度最高,在现有的科技水平之下,不让他们使用这些科技又不符合他们的利益需求,这就导致了那些人工智能的分工困境,哪些工作能做,哪些工作不能被取代陷入两难。有的人建议说:只让人工智能取代那些具有高危险性的工作,这也产生了不公,这些人虽然只是社会的小部分,但是他们的利益却被影响了,生命的利益得到了保证,生存的利益却可能遭到了侵犯。3、赏罚制度人工智能的惩罚方法是无法像对待人类一样,轻则监禁,重则枪毙,对那些智能程序的赏罚,没有合适的实施方法,如果以人类的体验标准来看,程序体会不到痛苦的感觉,也享受不到被赞美的快乐,这就使对它们的惩罚只单单变成一种触发条件,在必要的时候不得不触发,没有了相应的作用。总而言之,如何规范人工智能的行为,制定合适的赏罚方案,也是伦理问题之一。四、总结作为一门新兴学科,人工智能所涉及到的普通科技伦理问题,诸如无人驾驶汽车问题、数据隐私问题、军事机器人伦理问题,随着科技的发展,很快都会有完善的解决方案。对于功利主义者而言,“人类中心主义”将是发展人工智能的重要伦理依据:必要的领域应该限制机器的智能超过人类的智能,即使将来某一天超过了,掌握权还要在人类的手中。俗语说,堵不如疏。倘若人类真的要在人工智能这条路上走下去,将伦理的判断完全掌握在人类手中或是全权交给“更智慧”的人工智能都是不可行的;将人类自身与人工智能放到统一的维度去审视,方能产生一个相较而言最为完善的人工智能伦理关系。