博舍

智能制造新技术应用的安全风险分析与建议 工业智能机器人技术潜在的伦理风险问题

智能制造新技术应用的安全风险分析与建议

作为提高生产率和改善生活水平的最直接途径,制造业在全球经济中占有特殊地位。自工业革命以来,制造业经历了机械化,电气自动化和数字化的阶段,正向着以智能化为代表的工业4.0时代迈进。科技的进步促使生产力不断提高,而对更高的生产力和利润率的追求促使整个行业价值链不断变革重塑。2015年5月,国务院正式印发制造业发展纲领性文件《中国制造2025》,并将智能制造列为五项重大工程之一,并作为主攻方向之一。数字化、网络化、智能化发展成为未来制造业发展的主要趋势。这也对国家、企业安全保障系统的建立提出了新的挑战。

一、智能制造安全风险如影随形

智能制造系统是一种由智能机器和人类专家共同组成的人机一体化智能系统,是以信息物理系统为基础,以一种高度柔性与集成的方式,借助计算机模拟的人类专家的智能活动,进行分析、判断、推理、构思和决策,将生产制造与新一代信息技术深度融合的网络化、智能化的系统。

智能制造包括:开发智能产品;应用智能装备,自底向上建立智能产线,构建智能车间,打造智能工厂;践行智能研发;形成智能物流和供应链体系;开展智能管理;推进智能服务;最终实现智能决策。

近几年我国制造走向“智造”的步伐加快,智能制造发展迅速。与传统信息系统不同,智能制造系统的高度集成、信息融合、异构网络互联互通等特性为系统安全带来了巨大的挑战。近年来智能制造安全事故时有发生,如:

智能设备安全事故。2015年7月1日,一名22岁的技术工人在大众汽车包纳塔尔工厂中被一台机器人意外伤害致死。2016年11月18日,深圳高交会上发生“机器人伤人事件”。

网络信息安全事件。2016年三一重工近千台工程机械设备遭非法解锁破坏,波及多个省份,直接经济损失达3000余万元,间接损失近十亿元。2018年,WannaCry的变种侵入了全球最大的代工芯片制造商台积电,导致其停产三天,预计经济损失高达17.4亿元人民币。2019年,委内瑞拉电网遭到攻击,造成电网瘫痪,引起公众对政府的不满,进而引发针对马杜罗政府的大规模游行示威活动。

人工智能安全事故。2017年汇丰银行的人工智能声纹识别ID出现漏洞,BBC一名记者的双胞胎兄弟通过模仿声音访问他的账户,实验尝试成功。2018年3月优步(Uber)的自动驾驶汽车在美国亚利桑那州坦佩市撞死一名在人行道外过马路的妇女。2020年6月中国台北仙桃,特斯拉的自动驾驶系统把白色翻倒的卡车误认为没有障碍物,导致了车辆在开启自动驾驶的状态下毫无减速地撞上卡车。

二、智能制造安全本源——新技术应用风险

安全保障能力已成为影响工业创新发展的关键因素。智能制造系统具有不同场景,加之异构网络协议的差异性,设备的多样性,使得智能制造系统的安全风险更加复杂。一旦发生安全事故,不仅会造成巨大的经济损失,更可能造成环境灾难和人员伤亡,危及公众生活和国家安全。

智能制造与传统制造的不同之处在于创新,智能制造运用先进的物联网、IT信息、先进设备等技术,相对传统的制造业具有技术的优势,同时相对于传统制造业也产生了新的安全问题。智能制造安全根源是新技术发展应用的风险,在制定智能制造安全措施前,我们需追本溯源,分析其相对于传统制造的不同之处。

1.技术复杂

智能制造技术除人工智能外,全球最热门的CPS、窄带互联网、大数据、虚拟现实/增强现实、OPCUA+TSN、机器视觉等前沿技术都进入了工业应用。同时,智能制造的众多需求,如数字孪生、信息贯通、柔性制造等也需要大量新技术成果的支持。随着技术应用越来越复杂,以及采用大量电子设备、可编程器件、各类软件,智能制造的技术融合度越来越高,故障难以预计、发现和检测,失效现象不再直观可视。

2.技术成熟度

从技术成熟度曲线上来看,新科技的成熟度演变分成5个阶段:科技诞生的促进期、过高期望的峰值、泡沫化低谷期、稳步爬升的光明期和实质生产的高峰期。任何新技术应用,都需要一个不断完善的过程,这个过程中存在一定风险。当前大量新技术应用进入智能制造领域,以人工智能应用为例,虽应用广泛,还是存在需要一些需要解决完善的问题。如:机器学习鲁棒性差、数据集自身存在缺陷、环境变化导致模型感知能力减弱等问题。

3.应用复杂

智能制造系统包含智能设备、智能体系、智能决策,涉及智能识别、智能定位、网络通信、信息物理融合、系统协同等多方面技术应用,体系复杂,涉及面广。

典型智能制造体系模型如下:

4.安全体系不健全

针对智能制造新技术场景的安全体系还有待研究,智能制造新技术应用要与安全体系融合,从政策法规、标准规范、运行机制、人才培养等方面入手,建立一套完善的智能化安全体系。

三、智能制造安全风险分析

从安全问题的成因角度,智能制造系统的安全可分为三个方面,即功能安全、物理安全和信息安全。从安全风险发生区域划分,可分为内部风险、外部风险。针对新技术应用,除上述风险外,还存在关联风险、信息融合风险。下文从新技术应用角度对智能制造风险做重点分析。

1.智能设备自身风险

智能工厂的设备由于自身的故障或缺陷导致安全事故的风险。如智能制造领域中伺服驱动器、智能IO、智能传感器、仪表、智能产品,所用芯片、嵌入式操作系统、编码、第三方应用软件以及功能等,均可能存在漏洞、缺陷、误操作、后门等安全挑战;各类机床数控系统、PLC、运动控制器,所用的控制协议、控制平台、控制软件等方面,存在输入验证,许可、授权与访问控制,身份验证,配置维护,凭证管理,加密算法等安全挑战。

2.设备关联风险

智能制造系统是一个网络化的复杂系统,其分系统间的安全风险因素会因网络连接的作用和信息与能量的交互而发生耦合作用,互相之间存在风险依赖性,即引起故障在系统内的传播。在智能制造系统的运行过程中,系统的某个设备或子系统等局部在外因或内因的作用下出现功能失效或产生故障后,由于系统内部的耦合作用,可能会引起其它设备或子系统功能失效或故障,进而引发连锁反应。最终导致整个系统的功能失效与故障。

3.信息融合风险

指自动化与信息化融合、互联网与生产操作网融合、功能安全保护与信息安全防护融合等的过程中引发冲突,导致安全事故的风险。智能制造系统是关键基础设施,其信息安全不仅可能造成信息的丢失,还可能造成生产制造过程故障的发生、人员的损害、设备的损坏,造成重大经济损失,甚至引发社会问题和环境问题。

4.外部攻击风险

互联网技术逐渐被应用到智能制造生产领域,将人、数据、机器连接起来,对现场设备进行管理和控制,为实现制造现场的智能化打下了坚实的基础。与此同时,互联网技术这把双刃剑也为工业生产带来许多潜在的威胁。工业领域采用了如以太网等大量的通用信息技术,一旦遭受针对工业控制器的黑客攻击,病毒将借助便利的通讯网络迅速扩散,为生产带来巨大损失。

四、安全防护建议

新技术应用是智能制造的基础,其安全风险必须高度重视,我们需要在智能制造系统的论证、设计、研制、集成、运维等全生命周期各个阶段采取有效措施,来预防安全事件发生,并减缓安全事件发生带来的影响。针对智能制造的防护手段有以下五个建议。

1.建立安全全生命周期规划体系

需求分析阶段:定义Safety功能、Security功能、安全完整性等级、安全防护能力、安全完善度等级等安全体系目标。

在设计、实施、运行、维护、变更、退役等各个阶段,采取管控措施以保证目标得以实现和维持。

2.智能设备自身风险管控

增强智能设备设计、开发中的安全考虑,将安全因素放在重要地位,投入必要资源,可以有效降低产品弱点,提升整体安全性。

3.设备关联风险管控

增强智能制造系统的鲁棒性与健壮性,增强其容错能力。各系统不再只是被动的触发,而是具备基于信息互联的分析预判主动防御能力,其可靠的工作得以保持风险在合理可接受水平。

4.信息安全管控

部署安全路由、工业防火墙对入侵行为进行检查,同时可对设备层节点进行信誉评价并进行设备注册。设备层进行认证与保密相关措施保证信息的安全性。

实施多种数据库安全服务措施、用户隐私保护机制以及用户行为防抵赖的取证机制,严防工业信息的泄露。

5.网络层安全防护

针对端到端通信间的安全风险,可以实施抗分布式拒绝服务攻击的网络协议与端到端加密技术。针对网络节点的安全风险,可以实施节点认证、跨网认证以及逐跳加密技术。为提高信息传输整体的保密性,可以实施单播、组播以及广播的加密与相关安全技术。

当前新一轮科技革命和产业变革不断深入,制造业呈现出数字化、网络化、智能化的发展。以智能制造为核心的新一代信息技术与制造业加速融合,已成为全球先进制造业发展的突出趋势。大量新技术的应用对智能制造的安全产生了一定的影响,但只要我们认清风险本源、分析风险特征、建立完善的安全防护体系、认真执行针对性的预付措施,安全风险就能降低到可控范围。

医疗AI落地速度加快,会面临怎样的伦理风险

图片来源:图虫创意

2.医疗AI应用中的伦理问题

AI在医疗应用中的伦理问题,既有AI应用的常规问题,也有与医疗相关的特殊伦理问题。

2.1数据泄露问题

医疗数据包括患者的身份信息、健康状况、疾病诊疗情况、生物基因信息等,不仅涉及患者隐私,还具有特殊的敏感性和重要价值,一旦泄露,可能给患者带来身心困扰和财产损失,甚至对社会稳定和国家安全造成负面影响。然而,医疗AI的研发与应用,必须依赖大量的医疗数据用于算法训练,数据量越大、越多样,其分析和预测的结果将越精准。但数据收集、分析处理、云端存储和信息共享等大数据技术的应用,加大了数据泄露的风险。

事实上,近年来医疗行业已经成为数据泄露的重灾区。2017年全球15%的数据泄露事件来自医疗保健行业,仅次于金融业。我国医疗数据泄露事件也不鲜见。据《法制日报》2017年9月报道,某部委医疗信息系统遭到黑客入侵,被泄露的公民信息多达7亿多条,8000多万条公民信息被贩卖。2018年多家医疗机构计算机系统被勒索病毒攻击。2020年4月,某AI医学影像公司遭黑客入侵,其AI辅助系统和训练数据被窃取,并以4比特币(约合18万人民币)的价格在暗网上公开出售。这也是国内首家被曝数据泄露的医疗AI公司案例。

医疗数据泄露的途径,主要包括黑客渗透入侵、未授权访问等网络攻击,以及掌握数据的内部人员窃取、丢失数据。分析其原因,主要有四个方面:一是医疗数据具有较高的研究和商业价值,一旦获取并贩卖,将意味着可观的收益,因而容易引起黑客关注,一些掌握数据的医疗机构或AI公司“内部人”也可能铤而走险出卖数据。二是医疗机构技术力量有限难以保证数据安全。目前,国内大医院普遍实现了医疗数据信息化,并通过手机应用程序、网站、第三方医疗服务平台等形式提供线上医疗服务,越来越多的医疗数据被存储于云端或第三方服务器。但由于医疗机构属于传统行业,在信息技术、人才等方面相对薄弱,大部分医疗机构的信息化系统安全性较低,且有的数据未进行脱敏、加密处理,第三方平台也存在漏洞多、敏感端口开放多等问题,给黑客入侵和未授权访问带来了极大便利。三是一些医疗机构工作人员隐私保护意识不强,未按规定传输、共享数据,存在泄密隐患。如2020年4月某医院将出入该院人员名单信息发到微信群,导致6000余人的个人身份信息外泄,造成了不良社会影响。四是相应法律制度尚未健全,致使医疗数据在采集、使用、隐私保护等方面缺乏有效监管和约束。因此,在医疗数据共享与患者隐私保护之间寻求平衡点,将是医疗AI应用中面临的最大伦理风险。

2.2医疗安全问题

尽管医疗AI被赋予了准确、高效、安全等优点,但医疗活动本身具有一定的风险性和不确定性,加上手术机器人等医疗AI在应用中需要密切接触患者身体或直接作用于人体某些器官,不可避免地面临潜在风险。主要包括技术和人为两方面的因素。

从技术来看,国内医疗AI的发展在当前还处于起步阶段,产品性能还不稳定,也缺乏相应的标准和规范,安全性还有待考证,需要在实践中不断调试改进。即使是较为成熟的进口产品,也存在诸多问题。据美国媒体报道,使用沃森肿瘤解决方案的医生发现,沃森经常会推荐不准确甚至错误的治疗建议。如果医生据此决策,后果难以设想。

据披露,沃森“出错”的根源在于训练数据有问题。用于沃森算法训练的并非真实患者数据,而是虚拟患者的假想数据,且训练数据不足,8种癌症中,训练数据量最高的肺癌只有635例,最低的卵巢癌仅有106例。同时,沃森向虚拟患者推荐的治疗方案,都是基于纪念斯隆-凯特琳癌症中心专家的方案,并非医疗指南或真实证据。这些数据不能反映真实的、复杂的临床环境,势必会影响机器学习的准确性和普适性。而数据质量不佳、数据量过小、标注不规范等问题,也是国内医疗AI应用中普遍面临的问题。

人为因素主要是医生操作不当。在现阶段,医疗AI还只是机器或程序,它不能根据实际情况调整自己的行为,必须依赖医生对机械进行操控或做最终决策。在应用之初,医生可能因经验不足、操作不熟练而引发机器故障,有的甚至会造成严重后果。如2015年2月,英国首例机器人心脏手术过程中出现“机器失控”,主刀医生在慌乱中应对失当,最终导致手术失败,患者一周后死亡。这起事故的原因,除机器故障外,与主刀医生操作经验不足、未充分估计手术风险有很大关系。

2.3责任界定问题

传统医疗模式下,医疗机构和医生是医疗服务的责任主体。引入AI后,改变了传统的医患关系格局,医生与患者之间增加了“AI医生”及其设计制造商,这就使得医疗责任认定问题变得复杂起来。一方面,在当前技术条件下,无论是人类医生,还是医疗AI,都不能达到100%的准确率,出现误诊和漏诊在所难免。如果在诊治过程中,医生依赖AI出具的报告做出错误的判断,给患者的疾病诊治和身心健康带来伤害时,其责任到底该由谁来承担?另一方面,随着AI技术的发展,今后的AI将拥有越来越强大的自主能力,在医疗活动中将扮演越来越重要的角色,甚至可能独立做出诊断结果,医疗责任界定问题将更加突出。当医疗AI作为直接“参与者”,在手术、康复训练和护理中出现伤害患者的异常行为,或间接性地对患者造成欺骗性、虚幻性消极影响时,是否可以追究它们的伦理责任和道德义务?它们是否具有或在多大程度上具有承担医疗责任的能力?因此,有必要加强医疗AI背景下的风险责任规制,以确保患者和公众的健康权益。

2.4公平受益问题

AI应用于医疗领域,大大提高了诊疗效率和精准度,无疑会给患者带来巨大福音,但也存在不能公平受益的问题。一方面,由于医疗AI是新兴的医学高新技术,在目前阶段还属于稀缺资源,加上医疗AI的研发成本高昂,因而在临床应用中收取费用较高,且一般不在医疗保险报销范畴。这就使得医疗AI成为少部分人群能够享用的技术,大多数患者由于经济能力有限,只能望机兴叹。另一方面,基于算法和大数据的AI程序并非完全客观公正,其中可能隐含着某些偏差或歧视。这些偏差或歧视可能来自算法设计者的价值偏好,也可能来自有偏见的训练数据,还可能来自输入数据的抽样偏差。由于深度学习是一个典型的“黑箱”算法,具有不透明性和不可解释性,从而使这些偏见难以被觉察,并在深度学习中被不断复制和放大,最终导致预测结果的偏差,可能使某些人群在医疗评估中受到歧视性对待,甚至可能引发医疗安全事故。

2.5医务人员的未来定位问题

AI有着远超人类的学习能力和计算能力,其准确、高效和不知疲倦等优势,将极大提高工作效率,降低劳动成本,并逐步取代越来越多的人工劳动。2017年,英国一家名为“改革”的智库发布报告称,机器人未来将有可能取代英国公共部门近25万个岗位。在医疗领域,AI正逐渐取代人类从事一些简单的医疗后勤和技术工作,如智能导诊、微信挂号缴费、机器人发药等,并在医学影像、辅助诊疗等核心医疗环节发挥着越来越重要的作用,医师的主体性地位日益受到挑战。由此引发了人们对医务人员是否能被AI取代的争论。

医疗行业有其特殊性,涉及人与人之间的沟通和交流,需要医生的个人经验和情感投入,这是AI无法取代的。我国医疗资源短缺,基层医生经验不足,有了AI的辅助,医务人员不仅可以更好地诊治患者,还可把更多的精力用于与患者沟通,给予患者更多的人文关怀。从这一点来看,AI不仅无法取代医务人员,还会使他们的工作更有价值,更有人情味,更能回归医学是人学的本质。但是,医疗AI的应用,必将推动现有医疗模式发生变革,也必将对医务人员提出更高的要求,如果医务人员不能及时完善知识结构,提升沟通技巧和人文素养,是难以胜任AI时代的医疗工作的。

2.6患者信任问题

医疗技术的发展最终是为患者服务的,必须关注患者对医疗AI的信任问题。据笔者的一项调查显示:虽然大多数患者对医疗AI持乐观、期待态度,表示对拥有智能医疗设备的医院会更加信任,但对AI应用于临床诊断和治疗,患者的接受度和信任度并不高,且AI介入的工作越多,占据的角色越重,患者的接受度和信任度反而越低。

分析其发因,主要有两个方面:一是当前的医疗AI还处于初级阶段,患者对其缺乏深层次了解,加上很多技术尚未成熟,患者对其安全性、易用性等心存担忧,因而对其在医疗活动中的深度介入持戒备心理。二是医疗AI改变了传统的就医模式和医患关系,“医”不再只是有情感的人,也可以是智能机器或程序,传统的医患交流可能更多地变成“人机对话”。因此,面对不会说话、冷冰冰的机器,患者对其沟通能力、理解能力以及应变能力等存在怀疑态度,进而影响到他们对医疗AI的信任度。可见,AI能否在医疗领域顺利应用,还需过患者信任这一关。

图片来源:图虫创意

3应对建议

作为一项新兴的技术,医疗AI在应用中带来的伦理问题,与当前的技术水平、人员意识、公众认知以及相应的法律和管理等均有关系。针对上述伦理问题及形成原因,可从以下几方面着手应对。

3.1遵循伦理原则,细化伦理规范

近年来,为解决AI带来的伦理问题,各国政府、世界行业组织以及互联网巨头纷纷发布伦理原则,鼓励科研人员将伦理问题置于AI设计和研发的优先位置,强调AI应当符合人类价值观,服务于人类社会。其中,最为著名的当属2016年12月美国电气和电子工程师协会发布的《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景》,以及2017年1月,来自全球近千名AI领域专家在BeneficialAI会议上联合签署的《阿西洛马人工智能原则》。从国家层面来看,2018年以来,英国、欧盟相继发布了“人工智能准则”和“人工智能道德准则”,我国于2019年6月发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理”八条原则。这些伦理原则的共同点,就是将人类利益置于最重要的位置,确保AI安全、透明、可靠、可控。

关于医疗AI的伦理规范,目前美国医学会已提出了明确的规范,特别强调促进精心设计、高质量、经临床验证的医疗保健AI的发展。国内相关研究还处于探索阶段。因此,政府部门和相关行业应在遵循上述伦理原则的基础上,进一步细化医疗AI应用中的伦理规范,以更好地协调医疗AI发展与治理的关系,保障人类利益和安全。

3.2制定法律法规,厘清责任权属

AI应用中的伦理问题,往往直接转化为具体的法律挑战,或是引发复杂的连带法律问题。如AI医疗应用中的责任界定问题、医疗安全问题、隐私泄露问题等,都涉及相关的法律问题。但由于AI的复杂性和法律固有的滞后性,我国现有的相关法律已不能完全解决医疗AI衍生的各种问题,迫切需要从国家层面制定与之相适应的法律法规,以厘清AI设计者、研发者、生产者和使用者的责任权属,明确相关各方的行为边界,惩处AI研究和使用中的违法行为,使医疗AI在法律的框架下健康有序发展。目前国内外关于AI的立法研究都还处于起步阶段,相关的法律法规和标准体系正在制定当中。我国国家药品监督管理局出台了对医疗AI的相关指导规范,并已启动了认证流程,从范围、风险、临床试验上进行了规定。国家卫生健康委员会于2017年修订了《人工智能辅助诊断技术管理规范》和《人工智能辅助治疗技术管理规范》,对开展AI辅助诊断和治疗的医疗机构和人员、管理和培训等提出了基本要求;

2018年正式印发了《国家健康医疗大数据标准、安全和服务管理办法(试行)》,对健康医疗大数据的标准管理、安全管理、服务管理和监督管理等进行了规范,明确了各级卫生健康行政部门、各级各类医疗卫生机构及相关应用单位的责任权利。但是,对于医疗AI的法律地位、侵权责任划分、隐私和产权保护等,尚无明确规定,很多细化标准尚未制定。下一步还需根据医疗AI应用中出现的新问题,加强法律法规和相关政策的制定和完善,尽快形成适应智能时代的法律法规和监管体系。

3.3严格技术标准,确保医疗安全

医疗AI的技术标准关系到每位患者或使用者的人身安全,保障人身安全和符合技术规范也是AI投入市场应用的前提。因此,政府部门、AI行业要尽快制定严格的医疗AI技术标准、安全标准和应用规范,构建动态的评估评价机制,以便对医疗AI的基础平台、技术研发、产品与服务、临床应用、安全与伦理等方面加以指导和监管。在此基础上,AI研发单位要加强理论攻关和国际交流合作,加大对AI算法、数据安全、隐私保护等关键技术的研发力度,不断提升医疗AI的透明性和可解释性,尽可能地减少决策偏差和技术漏洞,增强AI产品的准确性、安全性和易用性。同时,要加强与医学专家和临床科室联合攻关,使医疗AI更契合临床需求,更容易被临床医生所理解,并在临床实践中推动AI技术不断走向成熟和完善,从而降低由技术原因引发的医疗安全、隐私泄露及其他风险,提升公众信任度。医疗机构要严格遵守AI辅助诊疗相关技术管理规范,选拔符合准入条件的医务人员开展AI辅助诊断和治疗技术,并加强对医务人员的管理和技术培训。医务人员在技术运用中,要严格遵守安全标准和操作规程,严格把握适应证,妥善应对技术应用中的突发事件,避免人为的医疗伤害。

3.4加强数据管理,保护患者隐私

在大数据背景下,要兼顾医疗数据共享与患者隐私安全,除在技术上对数据采取“匿名化”、加密存储等措施外,加强数据管理是重中之重。医疗数据的安全管理包括数据采集、存储、挖掘、应用、运营、传输等多个环节,涉及医疗机构、AI生产和服务商、医疗信息管理部门等相关单位及其所属人员。

因此,责任单位应建立健全相关安全管理制度、操作规程和技术规范,加强统筹管理和协调监督,使所属人员有章可循、按章办事;要按照国家网络安全等级保护制度要求,构建可信的网络安全环境,提升关键信息基础设施和重要信息系统的安全防护能力,使“黑客”等盗取信息者无处下手;要依法依规使用医疗大数据有关信息,严格规范不同等级用户的数据接入和使用权限,并建立严格的电子实名认证和数据访问控制,确保数据访问行为可管可控及服务管理全程留痕,对任何数据泄露事故及风险都可查询、追溯到相关责任单位和责任人。同时,对擅自利用医疗数据或非法获取患者隐私等违法行为,要加大打击力度。如此,方能最大限度保护患者隐私和数据安全。

3.5坚持医为主体,注重人文关怀

当前的医疗AI仍处于“弱AI”阶段,还不具备独立思考和决策的能力,更不可能脱离医师自主完成诊疗工作。因此,在医疗活动中必须坚持医务人员的主体地位,不宜过于依赖AI或对其寄予过高期望。医学并非单纯的自然科学,它既是科学的医学、技术的医学,也是人的医学。医护人员所面对的患者,是有思想、有情感、有心理需求的病情各异的人。而AI只是利用机器模拟人类智能的技术,它可以替代医务人员完成部分简单、重复的医疗工作,但它无法理解患者的喜怒哀乐,不能与患者产生情感共鸣,更不会给予患者人性的关怀。而这一切,都需要医务人员来弥补。因此,面对飞速发展的医疗AI技术,医务人员除了主动接纳、学习新技术,积极适应新变革外,还要牢牢抓住“人”的优势,努力提升人文素养,学习沟通技巧,在医疗行为中尽可能地给予患者尊重、理解和人文关怀,减少患者因为病痛带来的身心不适,使患者在诊疗和康复过程中有更多的获得感。同时,医务人员在选择和使用医疗AI时,要与患者多解释、多沟通,在综合考虑其接受程度、病情复杂程度、家庭经济状况以及医院的医疗条件、技术水平等基础上,合理选用恰当的技术为患者服务,并做好指导和服务工作,以获得患者的理解和认可,增强对医生和医疗AI的信任感。

3.6加强宣传教育,提升患者信任

针对患者对医疗AI了解不多、认知不足的现状,政府部门、科研单位、高等院校、医疗机构等应形成教育合力,充分利用各种传统媒体和新兴媒体,普及AI相关知识和内容,宣传AI在各领域的新进展、新成就,特别是医疗AI的研究现状、发展趋势、用户体验及使用效果等,以提高社会公众对AI的整体认知水平。如由中央广播电视总台和中国科学院共同主办的大型科学挑战节目《机智过人》,以“人机大战”的模式,介绍AI知识和我国AI发展现状,从不同视角展现AI发展给人类生活带来的改变。这种兼具科学性与趣味性的挑战节目,对于增进公众对AI的了解、增强对医疗AI的信任度,有着良好的促进作用。

4结语

当前,医疗AI的研究正呈现出爆发之势。各种新技术、新产品纷纷落地应用,无疑会给医疗行业带来巨大变革,也必将给患者带来更优质便捷的医疗服务。但任何新技术都具有双刃性,在看到其优势的同时,也必须密切关注其可能带来的伦理问题和安全风险,积极采取措施加以应对和防范,使医疗AI始终朝着有利于人类健康的方向发展。返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇