人工智能如何应对全球性公共卫生突发事件
人类历史就是一部与疾病的抗争史,在此次全球抗“疫”攻坚战中,人工智能发挥了举足轻重的作用。越来越多人相信,随着技术的飞速发展,未来,人工智能将足以应对全球性公共卫生突发事件,服务于全人类健康事业。到底是不是这样呢?我们一起来听一听2020年世界人工智能大会上“疾控女侠”——复旦大学上海医学院吴凡副院长和“硬核医生”——复旦大学附属华山医院张文宏教授怎么说。
2019年年末,新型冠状病毒肺炎疫情来势汹汹,全球面临严峻的公共卫生危机,大众对公共卫生健康的关注度达到了前所未有的高度。面对突如其来的疫情“大考”,我国公共卫生应急机制总体上经受住了考验,这其中离不开人工智能、大数据等技术的支撑。在抗“疫”一线中,以人工智能为代表的新一轮产业变革力量,在疾病诊断、筛查随访、药物研发、物流配送等各方面显示出巨大潜力,成为支撑抗“疫”的重要力量。
人工智能为传染病竖起“防护墙”
在传染病防控方面,吴凡认为,大数据起到了很大的作用,能动态感知病例的关联情况。“以往,每个医院发现传染病例后,诊断的是单名患者,如果没有大数据的智能分析、动态感知,A医院报告一个病例,B医院报告一个病例,这两个病例之间就无法进行关联。有了人工智能、大数据之后,我们不仅可以了解不同地方散在病例是否存在关联性,还可以通过大数据对病例发生的时间、环境等进行深入分析。”吴凡介绍说。
抗击疫情期间,有很多的医疗机构包括高校、科研院所等都在做一系列的数据分析、模型构建。如何使构建的模型更加科学、更加接近现实,能够进行前瞻性预警预测是非常有意义的。在谈及构建模型的过程中如何挖掘更多的数据、变量时,吴凡强调,人、机器、大数据是互动的关系。以新型冠状病毒肺炎疫情为例,在使用相同的传染病动力模型的情况下,各国专家对上海感染情况的预测结果不尽相同。例如,英国帝国理工大学早期根据上海的人口密度和人员流量预测,这次疫情应该会有80万例感染者,但结果并非如此,上海本土病例只有341例。为什么会存在指数级的差异?这主要是因为人的不同。吴凡指出:“传染病在不同地区有不同的流行态势、不同的参数,比如上海,人和人的接触不仅仅采用传染病的动力模型来预测,还采用了人的神经网络模型来预测。个人的行为模型与传染病的传播动力模型、传播的模式不同,这些数据的输入是需要有经验的专家提供的。模型的设定需要在经验的基础上科学地给出参考值才可以算准。”吴凡表示,在疫情暴发初期,基于他们构建的模型进行预测,截至2020年2月29日,全国将会有逾7.9万例感染者,实际上,当时全国共有8.1万多例的确诊病例,可以说是非常精确的预测了。吴凡特别指出,在传染病防控中,“准”很重要,因为有关部门需要根据传染病的规模进行物资等各方面的准备,做到既不反应过度又要反应恰当。
吴凡表示,在传染病防控中,除“准”以外,“快”也非常重要,否则就会造成大量的社区传播。新型冠状病毒肺炎疫情发生以后,上海市科学技术委员会及时启动了应急科技攻关,利用人工智能、大数据等技术进行溯源,可以快速界定感染者,并对其进行科学摸排、及时管理,在人群和感染者之间竖起了一道“防护墙”,挖了一个“安全沟”。“例如,在超市、在公交车上,人与人之间会有较长时间的接触,某个人可能是密切接触者,但是大家并不认识彼此,我们通过大数据的方法可以快速把他找到并界定出来,然后对他进行排摸、及时隔离。上海在疫情防控中之所以做得这么出色,除了医务人员的奉献以外,这背后更离不开科技的支撑。”吴凡补充道。
人工智能会取代医生吗
吴凡强调,在疫情防控的过程中,应对措施一定要走在疫情之前。如何做到应对措施恰如其分、科学精准,并且还能走在疫情之前,靠的是大数据、人工智能加上专家智慧。
医生会被人工智能替代吗?对此,张文宏并不担心,他认为,人工智能难以取代医生,因为人工智能需要人类不停地更新数据。“靠谱的医生对大数据里面出现的意外情况可以用自己的经验、逻辑判断,而人工智能只能不断学习,每一个阶段给出一个诊断,但很难产生新的数据。在围棋里,AI可以战胜人类大脑,但在医疗领域,AI到目前为止还很难做到。”张文宏如是说。对此,吴凡也表示赞同,她指出,围棋是一种算法,能迅速算出每一步的走法有哪些不同的可能,然后做出最好的选择。但是,临床与围棋不同,其发展变化非常迅速,甚至超出某种算法的能力,这需要经验的积累。围棋是有穷尽的,而人类是无穷尽的变量,人工智能可以吸收一系列的知识和过往的经验,但人的未知还需要更多有智慧的人参与进来。
针对大数据在疫情防控过程中起到的重要作用,张文宏表示赞同。他坦言,传染病的防控核心就是“快”。上海在新型冠状病毒肺炎疫情暴发早期就使用了大数据等技术,为疫情防控提供了关键的时间窗口期,取得了良好的效果。“我们要充分地利用技术,但是不能迷信技术。”张文宏指出,与大数据在流行病学领域的应用不同,大数据的临床应用方面还存在比较多的障碍,流行病学要解决的问题并不是技术本身,而是什么时候有权限启动数据。但是,在临床上,很多特殊案例都超出了人工智能的算法边界。AI在影像学领域发展很快,但在面对新型冠状病毒肺炎这一新发传染病时,没有足够数据“喂”给AI,它甚至无法正确读片,最终还是只能依靠医生的经验判断。
在人工智能诊断方面,吴凡表示,在缺医少药的贫困地区,用大数据进行预诊速度更快。张文宏也认为,在这些地区机器诊断甚至比85%的医生水平要高。但是,在临床上,他不太主张用大数据替代简单的问诊,宁可把机会让给护士或者年轻人。“所有的电子病例都是有价值的,比如在北京就可以看到上海的所有病例,现在人可以被取代掉吗?不可能。人不能什么事都不做,全让机器做,而且什么都不做也不是什么好事,所以大数据的未来发展一定要精准,目的是为我们做增量,而不是取代我们,取代毫无意义。”张文宏称。他同时强调,大数据的发展一定要跟人类的长远发展方向一致。
在大数据的未来发展方向上,吴凡也赞同张文宏的观点。她认为,机器的目的不是取代人,而是要实现人脑不可能完成的任务。“人类大脑是存在边界的,因为教育背景、知识体系,一个人的经验、人的一生是有限的。但是,机器可以集合前辈的智慧和经验,拥有无限的潜力去帮助我们完善诊断。”吴凡指出,在人工智能方面,机器还有学习功能,要不断给它“喂料”,这个“料”就是数据,它自己可以变得越来越聪明,而且机器里面喂的“料”不是一名医生,是很多名医生,很多个智慧体。同时,吴凡强调:“我觉得不应该是机器取代人,也不应该是人利用机器,而是要让人和机器之间进行完美的结合,人和大数据、人工智能之间进行完美的结合。”
人工智能的发展思考
张文宏补充道:“人工智能最终是服务人类的,人类的发展是无限的,但是科技,特别是人工智能现在发展过快。我相信人工智能会是后时代的科技,第三次革命以后的新一次革命,我很难想象这次革命发展会走到哪里,但是人类应该对未来科技的发展保持敬畏之心。”
吴凡表示,在人工智能的发展过程中,还有几个方面需要注意。首先,在人工智能发展方向的把握上,一定要注意不能伤及人类的利益,这其中包括个人隐私,即在使用数据的时候不能侵犯个人的隐私。其次,人工智能在发展过程中会不会出现谁控制谁的问题?是人控制机器,还是机器过于聪明控制了人类?这也是全世界关注的问题。
现今的发展阶段可能更多的是人工智能、大数据更好地造福人类,但是,我们要有所警觉,未来,我们要有边界意识去控制人工智能的发展。
本文来自《张江科技评论》
机器学习的三个标志性事件
机器学习的发展历程
对于20世纪90年代以前的发展历程,我认识不够,了解不深,觉得当时机器学习处于发展的相对平淡期。而20世纪90年代中期到21世纪00年代中期是机器学习发展的黄金时期,主要标志是学术界涌现出一批重要成果,比如,基于统计学习理论的支持向量机、随机森林和Boosting等集成分类方法,概率图模型,基于再生核理论的非线性数据分析与处理方法,非参数贝叶斯方法,基于正则化理论的稀疏学习模型及应用等等。这些成果奠定了统计学习的理论基础和框架。
然而,机器学习在21世纪00年代末也经历了一个短暂的徘徊期。那时我在加州大学伯克利分校的博士后工作结束,正面临找工作,导师乔丹教授和我进行了多次交流,他一方面认为机器学习正处于困难期,工作职位已趋于饱满,另一方面他向我一再强调,把统计学引入到机器学习的思路是对的,因为以统计学为基础的机器学习作为一个学科其地位已经被奠定。主要问题是机器学习是一门应用学科,它需要在工业界发挥作用,能为他们解决实际问题。幸运的是,这个时期很快就过去了。
现在我们可以理直气壮地说机器学习已经成为计算机科学和人工智能的主流学科。这主要体现在下面三个标志性的事件。
第一,2010年2月,加州大学伯克利分校教授乔丹和卡内基梅隆大学教授米歇尔同时当选美国工程院院士,同年5月份,乔丹教授又当选为美国科学院院士。随后几年,概率图模型专家科勒(DaphneKoller)当选为美国工程院院士,理论计算机学家和机器学习专家、Boosting的主要建立者之一夏皮尔(RobertSchapire)当选为美国工程院院士和科学院院士。期间,斯坦福大学的统计学家弗莱德曼和提布施瓦尼(RobertTibshirani)、伯克利分校的华裔统计学家郁彬,以及卡内基梅隆大学统计学家沃塞曼也先后被选为美国科学院院士。这是一个非常有趣的现象,因为这些学者都在机器学习领域做出了非常重要的贡献,比如弗莱德曼的工作包括分类回归树、多元自适应回归(MultivariateAdaptiveRegressionSplines,MARS)和梯度推进机(GradientBoostingMachines,GBM)等经典机器学习算法,而提布施瓦尼是最小绝对收缩和选择算子(LeastAbsoluteShrinkageandSelectionOperator,LASSO)的提出者。此外,优化算法专家鲍德(StephenBoyd)当选美国工程院院士,他和范登贝格(LievenVandenberghe)的合著《凸优化》(ConvexOptimization)可以说风靡机器学习界。今年,机器学习专家、深度学习的领袖、多伦多大学教授辛顿以及该校统计学习专家瑞德(NancyReid)分别被选为美国工程院和科学院的外籍院士。
乔丹教授在当时我祝贺他当选为院士时的回信中说,如果以他当选院士这种方式来看待机器学习获得学术界的认同会更有意义。因此,我理解在美国一个学科能否被接纳为主流学科的一个重要标志是,其代表科学家能否被选为院士。我们知道米歇尔是机器学习早期建立者之一,而乔丹是统计机器学习的主要奠基者之一。
第二,2011年的图灵奖授予了加州大学洛杉矶分校教授珀尔(JudeaPearl),他主要的研究领域是概率图模型和因果推理,这是机器学习的基础问题。图灵奖通常颁给纯理论计算机学者,或者早期建立计算机架构或框架的学者。而把图灵奖授予珀尔教授具有方向标的意义。此外,去年《科学》和《自然》杂志连续发表了4篇关于机器学习的综述论文。而且,近几年在这两个杂志上发表的计算机学科论文几乎都来自机器学习领域。
第三,机器学习切实能被用来帮助工业界解决问题。特别是当下的热点,比如说深度学习、AlphaGo、无人驾驶汽车、人工智能助理等对工业界的巨大影响。当今IT的发展已从传统的微软模式转变到谷歌模式。传统的微软模式可以理解为制造业,而谷歌模式则是服务业。谷歌搜索完全是免费的,服务社会,他们的搜索做得越来越极致,同时创造的财富也越来越丰厚。
财富蕴藏在数据中,而挖掘财富的核心技术则是机器学习,因此谷歌认为自己是一家机器学习公司。深度学习作为当今最有活力的机器学习方向,在计算机视觉、自然语言理解、语音识别、智力游戏等领域的颠覆性成就,造就了一批新兴的创业公司。工业界对机器学习领域的人才有大量的需求。不仅仅需要代码能力强的工程师,也需要有数学建模和解决问题的科学家。
最近有一本尚未出版的书《数据科学基础》(FoundationofDataScience),作者之一霍普克洛夫特(JohnHopcroft)是图灵奖得主。在这本书前沿部分,提到了计算机科学的发展可以分为三个阶段:早期、中期和当今。早期就是让计算机可以运行起来,其重点在于开发程序语言、编译技术、操作系统,以及研究支撑它们的数学理论。中期是让计算机变得有用,变得高效,重点在于研究算法和数据结构。第三个阶段是让计算机具有更广泛的应用,发展重点从离散类数学转到概率和统计。我曾经和霍普克洛夫特交谈过几次,他认为计算机科学发展到今天,机器学习是核心。他正在读机器学习和深度学习方面的书,并计划为本科生讲授机器学习课程。
现在计算机界戏称机器学习为“全能学科”,它无所不在。除了有其自身的学科体系外,机器学习还有两个重要的辐射功能。一是为应用学科提供解决问题的方法与途径。对于一个应用学科来说,机器学习的目的就是把一些难懂的数学翻译成让工程师能够写出程序的伪代码。二是为一些传统学科,比如统计、理论计算机科学、运筹优化等找到新的研究问题。因此,大多数世界著名大学的计算机学科把机器学习或人工智能列为核心方向,扩大机器学习领域的教师规模,而且至少要保持两三个机器学习研究方向具有一流竞争力。有些计算机专业有1/3甚至1/2的研究生选修机器学习或人工智能。
机器学习现在已成为统计学的一个主流方向,许多著名大学的统计系纷纷从机器学习领域招聘教授,比如斯坦福大学统计系新进的两位助理教授来自机器学习专业。计算在统计领域已经变得越来越重要,传统多元统计分析是以矩阵分解为计算工具,现代高维统计则是以优化为计算工具。
机器学习发展的启示
机器学习的发展历程告诉我们:发展一个学科需要一个务实的态度。时髦的概念和名字无疑对学科的普及有一定的推动作用,但学科的根本还是所研究的问题、方法、技术和支撑的基础等,以及为社会产生的价值。
“机器学习”是个很酷的名字,简单地按照字面理解,它的目的是让机器能像人一样具有学习能力。但在其十年的黄金发展期,机器学习界并没有过多地炒作“智能”或者“认知”,而是关注于引入统计学等来建立学科的理论基础,面向数据分析与处理,以无监督学习和有监督学习为两大主要的研究问题,提出和开发了一系列模型、方法和计算算法等,切实地解决了工业界所面临的一些实际问题。近几年,因为大数据的驱动和计算能力的极大提升,一批面向机器学习的底层架构先后被开发出来。神经网络其实在20世纪80年代末或90年代初就被广泛研究,但后来沉寂了。近几年,基于深度学习的神经网络强势崛起,给工业界带来了深刻的变革和机遇。深度学习的成功不是源自脑科学或认知科学的进展,而是因为大数据的驱动和计算能力的极大提升。
机器学习的发展诠释了多学科交叉的重要性和必要性。然而这种交叉不是简单地彼此知道几个名词或概念就可以的,是需要真正的融会贯通。统计学家弗莱德曼早期从事物理学研究,他是优化算法大师,而且他的编程能力同样令人赞叹。乔丹教授既是一流的计算机学家,又是一流的统计学家,而他的博士专业为心理学,他能够承担起建立统计机器学习的重任。辛顿教授是世界最著名的认知心理学家和计算机科学家。虽然他很早就成就斐然,在学术界声名鹊起,但他依然始终活跃在一线,自己写代码。他提出的许多想法简单、可行又非常有效,被称为伟大的思想家。正是由于他的睿智和身体力行,深度学习技术迎来了革命性的突破。这些学者非常务实,从不提那些空洞无物的概念和框架。他们遵循自下而上的方式,从具体问题、模型、方法、算法等着手,一步一步实现系统化。
可以说机器学习是由学术界、工业界、创业界(或竞赛界)等合力造就的。学术界是引擎,工业界是驱动,创业界是活力和未来。学术界和工业界应该有各自的职责和分工。学术界的职责在于建立和发展机器学习学科,培养机器学习领域的专门人才;而大项目、大工程更应该由市场来驱动,由工业界来实施和完成。