谈计算机及人工智能技术发展
谈计算机及人工智能技术发展时间:2023-05-2701:58:18
摘要:计算机技术的发展,在一定程度上改变了社会的生产生活方式,其作为辅助工具的一种,应用范围十分广泛,尤其是人工智能技术的出现,标志着智能化时代正式开启,在这种背景下,社会生产效率和质量会大幅度提升。文章首先对计算机人工智能技术进行简单介绍,然后分析其发展历程和未来发展趋势,最后对其在各个领域的应用进行简述,希望为相关行业提供借鉴。
关键词:计算机;人工智能技术;发展历程
1引言
在科学技术高速发展的今天,传统计算机技术逐渐与人们的需求不符,为满足人们需要,并促进社会经济的发展,技术人员在传统计算机技术的基础上,研究新的技术,人工智能技术在此背景下产生。截至目前,人工智能技术的发展已经趋于成熟,在社会各领域中均有所应用。实践应用结果表明,人工智能技术的应用,使自动规划和智能控制等功能实现,在推动社会经济发展方面,发挥了重要的作用。因此对此项课题进行研究,其意义十分重大。
2人工智能技术的概念
由人制造出来的机器所表现出的智能就是人工智能技术,这里所说的机器主要是指计算机程序,故智能技术常常与计算机绑定。但是在人工智能技术高度成熟的背景下,计算机人工智能技术的应用范围进一步延伸,已经由专业科学技术逐渐变为涉及不同领域和专业的广泛科学技术。站在技术角度而言,赋予机器人脑的思维方式,代替人类完成各项工作,属于人工智能技术的主要作用。伴随着世界经济的发展,工作内容愈加复杂且繁重,这种情况的出现,为计算机智能技术的发展提供了契机。
3人工智能技术的发展历程
人工智能的出现时间为1941年,在电子计算机发展后,人类可以依靠技术制造机器智能。1956年是人工智能的首次提出时间,自此之后,研究者对这项技术进行全面且深入的研究,人工智能概念渐渐被人们所熟知,人工智能技术的实际发展速度与预想相比,还存在一定的差距,但其发展的脚步却没有停止。在80余年的发展历程中,大量的AI程序出现,并被应用于各个领域,推动了其他技术的发展。计算机及人工智能技术发展阶段如下所述:
3.1初生阶段
1941年世界上第一台计算机由美国研发成功,这台计算机的占地面积非常大,实用价值不高,具体表现为设置上千条线路,仅能满足一个程序的运行需求。故研究者继续研究,并于1949年成功研发了一种具有程序存储能力的计算机,使程序运行难度大大降低,与此同时,计算机理论也同步发展,并催生了计算机科学,为人工智能的产生奠定了坚实的基础,究其原因,主要是人工智能需要将计算机作为媒介。计算机技术可以为人工智能的产生提供技术基础,但是在计算机出现的初期,人们并未对计算机和人类智能间的联系多加关注。美国学者在研究反馈理论时发现自动调温器属于最典型的反馈控制例子,这种装置在采集室内温度后,会对比实际温度和希望温度。并根据二者的差值,开大或关小开关,从而实现对室内温度的有效控制。这项研究对人工智能技术的发展而言,可谓是影响深远。1955年国外研究人员研发了一种逻辑专家程序,该程序被业内领域认为是世界上第一款人工智能程序,在运算问题时,可以用树形模型对问题进行表示,然后进行模型的选择,最终确定最正确的结论。1956年人工智能之父邀请研究人员进行学术讨论,自此之后,人工智能的概念被正式确立。
3.2应用阶段
20世纪70年代后,知识工程概念被相关领域专家正式提出,这种概念与实体工程较为类似,但在建设方面,却与其存在显著的差别。可以将知识工程视为智能和专家系统的结合,且具有商品化的特点。在这种背景下,人工智能系统逐渐在商品化的专家系统中应用,这种专家系统其本质为信息系统,相较于普通的信息系统,该系统在处理问题时,能够对人类专家处理问题的思维方式进行模拟。详细而言,就是在计算机系统中融入特定领域知识、推理和决策系统的过程,有助于问题的解决。与专家系统相比,智能系统更容易被我们所了解,目前,智能手机所用的安卓、ios系统就属于典型的智能操作系统。在科学技术发展的驱动下,专家系统的发展愈加成熟,逐渐与其他功能相融合,比如:智能语言系统、知识表示系统均应用了专家系统。我国人工智能技术发展时间较为短暂,故技术发展尚未成熟,与欧美国家尚存一定的差距。为此,国家应重视人工智能技术的发展,并通过政策、制度和资金等手段的应用,为我国人工智能技术发展提供保障。
4计算机及人工智能技术的应用
通过上述分析可知,计算机及人工智能技术的发展时间已经超过了70年。在长时间发展后,人工智能技术的发展趋于成熟,在各个领域均取得了良好的应用效果。下文会以计算机及人工智能技术的应用为切入点,对其发展进行具体的分析。
4.1人工智能技术在远程作业系统中的应用
智能型远程作业系统由人工智能技术和远程作业系统组合而成,其英文简称为IDES,与普通远程作业系统相比,这种远程作业系统具有智能性、多层次性以及开放性的特征,系统功能十分完善,可以实现各项作业环节的全程微机化。以试卷批阅为例,该系统能够在批阅试卷的过程中对客观题的解答过程和答案进行识别,同时还具备透视和病历双重功能,简言之,就是系统会依据学生的解答过程,找出学生在学习过程中存在的问题,并提出合理的建议。以某研究机构设计的智能远程作业系统为例,该系统在构建过程中,由远程教育公司负责数据交换中心的建立,如果应用地区的中小学校具备条件,则可以建立分中心,系统中央服务器可以保存全部的作业、考试资源以及学生档案。该系统的运行管理机制为分级授权,通过这种管理机制的设置,合理调配和管理教学资源及系统用户。学生家长想要了解学生的学习和作业完成情况,即可登录系统查找相关的资料。由于作业批改环节所涉及的人机交互过程十分复杂,在系统设计过程中,将客户机/服务器模式作为了主要选择,确保系统在各种网络环境下稳定运行,便于学生随时随地应用远程作业系统。将系统功能作为依据,我们可以将该系统分为四个组成部分,主要包括数据库服务器、管理系统、学生系统和教师系统。系统设计的构架为全开放式,可以满足多个学校和教育部门的需求,如有特殊需要,教师可以对系统内的教学资源进行自主处理,比如:增加、修改和删除等等。其中,管理系统能够为管理人员维护系统运行状态,创造有利的条件。教师系统则是与教师工作有关功能和操作的有机结合。这些功能包括授课、作业和考试等方面的功能。而学生系统的功能为批改作业、课程选择和完成作业等。在了解后得知,在这个系统中,远程通讯模块属于重要的功能模块,其实现方式为网上讨论、电子邮件发送以及在线解决问题等。教师、学生和家长等系统用户在注册账号时,需要填写邮箱,为用户之间的沟通和交流提供便捷条件。而在线解决问题和网上讨论所涉及的主体主要是学生和教师,有助于教师对学生进行一对一的辅导,教学效果也会因此而增强。远程作业系统所应用的人工智能技术为专家系统,究其原因,主要是该系统需要为教师和学生提供教学资源,并培养学生解决问题的实际能力,而专家系统的应用,则有助于系统设计功能和预期目标的达成。实际应用结果表明,专家系统的应用,使教学效果显著增强,具有十分广阔的发展空间。
4.2计算机视觉
所谓的计算机视觉是指借助计算机技术,模拟人类的感知系统和感知能力,并代替人类完成环境感知方面的工作。计算机视觉属于人工智能技术的重要内容,在勘测、识别等领域的应用效果较为明显。通常情况下,人工智能技术在视觉领域的应用,由3个阶段构成,分别是检测、识别和识别目的,比如:人脸识别、指纹识别和瞳孔识别,就是人工智能技术在相关领域的应用方向。但就当前实际情况而言,计算机视觉领域的人工智能应用,在物体场景识别技术上的发展较为滞后,究其原因,主要是识别目标较多,且处在实时变化的状态。人工智能技术的应用,虽然可以识别目标的外貌特征,但无法保证100%的准确率,因此,提升人工智能技术在计算机视觉领域中的准确率,是人工智能技术未来发展的重要方向。
4.3自然语言处理
人工智能技术在经过多年的发展完善之后,被应用到自然语言处理领域,成为了研究人员的重点研究内容,其应用有助于人机交互功能的实现。计算机和人类所使用的语言并不相同,计算机所使用的语言为机器语言,而人类使用的语言被称为自然语言,人机交互功能的实现,要求研究人员基于人工智能技术,设计机器内部数据结构,使机器语言转化为自然语言,与此同时,还要确保转换机制运行的持久性和稳定性,人工智能技术的应用,是上述目标实现的关键。当前人工智能技术在自然语言处理领域的应用已经趋于成熟,比如:智能客服、语言翻译、语音导航系统等。以我国为例,我国人工智能技术虽然起步较晚,但发展速度却十分显著,语音识别技术就是其中典型代表,其发展水平位居世界前列,语言识别准确率可达95%。其中百度作为国内计算机智能技术研究发展的先行者,在研究自然语言处理时,取得了突破式的进展,其所研发的语言识别和处理产品,在国际上颇具知名度。目前,在社会经济高速发展的驱动下,国内企业和公众对智能语音的需求逐渐增加,使这项技术的未来发展前景愈加广阔,在未来,这项技术会在智能家居、医疗、教育、服务等领域实现普及应用和发展。
4.4智能机器人
智能机器人是人工智能技术与机器相结合的产物,主要是指人类通过程序对其进行操控,促使其代替工人完成复杂工作任务的机器。但事实上,人工智能技术的应用,可以赋予智能机器人自主学习和思考的能力,从而使自动化控制目标成为可能。相较于自动化机器而言,智能机器人具备三项要素,分别为思考要素、感觉要素以及反应要素,这是二者最显著的差别。其中感知要素是指智能机器人具有与人类相似的感官系统,在具备环境识别能力的基础上,兼具运动能力,这些能力的具备,赋予了机器人与外部环境互动的功能。除此之外,自主思考能力是智能机器人的优势,凭借这一优势,其在接收信息后,会理解和回应信息内容。就当前实际情况来看,社会上应用的智能机器人种类和数量均呈现出不断增加的趋势,其应用可以使社会生产效率大幅度提升,有助于促进社会经济的高速发展,并且智能机器人的应用发展空间尚未饱和。人工智能技术研究领域对智能机器人的研究十分重视,并将自主导航定位、人工智能识别和控制作为重点研究技术。可以预见,在未来智能机器人的应用和发展必将成为热点话题。
4.5人工神经网络
在人工智能领域神经网络的地位不言而喻,所谓的神经网络是指研究人员应用人工神经元、电子元件和处理元件等装置,对人类大脑组织结构和思维方式进行模拟,以此来赋予计算机程序自我学习能力的技术。目前,这项技术已经成为人工智能领域的重点研究方向,在存储、处理和分析数据时,起到了关键性的作用。在人工神经网络中,信息的传递和处理需要将神经元之间的相互作用为条件,其存储则依靠各元件的分布联系,其自我学习能力的实现,主要通过神经元连接权重的动态调整。与传统数据处理方式对比而言,在分析和处理模糊数据时,应用这项人工智能技术,可以取得良好的效果。在人工智能技术不断成熟和发展的背景下,人工神经网络技术的发展愈发成熟,逐渐成为了人们分析和解决问题的重要工具,其智能特征因此得到了体现。比如:人工神经网络与社交软件相结合后,可以使程序具备观察人类行为的能力,在观察人类行为后,计算机程序即可做出合理的回应,有助于人机交互功能的实现。
4.6人工智能技术的未来发展前景
通过上述分析,人工智能技术已经被诸多领域所应用,且应用效果极为显著,但随着技术的不断完善和发展,其应用领域会进一步扩大,笔者对其未来发展前景做出了合理的预测,如下所述:(1)人工智能技术在各行业垂直领域的应用存在非常大的发展潜力。随着IT基础设施的不断完善,人工智能市场会进一步扩大,尤其是自然语言处理技术,在市场中所占的份额会持续增长。(2)人工智能技术在医疗保健行业中的应用。人工智能技术的应用,可以合理配置医疗资源,改善医疗资源配置不合理的现状,医疗成本也会随之下降,并加强医疗保健行业与其他行业间的合作交流。此外,人工智能技术未来会在临床试验、医疗计划和医疗服务中得到应用。在查阅统计资料后得知,人工智能技术在医疗保健行业中的应用市场在短短3年内增长了15×108美元。(3)人工智能技术对屏幕进行取代。在计算机和手机普及应用的今天,屏幕和键盘是人机交互功能实现的主要接口。但在未来,人工智能技术会对这些接口进行取代。比如:AR和VR技术正在进入人类生活,将其应用于自动驾驶系统之中,无需使用屏幕,即可实现人与运算系统的沟通和交流。这表明,人工智能技术的发展,拉近了人类与机器之间的距离,使机器的学习能力不断增强,控制难度业因此而下降。预计在未来,人工智能技术会完全取代屏幕在人机交互中的地位,从而带给使用者更加良好的体验。(4)人工智能技术在手机芯片中的应用。目前智能手机所应用的架构处理器为ARM,但这种处理器在运行大量图像时,会显得不够流畅,无法满足用户的使用需求。因此,在未来手机芯片厂商,会将人工智能运算核心融入到手机芯片之中,以提升手机芯片的性能。实际上,苹果和三星的新款手机已经应用了3D感测技术。(5)AR与人工智能技术相融合。AR的发展离不开人工智能技术的支持,而人工技术的发展也同样如此,如果将人工智能技术比作人体,AR就是人工智能技术的眼睛,可以为人工智能机器人进入虚拟环境训练提供支持。
5结论
综上所述,在计算机技术高速发展的背景下,计算机与人工智能技术的应用范围逐渐广泛,且取得了良好的应用效果。人工智能技术在经过多年的发展后,已经趋于成熟,对国家发展而言,具有十分重要的意义。相较于国外,我国人工智能技术发展时间较短,正在面临严峻的考验。在此背景下,相关领域研究人员应注重人工智能技术的研究,总结过往的发展经验,促进我国人工智能技术的发展和完善。
参考文献:
[1]王兵,杨淑清.计算机人工智能技术的发展与应用研究[J].计算机产品与流通,2020(08):3.
[2]李洋.计算机人工智能技术的发展与应用研究[J].电脑知识与技术,2020,16(12):201-202,206.
[3]张萌.计算机人工智能技术的发展与应用研究[J].通讯世界,2020,27(04):208-209.
[4]李乔凤.计算机人工智能技术的应用与未来发展分析[J].数字技术与应用,2020,38(03):91,93.
[5]王征.探析计算机人工智能技术的应用与发展[J].电子元器件与信息技术,2020,4(01):51-52.
作者:阚永彪单位:甘肃酒泉职业技术学院
人工智能论文3000字(通用5篇)docx
《人工智能论文3000字(通用5篇).docx》由会员分享,可在线阅读,更多相关《人工智能论文3000字(通用5篇).docx(17页珍藏版)》请在温州文客信息科技有限公司上搜索。
人工智能论文3000字(通用5篇)align=center第1篇:人工智能论文3000字基于当前社会的人工智能初探本文的开头,我想先强调一个概念,究竟什么是人工智能。一般人看到AI第一瞬间便会想到机器人,但机器人只是一个容器,它的内核与控制系统才能被称作人工智能。再者,人工智能不能被单纯地被认为是与人类处在同等智能水平上的事物,总的来说,可以将它分成三个层次:1.弱人工智能;2.强人工智能;3.超人工智能。弱人工智能,是在单一领域具有超越常人的能力,比如说AlphaGo,它可以在围棋方面战胜李世石,但是若让它进行简单的计算,类似1+1=2这样的式子,它可能却是不行的。现阶段,弱人工智能存在于我们生活的方方面面。导航,Siri,天气预报,搜索引擎,音乐推荐等等,这都是人工智能,只不过大多数人并不知道罢了。所以那些人工智能根本不可能造福人类的说法是绝对错误的,正相反,人工智能给人们带来了诸多便利。因此,我希望大家能抛弃对人工智能的偏见,真正接纳人工智能的存在。组成人类的细胞都比弱人工智能层次要高,所以对待这一层
人工智能议论文1000字
人工智能议论文1000字
随着人工智能的快速发展,机器人越来越像人。前有妙语连珠的siri、小冰,后有世界第一位机器人公民索菲亚。这不禁使一些人产生了担忧,机器人的发展,会不会对人类本身造成威胁?
在我看来,机器人对人类的模拟只是计算的产物,但在机械得以被广泛应用的这个时代,如何守护好我们与机器人的根本区别——人性,才是最紧迫的问题。
当阿尔法狗击败李世石和柯洁时,人们都感受到了人脑与计算机计算能力的巨大差距。面对只望一眼棋盘就能纵观千万种可能性,一直看到棋局最后的阿尔法狗,我相信天才的棋手也只能败下阵来。但是,正如柯洁所言,他在棋局中的汗水和纠结、对进步的喜悦、对失败的苦痛,是任何机械都无法感受到的。它们只是知道如何下,却不知道为何而下,更感受不到下棋的乐趣。在刘慈欣的短篇小说《诗云》中曾有这样一个场景:超级文明掏空了地球,耗尽了太阳系的全部资源,创造出了巨型的诗歌储存器,里面包含了古往今来以及未来的所有诗歌。但是,它却无法分辨诗歌的好坏,只能就这么漂浮在太空中;它包含着所有美的可能性,却只能等待人们将它们写出。所以,机器人越来越像人又如何?机器人会下棋、会写诗又如何?机械终究只是机械,只有人类才能感受到那背后所包含的爱、乐与美。
但是,在机器的背后,藏着的还是人类。与其关注机器人会如何越来越像人,担心着那些子虚乌有的威胁,不如关注它们对人类本身造成的影响。早在工业革命时期,近代机器大工业的发展就曾使得社会结构发生了巨大变化,社会生产力发展,大量农民被迫转移至二、三产业。如今,机器人被应用的范围更加广泛:除了工业机器人,极通“人性”的机器人们更是被应用于服务业等领域,照顾孩童、陪伴老人、餐厅点餐上菜……许多人又因此而担忧,害怕机器人会在许多方面替代人类,进而导致失业等一系列风波。但我要说,无论这些机器人再怎么像人、怎么替代人类完成基础性工作,也终究无法在创造力等方面代替人类。而为了应对失业困境,我们更会在机器施加的压力之下普遍提高教育水平、提高艺术鉴赏力和创造力水平,让人性站在更高的巅峰。正如法国科学家苏埃尔所言,“机器高度拟人化,将重新定义‘人’的价值”。我想,紧紧抓住我们与机械间的区别,珍惜人性的闪光,这才是生而为人的崭新价值所在。
那么,如何才能在机械背后更好地让人性闪光呢?首先,我们应防范不法之徒利用科技危害人类安全。真正的威胁不来自机器人本身,而来自于操控它们的人类。第二,应当大力宣扬主流价值观,从源头上根绝恶性思潮的出现,同时播撒人性之美。第三,提高人的创造力的同时,加强艺术、文化的熏陶,在机器轰鸣声中,品茗读书,成就一方净土。
库克说:“我并不担忧机器人像人一样思考,我只担心人像机器人一样思考。”让冰冷的机器背后,永远保留人性的闪光,不至于让人变得同机械无异,这才是我们最需要的。
人工智能论文选题合集
1 人工智能的研究方向、领域和应用领域 摘要:人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 人工智能的研究方向、研究领域、应用领域值得我们关注和探讨。 关键字:人工智能、研究方向、研究领域、应用方向 正文: “人工智能”一词最初是在1956 年Dartmouth学会上提出的。从那以后,研究者们发展了众多理论和原理,人工智能的概念也随之扩展。人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成。人工智能目前在计算机领域内,得到了愈加广泛的重视。并在机器人,经济政治决策,控制系统,仿真系统中得到应用。 人工智能(Artificial Intelligence,简称AI人工智能在产前超声领域应用
人工智能在产前超声领域应用时间:2023-05-2807:08:27
【摘要】人工智能是利用数据和计算机算法实现原本人类才能完成的任务。借助计算机“高效、稳定”的优势,人工智能甚至在某些劳动密集型任务中发挥着超人类的作用。其中,医学影像领域凭借其图像标准化程度高、大数据支撑的天然优势,目前已与人工智能结合为一个新兴的医学研究领域,并迅速成长。产前超声受孕周、胎位和声衰减等影响,所获图像的标准化程度低、图像特征描述困难等,导致机器学习的特征工程准确性低,是医学图像领域中人工智能研发的最难点。近年来,借助深度学习技术发展的优势,产前超声人工智能识别研究逐渐起步,并取得了令人鼓舞的结果,例如在标准切面定位、胎儿生长指标与解剖结构的自动测量、鉴定图像的标准化程度、正常和异常图像的分类识别等方面,人工智能呈现出与产科超声专业人员相媲美的筛查与诊断能力。本文将概述医学影像人工智能的基本概念、人工智能在产前超声领域的研究进展、未来发展趋势和方向,旨在促进产前超声与人工智能领域的跨学科研究,以进一步挖掘人工智能在产前超声领域的发展潜能。
【关键词】产前超声;人工智能;深度学习
智能的概念最初被描述为计算机程序执行与人类智能相关的过程的能力,如推理、学习、适应、感官交互理解。19世纪50年代AlanTuring在一份研讨会论文中提出测试机器是否具有智能的方法,如机器能够与人类展开对话而不被评估者辨别出其机器身份,那么称这台机器具有“智能”[1]。随后McCar-thy等[2]提出“人工智能(artificialintelligence,AI)”这一特指名词。传统的计算机算法(如电子计算器)设置好既定的规则,每次都执行相同的功能,AI算法则自动从训练数据中学习规则(函数)。当今AI作为人脸识别技术、虚拟助手语音识别(如亚马逊的Alexa、苹果的Siri、谷歌的Assistant和微软的Cortana、汽车自动驾驶等)的基础,已广泛应用于我们的日常生活中。人机对弈的里程碑事件包括1997年“深蓝”电脑击败了国际象棋世界冠军GaryKasparov、2016年击败了中国职业围棋手李世石(9段)[3]。在医学领域,AI因其具有从大数据中获取规律的能力,可用于筛查、预测、分诊、诊断、药物开发、治疗、监测和影像识别等,目前已在新药研发[4-5]、临床决策[6-8]、医学影像判读[9-10]等各方面发挥着助力作用。已获得美国食品和药物管理局批准的AI图像分析软件呈指数递增,如检测心律失常的智能手表、自动提取关键诊断图像的智能软件等。产前超声是医学影像AI领域的难点,受孕周、胎位、超声特有的声衰减等影响,图像标准化程度低、特征描述困难,从而导致机器学习的特征工程准确性低。深度学习是先进AI技术的代表,在图像模式识别方面表现尤其出色,通过模仿人脑的结构设计,可自动提取底层特征,避免了人为图像分割导致特征工程准确性低的影响。因此,借助深度学习技术极有可能在这项劳动密集型任务中突破瓶颈,为智能化图像识别提供更为深远的帮助。本文整合这两个领域的基本理论知识,介绍AI基本概念,探讨AI与产前超声领域结合的研究进展、机遇与挑战、未来趋势,旨在加强产前超声领域与AI领域专业人士之间的跨学科交流,进一步挖掘AI在产前超声领域发展的巨大潜力。
1AI基本概念
广义的AI指机器具备任何与人类相似的思考、学习、推理的能力,即机器从数据和经验中学习规律,从而达到可提供新的数据和经验的能力。狭义的AI是机器执行特定任务的能力,如图像检测、翻译、国际象棋等。机器学习是AI的一个分支,可理解为随数据量增多而逐渐改进统计方法,以获得最佳模型(函数/规律),最终达到预测未知状况的目的[11]。换而言之,大数据支持是机器获得智能的基础,而医学影像在常规临床实践中积累的大数据库为机器学习提供了丰富的资源。根据学习方式不同又可分为:监督学习、无监督学习和强化学习。监督学习中训练数据是具有标签的,机器根据已有的数据标签,找到输入和输出结果之间的关系;无监督学习中训练数据是不需要标记的,机器通过聚类的方式从数据中寻找某种内在共性,从而分类数据;强化学习不直接给出解决方案,通过试错、激励的方式以达成回报最大化。深度学习是机器学习的另一分支。在深度学习中,输入和输出由多层隐藏层连接,也称为卷积神经网络(convolutionalneuralnetworks,CNN),是一种受生物神经网络启发的计算算法。深度学习神经网络含有多层隐藏层,可自动提取底层特征,使人眼无法分辨的抽象信息得以保真学习[12-13]。因此,其应用于医学影像AI识别时,可以有效避免人为图像分割导致的特征工程准确性低。
2AI在产前超声领域研究进展
随着人们对先天性畸形产前筛查重要性的认知逐步加深,产前超声筛查需求持续增长,而要达到专业产前超声筛查所需能力的培训时间长,导致产前超声工作者的工作负荷急剧增加。因而,提高产前超声筛查效能的迫切需求成为了AI在产前超声领域发展的主要驱动力。目前,产前超声AI领域的研究进展主要呈现在以下方面:产前超声筛查切面识别与定位、生长指标与解剖结构的自动测量、鉴定图像的标准化程度、部分标准切面的正常异常的分类识别等。
2.1产前超声筛查切面智能识别与定位
产前超声筛查切面智能识别是指计算机通过大量学习已知数据的类别标签,实现超声图像输入后切面的自动分类,如图像是腹围切面还是头颅切面,这是进一步测量、诊断异常的基础。而筛查切面的定位是指机器能在视频流或众多扫查切面中定位到所需的诊断切面。早在2017年,Yu等[14]借助深度学习CNN的结构优势,配合迁移学习策略和针对性的数据增强技术,实现了胎儿颜面正中矢状面、双眼水平面、鼻唇冠状面的分类识别,经测试该模型的受试者曲线下面积达0.979~0.999。同年,Chen等[15]应用卷积和递归神经网络的新型复合框架实现在图片和视频集中对腹围切面、双眼横切面、四腔心切面的自动分类识别。英国帝国理工学院Baumgartner等[16]通过深度学习弱监督学习模式,建立了CNN模型SonoNet,实现了自由扫查时13个胎儿标准切面的自动识别,图像召回率达90.9%。该项技术的实现将有利于引导经验不足的操作人员获取胎儿筛查的标准切面,全面提高产前超声医师培训效能,缓解全球范围内专业产前超声工作者短缺的压力。甚至在紧急情况下,非产前超声专业医疗工作者基于AI辅助也可获取筛查切面进行基本的产前超声筛查。
2.2胎儿生长指标及解剖结构的自动测量
计算机自动测量的基础是根据超声图像中不同区域所展示的回声强弱、空间纹理、结构形状、边缘连续性等特征,把目标图像中特征性解剖结构从其周围的背景中抽离出来。将深度学习自动分割优势应用于标准切面自动测量,展现出良好的性能。目前很多的超声仪器都配备自动测量AI软件,包括颈项透明层、生长发育指标、侧脑室等的测量。如Chen等[17]基于CNN对胎儿颅脑侧脑室的像素级分割,实现了侧脑室宽径准确测量,误差仅1.8mm。荷兰拉德堡德大学团队[18]基于VGG-Net的网络,自动分割胎儿颅骨光环,再通过U-Net网络来自动测量胎儿头围,最后以参考头围的Hadlock曲线来确定孕周,实现孕周的自动估算。Kagan等[19]对比了人工与半自动测量颈项透明层厚度在不同经验医师间重复性的差异,发现自动化测量技术有利于经验不足的操作人员对颈项透明层进行更为准确的评估。基于自动分割特征图像,AI技术准确的自动测量将简化所有超声工作者平时的操作步骤,节约检查时间而将更多的注意力专注于特征性结构或病灶。
2.3产前超声筛查切面的标准化程度质控
产前超声筛查切面的标准化程度质控是指判断超声图像是否显示了标准切面所必须显示的结构,是避免误诊与漏诊的基础,也是培训专业的产前超声工作者的关键。通过将医学逻辑转化为计算机语言进行图像的量化质控,我国深圳大学团队产出了出色成果。其中,Wu等[20]将AI检测技术应用于胎儿腹围切面的标准化程度质控。首先基于CNN定位图像中胎儿腹部横切面,再基于标准的腹围切面需显示胃泡、脐静脉等关键结构,对关键结构的显示进行量化评分。该研究所研发的FUIQA网络对腹围切面的质控评分与3名专家的主观评价相接近。Lin等[21]提出基于候选区域快速卷积神经网络多任务学习框架MFR-CNN对颅脑横切面内的丘脑、外侧裂、脉络膜丛,侧脑室后角、透明隔腔、第三脑室进行分类及定位检测,结合图像放大程度对切面进行量化评分。以交并比>0.7为定位准确,该模型对切面中结构定位准确率达80%以上,平均分析时间为0.5s。Dong等[22]建立的胎儿四腔心切面质控评分的神经网络综合考虑了图像的增益、放大程度以及图像所必须显示的关键结构等因素。如果同时检测到:4个腔室、肺静脉回流角,心尖、乳头肌、两侧各显示1条肋骨,且增益及放大程度合适,机器则判断为标准四腔心切面。其定量质控胎儿四腔心切面内部验证精度93.52%,外部验证精度达81.2%。
2.4正常与异常产前超声图像的自动分类识别
胎儿异常的诊断是AI在产前超声领域的最难点:首先胎儿畸形的产前诊断通常需要多切面联合诊断,单一平面信息量少,AI算法需要解决动态、联想、立体识别等方面的难题。此外,胎儿畸形的病变种类很多,每种畸形变化不一,相对来说单一病种数据量少,AI识别也面临数据量不足的困境。近两年,研究者们开始尝试于胎儿心脏及颅脑的正异常分类或部分异常类型诊断方面作出突破。2020年,Gong等[23]在建立胎儿先心病AI筛查模型中,首次引入了异常四腔心切面的图片训练,验证结果表明AI在分类正常与异常四腔心图像的表现超过了低年资及中年资医师,仅次于高年资医师。Ar-naout等[24]建立的神经网络在识别5个胎儿心脏标准切面基础上,实现了正常与16种先心病的智能分辨,曲线下面积为0.99,敏感度为95%[95%置信区间(CI)84%~99%],特异度为96%(95%CI95%~97%)。Xie等[25]基于深度学习卷积神经网络对胎儿颅脑超声图像进行正异常分类,该分类系统测试结果显示正常与异常颅脑横切面分类准确率达96.31%,明显超过既往文献报道的80%。热力图病灶定位结果显示61.62%达到精确定位,24.65%定位到与病灶紧邻的位置。同一课题组Lin等[26]通过分割和标记超过21500张胎儿颅脑超声图像进一步提出了胎儿颅脑异常实时AI辅助诊断系统,该系统可以在常规超声扫查中自动识别胎儿颅脑横切面及切面内特征性解剖标志,并根据图像检测9大种不同颅内异常。该系统的受试者工作特征曲线下面积为0.81~0.95。上述研究成果表明,基于机器视觉中的多项任务(分类、分割、检测),AI技术在产前超声领域的研究已逐渐从正常切面的定位识别过渡至异常声像的分类诊断,并有望模拟经验丰富的产前超声医师,权衡多种图像参数的同时辨别伪影,指导正确的临床决策。
3产前超声AI的挑战与趋势预测
AI技术在产前超声领域的研究进展充分展现了AI技术的优势及有望减轻产前超声工作者负荷的潜能。然而,将AI引入临床实践仍然面临诸多挑战,特别是对AI模型普适性的考证及一些目前尚无法避免的伦理问题的解决是将研究成果转化为生产力的必要准备。首先,AI模型的普适性问题:(1)单一中心获取的训练数据所建立的模型能否适用于不同的产前筛查与诊断的场景;(2)为中孕期设计的AI模型很难适用于早孕、晚孕的超声检查;(3)大多数AI模型是通过“监督学习”推导出来的,这意味着医师标注的准确性将影响模型的准确性。人类参与不可避免地在学习过程中引入主观偏差,得到的模型也可能受标注偏倚影响。因此,未来的AI模型无论是针对训练集的标注、还是验证数据集的底层标签,均需考虑制定合适的准则对质量进行把关。AI的适用性也需根据训练及验证数据制定严格规范,未来开展大规模多中心的临床研究将成为AI进入临床实践的必经之路。此外,真实场景的临床思维不仅考虑图像的特征,还会根据年龄、家族史、既往史、其他指标进行多因素整合分析,而AI模型只针对训练过的特征进行预测,不考虑其他因素。因此,未来医疗AI领域的研究重点将是构建AI集成图像和电子病例的“个性化影像诊断”。另外,AI在产前超声的应用,或者说在医学的应用,不可避免地会遇到一些伦理问题,例如AI应用到临床需要达到多高的准确率、AI所产生的医疗风险将由谁承担,需要各位研究者们进一步建立行业标准来规范这些问题。
4总结
AI在产前超声领域的研究进展,提示其有望改善筛查与诊断的工作流程、增加产前超声诊断者诊断的信心、提高产前筛查效能。未来的AI开发者和产前超声专业人员需进一步加强跨学科交流,将潜力转化为生产力,并联合多学科共同制定标准化的行业规范,规范这一新兴领域的行业标准。利益相关声明:本文作者无相关利益冲突。作者贡献说明:谢红宁负责提出选题及论文设计,并对论文进行修改;雷婷起草了本论文。
作者:雷婷谢红宁单位:中山大学附属第一医院超声科
人工智能必看的45篇论文
面对琳琅满目的AI技术,论文。恐怕会把刚入行的学者们搞得一头雾水。而市面上大部分的书籍又只是讲述基础的原理。
看着一个个大厂的黑科技产品靓丽光鲜。而自己手里看到的技术却都是向量机、矩阵、随机森林、岭回归、决策树之类的知识碎片。不仅会让人感叹,我们是一个活在时代吗?
其实IT领域的技术发展是飞快的。而AI领域的发展会是IT中最快的。我们所看到的那些黑客技,其后面无不堆积了大量的论文。而且都是最新、最前沿的论文。从某种调度来讲,他们所用的技术跟书籍里的内容确实不是一个时代。要想与时俱进,就必须改变思路——从论文入手。
小编在这里为大家准备了一道硬菜——45篇让你跟上时代的论文。拿走不谢!
一、神经网络基础部分
No1wide_deep模型论文:
关于神经元、全连接网络之类的基础结构,想必每个AI学者都有了解。那么你是否真的了解全连接网络中深层与浅层的关系呢?来看看wide_deep模型吧。这篇论文会使你对全连接有个更深刻的理解。
关于该模型的更多介绍可以参考论文:
https://arxiv.org/pdf/1606.07792.pdf
在wide_deep模型中,wide模型和deep模型具有各自不同的分工。
—wide模型:一种浅层模型。它通过大量的单层网络节点,实现对训练样本的高度拟合性。它的缺点是泛化能力很差。
—deep模型:一种深层模型。它通过多层的非线性变化,使模型具有很好的泛化性。它的缺点是拟合度欠缺。
将二者结合起来——用联合训练方法共享反向传播的损失值来进行训练—可以使两个模型综合优点,得到最好的结果。
No2wide_deep模型论文:
为什么Adam被广泛使用?光会用可不行,还得把原理看懂。这样出去喷一喷,才会显得更有面子。
Adam的细节请参阅论文《Adam:AMethodforStochasticOptimization》,该论文的链接网址是:
https://arxiv.org/pdf/1412.6980v8.pdf
No3TargetedDropout模型论文:
你还再用普通的Dropout吗?我已经开始用TargetedDropout了。比你的又快,又好。你不知道吧,赶紧学习一下。
TargetedDropout不再像原有的Dropout那样按照设定的比例随机丢弃部分节点,而是对现有的神经元进行排序,按照神经元的权重重要性来丢弃节点。这种方式比随机丢弃的方式更智能,效果更好。更多理论见以下论文:
https://openreview.net/pdf?id=HkghWScuoQ
二、图像分类部分
No4Xception模型论文:
在那个图像分类的时代,谷歌的Xception系列,像x战警一样,一个一个的打破记录。其中的技术也逐渐成为AI发展的知识体系。有必要看一下。或许会对自己的工作有所启发。
详细情况请查看原论文《Xception:DeepLearningwithDepthwiseSeparableConvolutions》,该论文网址是:
https://arxiv.org/abs/1610.02357
No5残差结构论文:
运气好到没朋友,现有模型,后完善理论指的就是残差结构这哥们。他的传奇导致即使到今天的AI技术,也无法将它割舍,就来常微分方程都得拿它比肩。快来学学吧。用处大着呢。好多模型都拿他当先锋。
利用残差结构,可以使得网络达到上百层的深度。详情请参阅原始论文《DeepResidualLearningforImageRecognition》,该论文网址是:
https://arxiv.org/abs/1512.03385
No6空洞卷积论文:
NasNet的招牌动作,虽然不是出于NASNet,但是却被人家用得如火纯青。有时不得不惊叹,机器设计出来的模型还真实跟人设计的不一样!
想知道空洞卷积的感受野为什么与层数呈指数级关系吗?
细节请查看原论文《Multi-scalecontextaggregationbydilatedconvolutions》,该论文网址是:
https://arxiv.org/abs/1511.07122v3
No7DenseNet论文:
这个模型使我想到了“一根筋”,再次证明了只有轴的人才能成大事!令类的模型,神奇的效果,快来体验一下吧。这可是比华佗还牛的神医哦!
有关DenseNet模型的细节,请参考原始论文《DenselyConnectedConvolutionalNetworks》,该论文的连接是:
https://arxiv.org/abs/1608.06993
No8EfficientNet模型论文:
知道目前位置图像分类界谁是老大吗?来,看看这个!
EfficientNet模型的论文地址如下:
https://arxiv.org/pdf/1905.11946.pdf
No9Grad-CAM模型论文:
如果你能把神经元搞得透彻,你也会想到这个点子。不想聊太多!一个字“绝”!这TMD才叫卷积网络的可视化!
详细情况请参阅论文《Grad-CAM:VisualExplanationsfromDeepNetworksviaGradient-basedLocalization》,该论文的链接网址是:
https://arxiv.org/pdf/1610.02391.pdf
No10分类模型泛化能力论文:
知道为啥都喜欢使用ResNet模型当先锋吗?运气好就是运气好!好到大家都喜欢用它,还说不出为啥它那么好!反正就是好,不信的话看看这篇论文的实验结果。
论文中,在选取模型的建议中,多次提到了ResNet模型。原因是,ResNet模型在Imgnet数据集上输出的特征向量所表现的泛化能力是最强的。具体可以参考以下论文:
https://arxiv.org/pdf/1805.08974.pdf
三、批量正则化部分
No11批量正则化论文:
这个没的说,必修课,不懂的化,会被鄙视成渣渣!
论文《BatchNormalizationAcceleratingDeepNetworkTrainingbyReducingInternalCovariateShift》,该论文网址是:
https://arxiv.org/abs/1502.03167
No12实例归一化论文:
时代不同了,批量归一化也升级了,赶紧学学新的归一化吧。
在对抗神经网络模型、风格转换这类生成式任务中,常用实例归一化取代批量归一化。因为,生成式任务的本质是——将生成样本的特征分布与目标样本的特征分布进行匹配。生成式任务中的每个样本都有独立的风格,不应该与批次中其他的样本产生太多联系。所以,实例归一化适用于解决这种基于个体的样本分布问题。详细说明见以下链接:
https://arxiv.org/abs/1607.08022
No13ReNorm算法论文:
ReNorm算法与BatchNorm算法一样,注重对全局数据的归一化,即对输入数据的形状中的N维度、H维度、W维度做归一化处理。不同的是,ReNorm算法在BatchNorm算法上做了一些改进,使得模型在小批次场景中也有良好的效果。具体论文见以下链接:
https://arxiv.org/pdf/1702.03275.pdf
No14GroupNorm算法论文:
GroupNorm算法是介于LayerNorm算法和InstanceNorm算法之间的算法。它首先将通道分为许多组(group),再对每一组做归一化处理。
GroupNorm算法与ReNorm算法的作用类似,都是为了解决BatchNorm算法对批次大小的依赖。具体论文见下方链接:
https://arxiv.org/abs/1803.08494
No15SwitchableNorm算法论文:
我们国人做产品都喜欢这么干!allinone,好吧。既然那么多批量归一化的方法。来,来,来,我们来个allinone吧。不服来辩,我这啥都有!
SwitchableNorm算法是将BN算法、LN算法、IN算法结合起来使用,并为每个算法都赋予权重,让网络自己去学习归一化层应该使用什么方法。具体论文见下方链接:
https://arxiv.org/abs/1806.10779
四、注意力部分
No16大道至简的注意力论文:
把AI搞成玄学也就算了!居然还扯到道家了!谷歌的工程师真实中外通吃啊!搞出来了一个只用注意力就能做事的模型,连卷积都不要了!你所好玩不好玩!至简不至简!刺激不刺激!
大名鼎鼎的AttentionisAllYouNeed注意力机制论文
注意力机制因2017年谷歌的一篇论文AttentionisAllYouNeed而名声大噪。下面就来介绍该技术的具体内容。如果想了解更多,还可以参考原论文,具体地址如下:
https://arxiv.org/abs/1706.03762
No17-18孪生注意力论文:
好比LSTM与GRU一样,注意力他们家也除了一对双胞胎,长得略微有点不同。但是功能一样,都能吃能喝,还能注意。老虎老鼠傻傻的不清楚!
—BahdanauAttention:https://arxiv.org/abs/1409.0473。
—LuongAttention:https://arxiv.org/abs/1508.04025。
No19各自升级的孪生注意力论文:
话说这对双胞胎,出生后就分开了。各自学的不同的语言,一个学习汉语,一个学习中文。若干年后,见面,发现二者的能力还是一样!
BahdanauAttention注意力升级成了normed_BahdanauAttention,而LuongAttention注意力升级成了scaled_LuongAttention。都一样的效果,你爱用哪个用哪个吧!
例如:
在BahdanauAttention类中有一个权重归一化的版本(normed_BahdanauAttention),它可以加快随机梯度下降的收敛速度。在使用时,将初始化函数中的参数normalize设为True即可。
具体可以参考以下论文:
https://arxiv.org/pdf/1602.07868.pdf
No20单调注意力机制论文:
老公主动表忠心,我以后不看别的美女。老婆觉得不够,再加个限制:你以后不准看别的女人!于是单调注意力就出来了。
单调注意力机制(monotonicattention),是在原有注意力机制上添加了一个单调约束。该单调约束的内容为:
(1)假设在生成输出序列过程中,模型是以从左到右的方式处理输入序列的。
(2)当某个输入序列所对应的输出受到关注时,在该输入序列之前出现的其他输入将不能在后面的输出中被关注。
即已经被关注过的输入序列,其前面的序列中不再被关注。
更多描述可以参考以下论文:
https://arxiv.org/pdf/1704.00784.pdf
No21混合注意力机制论文:
这个注意力很强大,比一般的注意力专注的地方更多,信息更丰富。我已经注意你很久了!呵呵呵~~~
因为混合注意力中含有位置信息,所以它可以在输入序列中选择下一个编码的位置。这样的机制更适用于输出序列大于输入序列的Seq2Seq任务,例如语音合成任务。
具体可以参考以下论文:
https://arxiv.org/pdf/1506.07503.pdf
五、高级的卷积网络知识
No22胶囊网络与动态路由的论文:
这是一股为图像分类降温的寒风,深刻而又尖锐的点出了卷积网络的硬伤!从事最大池化再无翻身之日。
虽然胶囊网络再实际应用中,不像它的理论那么牛,但是对AI的帮助,卷积的理解是革命性的。非常值得一读。另外,这也是一篇绝对让你对数学彻底绝望的论文。花几根白头发把里面的算法啃下来吧。这样你与大神就能更近一步。
胶囊网络分为主胶囊与数字胶囊,主胶囊与数字胶囊之间的耦合系数是通过训练得来的。在训练过程中,耦合系数的更新不是通过反向梯度传播实现的,而是采用动态路由选择算法完成的。该算法来自以下论文链接:
https://arxiv.org/pdf/1710.09829.pdf
目前胶囊网络的研究还处于初级阶段,随着人们研究的深入,相信这些问题会得到解决。
No23矩阵胶囊网络与EM路由算法:
如果你觉得不过瘾,那么还可以再看一篇。继续自虐一下。
带有EM(期望最大化)路由的矩阵胶囊网络是动态路由胶囊网络的一个改进版本。论文链接如下:
https://openreview.net/pdf?id=HJWLfGWRb
No24胶囊网络的其它用处:
胶囊网络混身是宝,但就是自己不争气。这也说明还有上升的空间。就拿其中一个动态路由算法来讲,居然比普通的注意力还好。
看完之后,相信你一定会手痒!要不要也试试?把你的注意力换一下。值得你尝试,会有彩蛋的!
该论文的实践也证明,与原有的注意力机制相比,动态路由算法确实在精度上有所提升。具体介绍可见以下论文:
https://arxiv.org/pdf/1806.01501.pdf
No25卷积网络新玩法TextCNN模型:
早先小编在一个项目中,自己用卷积网络处理字符数据。自己感觉很Happy。没想到,无意间居然发现了一篇同样这么干的论文。居然还有个名字,叫TextCNN。哎!可惜啊!小编文化少,只会写代码,不会写论文。
TextCNN模型是利用卷积神经网络对文本进行分类的算法,由YoonKim在ConvolutionalNeuralNetworksforSentenceClassification一文中提出。论文地址:
https://arxiv.org/pdf/1408.5882.pdf
六、图像内容处理部分
No26FPN模型论文(包含了ROIAlign的匹配算法):
要是搞计算机视觉,还是要建议看一下。非常的基础。也是图像分割方面的用得最多得模型。
FPN的原理是:将骨干网络最终特征层和中间特征层的多个尺度的特征以类似金字塔的形式融合在一起。最终的特征可以兼顾两个特点——指向收敛目标的特征准确、特征语义信息丰富。更多信息可以参考论文:
ROIAlign层中的匹配算法也来自于这篇FPN论文,链接如下:
https://arxiv.org/abs/1612.03144
No27MaskR-CNN模型论文:
效果好,代码多!硬货!来啃吧!
MaskR-CNN模型是一个简单、灵活、通用的对象实例分割框架。它能够有效地检测图像中的对象,并为每个实例生成高质量的分割掩码,还可以通过增加不同的分支完成不同的任务。它可以完成目标分类、目标检测、语义分割、实例分割、人体姿势识别等多种任务。具体细节可以参考以下论文:
https://arxiv.org/abs/1703.06870
No28YOLOV3模型论文:
这个模型的提点就是快!目标识别强烈推荐
YOLOV3模型的更多信息可以参考以下链接中的论文:
https://pjreddie.com/media/files/papers/YOLOv3.pdf
No29Anchor-Fress模型--FCOS模型论文:
随着AI技术的进步Anchor-Fress模型死灰复燃(早先是YOLOV1那一批模型),这次不一样的是彻底干掉带Anchor的模型。训练起来那就一个爽!妈妈再也不用为我准备单独的Anchor标签了。
与YOLOV1相比,FCOS模型的思想与YOLOV1模型非常相似,唯一不同的是FCOS模型没有像YOLOv1那样只考虑中心附近的点,而是利用了groundtruth边框中所有的点来进行预测边框。并且通过center-ness分支来抑制那些效果不行的检测边框。这样FCOS就可以改善YOLOV1模型总会漏掉部分检测边框的缺点。
相关论文地址:
https://arxiv.org/abs/1904.01355
No30Anchor-Fress模型--CornerNet-Lite模型论文:
一样也是Anchor-Fress模型,与FCOS效果差不多少,具体看一下论文吧
CornerNet-Lite模型。相关论文地址:
https://arxiv.org/pdf/1904.08900.pdf
No31栈式沙漏网络模型--Hourglass论文:
最初用户人的姿态估计,在符合模型中也是常被使用的模型。论文地址:
https://arxiv.org/abs/1603.06937
No32OCR必修课——STN模型论文:
可以让模型自动仿射变化,你说牛不牛!要学OCR,就得从这个开始。
有关STN模型的论文链接如下:
https://arxiv.org/abs/1506.02025
七、循环神经网络部分
No33QRNN模型论文:
在RNN模型的cell里,如果还只知道LSTM和GRU。那就太low了。快了补补吧:
如果想更多了解QRNN,可以参考以下论文:
https://arxiv.org/abs/1611.01576
No34SRU模型论文:
接着来,各种RNN的Cell。又漂亮,又好吃!
SRU单元在本质上与QRNN单元很像。从网络构建上看,SRU单元有点像QRNN单元中的一个特例,但是又比QRNN单元多了一个直连的设计。
若需要研究SRU单元更深层面的理论,可以参考如下论文:
https://arxiv.org/abs/1709.02755
No35IndRNN模型论文:
再补一个,这可都是好cell啊!
将IndRNN单元配合ReLu等非饱和激活函数一起使用,会使模型表现出更好的鲁棒性。
有关IndRNN单元的更多理论,可以参考论文:
https://arxiv.org/abs/1803.04831
No36IndRNN模型论文:
最后,再来一个cell,如想要了解更多关于JANET单元的内容,可以参考以下论文:
https://arxiv.org/abs/1804.04849
八、AI合成部分
No37-38Tacotron与Tacotron-2模型论文:
AI合成部分的经典模型,以上结构来自Tacotron与Tacotron-2两个结构,更多内容可以参考以下两篇论文:
https://arxiv.org/pdf/1703.10135.pdf
https://arxiv.org/pdf/1712.05884.pdf
No39DeblurGAN模型论文:
图片合成的论文太多了。这里简单列几个,大体原理和思路了解,即可。
DeblurGAN模型是一个对抗神经网络模型,由生成器模型和判别器模型组成。
—生成器模型,根据输入的模糊图片模拟生成清晰的图片。
—判别器模型,用在训练过程中,帮助生成器模型达到更好的效果。
具体可以参考论文:
https://arxiv.org/pdf/1711.07064.pdf。
No40AttGAN模型论文:
同样,这也是个图片合成的。不同的是多属性合成,相对比较有意思。
AttGAN模型由两个子模型组成:
(1)利用编码器模型将图片特征提取出来。
(2)将提取的特征与指定的属性值参数一起输入编码器模型中,合成出最终的人脸图片。
更多细节可以参考论文:
https://arxiv.org/pdf/1711.10678.pdf
No41RNN.WGAN模型论文:
可以合成文本的GAN。离散数据也能干!
RNN.WGAN模型使用了WGAN模型的方法进行训练。详细做法可以参考如下论文:
https://arxiv.org/abs/1704.00028
九、多任务学习
No42MKR模型论文:
多任务学习模型有必要了解一下。这里推荐一个论文给你看看。
MKR是一个多任务学习的端到端框架。该框架能够将两个不同任务的低层特征抽取出来,并融合在一起实现联合训练,从而达到最优的结果。有关MKR的更多介绍可以参考以下链接:
https://arxiv.org/pdf/1901.08907.pdf
十、NLP部分
No43BERT模型论文:
如果你搞NLP,那么这个就不用我来介绍了。如果你准备搞NLP,那么赶紧来看看这个,跟上时代。
BERT相关论文链接
https://arxiv.org/abs/1810.04805
在BERT之后,又出了好多优秀的模型。但是,还是先把这个啃下来,再看别的才不费劲。
十一、模型攻防
No44FGSM模型论文:
攻击模型的经典方法。值得掌握。
FGSM(FastGradientSignMethod)是一种生成对抗样本的方法。该方法的描述如下:
(1)将输入图片当作训练的参数,使其在训练过程中可以被调整。
(2)在训练时,通过损失函数诱导模型对图片生成错误的分类。
(3)当多次迭代导致模型收敛后,训练出来的图片就是所要得到的对抗样本。
具体可以参考论文:
https://arxiv.org/pdf/1607.02533.pdf
No45黑箱攻击论文:
基于雅可比(Jacobian)矩阵的数据增强方法,是一种常用的黑箱攻击方法。该方法可以快速构建出近似于被攻击模型的决策边界,从而使用最少量的输入样本。即:构建出代替模型,并进行后续的攻击操作。
详细请见如下链接:
https://arxiv.org/abs/1602.02697
这里只是列了一些基础的论文。如果这45篇论文看完。可以保证你再看到大厂的产品时,不会感觉有代沟。
啃论文是很费时间的事情。还好小编这里为大家准备了一本书,在书里已经将大部分的论文转化成中文描述,并配合实际的代码案例了。因为知识比较多,所以也很厚!
这本书名叫《深度学习之TensorFlow工程化项目实战》主要由李金洪编写,出至代码医生工作室。同时该工作室也为读者提供免费的技术问答。只要你肯学!有问必有答!
如果想快速掌握这些,读书!确实是一个捷径!努力吧!热血青年。