博舍

人工智能十大发展方向 人工智能的主要研究方向有哪些

人工智能十大发展方向

人工智能(ArtificialIntelligence),英文缩写为AI.它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

人工智能是对人的意识、思维的信息过程的模拟。但不是人的智能,能像人那样思考、也可能超过人的智能。但是这种会自我思考的高级人工智能还需要科学理论和工程上的突破。从诞生以来,人工智能理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的容器。正因为如此,人工智能的应用方向才十分之广。

1、机器视觉

机器视觉就是用机器代替人眼来做测量和判断。机器视觉系统是指通过机器视觉产品(即图像摄取装置,分CMOS和CCD两种)将被摄取目标转换成图像信号,传送给专用的图像处理系统,根据像素分布和亮度、颜色等信息,转变成数字化信号;图像系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。

人工智能能使机器能够担任一些需要人工处理的工作。而这些工作需要做一定的决策,要求机器能够自行的根据当时的环境做出相对较好的决策。这就需要计算机不仅仅能够计算,还能够拥有一定得智能。而要对周围的环境进做出好的决策就需要对周边的环境进行分析,即要求机器能够看到周围的环境,并能够理解它们。就像人做的那样。所以机器视觉是人工智能中非常重要的一个领域。

机器视觉在许多人类视觉无法感知的场合发挥重要作用,如精确定律感知、危险场景感知、不可见物体感知等,机器视觉更突出他的优越性。现在机器视觉已在一些领域的到应用,如零件识别与定位,产品的检验,移动机器人导航遥感图像分析,安全减半、监视与跟踪,国防系统等。它们的应用于机器视觉的发展起着相互促进的作用。

2、指纹识别

指纹识别技术把一个人同他的指纹对应起来,通过比较他的指纹和预先保存的指纹进行比较,就可以验证他的真实身份。每个人(包括指纹在内)皮肤纹路在图案、断点和交叉点上各不相同,也就是说,是唯一的,并且终生不变。依靠这种唯一性和稳定性,我们才能创造指纹识别技术。

指纹识别主要根据人体指纹的纹路、细节特征等信息对操作或被操作者进行身份鉴定,得益于现代电子集成制造技术和快速而可靠的算法研究,已经开始走入我们的日常生活,成为目前生物检测学中研究最深入,应用最广泛,发展最成熟的技术。

指纹识别系统应用了人工智能技术中的模式识别技术。模式识别是指对表征事物或现象的各种形式的(数值的、文字的和逻辑关系的)信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释的过程。很显然指纹识别属于模式识别范畴。

3、人脸识别

人脸识别,特指利用分析比较人脸视觉特征信息进行身份鉴别的计算机技术。人脸识别是一项热门的计算机技术研究领域,人脸追踪侦测,自动调整影像放大,夜间红外侦测,自动调整曝光强度;它属于生物特征识别技术,是对生物体(一般特指人)本身的生物特征来区分生物体个体。

人脸识别技术是基于人的脸部特征,对输入的人脸图象或者视频流。首先判断其是否存在人脸,如果存在人脸,则进一步的给出每个脸的位置、大小和各个主要面部器官的位置信息。并依据这些信息,进一步提取每个人脸中所蕴涵的身份特征,并将其与已知的人脸进行对比,从而识别每个人脸的身份。

在人工智能与人脸识别技术结合上,百度可能已经领先众人一步,有人在秘密上爆料,说是百度人脸识别技术有了新成果,估计是与支付相关。如果百度这次推出的确实是人脸识别支付,则在移动支付上就可以甩开阿里、企鹅很大一步。

百度的人脸识别技术加支付场景,有两个层面上的解读。第一方面是将识图技术与商业层面打通,建立更加丰富的购物场景。目前我们的购物支付场景多是遵循常规的手法:code,命令。人脸在很大程度上可以提升交易安全性和速度,是未来的必要趋势。

而更深层次的是和大数据打通。尤其人脸大数据,无论在日常生活,还是商业运作上都是语音、动作之后最重要的数据之一,它更能够将个人大数据实现更大化的整合,甚至重建信用体系规则。

4、智能信息检索技术

数据库系统是储存某个学科大量事实的计算机系统,随着应用的进一步发展,存储的信息量越来越大,因此解决智能检索的问题便具有实际意义。

智能信息检索系统应具有如下的功能:

(1)能理解自然语言,允许用自然语言提出各种询问;

(2)具有推理能力,能根据存储的事实,演绎出所需的答案;

(3)系统具有一定常识性知识,以补充学科范围的专业知识。系统根据这些常识,将能演绎出更一般的一些答案来。

实现这些功能要应用人工智能的方法。

据此前百度公布的信息显示,百度已经建成全球规模最大的深度神经网络,这一称为百度大脑的智能系统,目前可以理解分析200亿个参数,达到了两、三岁儿童的智力水平。随着成本降低和计算机软硬件技术的进步,再过20年,当量变带来质变,用计算机模拟一个10-20岁人类的智力几乎一定可以做到。

似乎可以毫无悬念地预判到人工智能在互联网企业日后竞争中的核心地位,在这个发展的过程了,相信人工智能也会开始接触更多更大,那些我们本以为互联网很难渗透进去的领域。

5、智能控制

智能控制(intelligentcontrols)在无人干预的情况下能自主地驱动智能机器实现控制目标的自动控制技术。控制理论发展至今已有100多年的历史,经历了经典控制理论和现代控制理论的发展阶段,已进入大系统理论和智能控制理论阶段。智能控制理论的研究和应用是现代控制理论在深度和广度上的拓展。20世纪80年代以来,信息技术、计算技术的快速发展及其他相关学科的发展和相互渗透,也推动了控制科学与工程研究的不断深入,控制系统向智能控制系统的发展已成为一种趋势。

对许多复杂的系统,难以建立有效的数学模型和用常规的控制理论去进行定量计算和分析,而必须采用定量方法与定性方法相结合的控制方式。定量方法与定性方法相结合的目的是,要由机器用类似于人的智慧和经验来引导求解过程。因此,在研究和设计智能系统时,主要注意力不放在数学公式的表达、计算和处理方面,而是放在对任务和现实模型的描述、符号和环境的识别以及知识库和推理机的开发上,即智能控制的关键问题不是设计常规控制器,而是研制智能机器的模型。

此外,智能控制的核心在高层控制,即组织控制。高层控制是对实际环境或过程进行组织、决策和规划,以实现问题求解。为了完成这些任务,需要采用符号信息处理、启发式程序设计、知识表示、自动推理和决策等有关技术。这些问题求解过程与人脑的思维过程有一定的相似性,即具有一定程度的智能。

随着人工智能和计算机技术的发展,已经有可能把自动控制和人工智能以及系统科学中一些有关学科分支(如系统工程、系统学、运筹学、信息论)结合起来,建立一种适用于复杂系统的控制理论和技术。智能控制正是在这种条件下产生的。它是自动控制技术的最新发展阶段,也是用计算机模拟人类智能进行控制的研究领域。

6、视网膜识别

视网膜是眼睛底部的血液细胞层。视网膜扫描是采用低密度的红外线去捕捉视网膜的独特特征,血液细胞的唯一模式就因此被捕捉下来。

视网膜也是一种用于生物识别的特征,有人甚至认为视网膜是比虹膜更唯一的生物特征,视网膜识别技术要求激光照射眼球的背面以获得视网膜特征的唯一性。

虽然视网膜扫描的技术含量较高,但视网膜扫描技术可能是最古老的生物识别技术,在20世纪30年代,通过研究就得出了人类眼球后部血管分布唯一性的理论,进一步的研究的表明,即使是孪生子,这种血管分布也是具有唯一性的,除了患有眼疾或者严重的脑外伤外,视网膜的结构形式在人的一生当中都相当稳定。

7、虹膜识别

人的眼睛结构由巩膜、虹膜、瞳孔三部分构成。虹膜是位于黑色瞳孔和白色巩膜之间的圆环状部分,其包含有很多相互交错的斑点、细丝、冠状、条纹、隐窝等的细节特征。这些特征决定了虹膜特征的唯一性,同时也决定了身份识别的唯一性。

虹膜的形成由遗传基因决定,人体基因表达决定了虹膜的形态、生理、颜色和总的外观。人发育到八个月左右,虹膜就基本上发育到了足够尺寸,进入了相对稳定的时期。除非极少见的反常状况、身体或精神上大的创伤才可能造成虹膜外观上的改变外,虹膜形貌可以保持数十年没有多少变化。另一方面,虹膜是外部可见的,但同时又属于内部组织,位于角膜后面。要改变虹膜外观,需要非常精细的外科手术,而且要冒着视力损伤的危险。虹膜的高度独特性、稳定性及不可更改的特点,是虹膜可用作身份鉴别的物质基础。

在包括指纹在内的所有生物识别技术中,虹膜识别是当前应用最为方便和精确的一种。虹膜识别技术被广泛认为是二十一世纪最具有发展前途的生物认证技术,未来的安防、国防、电子商务等多种领域的应用,也必然的会以虹膜识别技术为重点。这种趋势已经在全球各地的各种应用中逐渐开始显现出来,市场应用前景非常广阔。

8、掌纹识别

掌纹识别是近几年提出的一种较新的生物特征识别技术。掌纹是指手指末端到手腕部分的手掌图像。其中很多特征可以用来进行身份识别:如主线、皱纹、细小的纹理、脊末梢、分叉点等。掌纹识别也是一种非侵犯性的识别方法,用户比较容易接受,对采集设备要求不高。

掌纹中最重要的特征是纹线特征,而且这些纹线特征中最清晰的几条纹线基本上是伴随人的一生不发生变化的。并且在低分辨率和低质量的图像中仍能够清晰的辨认。

点特征主要是指手掌上所具有的和指纹类似的皮肤表面特征,如掌纹乳突纹在局部形成的奇异点及纹形。点特征需要在高分辨率和高质量的图像中获取,因此对图像的质量要求较高。

纹理特征,主要是指比纹线更短、更细的一些纹线,但其在手掌上分布是毫无规律的。掌纹的特征还包括几何特征:如手掌的宽度、长度和几何形状,以及手掌不同区域的分布。

掌纹中所包含的信息远比一枚指纹包含的信息丰富,利用掌纹的纹线特征、点特征、纹理特征、几何特征完全可以确定一个人的身份。因此,从理论上讲,掌纹具有比指纹更好的分辨能力和更高的鉴别能力。

9、专家系统

专家系统是一个智能计算机程序系统,其内部含有大量的某个领域专家水平的知识与经验,能够利用人类专家的知识和解决问题的方法来处理该领域问题。也就是说,专家系统是一个具有大量的专门知识与经验的程序系统,它应用人工智能技术和计算机技术,根据某领域一个或多个专家提供的知识和经验,进行推理和判断,模拟人类专家的决策过程,以便解决那些需要人类专家处理的复杂问题,简而言之,专家系统是一种模拟人类专家解决领域问题的计算机程序系统。

专家系统是人工智能中最重要的也是最活跃的一个应用领域,它实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统是早期人工智能的一个重要分支,它可以看作是一类具有专门知识和经验的计算机智能程序系统,一般采用人工智能中的知识表示和知识推理技术来模拟通常由领域专家才能解决的复杂问题。

专家系统的发展已经历了3个阶段,正向第四代过渡和发展。第一代专家系统(dendral、macsyma等)以高度专业化、求解专门问题的能力强为特点。但在体系结构的完整性、可移植性、系统的透明性和灵活性等方面存在缺陷,求解问题的能力弱。第二代专家系统(mycin、casnet、prospector、hearsay等)属单学科专业型、应用型系统,其体系结构较完整,移植性方面也有所改善,而且在系统的人机接口、解释机制、知识获取技术、不确定推理技术、增强专家系统的知识表示和推理方法的启发性、通用性等方面都有所改进。第三代专家系统属多学科综合型系统,采用多种人工智能语言,综合采用各种知识表示方法和多种推理机制及控制策略,并开始运用各种知识工程语言、骨架系统及专家系统开发工具和环境来研制大型综合专家系统。

在总结前三代专家系统的设计方法和实现技术的基础上,已开始采用大型多专家协作系统、多种知识表示、综合知识库、自组织解题机制、多学科协同解题与并行推理、专家系统工具与环境、人工神经网络知识获取及学习机制等最新人工智能技术来实现具有多知识库、多主体的第四代专家系统。

10、自动规划

自动规划是一种重要的问题求解技术,与一般问题求解相比,自动规划更注重于问题的求解过程,而不是求解结果。此外,规划要解决的问题,如机器人世界问题,往往是真实世界问题,而不是比较抽象的数学模型问题。与一些求解技术相比,自动规划系统与专家系统均属高级求解系统与技术。

规划是一种重要的问题求解技术,它从某个特定的问题状态出发,寻求一系列行为动作,并建立一个操作序列,直到求得目标状态为止。

规划可用来监控问题求解过程,并能够在造成较大的危害之前发现差错。规划的好处可归纳为简化搜索、解决目标矛盾以及为差错补偿提供基础。

人工智能未来的发展方向是什么

第一个趋势是,全体IT巨头将重兵布局AI云服务,AI-a-a-S,意思是人工智能即服务,将成为未来趋势。AI是未来,已经是不证自明的事实,新老IT巨头不仅在自身业务里积极运用人工智能,同时也在积极利用云计算平台将AI服务提供给第三方。

从供给方来说呢,IT巨头们都很清楚,只要第三方使用自己的平台,就会把数据留在平台上,而这些数据将会是人工智能时代的一座大金矿。从需求方来说呢,那些应用企业可以利用大公司提供的AI云服务,提升自己的竞争力。所以,无论对于AI服务的提供商,还是使用AI服务的企业,这都是一种双赢的合作。

 

[[406493]]

第二个趋势是,新老人工智能企业将围绕智能入口展开白热化的争夺。在互联网时代,几乎每个入口都会引起争夺,而每个入口争夺的成功者都会变成下一个巨头。比如在Web2.0时代,互动社交的兴起形成了社交入口,造就了Facebook和腾讯。人工智能时代也不例外,激烈的争夺过后,必然会诞生下一个巨大的超级企业。

人工智能时代,服务的入口主要是自然语言的语音交互,自然语言处理会是人机交互的主要模式,谁能让机器更懂人类的语言,谁就能有可能取胜。人工智能会全面包围我们生活的方方面面,这意味着,人工智能入口的竞争会更加惨烈,而越早参与,获得越多的用户,胜利的几率就越大。

[[406494]]

第三个趋势是,人工智能将占领客厅,语音交互将成为主流电视应用。智能家居概念喊了很多年了,比尔·盖茨在1995年出版的《未来之路》里就做出了清晰的描述,但是这样的描述迄今都没有成为事实,核心原因就在于用户缺乏需求。

现在随着电视屏幕尺寸增大、视频内容爆炸性增长,传统的遥控器越来越难以满足人们使用电视的需求,语音为主的智能搜索和智能互动正在迅速崛起,自然语言交互将会成为操纵电视机的标准方式。三星等传统的电视厂商、Netflix和亚马逊等视频内容提供商、微软和谷歌等IT厂商都已经或将要推出自己的以电视为核心的语音互动产品,智能家居正在从电视机切入成为现实。

[[406495]]

第四个趋势是,智能玩具将成为AI最早成功的应用领域之一。如果利用AI来诊断病情,或是制造自动驾驶汽车,人们往往无法容忍它犯错误。但是玩具不同,人们对玩具的出错容忍度高。所以,在人工智能还没办法超越人类智能的今天,智能玩具恰恰是能够让人工智能获得初期市场认可的切入点。

事实上,现在已经有不少成功的案例了,比如2016年底,能和人玩游戏的智能玩具Cozmo热卖到断货。2017年更会有一大批的智能玩具上市。中国的玩具制造业虽然强大,但是没有什么品牌优势,如果中国的玩具公司和高科技公司合作,借助自己强大的制造实力和市场推广实力,顺势推出自己的品牌,将会获得巨大的商机。 

5G+AI:有哪些新的研究方向和新范式

本文学习和分享一篇综述文章,这篇文章是东南大学移动通信国家重点实验室主任、长江学者特聘教授尤肖虎教授2019年发表在《中国科学信息科学》(《SCIENCECHINAInformationSciences》)上关于AI助力5G的研究方向和范式的综述文章。

以下内容是经过翻译和精简整理得到的,与原文难免有些偏颇,但不会影响原文传递的主要思想和观点,如果想深入研究,可以自行查阅原文。

文章摘要第五代移动网络(5G)等无线通信技术不仅将在未来十年提供1000倍的互联网流量,而且还将为整个行业提供支持物联网(IOT)技术的底层技术。与现有的移动通信技术相比,5G的应用更加多样化,相应的系统设计也更加复杂。人工智能技术的复兴提供了一种可能优于传统思想和性能的替代选择。因此,有必要确定、评估和研究与通过人工智能可以实现的贡献相关的典型和潜在的研究方向。为此,本研究在了解5G关键技术的基础上,首先梳理了5G技术与人工智能结合的几个有前景的研究方向,并重点提供了5G网络优化、资源优化配置、智能优化等设计模式、5G物理层统一加速、端到端物理层关节优化等。关键词:5G移动通信、人工智能技术、网络优化、资源分配、端到端联合优化

一引言5G介绍

5G的三个典型应用为:增强移动宽带(eMBB)、大规模机器类型通信(mMTC)和超可靠低延迟通信(URLLC)(也称为关键任务通信)。这些应用为延迟、可靠性、连接和容量密度、系统频谱效率、能源效率和峰值吞吐量提出了新的性能标准,必须使用5G技术加以解决。

为了满足这些标准,大规模多输入多输出(MIMO)、新无线接入技术(RAT)、异构超加密网络(UDN)、信道编解码(例如极性码)和mmWave接入等是目前正在研究的关键技术。

此外,5G网络将不可避免地具有异构性,通过为特定应用量身定制的统一空中接口实现多种模式和需求。因此,涉及密集的Het-Net等架构,5G系统将通过云数据中心进行虚拟化和实现。网络切片将是5G网络的一个主要特点,包括使用新的空中接口,该接口旨在动态优化网络资源的分配,并有效利用频谱。

与现有的4G网络相比,5G新无线电(5G-NR)具有以下特点:

(1)采用大规模MIMO技术增强MIMO系统;

(2)对正交频分复用(OFDM)进行了完整的时隙结构和资源块(RB)分配,提出了更灵活的空中接口;

(3)在不久的将来,将引入非正交多址(NOMA)以支持物联网(IoT);

(4)遵循以往的分布式天线系统,将无线功能分为分布式单元(DU)和中央单元(CU),并应用基于云计算的网络虚拟化和网络切片技术。

总的来说,5G网络将为更多的应用和服务定制供应机制,这使得它在复杂的配置问题和不断变化的服务需求方面更具挑战性。在5G之前,对通信系统的研究主要是为了获得令人满意的数据传输速率和支持的移动性管理。在5G时代,通信系统将获得与环境交互的能力,并将目标扩展到联合优化越来越多的关键性能指标(KPI),包括延迟、可靠性、连接密度和用户体验。同时,动态空中接口、虚拟化网络和网络切片等新功能引入了复杂的系统设计和优化要求,以应对与网络操作和维护相关的挑战。幸运的是,这些问题可以在人工智能领域考虑,人工智能提供了超越传统方法的全新概念和可能性。因此,人工智能最近在学术界和工业界都重新引起了通信领域的关注。3GPP和ITU都提出了涉及人工智能技术的5G研究项目。

AI介绍

人工智能研究领域诞生于20世纪50年代,经历了一些进步和挑战,近年来由于现代计算和数据存储技术的迅速发展而重新兴起。具体来说,人工智能学习技术为各种问题构建了一个通用的框架,并取得了巨大的进步,形成了跨领域的最新技术。

人工智能学习任务通常分为两大类,有监督和无监督学习,这取决于学习系统训练数据标签的可用性。另一种学习方法,强化学习,不完全是一种有监督的学习方法,也不完全是一种无监督的学习方法,因此它可以被列为一个新的类别。

监督学习输入和期望输出的样本数据对被输入到计算机中,其目标是学习将输入与输出相关联的一般函数,并进一步检测未来输入的未知输出。有监督学习的一个典型例子如图1所示,其中标记的数据对被输入到多层深神经网络(DNN)中以训练DNN中节点之间的权重。训练离线进行,收敛后,训练的DNN将准备好识别和推断新的输入。无监督学习在无监督学习中,学习算法不需要标注,输入的结构必须由学习算法自己确定。自组织映射(SOM)是一个使用无监督学习进行训练的例子。在SOM中,未标记的数据被输入到神经网络中,以产生称为map的训练样本的输入空间的低维(通常是二维)离散表示(如图2所示)。强化学习此技术基于“代理”和“环境”之间的替代交互,流程如图3所示。“代理”将执行某些操作,因此,代理的状态将发生变化,从而导致奖励或惩罚。然后,代理将根据此结果决定下一个操作。通过迭代动作和奖惩过程,代理学习环境。

人工智能学习问题中流行的学习方法包括:

反向传播(BP)反向传播是在属于梯度下降范畴中使用的一种方法。反向传播迭代计算所定义的损失函数相对于神经网络权值的梯度,最终使神经网络的输出接近已知的训练标签。近年来,BP算法被广泛应用于训练具有多个隐含层的神经网络。例如,卷积神经网络(CNN)是一类具有多个隐含层的前向DNN,包括卷积层、池化层、全连接层和ReLU层。BP方法可以有效地训练CNN,特别是在图像和语音识别领域。

Q-LearningQ-Learning算法也被称为Bellman算法,它是强化学习的经典算法。在该算法中,定义了一个函数(Q函数)来根据当前的“环境”来评估“代理”的行为,并以奖励或惩罚的形式输出结果。在某一步,Q函数将评估“代理”的所有可能操作,并选择在当前“环境”中获得最大奖励的操作作为下一步并实际执行。Bellman提出了一个Bellman方程,它是一个递推表达式,将连续时间步的Q函数联系起来。Bellman方程基本上允许我们通过在线时差学习迭代更新和近似Q函数。

机器学习方法的人工智能技术结合了常用的数据科学算法(如线性模型、决策树、k-均值聚类),已经被实现用于各种商业用途。另一方面,近年来,深度学习方法(如DNN、CNN、强化学习)受到越来越多的关注,在认知技术等领域取得了重大突破。同时,基于“学习到学习”的新理念,元学习等深度学习的新分支正在迅速发展。这些新技术将深度学习的可能应用扩展到各种场景中更复杂的问题。这有助于为5G中的人工智能应用带来新的机遇

二5G+AI的一些研究方向

作为一种通用的智能问题解决技术,人工智能可以广泛应用于5G网络的设计、配置和优化。具体来说,人工智能涉及5G的三大技术问题:

组合优化5G-NR组合优化问题的一个典型例子是网络资源分配。在资源有限的网络中,必须考虑一种优化的方案,将资源分配给共享网络的不同用户,以使资源的利用达到最大的效率。作为HetNet体系结构在5G-NR中的应用,网络虚拟化、网络切片、自组织网络(SON)等特性使得网络资源分配问题变得越来越复杂,需要更有效的解决方案。

检测通信接收机的设计就是检测问题的一个例子。优化后的接收机可以根据接收到的信号恢复发送的信息,从而使检测错误率达到最小。在大规模MIMO框架下,5G的检测将是一个挑战。

估算典型的例子是信道估计问题。5G需要精确估计信道状态信息(CSI)以实现大规模MIMO中空间相关信道的通信。常用的方法包括训练序列(或导频序列),在训练序列中,已知信号被发送,并且利用发送和接收信号的组合知识来估计CSI。

已有不少人研究人工智能在5G中的应用,然而,由于通信系统和人工智能的限制,一些应用可能受到限制。

首先,经过多年的研究和测试,传统的方法已经证明了它们处理通信系统的能力。现有框架已经相对完整、有效、成熟且易于在实际场景中实施。

其次,通信系统的容量受到一定的上界(如香农极限)的约束,一些设计良好的方法可以达到接近最优的性能,在容量界方面损失可以忽略不计。

此外,由于训练中的收敛性问题,人工智能学习在实际问题中的应用仍然存在障碍。应仔细检查,以确保在通信系统中的每一个具体问题中都能“学习”人工智能的最佳性能。

最后,人工智能算法通常具有计算复杂度大的特点,如果性能改善很小,这使得它们比传统的方法缺乏竞争力。

尽管如此,在5G时代的通信系统中,人工智能仍然显示出巨大的潜力和前景。如上所述,5G包括复杂的配置问题和不断变化的服务需求,这会导致在当前传统框架内难以建模、解决或实现的新问题。因此,5G为人工智能技术带来了新的机遇和挑战。

5G中人工智能的潜在应用方向可以总结为如下四个方面:

难以建模的问题通信系统中的网络优化问题通常是一类难以建模的技术问题。问题包括网络覆盖、干扰、相邻小区选择和切换等典型问题。目前的解决方案大多依赖于工程师的经验。对于5G-NR场景,由于网络结构复杂、KPI数量庞大,这些问题更具挑战性。大规模MIMO波束成形等新特性的应用与高维优化参数相关,优化问题本身可能难以建模。此外,5G-NR涉及多个KPI,包括峰值数据速率、频谱效率、延迟、连接密度、体验质量(QoE)等。这些关键绩效指标必须共同优化,即使其中一些指标相互矛盾。在这些情况下,使用传统方法无法实现整体优化模型,并且期望人工智能技术能够处理关键绩效指标。

难以求解的问题网络资源分配是5G-NR中的一个关键问题,包括小区间资源块分配、正交导频资源分配、波束形成资源分配、大规模MIMO用户集群和虚拟化网络中的资源池部署等具体问题。网络资源分配的目的是在平衡服务速率的同时最大化网络的吞吐量。它主要是一个NP-hard组合优化问题,随着系统规模的增大,求解这类问题的计算复杂度呈指数增长。传统的解决方案使用网络的静态分区来降低次优解的计算成本。在现代计算技术的帮助下,人工智能将成为解决这些问题的一种新的有效方法。

统一实施对5G-NR中的一些功能块采用分而治之的设计方法,如5G-NR中的物理层由多用户MIMO空时处理、NOMA信号检测与编码、LDPC或极性码译码等一系列信号处理块组成。研究人员试图优化每个处理模块的算法和实现,并取得了实际的成功。然而,在保证系统性能的前提下,整个通信系统的有效性和可扩展性仍然缺乏。值得注意的是,人工智能技术应该能够处理每个模块。这激励我们进一步开发一个统一的基于人工智能的实现,它可以为5GNR物理层中的所有关键模块共同工作。通过在算法和硬件上将这些模块与人工智能方法相结合,物理层通信的设计、配置和实现将更加简单、快速、经济和高效。

联合优化和检测将人工智能应用于5G的一个直观想法是,用人工神经网络简单地取代传统的发射机和接收机模块。然而,信道容量受香农极限的限制,并且通过使用人工神经网络的改进是有限的。此外,如上所述,在这方面应仔细审查训练的复杂性和收敛性。与这种直观的方法相比,人工智能在跨层联合优化问题的更大范围内显示出更大的潜力,而传统方法无法有效地解决这一问题。典型的例子包括物理和媒体访问控制层的联合优化,信源和信道的联合优化,以及算法和硬件实现的联合优化。

三5G中的人工智能范式

本节介绍了人工智能技术在5G中的应用实例,包括5G中的四个不同问题:网络资源分配、SON、统一的5G加速器和端到端物理层通信的优化。

自组织网络中的AI:automaticrootcauseanalysis

自组织网络(SONs)建立了一种新的网络管理概念,为网络的运行和维护提供了智能。SON已经被3GPP作为LTE网络的关键组件引入。在5G时代,网络的密集化和资源的动态分配将给网络的协调、配置和管理带来新的问题,从而导致对子系统功能改进的需求增加。移动网络中的子模块可以分为三大类:自配置、自优化和自修复。SON的主要目标包括自动执行网络规划、配置和优化,而无需人为干预,以降低总体复杂性、运营支出(OPEX)、资本支出(CAPEX)和人为故障。已有的研究内容包括人工智能在自动基站配置、新小区和频谱部署、覆盖和容量优化、小区中断检测和补偿等方面的应用,研究方法包括人工神经网络、蚁群优化、遗传算法等。

资源分配人工智能:OFDMA下行链路资源分配

5GNR中的OFDM资源块分配比以前更复杂,更具挑战性,因为支持三个非传统服务。图5显示了典型的多细胞、多用户下载资源分配场景。在本系统中,由于RB分配给不同的用户在同一个细胞中是正交的,所以消除了蜂窝内干扰。系统干扰主要取决于蜂窝间干扰,从而使RB分配给邻近蜂窝重要的用户。假设通过每一用户可以根据信干比(SIR)进行评估,RB分配的优化目标是该系统的通量最大化。这是一个非线性约束的NP-难的组合优化问题,使用传统方法求解是不现实的。

Q-学习可以应用于这个问题。假设一个“代理”负责RB的分配,那么这个“代理”可能的“动作”,即为每个用户更新RB,可以通过以下策略来选择:(1)在同一小区内,为用户分配具有更高SIR的空闲RB;(2)不断更新分配给当前小区中SIR最差的用户的RB,以获得更好的整体系统容量;(3)对于某个RB,将当前小区中SIR最差的用户与相邻小区中SIR最好的用户配对或群集。前两种策略是直观的。第三种方法用于避免将相同的RB分配给位于靠近边界的相邻小区中的用户,因为在这种情况下,所涉及的用户无论基站的发射功率如何,都无法获得必要的SIR来正常工作。在定义了所有可能的“动作”之后,“代理”将对每个动作进行评估,以选择下一个“动作”来调整RB分配,从而使整个系统的总容量最大化。同时根据Bellman方程更新Q函数,迭代直到Q函数收敛。

基带信号处理人工智能:Uniform5Gaccelerator5G中的基带信号处理包括一系列信号处理模块,包括大规模MIMO检测、NOMA检测和极性码解码。基带块数目的增加导致硬件面积的增加和实现结构的变化。然而,基于因子图的信念传播算法可以应用于所有的块。对于每个特定的块,框架保持不变,我们只需要调整符号集和变量的约束来适应特定的函数。因此,基于可配置变量的信念传播算法,可以为基带设计一个统一的加速器。人工智能辅助的信念传播算法可以通过以下两种方法设计:

DNN辅助信念传播。(1)通过重复迭代形成DNN展开信任传播因子图;(2)通过有监督训练训练DNN。此方法在基带中的应用包括基于DNN的极性码解码器和DNN辅助MMO检测器。

基于信仰传播的CNN。(1)将信任传播因子图中的每个节点映射到一幅图像中的一个像素,其中连接的节点应映射到相邻的像素;(2)利用获得的图像训练CNN。

神经网络具有高度的自适应性和可靠性。通过在基带中应用DNN和CNN,只要存在统一的硬件实现框架,就可以实现性能的提高。

物理层人工智能:基于DNN的端到端通信

如上所述,AI,特别是DNN,已被应用于物理层中的不同功能块,例如调制识别、极性码解码器和MIMO检测。对于两个或多个块的联合优化,AI算法也取得了成功,如信道均衡器和信道解码器的联合优化。然而,单独优化每个块并不保证整个物理层通信的优化。从整个端到端通信系统的角度来看,不同人工智能模块的直观连接可能会导致训练和在线任务的额外计算成本。因此,需要一种端到端系统的联合优化方法。

自动编码器是一个不同于传统方法的新概念。自动编码器是一种人工神经网络。它旨在以无监督的方式学习一组数据的表示(编码),该表示(编码)将能够在输出层重构压缩输入。DNNs用于表示整个端到端系统,而不考虑每个传统功能块中的具体模型。因此,在太复杂而无法建模的场景中,自动编码器可以是“学习”这些场景并优化性能的适当解决方案。

四总结

5G有望在传统移动通信系统上取得重大突破。在提升传统移动网络服务能力的同时,进一步发展为支持物联网在商业、制造、医疗、交通等各个领域的应用。因此,5G将成为未来连接和运营整个社会的物联网技术的基础技术。人工智能是5G时代相关问题的有潜力的解决方案,它将带来通信系统中革命性的概念和能力。

在5G中应用人工智能已经进行了大量的研究,本文着重阐明了一些最有潜力的研究方向。通过在这些研究方向上的进一步努力,5G有望实现比传统通信系统更好的性能和更方便的实现。同时,本文介绍了一些令人鼓舞的研究范式,展望了人工智能在5G中的应用。

作者介绍:

尤肖虎:男,1962年8月出生,1988年于东南大学信号、电路与系统专业获博士学位。任东南大学移动通信国家重点实验室主任、博士生导师、长江学者计划特聘教授。2011年当选为IEEEFellow。国家级有突出贡献的中青年专家、国家教委跨世纪青年专家首批入选者、江苏省青年科学家奖及全国五一劳动奖章获得者。1998年获国家杰出青年基金资助。目前主要研究方向为无线与移动通信系统、现代数字信号处理等。在IEEETrans等各类国际权威杂志上发表论文60余篇,出版专著2本。作为课题负责人,曾承担十余项国家八六三、科技攻关、国家自然科学基金等,参与完成了我国第一个GSM、CDMA、第三代及第四代移动通信系统开发。1999-2002年但任国家第三代移动通信系统研究开发项目总体组组长,所负责的中国第三代移动通信系统研究与开发项目被两院院士获选为2002年度中国十大科技进展。获国家技术发明一等奖和国家科技进步二等奖各一项,省部级科技进步一等奖五项。获2014年度陈嘉庚科学奖信息技术科学奖。“十五”期间担任国家八六三计划未来移动通信总体专家组组长,国家自然科学基金未来移动通信重大项目首席专家等。“十一五”起,担任国家新一代宽带无线移动通信网科技重大专项副总师。“十二五”期间担任国家863计划5G重大项目专家组组长、宽带网重点科技专项专家组组长等。

最大比率发射(MaximumRatioTransmission,MRT)

线性降维:主成分分析PCA原理分析与仿真验证

5G+AI:有哪些新的研究方向和新范式?

简述3D点云配准算法

5G为人工智能与工业互联网赋能|79页高清PPT

智能算法|以动物命名的算法

一份超全面的机器学习公共数据集

矩阵填充|奇异值阈值算法

可重构/大规模智能反射表面reconfigurable/largeintelligentsurface综述

迭代硬阈值类算法总结||IHT/NIHT/CGIHT/HTP

软阈值迭代算法(ISTA)和快速软阈值迭代算法(FISTA)

伍德伯里矩阵恒等式(Woodburymatrixidentity)

压缩感知:一种新型亚采样技术

更多精彩内容请关注订阅号优化与算法和加入QQ讨论群1032493483获取更多资料

人工智能应用的细分领域有哪些

什么是人工智能?

人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,是认知、决策、反馈的过程。

人工智能技术的细分领域有哪些?

人工智能技术应用的细分领域:深度学习、计算机视觉、智能机器人、虚拟个人助理、自然语言处理—语音识别、自然语言处理—通用、实时语音翻译、情境感知计算、手势控制、视觉内容自动识别、推荐引擎等。

下面,我们就每个细分领域,从概述和技术原理角度稍微做一下展开,供大家拓展一下知识。

1、深度学习

深度学习作为人工智能领域的一个重要应用领域。说到深度学习,大家第一个想到的肯定是AlphaGo,通过一次又一次的学习、更新算法,最终在人机大战中打败围棋大师。

对于一个智能系统来讲,深度学习的能力大小,决定着它在多大程度上能达到用户对它的期待。。

深度学习的技术原理:

1.构建一个网络并且随机初始化所有连接的权重; 

2.将大量的数据情况输出到这个网络中; 

3.网络处理这些动作并且进行学习; 

4.如果这个动作符合指定的动作,将会增强权重,如果不符合,将会降低权重;

5.系统通过如上过程调整权重; 6.在成千上万次的学习之后,超过人类的表现;

2、计算机视觉

计算机视觉是指计算机从图像中识别出物体、场景和活动的能力。计算机视觉有着广泛的细分应用,其中包括,医疗领域成像分析、人脸识别、公关安全、安防监控等等。

计算机视觉

计算机视觉的技术原理:

计算机视觉技术运用由图像处理操作及其他技术所组成的序列来将图像分析任务分解为便于管理的小块任务。

3、语音识别

语音识别,是把语音转化为文字,并对其进行识别、认知和处理。语音识别的主要应用包括电话外呼、医疗领域听写、语音书写、电脑系统声控、电话客服等。

语音识别

语音识别技术原理:

1、对声音进行处理,使用移动函数对声音进行分帧; 2、声音被分帧后,变为很多波形,需要将波形做声学体征提取; 3、声音特征提取之后,声音就变成了一个矩阵。然后通过音素组合成单词;

4、虚拟个人助理

苹果手机的Siri,以及小米手机上的小爱,都算是虚拟个人助理的应用。

虚拟个人助理技术原理:(以小爱为例)

1、用户对着小爱说话后,语音将立即被编码,并转换成一个压缩数字文件,该文件包含了用户语音的相关信息; 2、由于用户手机处于开机状态,语音信号将被转入用户所使用移动运营商的基站当中,然后再通过一系列固定电线发送至用户的互联网服务供应商(ISP),该ISP拥有云计算服务器; 3、该服务器中的内置系列模块,将通过技术手段来识别用户刚才说过的内容。

5、自然语言处理

自然语言处理(NLP),像计算机视觉技术一样,将各种有助于实现目标的多种技术进行了融合,实现人机间自然语言的通信。

NLP

自然语言处理技术原理:

1、汉字编码词法分析; 2、句法分析; 3、语义分析; 4、文本生成; 5、语音识别;

6、智能机器人

智能机器人在生活中随处可见,扫地机器人、陪伴机器人……这些机器人不管是跟人语音聊天,还是自主定位导航行走、安防监控等,都离不开人工智能技术的支持。

智能机器人技术原理:

人工智能技术把机器视觉、自动规划等认知技术、各种传感器整合到机器人身上,使得机器人拥有判断、决策的能力,能在各种不同的环境中处理不同的任务。智能穿戴设备、智能家电、智能出行或者无人机设备其实都是类似的原理。

7、引擎推荐

淘宝、京东等商城,以及36氪等资讯网站,会根据你之前浏览过的商品、页面、搜索过的关键字推送给你一些相关的产品、或网站内容。这其实就是引擎推荐技术的一种表现。

Google为什么会做免费搜索引擎,目的就是为了搜集大量的自然搜索数据,丰富他的大数据数据库,为后面的人工智能数据库做准备。

引擎推荐技术原理:

推荐引擎是基于用户的行为、属性(用户浏览行为产生的数据),通过算法分析和处理,主动发现用户当前或潜在需求,并主动推送信息给用户的浏览页面。

未来人工智能应用领域的展望

除了上面的应用之外,人工智能技术肯定会朝着越来越多的分支领域发展。医疗、教育、金融、衣食住行等等涉及人类生活的各个方面都会有所渗透。

未来已来,顺应未来发展大势,让自己的企业具备应对未来发展环境的能力,这就是你最应该做的事情。希望大家能在读了本片文章后,能激发出更大的兴趣去了解、学习人工智能的知识,也许,下一步可以从《人工智能简史》开始。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇