博舍

2023 年人工智能发展趋势TOP5 预测人工智能发展的趋势

2023 年人工智能发展趋势TOP5

2022年在AI/ML领域取得了许多突破性的突破。谷歌、Meta和微软等大型科技公司在从量子计算到生成人工智能的全新创新中取得了重大进步。 

例如,一些最大的突破包括解决国际数学奥林匹克问题的Meta的HyperTreeProofSearch(HTPS);DeepMind的AlphaFold和MetaAI的ESMFold用于蛋白质折叠预测;谷歌的DeepNull模拟表型之间协变量效应的关系并改进全基因组关联研究(GWAS)等等。

接下来,让我们看看对2023年的一些预测。 

ChatGPT以其出色的对话能力风靡互联网。它是建立在OpenAI的GPT-3上的,GPT-3有1760亿个参数,依赖于更大的模型尺寸。虽然还有其他LLM的参数是GPT-3的两倍、三倍甚至十倍,但DeepMind或Meta的一些模型(也称为小型语言模型(SLM))的参数数量已经超过GPT-3在逻辑推理和预测等多项任务上。

除了减小模型的大小外,预计还会有一个更大的模型,如GPT-4,具有大约100万亿个参数。由于目前最大的模型是具有1.6万亿个参数的GoogleSwitchTransformer模型,因此跳跃将是巨大的。 

然而,为了获得更大的延迟和可预测性,未来几年可以看到对现有模型进行微调以服务于特定目的。最近,OpenAI使用达芬奇更新对GPT-3进行了微调。

趋势一:生成式AI需要可解释的AI文本到图像的生成是2022年打破排行榜的趋势。DALL-E、StableDiffusion和Midjourney等模型在想要试验AI生成艺术的爱好者中名列前茅。对话很快从文本到图像转移到文本到视频,再到文本到任何东西,并且创建了多个模型,这些模型也可以生成3D模型。

随着语言模型的扩展以及传播模型的改进,文本到任何东西的趋势预计会上升得更高。公开可用的数据集使生成式AI模型更具可扩展性。

这些数据集引入了有关可解释人工智能的部分,其中训练这些生成模型的每张图像的属性变得至关重要。 

趋势二:FastSaaS竞赛开始  赶上生成人工智能趋势的公司已经开始将其作为云端服务提供。随着LLM和GPT-3和DALL-E等生成模型的公开可用,企业越来越容易将它们作为服务提供,这催生了FastSaaS。

最近,Shutterstock计划将DALL-E2集成到其平台,Microsoft VSCode添加了Copilot作为扩展,TikTok宣布推出应用内文本到图像AI生成器,Canva推出了AI-在其平台上生成功能。 

趋势三:依赖超级计算机这就是构建超级计算机以依赖于生成任务以及为公司提供服务的趋势。随着这些不断增加的数据集和生成模型,对超级计算机的需求正在上升,并且预计会进一步上升。随着对FastSaaS的竞争,对更好和高性能计算的需求是下一件事。

NVIDIA和微软最近合作创建了Quantum-2,一个云原生超级计算平台。10月,特斯拉宣布其Dojo超级计算机完全使用特斯拉开发的芯片从零开始构建。很快,它看起来可以为企业客户提供访问权限。此外,Cerebras还推出了Andromeda,这是一台拥有1350万核心的AI超级计算机,可提供超过1exaflop的AI计算能力。最近,Jasper与Cerebras合作以实现更好的性能。 

趋势四:超越3nm芯片正如摩尔定律所预测的那样,处理能力随着芯片尺寸的减小而增加。因此,超级计算机要运行大型模型,就需要更小的芯片,而且我们已经看到芯片越来越小。

近年来,芯片行业一直在推动小型化,制造商不断寻找使芯片更小、更紧凑的方法。比如M2芯片和A16,苹果分别使用5nm和4nm芯片,预计2023年台积电会开发3nm芯片,这将提高AI/ML算法开发的效率和性能。 

趋势五:量子与传统计算的融合 随着NVIDIA、谷歌和微软等公司向云端提供硬件服务,量子计算领域的更多创新势必会发生。这将允许小型科技公司在不需要重型硬件的情况下训练、测试和构建AI/ML模型。 

未来几年量子计算的兴起绝对应该被开发人员纳入,因为它的使用将在许多其他领域增加,如医疗保健、金融服务等。 

在最近的公告中,一台量子计算机连接到欧洲最快的超级计算机,以结合传统计算机和量子计算机以更快地解决问题。同样,Nvidia也发布了QODA——简称Quantum-OptimisedDeviceArchitecture,这是混合量子经典计算机的首创平台。 

IBM最近在其2022年年度量子峰会上宣布了他们的量子硬件和软件,概述了使用433量子位(qubit)处理器进行以量子为中心的超级计算的开创性愿景。在全球人工智能峰会上,IBM宣布明年他们将展示一个1000量子比特的系统,这将成为各个领域进一步创新的颠覆者。

人工智能的发展与未来

随着人工智能(artificialintelligent,AI)技术的不断发展,各种AI产品已经逐步进入了我们的生活。

现如今,各种AI产品已经逐步进入了我们的生活|Pixabay

19世纪,作为人工智能和计算机学科的鼻祖,数学家查尔斯·巴贝奇(CharlesBabbage)与艾达·洛夫莱斯(AdaLovelace)尝试着用连杆、进位齿轮和打孔卡片制造人类最早的可编程数学计算机,来模拟人类的数理逻辑运算能力。

20世纪初期,随着西班牙神经科学家拉蒙-卡哈尔(RamónyCajal)使用高尔基染色法对大脑切片进行显微观察,人类终于清晰地意识到,我们几乎全部思维活动的基础,都是大脑中那些伸出细长神经纤维、彼此连接成一张巨大信息网络的特殊神经细胞——神经元。

至此,尽管智能的具体运作方式还依然是个深不见底的迷宫,但搭建这个迷宫的砖瓦本身,对于人类来说已经不再神秘。

智能,是一种特殊的物质构造形式。

就像文字既可以用徽墨写在宣纸上,也可以用凿子刻在石碑上,智能,也未必需要拘泥于载体。随着神经科学的启迪和数学上的进步,20世纪的计算机科学先驱们意识到,巴贝奇和艾达试图用机械去再现人类智能的思路,在原理上是完全可行的。因此,以艾伦·图灵(AlanTuring)为代表的新一代学者开始思考,是否可以用二战后新兴的电子计算机作为载体,构建出“人工智能”呢?

图灵在1950年的论文《计算机器与智能(ComputingMachineryandIntelligence)》中,做了一个巧妙的“实验”,用以说明如何检验“人工智能”。

英国数学家,计算机学家图灵

这个“实验”也就是后来所说的“图灵测试(Turingtest)”:一名人类测试者将通过键盘和显示屏这样不会直接暴露身份的方式,同时与一名人类和一台计算机进行“网聊”,当人类测试者中有七成都无法正确判断交谈的两个“人”孰真孰假时,就认为这个计算机已经达到了“人工智能”的标准。

虽然,图灵测试只是一个启发性的思想实验,而非可以具体执行的判断方法,但他却通过这个假设,阐明了“智能”判断的模糊性与主观性。而他的判断手段,则与当时心理学界崛起的斯纳金的“行为主义”不谋而合。简而言之,基于唯物主义的一元论思维,图灵和斯金纳都认为,智能——甚至所有思维活动,都只是一套信息处理系统对外部刺激做出反应的运算模式。因此,对于其他旁观者来说,只要两套系统在面对同样的输入时都能够输出一样的反馈,就可以认为他们是“同类”。

1956年,人工智能正式成为了一个科学上的概念,而后涌现了很多新的研究目标与方向。比如说,就像人们在走迷宫遇到死胡同时会原路返回寻找新的路线类似,工程师为了使得人工智能达成某种目标,编写出了一种可以进行回溯的算法,即“搜索式推理”。

而工程师为了能用人类语言与计算机进行“交流”,又构建出了“语义网”。由此第一个会说英语的聊天机器人ELIZA诞生了,不过ELIZA仅仅只能按照固定套路进行作答。

而在20世纪60年代后期,有学者指出人工智能应该简化自己的模型,让人工智能更好的学习一些基本原则。在这一思潮的影响下,人工智能开始了新一轮的发展,麻省理工学院开发了一种早期的自然语言理解计算机程序,名为SHRDLU。工程师对SHRDLU的程序积木世界进行了极大的简化,里面所有物体和位置的集合可以用大约50个单词进行描述。模型极简化的成果,就是其内部语言组合数量少,程序基本能够完全理解用户的指令意义。在外部表现上,就是用户可以与装载了SHRDLU程序的电脑进行简单的对话,并可以用语言指令查询、移动程序中的虚拟积木。SHRDLU一度被认为是人工智能的成功范例,但当工程师试图将这个系统用来处理现实生活中的一些问题时,却惨遭滑铁卢。

而这之后,人工智能的发展也与图灵的想象有所不同。

现实中的人工智能发展,并未在模仿人类的“通用人工智能(也称强人工智能)”上集中太多资源。相反,人工智能研究自正式诞生起,就专注于让计算机通过“机器学习”来自我优化算法,最后形成可以高效率解决特定问题的“专家系统”。由于这些人工智能只会在限定好的狭窄领域中发挥作用,不具备、也不追求全面复杂的认知能力,因此也被称为“弱人工智能”。

但是无论如何,这些可以高效率解决特定问题的人工智能,在解放劳动力,推动现代工厂、组织智能化管理上都起到了关键作用。而随着大数据、云计算以及其他先进技术的发展,人工智能正在朝着更加多远,更加开放的方向发展。随着系统收集的数据量增加,AI算法的完善,以及相关芯片处理能力的提升,人工智能的应用也将逐渐从特定的碎片场景转变为更加深度、更加多元的应用场景。

人工智能让芯片的处理能力得以提升|Pixabay

从小的方面来看,人工智能其实已经渐渐渗透进了我们生活的方方面面。比如喊一声就能回应你的智能语音系统,例如siri,小爱同学;再比如在超市付款时使用的人脸识别;抑或穿梭在餐厅抑或酒店的智能送餐机器人,这些其实都是人工智能的应用实例。而从大的方面来看,人工智能在制造、交通、能源及互联网行业的应用正在逐步加深,推动了数字经济生态链的构建与发展。

虽然脑科学与人工智能之间仍然存在巨大的鸿沟,通用人工智能仍然像个科幻梦,但就像萧伯纳所说的那样“科学始终是不公道的,如果它不提出十个问题,也永远无法解决一个问题。”科学总是在曲折中前进,而我们只要保持在不断探索中,虽无法预测是否能达到既定的目的地,但途中终归会有收获。

参考文献

[1]王永庆.人工智能原理与方法[M].西安交通大学出版社,1998.

[2]Russell,StuartJ.ArtificialIntelligence:AModernApproach[J].人民邮电出版社,2002.

[3]GabbayDM,HoggerCJ,RobinsonJA,etal.Handbookoflogicinartificialintelligenceandlogicprogramming.Vol.1:Logicalfoundations.,1995.

[4]胡宝洁,赵忠文,曾峦,张永继.图灵机和图灵测试[J].电脑知识与技术:学术版,2006(8):2.

[5]赵楠,缐珊珊.人工智能应用现状及关键技术研究[J].中国电子科学研究院学报,2017,12(6):3.

[6]GeneserethMR,NilssonNJ.LogicalFoundationofArtificialIntelligence[J].brainbroadresearchinartificialintelligence&neuroscience,1987

作者:张雨晨

编辑:韩越扬

[责编:赵宇豪]

普华永道周伟然:人工智能未来发展5个趋势值得关注

中国日报网6月25日电 6月24日,第六届世界智能大会“云端”开幕,普华永道全球科技、媒体及通信行业主管合伙人周伟然(WilsonChow)在中国日报“新时代大讲堂”上介绍了普华永道关于人工智能发展的预测调查报告,报告总结了人工智能未来发展5个趋势。

普华永道全球科技、媒体及通信行业主管合伙人周伟然

周伟然说:“我们预测的第一个趋势是:不确定性是不存在的。各个企业都在加大对人工智能的投入力度,在新冠肺炎疫情暴发之后,有超过50%的受访者表示其所在企业加快了人工智能落地计划,有86%的受访者表示,人工智能将在2021年成为他们公司的"主流技术"。人工智能也带来了实实在在的好处,比如收入增长、决策优化和客户体验提升。企业通过推进人才与数据的良性循环,不断升级系统和建强队伍,使人工智能领域投入效用最大化。”

周伟然称普华永道预测的第二个趋势是:把人工智能变成你的战略盟友。获得投资回报的最快方式是运用人工智能的高级自动化功能来提高效率和生产率。在普华永道的调查中,有58%的受访者表示其公司增加了对人工智能的投入,来辅助人力资源规划。48%表示其公司增加了对人工智能的投入,来优化仿真建模,提高供应链韧性。43%表示其公司增加了对人工智能的投入,来优化情景规划。42%表示其公司增加了对人工智能的投入,以辅助需求预测,通过进行这些投入,公司把人工智能变成了它的一个战略盟友。以数据推动战略决策,做好人工智能战略投资。

普华永道全球科技、媒体及通信行业主管合伙人周伟然

周伟然表示普华永道预测的第三个趋势是:从觉察风险到抵御风险。大多数公司都对人工智能的相关风险有所了解,但却并没有采取行动去降低这些风险。当被问及在人工智能应用方面的三大优先发展方向时,受访者的首选是开发有助于保护隐私,提高可解释性、改善偏差检测和提升治理水平的负责任的人工智能工具。但在谈及行动时,只有少数公司践行了这些计划。遵循人工智能伦理是降低人工智能风险的唯一方法,把伦理道德规范融入企业运营,企业使用人工智能的方式须体现企业的价值观。

周伟然指出普华永道预测的第四个趋势是:超越技能提升。据预测,从长远看,人工智能的应用能够带来就业净增长,但是它所带来的工作和过去的工作是不同的,企业领导需要重新评估他们未来对人力资源的确切需求。建立人工智能文化,招聘专业人才,提升员工人工智能素养。

周伟然说普华永道预测的第五个趋势是:模型的改进不会终止。人工智能的应用对整个企业都会产生影响。企业需要进行重组,并视需要开展协作,整合人工智能、分析和自动化部门,从效率出发强化企业组织效能。

周伟然表示,金融服务,消费品营销,医疗保健,交通出行,电子商务和餐饮这几个行业和领域可以从人工智能的应用中快速获益。

6月24日,第六届世界智能大会“云端”开幕,作为大会重要内容之一,中国日报社与中共天津市委宣传部联合举办了以“智能新时代:数字赋能智赢未来”为主题的“新时代大讲堂”,普华永道全球科技、媒体及通信行业主管合伙人周伟然(WilsonChow)作为嘉宾发表演讲。

【责任编辑:党超峰】

李瑞敏:智能交通管理系统的发展及趋势

▼技术:信息通讯技术(5G、物联网等),车路协同技术和自动驾驶技术,以及AI和云计算技术等的出现及应用。

▼伙伴:在国内,十年以前智能交通管理系统主要是一批行业集成商在做,但近五年来各种领域巨头进入这个行业,无论从技术还是从各自优势来讲,都带来了相应的变化。

▼服务:目前主要的出行方式为公交、自驾车、自行车等,随着出行即服务概念的提出,未来自有车辆可能会转变成为共享车辆的模式,交通组织、交通运输服务模式也会发生变化。

02

未来智能交通管理系统总体发展趋势

未来智能交通管理系统的发展趋势主要可总结为三个词:闭环、交互、智能。

▼第一个发展趋势“闭环”

这个趋势主要体现在数据支撑下从问题发现到优化到评估形成闭环反馈迭代。问题的发现和识别,早期一般由人工、专家型管理者完成,未来将转变成数据驱动型。深度分析方面,未来可能在保证专家思维型的致因分析和溯源下,全部交给数据驱动的计算机完成,我们需要做的更多是建立相应知识库、模型来提升计算机的水平。发现问题后要进行优化,包括微观方面的信号配时、车道渠化,宏观方面的区域性交通组织等,这些都不是一次性工作,是不断优化的过程,未来将形成闭环反馈型迭代的优化和改善,这个工作全靠人工不太现实,应该是人机整合下的系统控制与调度。优化过后的评估也非常重要,未来将是数据支撑下的在线实时计算,多维度视角的宏观微观评估。数据的深入应用,可以帮助了解、绘制现实交通状况,掌握基本出行规律,了解老百姓对于各种交通管理措施的实际反应,明确特定交通需求。

▼第二个发展趋势“交互”

这个趋势主要体现在数据、措施和专业等方面的交互。数据的交互是指交通管理部门、信息服务部门、出行者、交通服务部门等实现实质性的数据共享。例如在分析城市交通问题时,整合多源数据,包括指挥中心的视频数据、地图信息数据等,有助于找到更合理有效的优化方案。交通管理措施应结合交通系统管理与交通需求管理措施,除了区域交通组织、应急管理、信号调优等措施以外,也要考虑利用经济手段、管制手段来应对整个城市的交通发展。目前智能交通系统或者智能交通管理系统参与的专业越来越多,且很多信息技术、计算机技术越来越发挥更为关键的作用,但需要注意交通工程等专业也不能够忽略,专业与技术要实现充分的整合。

▼第三个发展趋势“智能”

“智能”并非一个新词,但在智能化程度方面还有进一步提高的余地,主要体现在以下三个方面:分析,多源海量数据需要更智能的分析手段和技术;预测,未来要交互式主动交通管理,借助大数据和智能技术等实现对短时交通变化做出精准预测;管控,智能化应用多种手段,目前各地已在做各种无论是否具备普适性手段的探索。

对于智能交通预测,笔者认为未来应加强这4个方面:常态预测;恶劣天气下的交通预测,例如雨、雪天气时,可能比日常拥堵,根据天气预报降雨、降雪量,预测半小时甚至更长时间后的情况,有助于交通管理部门提前采取应对措施;事故影响预测,整合多源数据,包括基于接处警粗略记录数据、互联网路况数据、检测机数据等,预测事故持续时间和事故影响范围;宏观预测。

过去10年,移动互联网的发展使得大数据技术迅速发展,目前矛盾从如何获取数据变成如何高效利用数据,传统的统计分析模型已经无法满足大数据时代的计算需求,引入人工智能技术是未来的必然方向。

总的来说,闭环反馈是未来智能交通管理系统的根本,要从工作流程上做好,自动实现发现问题、优化、评估、再发现问题、再优化和评估的过程;交互协同是实现智能交通管理系统发展的关键,需全方位多角度应对所有的问题;智能计算是核心,提升交通管理水平的支撑,目前很多工作仅靠传统技术手段可能找不到答案或解决途径,要拥抱这些最新发展的技术,来解决技术难题。

视频:智能交通管理系统的发展及趋势

编校丨李芸玥孙圆梦返回搜狐,查看更多

天气预报中的人工智能技术进展

与AI技术在其他领域的应用发展一样,天气预报中的AI应用也从计算机视觉技术应用起步。目前计算机视觉技术已在多普勒雷达图像智能识别和短临外推(一般为0~2小时)、卫星云图类型识别等方面广泛应用。日本九州大学的研究小组利用深度学习技术,开发了从全球云系统分辨率模型(NonhydrostaticIcosahedralAtmosphericModel,NICAM)气候实验数据中识别热带低压的方法,特别是夏季西北太平洋热带低压发生一周前的征兆。美国NWS已大力着手基于云的天气预报应用,并已启动了内部研究和发展计划(InternalResearch&DevelopmentProject,IP&D)提高天气预报能力。IP&D实现了针对灾害天气的实时数据挖掘,进而用于洪水预测。通过AI算法考虑过去已导致明显洪水灾害的区域,选出预报目标区,结合亚马逊网络云服务(AmazonWebServices,AWS),通过机器学习预测该目标区的洪灾可能性和严重程度,并通过AWS网页进行图形可视化调用。NWS还做了强风(阵风大于等于25.7m/s)实时预报,使用AI技术预测未来不同距离(风暴单元周围0、5和10km)和时间窗(未来0~15、15~30、30~45、45~60和60~90min)内出现大风的概率。数据集由MYRORSS(TheMulti-YearReanalysisofRemotelySensedStorms)质量控制的雷达图像、快速更新同化(RapidUpdateCycle,RUC)模型数据、1分钟气象机场报告(METARs;国家气候数据中心2006年)和NWS地区风暴报告等构成。MYRORSS的空间和时间分辨率分别为1km和5min,而RUC的分辨率为13km和1h。主要流程包括:首先,使用实时[28]和事后[33]方法对风暴细胞进行识别和跟踪。选取预测因子包括风暴运动(速度和方向)、风暴目标的形状参数(面积、方向和偏心)等;其次,通过对流允许模型(ConvectionAllowingModel,CAM)集成提供有关风暴强度、位置和演化的信息,并建立可预测冰雹发生概率和预测冰雹大小分布的机器学习模型。该模型已经在两个CAM集成系统上实时运行,并通过冰雹cast诊断[34]和风暴替代变量(updrafthelicity)[35]进行验证。其中,观测的冰雹由美国国家海洋和大气管理局(NationalOceanicandAtmosphericAdministration,NOAA)国家强风暴实验室(TheNationalSevereStormsLaboratory,NSSL)多雷达多传感器[36]给出的冰雹最大预期[37]确定。预报和观测到的风暴根据空间和时间上的接近程度进行匹配,从每个预报风暴的范围内提取描述风暴和环境变量的统计信息,并将其输入到机器学习模型中。这种方法与Clark等[38]通过干线(dryline)判断风暴的方法有异曲同工之妙。Google公司也将深度学习用于提供空间分辨率1km、时间分辨率1~3h的美国大陆雨雪预报。观测资料包括遥感和地面站,如GEO和LEO卫星,多普勒雷达、雨量站,地表和气候等信息。过去2h的历史数据主要包括:①8张GOES-16卫星图像(15min分辨率),②8张或更多的多普勒雷达图像(2min分辨率),③1张IMERG/GPMLEO卫星云图(每3h1张),④PRISM(Parameter-elevationRegressionsonIndependentSlopesModel)气候资料(当月的30年气候平均),⑤地形高度。输出包括未来3h雷达图像和/或雨量观测。与传统的深度学习方法相比,该方法考虑到卫星资料和雷达资料的观测时间差异,使用延时处理以使两者时间匹配。基于2018年和2019年数据的检验表明,该方法的3h预报性能高于数值预报方法。另一个典型的实例是,ProbSevere公司利用多雷达多传感器(Multi-Radar/Multi-SensorSystem,MRMS)的复合反射率(同时获得多个雷达的最大柱状反射率)实时识别和跟踪风暴[36]。该方法在识别时,使用了风暴附近环境以及风暴速度信息。训练标签是通过运行一个名为besttrack的事后风暴跟踪程序[33]。训练数据还对所有持续时间大于7200s的风暴进行了采样,产生了2872680个用于训练的样本。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇