计算机未来发展趋势
计算机未来发展趋势2022-03-2515:42:27
浅谈计算机未来发展趋势
随着信息技术的发展,计算机在我们的日常生活中扮演了越来越重要的作用,而今天我们在讨论课要讨论的就是对于计算机未来的一些展望以及计算机在未来可能的发展方向。
在上过几次课之后,我们了解到计算机在最近的几十年发展突飞猛进,是在众多行业中发展最快的高新领域之一,上世纪九十年代的人还难以预料今天计算机会如此强大,而今天的我们所预见的未来的计算机又将有几分准确性呢。不管未来的计算机是什么样的,根据现在的研究以及人们的需要来看,有几个特点可能会在较近的未来实现,计算机将会更加微型化,计算能力还会更加强大,而随着计算机与诸多领域的相互渗透,新型计算机也会应运而生,此外,计算机的智能化也是人们研究的热点问题。
1“更小更强大”
从1946年第一台计算机诞生以来,计算机都在向着计算能力更强大的方向发展,而随着计算机技术的民用化,为了更方便人们的生活,计算机又在向着更小的方向发展。“更小更强大”是计算机制造领域人们追求的目标。随着技术的发展,当今的计算机已经具有很强的计算能力和便携性,在以后的发展中,计算机要想更小而有计算能力更强,就需要有更精细更先进的生产技术,这才能使同样的面积具有更高的计算能力和更快的速度,现在cPU的生产技术已经达到纳米级,cPU的更加微小将同时带动电脑其他部件诸如内存、硬盘、显卡、主板的微型化,但与此同时,密集化将会产生更大的发热问题,
这就需要研究人员采用更先进的散热技术和优化能力,只有电脑上的主要部件都微型化,才能实现整台电脑的微型化。但就计算能力而言,计算机领域著名的摩尔定律并不是一成不变的,因为分子原子也是有大小的,现在可以将硅处理到纳米级,但总是会遇到小到不能再处理的瓶颈,到那时再先进的生产技术也无济于事,这时便需要考虑到算法和计算方式的问题。在未来是否会有更加先进的计算方式取代二进制,是否会有更加简捷的算法,是计算机领域工作者应该考虑的。2新型计算机
一方面,一部分人在对现有计算机进行更加深入的研究,而另一方面,一些人在计算机与其他领域的渗透中不断探索,研究新型的计算机。我在网上找了一些关于新型计算机的资料。
量子计算机
量子计算机的概念源于对可逆计算机的研究,量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。量子计算机是基于量子效应基础上开发的,它利用一种链状分子聚合物的特性来表小开与关的状态,利用激光脉冲来改变分子的状态,使信息沿着聚合物移动,从而进行运算。量子计算机中的数据用量子位存储。由于量子叠加效应,一个量子位可以是0或1,也可以既存储0又存储1。因此,一个量子位可以存储2个数据,同样数量的存储位,量子计算机的存储量比通常计算机大许多。同时量子计算机能够实行量子并行计算,其运算速度可能比目前计算机的PcntiumIII晶片快10亿倍。除具有高速并行处理数据的能力外,量子
计算机还将对现有的保密体系、国家安全意识产生重大的冲击。
无论是量子并行计算还是量子模拟计算,本质上都是利用了量子相干性。世界各地的许多实验室正在以巨大的热情追寻着这个梦想。目前已经提出的方案主要利用了原子和光腔相互作用、冷阱束缚离子、电子或核白旋共振、量子点操纵、超导量子干涉等。量子编码采用纠错、避错和防错等。量子计算机使计算的概念焕然一新。
利用量子力学原理设计,由量子元件组装的量子计算机,不仅运算速度快,存储量大,功耗低,而且体积小。一个超高速计算机可以放在口袋里,人造卫星的直径可以从数米减小到数十厘米。目前,量子计算机正在开发研制阶段,随着毫微技术的进步和毫微米级加工技术的发展,科学家们认为,量子计算机的心脏—微处理器将在5年左右研制成功,世界上第一台量子计算机有望在10年后诞生。我国量子信息专家宣称,将在5年内研制出实用化的量子密码,来服务于社会。美国、英国、以色列等国家都先后开展了有关量子计算机的基础研究,正在开发中的量子计算机有三种类型:核磁共振(nMR)量子计算机;硅基半导体量子计算机;离子阱量子计算机。预计2030年有可能普及量子计算机。
光子计算机
光子计算机是利用光子取代电子进行数据运算、传输和存储。光子计算机即全光数字计算机,以光子代替电子,光互连代替导线互连,光硬件代替计算机中的电子硬件,光运算代替电运算。在光子计算机中,不同波长的光代表不同的数据,可以对复杂度高、计算量大的任
务实现快速地并行处理。光子计算机将使运算速度在目前基础上呈指数上升。
与电子计算机相比,光子计算机的信息传递平行通道密度极大。一枚直径5分硬币大小的棱镜,它的通过能力超过全世界现有电话电缆的许多倍。光的并行、高速,天然地决定了光计算机的并行处理能力很强,具有超高速运算速度。超高速电子计算机只能在低温下工作,而光计算机在室温下即可开展工作。光计算机还具有与人脑相似的容错性。系统中某一元件损坏或出错时,并不影响最终的计算结果。1990年1月29口美国研制出全球首台试验光子计算机,用砷化稼光子开关,体积小、速度快,运算速度为每秒10亿次,具有广阔的发展前景。目前,世界上第一台光子计算机已由欧共体的英国、法国、比利时、德国、意大利的70多名利一学家研制成功,其运算速度比电子计算机快1000倍。科学家们预计,光子计算机的进一步研制将是二十一世纪高科技领域的重大课题。
分子计算机
分子计算机体积小、耗电少、运算快、存储量大。分子计算机的运行是吸收分子晶体上以电荷形式存在的信息,并以更有效的方式进行组织排列。分子计算机的运算过程就是蛋白质分子与周围物理化学介质的相互作用过程。转换开关为酶,而程序则在酶合成系统本身和蛋白质的结构中极其明显地表示出来。生物分子组成的计算机具备能在生化环境下,甚至在生物有机体中运行,并能以其它分子形式与外部环境交换。因此它将在医疗诊治、遗传追踪和仿生工程中发挥无
法替代的作用。目前正在研究的主要有生物分子或超分子芯片、白动机模型、仿生算法、分子化学反应算法等几种类型。分子芯片体积可比现在的芯片大大减小,而效率大大提高,分子计算机完成一项运算,所需的时间仅为10微微秒,比人的思维速度快100万倍。分子计算机具有惊人的存贮容量,1立方米的DnA溶液可存储1万亿亿的二进制数据。分子计算机消耗的能量非常小,只有电子计算机的十亿分之
一。由于分子芯片的原材料是蛋白质分子,所以分子计算机既有白我修复的功能,又可直接与分子活体相联。美国已研制出分子计算机分子电路的基础元器件,可在光照几万分之一秒的时间内产生感应电流。以色列科学家已经研制出一种由DnA分子和酶分子构成的微型分子计算机。预计20年后,分子计算机将进入实用阶段。
纳米计算机
纳米计算机是用纳米技术研发的新型高性能计算机。纳米管元件尺寸在几到几十纳米范围,质地坚固,有着极强的导电性,能代替硅芯片制造计算机。“纳米”是一个计量单位,大约是氢原子直径的10倍。纳米技术是从20世纪80年代初迅速发展起来的新的前沿科研领域,最终目标是人类按照自己的意志直接操纵单个原子,制造出具有特定功能的产品。现在纳米技术止从微电子机械系统起步,把传感器、电动机和各种处理器都放在一个硅芯片上而构成一个系统。应用纳米技术研制的计算机内存芯片,其体积只有数百个原子大小,相当于人的头发丝直径的千分之一。纳米计算机不仅儿几乎不需要耗费任何能源,而且其性能要比今天的计算机强大许多倍。美国正在研制一
种连接纳米管的方法,用这种方法连接的纳米管可用作芯片元件,发挥电子开关、放大和晶体管的功能。专家预测,10年后纳米技术将会走出实验室,成为科技应用的一部分。纳米计算机体积小、造价低、存量大、性能好,将逐渐取代芯片计算机,推动计算机行业的快速发展。
3计算机的智能化
自从计算机诞生以来,对于这样一个无生命的机器怎样实现智能化一直是人们感兴趣的话题,计算机智能与人工智能有许多相似之处,但计算机智能并不能完全等同于人工智能,人工智能是一个学科领域,包括许多研究和应用方向,如自然语言理解、机器人、专家系统等。主要目标是使计算机具有类似人类的认知、学习、理解、表达、推理等思维能力和行为能力,是一个以计算机为核心平台涉及自然科学和社会科学多方面的综合性学科。计算机智能是方法或模型,主要研究信息在计算机中的获取、存储、处理和输出的过程,使信息变得更有效率和更有效果,它是计算机专业技术中的一门技术。对于智能计算机的发展历程,虽然人们已经付出了很大努力,也取得了不少成果,诸如在工业生产领域的智能化与自动化,但真正意义上的智能计算机与我们还有很远的距离。计算机智能化的研制离不开对智能本质的认识,他的实现还需要智能科学的进一步发展。另一方面,智能计算机的发展也要与计算机科学技术本身的发展相呼应。我们有理由相信,聪明的计算机科学工作者们肯定能想出更好的办法突破冯·诺依曼的框架,真正实现计算机的智能化。
关于计算机未来的发展趋势,不同的人有不同的看法,不同的人也会从不同的方面去探讨,但无论如何,出发点都是为了能够更好地帮助人学习、工作、计算、娱乐等等,为了更能方便人的生活,更好地完成更加艰巨复杂的任务,所以,计算机会基于这些进行不断地改造与创新,当一种技术或基本架构遭遇瓶颈时,新的技术就会诞生,这就是计算机不断改进和创新的动力。对于上文的诸多方面,很多已经即将或是快要实现,而有一些则距离现实还有很大距离,甚至有些研究会是失败的,但这完全不能阻挡计算机的发展,也不会阻止与计算机有关的新技术的产生。
结语
以上对于计算机的展望并不是全面的,也只是从一些侧面简单谈一谈计算机可能发展的方向,从第一台计算机诞生的那一天起,计算机就将注定改变人类的历史;从第一台个人计算机诞生的那一天起,计算机便注定与我们的生活有着密切联系。在当今社会,计算机已经渗透到社会的每一个角落,未来的计算机将发挥更大的作用,计算机技术也将带动各行各业的迅猛发展,为共同推动人类社会的进步做出贡献。
展开全文2023年量子计算的研发现状与未来展望
来源:AI科技评论
作者:杏花
编辑:青暮
从硬件、软件和算法以及各国政策等方面展现量子技术最新进展。
超导量子计算过去宣称实现的量子霸权在最新的获得戈登贝尔奖被宣告打破,但谷歌和IBM依然在这一领域有着雄心勃勃的计划。
离子阱则凭借高保真的量子比特,在稳步前行,探索多样化的技术路线;中性原子与之类似,但具有更好的可扩展性,这也是离子阱一直无法与超导量子比特相比的地方。硅量子点作为硅基技术的自然进阶,2021年也实现了目前为止最低的量子噪声。
2021年表现最为亮眼的当属光量子比特,“九章二号”实现了比全球最快超算快10^24倍的计算速度,达成“量子计算优越性”里程碑。下一步,中科大团队已经开始朝量子纠错进发,而量子纠错正是量子计算机迈向实用的一大障碍。
以上技术路线都要求接近绝对零度的环境,而金刚石NV色心可以在环境温度下工作,在快速落地上也被寄予厚望,比如生物医疗等领域就出现了颇为可喜的进展。
2021年至今,全球量子计算的当下现状如何,形成了什么局面,未来会如何发展?且看本文从硬件、软件和算法以及各国政策等方面展现的量子技术最新进展。
1
量子计算简介
量子计算是一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式。在理解量子计算的概念时,通常将它和经典计算相比较。
经典计算使用二进制进行运算,每个计算单元(比特)总是处于0或1的确定状态。量子计算的计算单元称为量子比特,它有两个完全正交的状态0和1。
同时,由于量子体系的状态有叠加特性,能够实现计算基矢状态的叠加,因此不仅其状态可以有0和1,还有0和1同时存在的叠加态,以及经典体系根本没有的量子纠缠态,即在数学上的多量子比特体系波函数不能进行因式分解的一种状态。
一台拥有4个比特的经典计算机,在某一时间仅能表示16个状态中的1个,而有4个量子比特的量子计算机可以同时表示这16种状态的线性叠加态,即同时表示这16个状态。
随着量子比特数目的递增,一个有n个量子比特的量子计算机可以同时处于2^n种可能状态的叠加,也就是说,可以同时表示这2的n次方数目的状态。
在此意义上,对量子计算机体系的操作具有并行性,即对量子计算机的一个操作,实现的是对2的n次方数目种可能状态的同时操作,而在经典计算机中需要2的n次方数目的操作才能完成。因此,在原理上,量子计算机可以具有比经典计算机更快的处理。
量子计算机
经典计算机体积缩小和性能提升来源于计算机芯片集成度的提高。随着计算机元器件从电子管到晶体管再到大规模集成电路的快速发展,如今的计算机可以薄如一张纸,运算速度也能很好地满足需求。
然而,大数据和互联网时代的来临以及人工智能的发展,使得经典计算机的能力越来越不能满足海量数据处理的需求,目前主要有两个方面制约经典计算机发展:能耗问题和芯片高集成化的极限。
1961年,IBM的RolfLandauer提出了信息和能量的方案,这就是著名的Landauer原理:每删除一比特的信息,需要消耗一定的能量。消耗的能量随后会成为热量,因此散热问题是制约芯片集成化程度的一个重要问题。若要解决热量耗散问题,则必须在计算过程中采用可逆计算避免信息的擦除。
同时,经典体系与量子体系服从不同的规律,经典计算机无法满足量子体系的计算需要。现在对量子体系的计算都是在经过大量简化后才得以进行。因此,物理学家RichardPhillipsFeynman提出使用量子计算机进行量子模拟。
再者,微处理芯片的密度日趋极限,其中晶体管的密度越来越大,每个晶体管的体积越来越小,已经接近物理上所允许的极限,摩尔定律失效。当晶体管只由少数原子组成时,经典物理学规律不再适用,量子效应将导致晶体管无法正常工作。基于以上原因,量子计算机概念被提出。
从应用范围的角度,量子计算机可分为通用量子计算机和专用量子计算机。通用机用于解决普遍问题,需要上百万甚至更多物理比特,并具备容错能力、以及各类软件算法的支撑,其实用化将是长期渐进过程。专用机用于解决特定问题,只需相对少量的物理比特和特定量子算法,实现相对容易且存在市场价值。业内专家预测,未来五年左右量子专用机有可能在模拟、优化等领域率先取得突破。
量子计算应用领域
目前普遍预测量子计算有望在以下三个场景较早落地。第一个领域是模拟量子现象,量子计算可以为蛋白质结构模拟、药物研发、新型材料研究、新型半导体开发等提供有力工具。生物医药、化工行业、光伏材料行业开发环节存在对大量分子进行模拟计算的需要,经典计算压力已经显现。
第二个领域是人工智能相关领域。人工智能对算力需求极大,传统CPU芯片越来越难以胜任。通过开发新的量子算法,构建优秀的量子机器学习模型,促进相关技术的应用。
第三个领域是密码分析。加密和破译密码是历史长河中的不间断主题。量子计算破译了RSA等公开密钥体系,而密码学家又构造了新的公开密码体系,而现在的密码体系的绝对安全性还没有得到证明。
因此,基于算法的密码体系的安全性一直受到可能被破译的威胁。开展密码破译具有重要的战略意义和实际应用价值。应对量子计算对通信安全攻击的另外一种手段是量子保密通信,主要包括量子密钥分发、量子直接通信。
自量子计算机概念提出,科学家就开始致力于研制量子计算机的物理实体。至今已经提出了多种可能实现通用量子计算的物理平台,如超导量子计算机、离子阱量子计算机、固态核自旋量子计算机和拓扑量子计算机等等。这些物理平台各有优势和缺点,一些方案已被淘汰,而大浪淘沙后剩下的几种主要方案,如超导量子计算、离子阱量子计算、中性原子量子计算等等近年来发展较快。
2
量子计算机硬件进展
实现量子计算的物理平台要有编码量子比特的物理载体,使不同量子比特之间可以可控地耦合,并对噪声环境影响有一定的抵抗力。目前研发的主要方案有超导、离子阱、中性原子、硅量子、光量子和金刚石色心等。
超导量子计算
超导量子计算利用超导系统的量子态实现量子计算。它的优点是与现有的半导体工业技术兼容,但是,超导量子系统工作对物理环境要求较高,需要超低温。许多科研机构和国际大公司采用这一系统,如谷歌、IBM等。
谷歌:在持续重金投入量子计算多年以后,2018年3月,谷歌宣布推出72量子比特超导量子计算机,他们发布的主要指标是单比特操作的误差是0.1%,双比特门操作的误差是0.6%。
2019年10月,谷歌在《自然》上发表一篇文章,称其开发出一款54量子比特数的超导量子芯片 Sycamore。基于该芯片,谷歌对一个53比特、20深度的电路采样一百万次只需200秒。而目前最强的经典超级计算机Summit要得到类似的结果,则需要一万年。基于这一突破,谷歌宣称其率先实现了「量子霸权」。
在今年的量子夏季研讨会上,谷歌再次强调了其计划的连续性,并概述了他们计划在2029年前建立一个拥有100万个物理超导量子比特的「小型」FTQC的里程碑。虽然谷歌首选的可调谐量子比特和快速逻辑门提供了极大的灵活性和性能,但是Sycamore53Q设备的校准显然是一个挑战。
有了额外的控制,就需要在芯片上和芯片外路有额外的控制线。缩放比例会自动增加布线的挑战和元件数量与总体故障率之间的关系。此外,谷歌在2020年报告的大部分工作都使用了Sycamore的23Q配置,因为自动校准最初无法在较大的设置中提供可接受的2Q门性能。谷歌将材料研究作为提高量子比特相干时间的一种方法。尽管前景很好,但这需要科学的进步,而不仅仅是工程上的进步。
值得一提的是,2021年11月18日,中国团队在2021戈登贝尔奖上夺冠,获奖应用超大规模量子随机电路实时模拟(SWQSIM),可在304秒内得到百万更高保真度的关联样本,在一星期内得到同样数量的无关联样本,打破谷歌所宣称的「量子霸权」。参见:2021戈登贝尔奖揭晓!中国超算应用一举夺冠,打破谷歌所谓“量子霸权”!
谷歌路线图:从现在到2029年:102Q(逻辑量子比特原型)、103Q(一个逻辑量子比特)、104Q(可平铺逻辑模块)、105Q(工程扩大)、106Q(纠错量子计算机)。通过表面代码协议进行错误纠正。
图注:谷歌路线图
IBM:IBM很早就开始为其路线图打下基础。2016年,IBM推出5个量子比特的超导量子计算平台,打破了从1998年以来超导量子比特体系研究一直徘徊在2个量子比特的局面,开启了国际上量子计算机研发的第二次高潮。2017年11月,IBM宣布研制成功50量子比特的量子计算机原理样机,并在2018年初的CES大会现场展示。
IBM是推动教育更广泛的社区先行者,重要的不仅是量子比特数量,还有量子比特连接、门集和可实现的电路深度。基于这些属性,IBM引入衡量量子计算机性能的指标——量子体积(QV)。2017年以来,IBM已交付了28款性能稳步提高的系列设备。每年QV翻一番的既定目标,他们在过去一年中实现两次。
2021年11月15日,IBM推出全球首个超过100量子比特的超导量子芯片——Eagle,该量子芯片拥有127个量子比特,采用了全新的芯片架构,基于IBM之前公布的六边形量子芯片,堆叠了多层芯片,但减少了之间的链接,链接越少,干扰就越少,这是量子计算机研发中的重要难点之一。
目前的Eagle量子芯片实现了127量子比特,但还只是个开始,IBM计划在未来两年中分别推出433量子比特的Osprey芯片及112量子比特的Condor芯片,届时他们量子芯片将实现量子霸权。
IBM路线图:2021年127Q(Eagle)、2022年433Q(Osprey)、2023年1121Q(Condor),从而形成100万量子比特的大规模系统。通过颜色代码协议进行纠错。
图注:IBM路线图
至于国内进展,中国科学技术大学潘建伟团队研制出66比特的可编程超导量子计算原型机祖冲之2.0,通过操控其上的56个量子比特,在随机线路采样任务上实现了量子计算优越性,所完成任务的难度比Sycamore高2—3个数量级。前段时间,潘建伟研究团队又有了新的进展,通过操控其上的60个量子比特,祖冲之2.1 所完成任务的难度比祖冲之2.0又高出了3个数量级。
离子阱
离子阱体系的优势在于其有较好的封闭性,退相干时间较长,制备和读出效率较高,离子阱体系在一定程度上可以满足量子计算机的多个条件,而可扩展性问题是基于离子阱系统的量子计算的主要障碍。国际上开发该系统的研究组有霍尼韦尔、IonQ等等。
霍尼韦尔:2020年,霍尼韦尔成为第一个用其6QH0和10QH1处理器达到QV64和QV128的厂商。有些人可能会想,10Q处理器怎么能声称自己和IBM的27Q处理器一样强大呢?这恰恰凸显了离子阱研究者长期以来所阐述的两个优势:与超导量子比特方法相比,它有优越的连接性和更高的门保真度。这两个优势可以保证更高的QV。霍尼韦尔处理器也是首款实现中间电路测量的处理器,进一步提高了灵活性。
霍尼韦尔路线图(不同的量子比特布局):2020-2030年,H1(线性离子阱),H2(跑道布局),H3(网格布局),H4(集成光学元件),H5(大规模平铺)。
图注:霍尼韦尔路线图
IonQ:2018年12月,IonQ推出了一个离子阱体系量子计算机原型系统,其主要技术指标如下:量子比特数目方面,最多可以加载160个量子比特,能够进行单个比特操作的是79个量子比特,能够进行双比特操作的是11个量子比特。可编程量子计算方面,实现了5个比特的可编程计算,在5比特上实现了4种量子算法。
2020年,IonQ宣布了一款32Q设备,他们希望获得比以前高得多的QV,尽管他们现在更喜欢谈论一种新的衡量指标——算法量子比特(AQ)。算法量子位比特(AQ)——IonQ定义为可用于计算的有效量子比特的数量(注意:可用逻辑门深度仍有限)。在没有纠错编码的情况下,AQ=log2(QV)。
图注:IonQ路线图
离子阱系统的一个缺点是,与超导量子比特相比,它们提供的门速度要慢得多(通常慢100到1000倍)。他们希望通过更长的量子比特寿命和更高的保真度来弥补这一点,从而减少纠错成本。
IonQ相信,高保真的物理量子比特足以使得离子阱比其他方法更快实现量子优势。对于离子阱系统而言,真正的长期挑战是再次扩大规模,尤其是在它们依赖精细调谐的激光系统来驱动其高保真量子比特门的情况下。就像超导量子比特方法不同一样,离子阱也不尽相同。
例如,奥地利公司AQT,他们没有使用霍尼韦尔和IonQ使用的在超精细跃迁上定义的量子比特,而是使用在光学跃迁上定义的量子比特。虽然保真度稍低,但这种量子比特的工作波长是集成光子组件易于制造的波长,因此有望实现更容易的扩展。2020年,这种集成设备在实验室中以这些波长进行了演示。AQT与欧洲量子技术(QT)旗舰计划、AQTION合作,首次构建完整的「机架系统」。
其他离子阱初创公司的目光也不再局限于激光驱动的门。UniversalQuantum、NextGenQ和QT旗舰计划的MicroQC正在寻求将远场微波门带出实验室,并应用到商业设备。与激光驱动门的许多关键性能记录密切相关的ChrisBalance和ThomasHarty,已选择以自己的初创公司作为基础,建立近场微波门,如OxfordIonics。
离子阱架构通常使用模块之间的光子互连进行扩展。最近已经出现了更快的互连,但似乎仍然是一个性能瓶颈。另一方面,UniversalQuantum已经证明他们的离子穿梭方法原则上可以提供类似于全连接的QV。
中性原子
中性原子又叫作冷原子,因为它使用激光冷却和高度真空来达到毫开(mK)的温度,远低于低温冷却的范围。该技术与离子阱有许多相同的特性,它们的优点是中性原子可以被包裹得更紧密。这意味着可以更快地扩展到1000Q模块。
ColdQuanta是采用这种方法的知名公司,已经推出了QuantumCore作为一个基本单元,以瞄准许多量子领域的机会。它也是云上的量子物质系统Albert的基础。ColdQuanta已经被DARPA(美国国防高级研究计划局)选中,作为ONISQ计划的一部分,参与1000Q处理器的开发工作,该奖项的价值高达740万美元。
ColdQuanta路线图:到2021年达到100Q,到2022年达到300Q,到2024年达到1000Q。其他选择中性原子的公司还有QuEra、Paswal和AtomComputing等。
硅量子点
2020年,QuTech和新南威尔士大学(UNSW)在1K的温度下用金属氧化物半导体(MOS)量子点演示了量子比特操作。这有望成为一个操作和扩大设备规模明显更容易的机制,尽管在这些更高的温度下,相干时间和保真度是否具有竞争力仍有待观察。
澳大利亚初创公司SiliconQuantumComputing一直是硅量子比特的早期推动者。2020年,它宣布了其路线图的重点,放弃了MOS量子点,并加码了磷原子量子比特。这些设备使用超尖端制造技术,提供了超越传统CMOS技术的原子精度方法。
在描述SQC的制造技术时,其创始人MichelleSimmons指出不仅能够以原子精度设计量子比特,而且同样的技术可以在同一器件衬底内创建稳定、简单和原始的控制线路。2021年,他们报道了硅量子比特实现迄今为止最低的噪声。
2020年,加拿大初创公司PhotonicInc发表了早期的研究,承诺给硅量子比特「军械库」增加一个重要的新工具。这有望改善基于硅中T-centre缺陷的光子的界面。
光量子比特
中国的九章实验能够证明光量子比特可以实现比迄今为止在任何其他平台上实现的都要复杂的计算。九章通过实现一种被称为高斯玻色取样的算法来实现这点,成功构建了76个光子100个模式的高斯玻色采样量子计算原型机。在200秒的时间里产生的输出样本,声称世界上最强大的超级计算机Fugaku需要6亿年才能实现。它的复杂程度大大超过了Sycamore最初的量子优势(量子霸权)演示。
九章并非凭空而来。至少从2006年起,中国就一直在增加对量子技术的投资。2019年,潘建伟团队首次实现20个光子60个模式干涉线路的玻色取样量子计算。2021年10月,他们又宣布了一则令人激动的消息:量子计算原型机“九章二号”研制成功。这意味着我国已成为世界上唯一在两种物理体系达到“量子计算优越性”里程碑的国家。
与目前全球最快的超级计算机相比,“九章二号”求解高斯玻色取样数学问题要快10的24次方倍(亿亿亿倍)。陆朝阳教授解释称,团队把之前九章光量子计算机的光子增加至113个,从而实现质的飞跃,“我们主要有三大突破,首先显著提高了量子光源的产率、品质和收集效率,将光源关键指标从63%提升到92%。其次,将多光子量子干涉线路从100维度增加到144维度,操纵的光子数从76个增加到113个。第三,新增了可编程功能”。
图注:“九章二号”整体装置图
潘建伟院士表示,团队的下一步任务是实现量子纠错,并在这个基础上,借助一些专用的量子计算机或量子模拟机解决一些具有重大应用价值的科学问题。
金刚石NV色心
金刚石NV色心可以在环境温度下操作,虽然灵敏度不高,但却可以实现小型化,并且其毒性质使其特别适合现场生物测量。Qnami受益于量子技术旗舰项目ASTERIQS的参与。该项目的合作伙伴还包括泰雷兹集团、博世、NVision和比利时微电子研究中心,他们各自在金刚石技术上寻求不同的应用。
HP-MRI是一种先进的核磁共振诊断技术,可以追踪注入人体的糖分并显示糖分变成什么。例如,在报告胸痛的患者中区分有生命或无生命的心脏组织时很有用。但是,由于生产该方法消耗的超极化分子缓慢且昂贵,因此该技术未被广泛采用。使用金刚石NV色心有望实现更快、成本效益更高且可部署的解决方案。
量子技术旗舰项目MetaboliQs正在寻求开发基于NV金刚石的HP-MRI技术。他们最近从概念验证转变为性能提高了1000倍的原型。政府计划将在加速该技术适应各种应用方面发挥重要作用。
3
量子计算软件进展
软件是连接人与机器的桥梁,通过软件才能发挥机器的作用。在数字革命中,软件被认为是至关重要的商业竞争领域,许多人期望在新的量子革命中同样如此。各种各样的参与者正在研究不同的策略。如今,早期的量子社区和生态系统已经初步形成。
量子计算云服务
IBMQ:过去四年中,IBMCloud上部署了28个量子计算系统,其中8个系统的量子体积达到32。IBMQNetwork拥有115家客户、政府、初创企业、合作伙伴及高校成员。IBMQuantumExperience注册用户数超过25万,用户定期通过IBMCloud在IBM量子系统运行电路超过10亿。研究人员利用IBM量子系统已发表250多篇学术论文。IBM用于商业的量子计算机服务IBMQ取得了阶段性的成功。
当其他竞争者开始建立自己的量子社区时,IBM也不例外。他们指出在不断发展的供应商生态系统中,可以提供与Qiskit兼容的库和工具,而不只是IBM硬件。2021年11月1日,IBM提出了一个度量量子性能的新指标-CLOPS(CircuitLayerOperationsPerSecond),称之为每秒线路层操作数,即衡量处理器可以执行与用于测量量子体积的相同类型的参数化模型线路层的速度。
除IBM外,D-Wave 在2018年10月推出了Leap云平台,基于D-Wave量子退火处理器提供量子计算云服务。量子计算先驱 RigettiComputing 推出了Rigetti量子云服务(QCS),一个利用Rigetti的混合量子及经典方法开发和运行量子算法的完整平台。
量子优势是使用量子计算技术解决重要或有价值的业务问题。最近,越来越多实力雄厚的量子公司开始投入量子云服务平台的研发当中。亚马逊AWS发布量子计算服务Braket,此外,AWS还将启动AWS量子计算中心和亚马逊量子解决方案实验室,推动更多量子计算的合作。
高性能模拟器
对于量子开发来说,高性能模拟是关键一环。随着要模拟的量子比特数量增加,量子模拟器的开发迫在眉睫。IBMQuantum支持一系列离线和在线模拟器。谷歌的高性能开源量子电路模拟器Qsim已证明能在111秒内在一个谷歌云节点中以14栅极深度模拟一个32量子比特量子电路。AmazonBraket和AzureQuantum则非常重视灵活配置传统云硬件以满足用户需求的能力。AmazonBraket提供完全托管的高性能张量网络模拟器(TN1),这种基于张量网络的电路模拟器可以支持高达50个量子比特的量子计算模拟。
Atos是数字化转型的全球领导者,同时也是第一个成功模拟量子噪声的公司。其开发的量子模拟器Atos量子机器学习机(AtosQLM)被称为世界上性能最好的商用量子模拟器,该模拟器将高功率、超紧凑的机器与通用编程语言相结合,使研究人员和工程师能够开发和试验量子软件。Atos已在奥地利、丹麦、法国、德国、荷兰和美国等国家安装了量子学习机,量子模拟器能够模拟多达40个量子比特。
国内云产品目前强调研发量子计算模拟器。华为的HiQ2.0(出于监管原因仅在亚洲使用)最多可模拟42量子比特。阿里巴巴的AC-QDP声称即使在50量子比特时也可用于某些应用。本源量子最近通过访问6比特量子处理器之一(计划扩展到24比特,正在进行中)推出了基于真实量子计算机的云。
量子编译器
与传统编译器相比,优化量子编译器是量子研发阶段的一大挑战。量子计算设备存在物理量子比特之间的有限连接,使得只能在有限的量子比特对上应用双门。现实世界中的量子设备是存在噪音的,但是可以研发一种用于表征大型量子计算机噪声的算法以解决这一问题。从技术上讲,我们实际上经常在谈论转码操作,因此互操作性是一个有用的功能。
编译器市场中出现了几个富有前景的方向,都是建立在深厚的专业知识基础上,这些专业知识在许多情况下是互补而不是竞争。随着在早期在量子硬件上实施纠错代码的竞争日渐激烈,编译器创新又将迎来新的浪潮。
量子操作系统
量子软件行业的前景令人印象深刻,但是在量子计算机硬件高速增长的今天,如果没有操作系统,量子计算机的实用性将会大打折扣。
Deltaflow.OS是一个新的全栈量子操作系统。由量子计算软件开发商Riverlane牵头的财团从英国政府获得760万英镑的拨款,用于部署高度创新的量子操作系统Deltaflow.OS。与其他旨在吸引早期用户的软件平台形成鲜明对比的是,Deltaflow.OS解决了一个非常重要的问题:实现硬件和软件的交互,并充分利用量子计算性能。为此,它提供了加速开发、低延迟以及在应用程序和控制层之间进行灵活交互的潜力。
Deltaflow.OS:量子处理器通常由常规主机处理器驱动。在这两者之间,设想一个由全局和本地控制节点组成的网络。Deltaflow.OS简化了将自定义代码获取到由FPGA实现的控制节点上的任务,强调了简化的指令集实现,这些实现更易于调试。这种方法有望缩短研发周期。它还使用分布式而不是分层的网络节点概念,并公开了整个量子计算堆栈的不同元素,这些功能有望最大程度地减少运行时的延迟。
Deltaflow.OS现已发布第一个版本,该版本与ARTIQ(一种流行的离子阱控制系统)集成为「Deltaflow-on-ARTIQ」。这是该公司开发支持量子计算的技术的最新里程碑,标志着Riverlane朝着构建高性能、可移植于所有量子比特技术、可扩展到数百万量子比特的量子操作系统的目标迈出了重要一步。
量子算法
随着IonQ和霍尼韦尔推出的量子技术新设备,人们也在努力探索量子计算的具体实现路径。QCWare在IonQ的11量子比特设备上展示了他们最近使用的质心算法和Forge数据加载器;Zapata建了企业级、量子赋能的软件,可以针对大量行业和用户,允许用户建立量子工作流,并在一系列量子和经典设备上自由执行;Rahko展示VQE和QML技术的有趣组合,在霍尼韦尔HS0量子计算机上发现了2Q和4Q分子的第一个激发态。
VQE(变分量子特征值求解算法):用于模拟化学反应过程——分子级电子能量的HartreeFock计算上。尽管所执行的计算也可以在经典计算机上运行,但该实验构建了许多用于量子化学模拟的关键构建模块,为实现针对化学问题的量子计算铺平了道路。
化学公式(Trotterisation):用于模拟8位1DFermi-Hubbard模型在材料科学中很受欢迎。令人惊讶的是,Google能够成功实现量子算法所需的量子电路深度接近500,比当前设备所期望的深度还要深得多。在多次化学量子模拟的情况下,Google展示基于N表示性的错误缓解决策,极大地改善了实验的有效保真度。
随机数和抽样:作为早期的量子计算服务产品,许多学者正在研究随机数。
▪可证明的随机数——Google报告了通过质询和响应协议提供随机数的进展。这是Google第一个用于商业领域的量子设备,主要缺点在于成本较高。
▪可验证的随机数——CQC展示如何使用现有的量子设备来实施基于云技术的QRNG服务。通过Bell测试,可验证产生的随机数来自量子源。beta版QRNG服务已可用于IBMQuantum网络。但在该协议中,用户仍然必须信任云服务提供商,因此该应用程序目前正在与其他拥有QRNG解决方案的公司进行竞争。
▪高斯玻色取样——九章提出了「量子优越性」这一定义,再次吸引了人们对高斯玻色取样的关注,并将其作为早期量子设备的候选算法。
伯克利的UmeshVazirani将经典密码学与量子领域进行结合,解决了量子计算中最根本的问题之一,即如果你让一台量子计算机为你执行一个计算,那么你如何确定它确实执行了你的指令,甚至如何得知它是否做了与量子相关的事情。
优化基准测试:早期的优化算法有QUBO和QAOA以及在传统硬件上运行的量子启发算法。BBVA已完成一系列针对金融领域应用的前期项目,其中包括初创公司MultiverseComputing和Zapata。BBVA与Multiverse的合作是动态投资组合优化的一个经典案例,该投资组合现在已用于各种早期量子硬件的评估中,包括对NISQ、量子退火解决方案和量子启发算法的测试。BBVA的结果表明,量子退火解决方案和量子启发算法可以很好地解决投资组合问题。
量子机器学习算法
许多人认为AI和机器学习是量子计算的关键。量子计算的未来,就像量子状态本身一样,仍然是不确定的。但量子计算的前景是光明的。
IBM的最新理论工作首次证明,即使仅访问经典数据,也可以在某些受监督的机器学习应用程序中实现指数级加速。QCWareQCWare开发了两种类型的数据加载器,即并行数据加载器和优化数据加载器,它们都将经典数据转换为量子状态以用于机器学习应用,而且还可以使用一种优化的距离估计算法。微软提出了一个普遍的观点,为避免「输入瓶颈」,应着眼于「小数据,大计算」。例如,CQC成立了一个团队来研究量子自然语言处理的相关问题。
迄今为止,量子机器学习的大部分成功的实验都采用了一种不同的方法,那些实验里量子系统不仅只是模拟了网络;它们本身就是网络,每个量子比特代表一个神经元。尽管缺乏指数化的力量,但是这样的装置可以利用量子物理学的其他特性。
4
全球竞逐量子信息技术高地
当前,量子技术研究已成为世界科技研究的一大热点,世界各主要国家高度关注量子信息技术发展,纷纷加大政策和资金支持,力争抢占新兴信息技术制高点。
欧盟
欧洲国家很早就意识到量子信息处理和通信技术的潜力。2014年英国已启动「国家量子技术计划」,计划投资超过10亿英镑建立量子通信、传感、成像和计算四大研发中心,推动产学研合作。2016年德国提出「量子技术——从基础到市场」框架计划,并预计投资6.5亿欧元。
2016年,欧盟推出的「量子技术旗舰计划」,并通过调整其他计划(例如其数字和太空计划)的支出,增加其可用资金,为实现未来的「量子互联网」远景奠定基础。2020年5月,欧盟「欧洲量子技术旗舰计划」官网发布了《战略研究议程(SRA)》报告。估计10年内欧盟在整个量子技术旗舰计划中的相关量子支出为30-40亿欧元。
「旗舰计划」——在拓展阶段,这个计划中的19个项目遍及量子计算、通信、模拟、传感和计量以及基础科学。2020年,这些项目通过了中期审查,同时启动了两个新项目——QLSI将硅自旋量子比特添加到已经成为目标的超导和离子阱量子比特的行列中;NEASQC专门针对NISQ应用程序,解决许多人认为缺乏软件重点的程序的平衡问题。
北美
加拿大在现代量子科学方面有着杰出的贡献,尤其是GillesBrassard1984年提出的著名的BB84量子密码协议。2002年,加拿大首创的量子计算研究所(IQC)在滑铁卢大学成立。在2008-2018年,量子科学和技术投资超过10亿加元。
2017年,加拿大国家研究委员会(NRC)发起了一个名为「QuantumCanada」的计划。对于加拿大来说,总部位于加拿大或与加拿大有紧密联系的知名量子公司的数量众多。例如D-Wave、Xanadu、1QBit、QuantumBenchmark、evolutionQ、Zapata和ISARA。其中,创意破坏实验室(CDL)一直是量子行业初创企业的标杆。
2020年,加拿大量子产业通过成立新的产业联盟,来巩固这一地位。2020年,温哥华的数字技术超级集群也宣布共同投资资金达1.53亿加元。
美国在量子科学方面的投资历史悠久,从20世纪90年代即开始将量子信息技术作为国家发展的重点,在量子相关学科建设、人才梯队培养、产品研发及产业化方面进行大量布局,联邦政府机构对量子计算领域的支持在每年2亿美元以上。近两年来,美国政府频繁参与量子计算布局。
2018年12月,美国政府正式颁布《国家量子计划法案》,制定长期发展战略,计划在未来5年向相关领域投入12亿美元研发资金。2019年2月,白宫发布未来工业发展规划,将量子信息科学视为美国未来发展的四大支柱之一。
2020年是美国国家量子倡议(NQI)计划的第二年,并且随着该计划的真正成形,人们也看到了量子科技发展的亮点。NQI将在2019-2023年支出13亿美元,大量私人资金也已投入其中,在美国国家科学基金会设立了3个新的量子飞跃研究所。这些以学术为主导的研究所将支持不同领域的研究。在美国能源部启动量子战略之后,美国国防部根据美国能源部的17个国家实验室的初始骨干网络,提出了量子互联网的战略蓝图。
中国
「五年规划」(尤其是2006年)以来,中国一直推动着科技领域的发展,中央和省级资金已经投入超15亿美元,中国科学技术大学已经成为世界上主要的量子研究中心。迄今为止,中国拥有全球最大的已部署QKD网络,并在先进空间量子通信技术方面继续保持世界领先地位。「墨子号」卫星和九章量子处理器是该计划成功的标志。
据官方媒体报道,到2022年,对量子科学领域的投资将达到近150亿美元(1000亿元人民币)。目前,正在建立量子信息科学国家实验室(NLQIS)的网络:
▪NLQIS合肥:将成为世界上最大的量子研究机构以及该计划的总部。将重点关注光子、金刚石NV色心和硅自旋量子比特技术以及量子通信和量子感测。
▪NLQIS北京:该分支将专注于理论、离子阱和拓扑量子比特。
▪NLQIS上海:该分支将专注于超导量子比特和超冷原子以及自由空间量子通信。
阿里巴巴、百度、腾讯和华为都在量子技术上进行了量子投资。国盾量子和本源量子是著名的创业公司。「十四五规划」详细介绍了该计划,计划将于2021年正式通过。一个关键概念是「双循环」,包括减少对外国高科技的依赖,同时增加对外国投资的开放度。同时,创新也是一个关键主题。
参考链接:
http://www.rmlt.com.cn/2021/0818/622293.shtml
https://news.mydrivers.com/tag/liangzijisuanji.htm
https://mp.weixin.qq.com/s/IuHO44NX6ietEfcklZ7MBA
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”
前瞻研究:电商领域人工智能发展与趋势
人工智能技术虽然还处在持续发展和创新的阶段,但也应认识到在人工智能与“电子商务”高速发展的背景下,传统零售行业正在经历翻天覆地的变化。现今,传统零售业与电子商务领域正在进行多方面的融合。人工智能赋能的电子商务领域解决方案和产品在近几年内争先落地,在零售业的各个环节中掀起狂风浪潮。
随着电子商务的普及,零售业内领先企业与初创公司都在试图整合前沿技术,进行电子商务领域人工智能技术应用落地的尝试以抢占新兴市场份额。在此背景下与人工智能相关的机器学习、计算机视觉、强化学习等技术已经在不同场景下逐步落地。
一、人工智能在电子商务领域的市场规模
电子商务领域主要是指基于互联网如淘宝、亚马逊、京东等的多维度商品销售平台,或者如特斯拉、耐克、Casper品牌直接运营的网络门店。受益于数字化与人工智能技术的发展,近年来电子商务领域的运营成本正在逐年下降,并且由于其低门槛的人人都可为商家的销售模式,电子商务扩展极其迅速。全球电商市场的销售额在2018年为2.8万亿美元,到了2021年能够增加75%,达到4.9万亿美元。其中中国是全球规模最大、最活跃的电商市场,B2C的销售额、消费者人数均占据全球第一。根据阿里研究院的报告不完全统计,有近80%的电子商务卖家使用过人工智能相关工具,而随着盈利的增加人工智能工具的使用频率也在日益增长。
图:人工智能电子商务领域工具商品门类使用率以及工具使用频率
二、人工智能技术在电子商务领域的应用
电子商务领域的人工智能应用目前集中于计算机视觉,自然语言处理和强化学习:
计算机视觉技术:在电子商务平台购物的过程中,产品照片的影响至关重要。无论是商家想要借助算法去设计产品的海报,还是根据顾客对于产品外观的品味推荐搭配的产品,计算机视觉技术的应用前景都非常广阔。
自然语言处理技术:在用户搜索时,为了更好地让用户找到匹配的商品,电子商务平台的搜索和排序算法中利用了大量自然语言处理技术来分析搜索的关键词和产品的文字介绍。尤其是针对突然出现并畅销的爆款产品,传统的排序算法无法快速地作出应对,自然语言技术能够更好地帮助客户找到他们想要寻找的商品。
强化学习技术:电子商务领域的一个重要指标是转化率,比如搜索的转化率、页面浏览的转化率、商品排序的转化率等,为了提升这些转化率,不少大的电商平台已经在借助强化学习技术来预测用户针对网页的反馈行为,从而更好地优化搜索和产品页面的排序。
三、人工智能技术在电子商务领域的应用场景
产品搜索:搜索是电商领域非常高频且重要的用户行为,用户为了找到心仪的商品,会通过关键词甚至实物图片进行搜索,其中关键词搜索和产品匹配涉及自然语言处理技术,而“以图搜图”的产品图片搜索依赖于计算机视觉技术;另一方面,在搜索结果的排序上,如阿里巴巴等大型电商平台也会基于强化学习技术进行排序的优化。个性化的推荐系统:除了搜索,用户也会浏览网站的页面去挑选产品,因此电商平台通常会推出诸如“猜你喜欢”、“相关产品”、或者“别人也在看”这些功能来向顾客推荐更多相关的产品。这些结果都是基于机器学习算法学习用户过往的浏览和购买行为,个性化地为他们推荐相关的产品。
动态定价:市场的供需关系总是在动态变化,而基于供需关系的定价也会受到影响,电商需要根据实时的库存、顾客购买的需求之间的平衡进行价格的调整,才能最大化自己的利益。基于这一需求,不少电商平台会基于机器学习算法和自身的数据进行动态的产品定价,从而实时针对现在甚至未来的供需关系进行商品价格调整。
欺诈风险控制:电商平台是信用卡盗刷的重灾区,在信用卡普及的欧美市场尤其如此。盗刷者会递交大量的虚假订单,然后通过取消退款的方式获得现金。信用卡盗刷和欺诈对于电商平台的稳定运作产生恶劣的影响。因此电商平台也会通过机器学习技术预测和判断欺诈性的信用卡交易,及时阻止交易发生,从而控制平台上的风险。
其它场景:由于人工智能技术在电子商务领域的场景极为复杂,本报告仅基于所选人工智能技术案例有局限性的进行了场景划分,故并不包含人脸识别,活体验证等热门应用领域。
四、人工智能技术在电子商务领域应用代表案例
阿里巴巴:阿里巴巴自2014年起开始推出自行研发的以图搜图工具“拍立淘“,拍立淘主要被应用在阿里巴巴的国内电商平台淘宝网和海外电商平台全球速卖通中,帮助用户更便捷地通过照片搜索自己想要找的服装、配饰等产品,至今已拥有每日数千万用户。
Pinterest:Pinterest于2017年推出了以图搜图引擎VisualLens,如今每月达到6亿次搜索。Pinterest还将VisualLens产品化开放给合作的电商品牌,如美国著名零售商Target就将VisualLens整合到自己的电商平台中,使得顾客可以通过图片匹配Target数据库中的商品。
StitchFix:基于个性化推荐系统的时尚电商,利用用户的喜好和购买行为数据为用户提供一对一个性化的优质推荐。StitchFix于2017年上市,到2018年12月市值为18亿美元。
亚马逊:研究显示亚马逊自身以及第三方卖家在亚马逊线上市场(AmazonMarketplace)中通过算法实现大量的动态定价。100件随机挑选的商品在一年内的价格浮动可达260%,调整的频率也从五天一次到一天一次不等。对于第三方卖家来说,动态调价能够帮助他们获取更多被展现给用户看、从而获得更多订单的机会。
五、人工智能技术在电子商务领域应用的局限性
冷启动问题:推荐系统、动态定价等技术都需要基于大量的数据,对于新进入电商平台的用户、或是全新品类的商品,因为缺乏足够多的数据,难以受益于这些技术。
算法的可扩展性:强化学习在电商领域搜索、排序等方面的应用里遇到了瓶颈,主要在于这些问题中存在了太多的决策空间,目前缺乏有效的方式使得算法能够扩展到大量级的问题。
长尾效应:长尾效应在电商领域非常普遍,少数商品获得了绝大多数的购买和点击,而多数商品的数据则非常缺乏,这使得算法非常容易地针对热门商品进行过度拟合。
六、自然语言处理技术的未来发展趋势
数据驱动的个性化:基于用户数据的个性化推荐和搜索算法将在电商领域越来越普遍,不同的是,更加多维的用户数据将会被结合使用,包括用户的社交行为、职业、喜好、品味等数据都会被算法使用。
专家与算法结合(HumanintheLoop):像StitchFix这样将算法与人类专家结合的运营模式将更加普遍,通过算法和专家意见相互补足,帮助电商平台更好地设计商品和推荐。
与线下零售结合:像“以图搜图”这样的技术提供了打通线上电商和线下零售的入口,尤其是在时尚领域。用户可以在线下品牌体验店、时装走秀等场合发现和体验商品,通过“以图搜图”这样的技术了解商品的详细信息并立即下单。商家可以由此拓展和丰富顾客的购物体验。
*本文为「智周」系列报告「核心版」,相应「深度版」的推出计划将在后续公布,敬请大家关注。针对「电商领域人工智能发展与趋势」这一主题,有哪些方向或主题,你希望在报告深度版中读到更详细的阐述与分析,欢迎留言,这将成为我们制作报告深度版的重要参考。