博舍

深度:机器如何模仿人类的学习方式 人工智能可以模仿人的思维吗

深度:机器如何模仿人类的学习方式

导读:

古有算盘,今有计算机,人工智能(ArtificialIntelligence,AI)始终是人类永恒又美好的梦想。然而,漫漫的历史长河中人类前仆后继,虽然计算机技术已经取得了长足的进步,然而仍然没有一台机器产生真正的“自我”意识。谷歌大脑认出猫和狗,阿法狗打败了李世石,智能车拉着我们去兜风……尽管深度学习(DeepLearning)让AI在近期取得了诸多突破,但人工智能始终还是离不开“人工+智能”,离不开大量的人工标定数据去指导智能系统的学习。

ImageNet,COCO,Places,我们为了智能而不断人工,为了一劳永逸而不断地标定数据。然而,这并不是人类的最终梦想——不劳而获。直到Science封面文章BayesianProgramLearning(BPL,《Human-levelconceptlearningthroughprobabilisticprograminduction》),像人类一样学习的人工智能又引爆了人类曾经的梦想,GoogleDeepMind的新成果Memory-AugmentedNeuaralNetworks(MANN,《One-shotLearningwithMemoryAugmentedNeuaralNetworks》)让梦想又朝现实迈进了一步。

懒惰是人类社会进步的原动力,单点学习(One-Shotlearning)的目标是不劳而获。不同于传统机器学习方法需要大量数据去学习和反复的训练,One-Shot通过单一的训练样本去学习并做出准确的预测。然而,One-Shotlearning是一个永恒的挑战。由于现有的机器学习模型参数量庞大,小样本下很难在巨大的搜索空间中找到刻画本质属性的最优解。

因此当遇到新的任务(Task)时,传统学习算法只能通过新任务的大量样本低效率地去调整(finetuning)原有模型,以保证在杜绝错误干扰(CatastrophicInterference)的情况下将新信息充分涵括。BPL从认知科学的角度,基于贝叶斯过程模拟人类学习思路;MANN从神经科学的角度,基于记忆神经网络构造仿生学习模型。相比于贝叶斯过程学习(BPL),记忆增强神经网络(MANN)将One-shotLearning从应用驱动型推向数据驱动型,从已有数据出发去主动挖掘One-shotLearning的方法。通过关注存储内容的外部记忆机制快速吸收新知识,并且仅利用少数几个例子就可以从数据中做出准确预测。

一、人的学习—记忆与学习(Memory&Learning)

从神经科学的角度来说,学习(Learning)定义为将经验(Experience)编码进记忆(Memory)的过程。鱼的记忆只有7秒,没有记忆的学习不是智能,鱼永远是只能在水里游的鱼。学习形成了不同类型的记忆:形象记忆(以感知过的事物形象为内容),情绪记忆(以过去体验过的情感为内容),逻辑记忆(是以概念命题为内容),动作记忆(以操作性行为为内容)……记忆指导学习,学习增强记忆。人类从刀耕火种,婴儿从呱呱落地,“学习→记忆→学习”贯穿着社会与个体。对于社会,古书典籍让经验得到记忆;对于个体,大脑皮层让知识得到记忆。

人的学习过程中(如下图),大脑对外部环境进行感知,注意机制对感兴趣的信息保持关注;在工作记忆中,新知识在旧知识的基础上通过检索被快速建立起来;而后经过神经元的加工整理,形成难被遗忘的长时记忆。由此,人不断地从生活经验中建立并整合知识,从而学会处理日益复杂的任务。在持续不断的学习过程中,对以往知识检索利用,使得人们只需要少量的训练就能快速地学会新的任务。综上,一个真正的智能系统应具备以下两方面的作用:

(1)在长时记忆系统中建立一个可检索的知识库;(2)在交互过程中持续不断的整合更新知识库。

二、MANN——学会学习(LearningtoLearn)

埃德加•福尔在《学会生存》中指出:“未来的文盲不再是不认识字的人,而是没有学会怎样学习的人。”学会学习(LearningtoLearn)不仅仅是教育界面临的问题,也是机器学习中面临的问题:未来的智能不再是能干活的机器,而是学会怎样学习的机器。“学会学习”中的“学习”即为元学习(Meta-learning)。行为学意义上认为元学习是学习行为本身的改变;信息学意义上认为元学习是关于获取知识和经验的学习。人工智能意义上的元学习一般指的是一种迁移学习(TransferLearning)方案,通过已有的知识辅助新知识的学习,照着葫芦画瓢,照着猫画老虎。可规模化的元学习方案应满足以下两个要求:

(1)知识必须以稳定且可寻址的方式存储;(2)存储容量不与参数规模相关。

长短时模型(LongShortTermModel,LSTM)通过隐性的共享记忆结构,不完全地实现知识的存储。直到了神经图灵机(NeuaralTuringMachine,NTM)的出现,NTM引入带记忆的神经网络去模拟大脑皮质的长时记忆功能,实现用极少量新任务的观测数据进行快速学习。不同于传统神经网络,NTM(如下图)通过控制器(Controller)对输入输出(Input/Output)向量进行选择性地读写(Read&WriteHeads)操作,实现与外部记忆矩阵(Memory)进行交互。基于强泛化能力的深度神经网络架构,并综合长时观测的记忆模型与新观测的匹配信息对存储内容进行有效地更新。

相比于神经网络图灵机,记忆增强神经网络(MANN)提出了一种新读写更新策略——LRUA(LeastRecentlyUsedAccess)。有别于NTM由信息内容和存储位置共同决定存储器读写,MANN的每次读写操作只选择空闲或最近利用的存储位置,因此读写策略完全由信息内容所决定。这种更为灵活的读写策略更适用于时序无关的分类回归问题。MANN结合了更灵活的存储能力和强泛化的深度架构,实现知识的更为高效的归纳转移(Inductivetransfer)——新知识被灵活的存储访问,基于新知识和长期经验对数据做出精确的推断。

三、终极理想——终身学习(Life-longLearning)

活到老学到老,人的一生是学习的一生。终身学习(Life-longLearning)是一种能够存储学习过的任务知识,并能利用旧知识快速学习新任务的完整系统方案。相较于传统机器学习方法,终身学习凭借任务间的知识共享和知识库的知识积累,突破了学习过程在样本集和时间上的限制,为实现高效及高度智能化的系统提供可能。

一个终身学习系统包含以下基本组成部分,各模块间的相互作用共同实现“活到老学到老”。

(1)知识仓库(Memory)

记忆是智能的基础,终身学习系统期望充分利用已学过的知识辅助学习。知识仓库用于存储学习过程中需要长期存储的知识。其中可分为基础知识和抽象知识两类,分别支持知识从简单到复杂的纵向迁移,以及相关任务之间知识的横向迁移。

(2)任务队列(Controller)

任务队列考虑知识的学习顺序对系统的泛化能力与学习代价的影响。学习顺序设置对学习有着重要的影响,因此终身学习系统期望合理设置学习顺序以越快越好地进行学习,循序渐进,抛砖引玉。此外,高效的任务队列也为终身学习系统提供主动学习的可能,系统可以主动优先学习对关键任务。

(3)知识迁移(Read)

知识迁移是终身学习系统的基础。知识迁移从知识仓库中选择对新知识(目标领域,TargetDomain)有帮助的旧知识(源领域,SourceDomain)进行迁移。因此要求终身学习系统应具备有效度量并创造正迁移条件的能力,充分利用已经学到的任务知识,尽可能高效地学习新任务——迁移什么?如何迁移?何时迁移?

(4)知识整合(Write)

知识整合是终身学习系统中至关重要的环节,以保证知识仓库能得到及时的更新。取其精华,去其糟粕,知识在整合过程中,系统应对知识进行相应的筛选,在兼顾不损害原有知识的前提下,尽可能整合有利于迁移的新知识。

学海无涯,活到老学到老。人工智能之路漫漫,吾将上下而求索。

人工智能的三次浪潮与三种模式

■史爱武

谈到人工智能,人工智能的定义到底是什么?

达特茅斯会议上对人工智能的定义是:使一部机器的反应方式就像是一个人在行动时所依据的智能。

百度百科上对人工智能的定义是:它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。

尽管人工智能现在还没有非常严格准确或者所有人都接受的定义,但是有一些约定俗成的说法。通常人工智能是指机器智能,让机器达到人智能所实现的一些功能。人工智能既然是机器智能,就不是机械智能,那么这个机器是指什么呢?是指计算机,用计算机仿真出来的人的智能行为就可以叫作人工智能。

2017年7月,国务院印发了《新一代人工智能发展规划》。2017年12月,人工智能入选“2017年度中国媒体十大流行语”。这一国家级战略和社会流行趋势标志着,人工智能发展进入了新阶段,我国要抢抓人工智能发展的重大战略机遇,构筑人工智能发展的先发优势,加快建设创新型国家和世界科技强国。

人工智能的三次浪潮

自1956年开始,人工智能经历了三起三落,出现了几次浪潮,现在人工智能已经是处于第三次浪潮了。

第一次浪潮(1956-1976年,20年),最核心的是逻辑主义

逻辑主义主要是用机器证明的办法去证明和推理一些知识,比如用机器证明一个数学定理。要想证明这些问题,需要把原来的条件和定义从形式化变成逻辑表达,然后用逻辑的方法去证明最后的结论是对的还是错的,也叫做逻辑证明。

早期的计算机人工智能实际上都是沿着这条路在走。当时很多专家系统,比如医学专家系统,用语言文字输入一些症状,在机器里面变换成逻辑表达,用符号演算的办法推理出大概得了什么病。所以当时的主要研究都集中在逻辑抽象、逻辑运算和逻辑表达等方面。

在第一次浪潮中,数学定理证明实际上是实现效果最好的,当时有很多数学家用定理思路证明了数学定理。为了更好地完成定理证明工作,当时出了很多和逻辑证明相关的逻辑程序语言,比如很有名的Prolog。

虽然当时的成果已经能够解开拼图或实现简单的游戏,却几乎无法解决任何实用的问题。

第二次浪潮(1976—2006年,30年),联结主义盛行

在第一次浪潮期间,逻辑主义和以人工神经网络为代表的联结主义相比,逻辑主义是完全占上风的,联结主义那时候不太吃香。然而逻辑主义最后无法解决实用的问题,达不到人们对它的期望,引起了大家的反思,这时候人工神经网络(也就是联结主义)就慢慢占了上风。

在70年代末,整个神经元联结网络、模型都有突飞猛进的进步,最重要的是BP前馈神经网络。1986年BP前馈神经网络刚出来的时候解决了不少问题,后来大家往更大的领域应用,实现了比较大的成果。在很多模式识别的领域、手写文字的识别、字符识别、简单的人脸识别也开始用起来,这个领域一下子就热起来,一时之间,人们感觉人工智能大有可为。随后十几年人们发现神经网络可以解决一些单一问题,解决复杂问题却有些力不从心。训练学习的时候,数据量太大,有很多结果到一定程度就不再往上升了。

这时期所进行的研究,是以灌输“专家知识”作为规则,来协助解决特定问题的“专家系统”为主。虽然有一些实际的商业应用案例,应用范畴却很有限,第二次热潮也就慢慢趋于消退。

第三次浪潮(2006—现在),基于互联网大数据的深度学习的突破

如果按照技术分类来讲,第二次和第三次浪潮都是神经网络技术的发展,不同的是,第三次浪潮是多层神经网络的成功,也就是深度学习取得突破。这里既有硬件的进步,也有卷积神经网络模型与参数训练技巧的进步。

若观察脑的内部,会发现有大量称为“神经元”的神经细胞彼此相连。一个神经元从其他神经元那里接收的电气信号量达某一定值以上,就会兴奋(神经冲动);在某一定值以下,就不会兴奋。兴奋起来的神经元,会将电气信号传送给下一个相连的神经元。下一个神经元同样会因此兴奋或不兴奋。简单来说,彼此相连的神经元,会形成联合传递行为。我们透过将这种相连的结构来数学模型化,便形成了人工神经网络。

经模型化的人工神经网络,是由“输入层”“隐藏层”及“输出层”等三层构成。深度学习往往意味着有多个隐藏层,也就是多层神经网络。另外,学习数据则是由输入数据以及相对应的正确解答来组成。

为了让输出层的值跟各个输入数据所对应的正解数据相等,会对各个神经元的输入计算出适当的“权重”值。通过神经网络,深度学习便成为了“只要将数据输入神经网络,它就能自行抽出特征”的人工智能。

伴随着高性能计算机、云计算、大数据、传感器的普及,以及计算成本的下降,“深度学习”随之兴起。它通过模仿人脑的“神经网络”来学习大量数据的方法,使它可以像人类一样辨识声音及影像,或是针对问题做出合适的判断。在第三次浪潮中,人工智能技术及应用有了很大的提高,深度学习算法的突破居功至伟。

深度学习最擅长的是能辨识图像数据或波形数据这类无法符号化的数据。自2010年以来,Apple、Microsoft及Google等国际知名IT企业,都投入大量人力物力财力开展深度学习的研究。例如AppleSiri的语音识别,Microsoft搜索引擎Bing的影像搜寻等等,而Google的深度学习项目也已超过1500项。

深度学习如此快速的成长和应用,也要归功于硬件设备的提升。图形处理器(GPU)大厂英伟达(NVIDIA)利用该公司的图形适配器、连接库(Library)和框架(Frame⁃work)产品来提升深度学习的性能,并积极开设研讨课程。另外,Google也公开了框架TensorFlow,可以将深度学习应用于大数据分析。

人工智能的3种模式

人工智能的概念很宽泛,根据人工智能的实力可以分成3大类,也称为3种模式。

(1)弱人工智能:擅长于单个方面的人工智能,也叫专业人工智能。比如战胜世界围棋冠军的人工智能AlphaGo,它只会下围棋,如果让它下国际象棋或分辨一下人脸,它可能就会犯迷糊,就不知道怎么做了。当前我们实现的几乎全是弱人工智能。

(2)强人工智能:是指在各方面都能和人类比肩的人工智能,这是类似人类级别的人工智能,也叫通用人工智能。人类能干的脑力活,它都能干,创造强人工智能比创造弱人工智能难得多,目前我们还做不到。

(3)超人工智能:知名人工智能思想家NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”。超人工智能可以是各方面都比人类强点,也可以是各方面都比人类强很多倍。超人工智能现在还不存在,很多人也希望它永远不要存在。否则,可能像好莱坞大片里面的超级智能机器一样,对人类也会带来一些威胁或者颠覆。

我们现在处于一个充满弱人工智能的世界。比如,垃圾邮件分类系统是个帮助我们筛选垃圾邮件的弱人工智能;Google翻译是可以帮助我们翻译英文的弱人工智能等等。这些弱人工智能算法不断地加强创新,每一个弱人工智能的创新,都是迈向强人工智能和超人工智能的进步。正如人工智能科学家AaronSaenz所说,现在的弱人工智能就像地球早期软泥中的氨基酸,可能突然之间就形成了生命。如世界发展的规律看来,超人工智能也是未来可期的!

人工智能模拟蚂蚁(人工智能模仿)

导读人工智能模仿人工智能(ArtificialIntelligence),英文缩写为AI,是指由人工制造出来的,并由电脑系统所表现出来的智能,是模拟和扩展…人工智能模仿

人工智能(ArtificialIntelligence),英文缩写为AI,是指由人工制造出来的,并由电脑系统所表现出来的智能,是模拟和扩展人类智能的理论、技术及应用系统的一门新的技术科学。20世纪70年代以来与空间技术、能源技术并称为世界三大尖端技术,也被认为是21世纪三大尖端技术(基因工程、纳米科学,人工智能)之一。人工智能的传说可以追溯到古埃及,但随着20世纪以来电脑技术的飞速发展,人工智能已不再是传说,人们已最终可以创造出机器智能。人工智能一词最初是在1956年达特茅斯大学学会上提出的,从那以后,研究者们发展了众多理论和原理,人工智能的概念也随之扩展,科学对其的研究也开始快速发展。

人工智能模仿人类大脑

1、人工智能是“被”制造出来的。它的局限性,在于人。

2、大脑智慧经过几百万年的发展,是人类还是一个海中生物的时候,就已经在发展了。它形成和机制,是人工智能不能重走和模仿的。

3、人类大脑的智能在于“个性”。大脑内部塑造”性格“,塑造”行为“的模式是随环境刺激可变化的东西。人工智能对于环境刺激可以发生程序变化,但永远无法形成这种永久的”性格“和”个性烙印“

4、人类智能是一个需要亿万细胞,协作,产生化学反应,电流刺激的自然产物。人工智能是一个程序,软件,芯片”设计“的”纯“电流反应。即使是1岁的大的婴儿的吃饭能力,学习认识世界的能力,也是人工智能所无法模拟的。

人工智能模仿人类不能局限于

不会,

一、只能取代一部分人类劳动

分析认为,卡车司机、秘书、收银员、银行柜员、作家、房地产经纪都属于高危行业,这些岗位在短期内都有可能被自动化所取代。

二、人工智能还不够成熟

人工智能完全成熟需要时间打磨。技术人员需要不断改善人工智能的算法;更重要的是,人工智能做到模仿人类思维必然有一个学习的过程,而绝大多数的学习过程是通过人类训练而进行的。

目前各大科技公司开发人工智能的时间还不够长,相应的系统学习也没有那么成熟,可以说是相当于几岁或者十几岁少儿的水平,让这样的系统承担成人才能做的工作,可能超出了目前系统的承担能力。

三、人工智能也会被欺骗,人工智能还不能明辨是非

黑客入侵系统对于人工智能是个显而易见的威胁。作为以各种算法为基础的系统,一定存在被黑客攻击的可能。

黑客目前可能最常用的攻击手段就是欺骗人工智能。近期的各种电信诈骗告诉我们人类本身也不是时刻都保持聪明,对于缺乏完全思维能力的人工智能更是如此。在这方面,黑客把欺骗手段可以玩出花样。

人工智能模仿人类不能局限于模仿人类自然维度

连霍金老爷子都说过让我们小心人工智能,那么人工智能真的有那么可怕吗?现在的ai智能芯片已经可以学习我们使用计算机的习惯,尤其是在一些领域人类确实已经不如人工智能了,比如连战连胜的AlphaGo,接下来我们讨论一下人工智能的相关内容。

首先来了解一下人工智能的定义,简单点来说人工智能就是使用计算机模拟、开发、提升人类智能的科学,人工智能有两个特点,一是人工,人工智能一定是由人制造出来的,第二个就是智能了,人工智能要学会分析各种复杂的算法。

对于人工智能是否能达到有意识的阶段我们先不谈,毕竟就目前的技术来说还离我们还有很远的距离。

说道人工智能取代人类,我首先想到的攻壳机动队和阿基拉,这两部动画电影首次让我们在荧幕上看到人工智能发展的结果,一直到后来的银翼杀手其实我们一直都在思考人工智能和人类的关系,以及人工智能在未来扮演的身份是怎样的。

通过电影我们可以看到人工智能在不断的升级过程中渐渐有了意识,但就像人类一样人工智能也在思考自己和人类的关系。

根据摩尔定律,计算机每隔18个月性能就会翻一番,所以计算机的成长速度是非常快的,这样看来计算机可以取代人类的说法也非常可信。就像AlphaGo在学习了短短几个月的时间就没有了对手。

但是我们不要忽视人的创新性,虽然在巨量的数据处理面前我们没有办法和机器相比,但是在创新性上目前的人工智能还达不到我们这个水平,计算机的学习主要是靠大数据来判断事物的发展情况。

对于如何像大脑那样把不同的事物建立微妙的联系,计算机还做不到,所以总的来说人工智能的创新性很低,虽然它很智能,但它也只能接触历史数据上有过的东西,对于如何创造开发新的东西人工只能还无法到达人类的高度。

就目前的人工智能来说,还处于初步发展阶段,要想达到有意识的阶段还要很长的时间。毕竟意识这个东西是非常主观的,一千个人有一千种意识,况且意识没有完美一说,人类尚且不能很好的辨别是非,更不要说人工智能了。

总的来说人工智能一定会在某些领域取代人类,比如制造业这种劳动密集型产业,但是在艺术创作和教育等领域人工智能还是取代不了人类的,至少很长的一段时间是这样。

我们从来都不反对技术,但对于技术要理性的看待,人工智能是人类科学技术发展的产物,代表了人类的科技发展水平,对于人工智能是否能取代人类,各位就见仁见智了,但我认为人工智能无论发展如何永远是在模仿人类,对于一个模仿者我们没有必要猜测它是否会取代我们。

人工智能模仿思维运行机制

人工智能的出现,目前只可能代替人类的逻辑思维。

因为当人类意识之谜尚未破解之前,人工智能是不可能真正成为人类的思维一部分的。

首先思考的过程就包括了理性思考和感性思考两个部分混合而成,难道你认为人工智能具有人类这样强大的感性思考吗?

第二,就是感性思考会在思考过程中扰乱思考的目的或者过程,即使人工智能拥有远超过人类的智力,但是不具有感性思考,那就不算思考,不过是计算而已.一旦它具有感性思考能力,它的理性思考就会被限制,明白没?

第三,无论人工智能具有多么强大的知识学习能力,但是知识在人类生活中起到的是工具的作用,再好的工具,它不会用也是没用.

人工智能模仿笔迹

属于领先的梯队。

在“2021人工智能分类排行”中,人脸识别领域汉王科技排在第13位。汉王科技股份有限公司成立于1998年,作为国内人工智能产业的先行者,汉王科技潜心深耕二十余载,始终致力于多领域智能交互技术的研究与应用。在手写识别、光学字符识别(OCR)、人脸识别、笔迹输入等领域拥有多项具有自主知识产权的核心技术,其中手写汉字识别获得国家科技进步一等奖,OCR识别获得国家科技进步二等奖。多年来专注模式识别与智能交互领域的研发,汉王在各大方向累计了多项自主知识产权的核心技术,砥砺前行中,形成了软硬件结合的发展模式。丰富的产品链,使得汉王识别技术得到广泛应用,在电子政务、个人办公、移动通信、数字家电等方面实现普及化和规模化处理信息。目前拥有京津冀地区电子行业垂直一体化精密制造基地,技术及产品已走出国门,辐射至日本、北美、南美、欧洲等海外市场。

人工智能模仿人的思维是伪科学吗

AIG为人工智能(ArtificialIntelligence),英文缩写!

它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。

人工智能模仿人类

1.结构模拟

1943年起步的“人工神经网络”对人脑生理结构进行模拟研究,从而诞生了第一条研究路径。这一研究路径从神经生理学和认知科学的研究成果出发,强调智能活动是由大量简单的单元通过复杂的相互连接后并行运行的结果。在人工智能发展史上称之为“联结主义”学派,其最精彩的成果是深度神经网络。

2.功能模拟

由于人脑神经网络的异常复杂,这一研究途径进展比较艰难。于是,人们便转向了对人脑功能进行模拟研究,这就促成了基于逻辑推理的第二条研究路径的问世:1956年兴起的“物理符号系统”。这一研究途径在人工智能发展史上称为“符号主义”学派,其核心是研究如何用计算机易于处理的符号表示人脑中的知识,并模拟人的心智进行推理。符号主义的代表性成果是证明了38条数学定理的启发式程序“LT逻辑理论家”,以及各种面向特定专门领域的“专家系统”。

3.行为模拟

后来,功能模拟路径遇到了知识界定、知识获取、知识表示、知识演绎等诸方面的困难,称为“知识瓶颈”。于是,人们又转向了对智能系统的行为进行模拟研究,这就是1990年问世的“感知-行动系统”的研究。行为模拟研究路径在人工智能发展史上称为“行为主义”学派,其最著名的成果首推布鲁克斯的六足行走机器人。

人工智能模仿声音

是可以的,现在网上有变声软件,你可以买个变声软件就可以变一下声音,还有一个就是现在有模仿的,你可以用用一种模仿的软件,也可以变声。但是你要找对方法,就可以达到你想要的结果。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇