博舍

可解释人工智能:符号主义、联结主义对比 人工智能符号主义代表成果有哪些特点

可解释人工智能:符号主义、联结主义对比

 

在symbolicAI和connectionistAI中,符号学派致力于知识及其在推理和学习中的应用(只有少量的输入数据),而不是符号本身:符号通常只代表知识的抽象。类似地,联结主义阵营实际上是从很少或没有先验知识的数据中学习关联,通常需要大规模的数据。现如今,大量数据的存在与引用使得connectionistAI成为人工智能的主导范式。

符号主义(Symbolicism):

  又称逻辑主义、计算机学派,主张用公理和逻辑体系搭建一套人工智能系统。

符号是人类大脑的一种主观对象,人类的认知基本上就是建立在符号的基础上的。符号对应于客观事物,就是主观与客观的对应。人类语言就是一种符号系统,人类用语言来表达思维的活动过程。从人类语言几乎万能的表达能力,我们就可以看出符号主义的强大之处。

专家系统是最经典的符号主义人工智能系统之一。即通过建立知识库与推理机来进行决策。专家系统主要是是模拟人类专家的推理思维过程。一般是将领域内专家的知识和经验,用一种知识表达模式存入计算机。系统对输入的事实进行推理,做出判断和决策。专家系统通常由人机交互界面、知识库、推理机、解释器、综合数据库、知识获取等6个部分构成。

优点:越来越多的人认识到,高风险决策领域对人工智能系统有需求,因此这些系统的行为要有可验证性与可解释性,而这恰恰是符号主义AI的优势,联结主义算法的短板。符号主义算法会剔除不符合特定模型的备选值,并能对符合所有约束条件的所求值做出验证,以后者而言,符号主义AI远比联结主义AI便捷。因为符号主义AI几乎或根本不包括算法训练,所以这个模型是动态的,能根据需要迅速调整不足。

劣势:符号主义主要依靠具象的过程来运作,比如逻辑,需要我们给出每一步的具体表达。但人类还具有形象思维,很多时候我们自己也说不出思维的过程,这显然用简单的符号主义很难实现。但是客观世界是连续的、复杂的,单纯的用符号主义来表示就会丢失很多信息。

不足:虽然符号主义AI技术可以处理部分不可观察概率模型,但这些技术并不适用于有噪输入信号,也不适用于无法精确建模的场合。在那些可以准确判断出特定条件下特定动作利弊与否的场合中,它们会更有效。此外,算法系统还要提供适当的机制来实现清晰的规则编码与规则执行。

 

连接主义(Connectionism):

  又叫仿生学派,主张模仿人类的神经元,用神经网络的连接机制实现人工智能。

连接主义是类似于人类大脑神经元连接的一种理论,深度神经网络就是很好的成果。

所谓深度学习就是用很多层神经元构成的神经网络达到机器学习的功能。依靠人工神经网络提供的各种层的感知器,在功能上可以软件实现的深度学习器,实现了机器学习对归纳的掌握,基于连接主义的深度学习技术,目前是人工智能领域的研究重点。

优点:在处理杂乱且非结构化的数据时,神经网络的性能优于其他机器学习技术。对于神经网络来说,即使有输入噪音,网络仍然能正常的工作。

劣势:连接主义比符号主义更偏向于形象思维,但它是一个黑箱,人类并不能完全的分析清楚他的每一步运作原理,这就导致我们不可能把我们的思维过程在机器上实现,所以单纯的用连接主义来实现通用人工智能是最不靠谱的方法。

这些差异或者说不同之处大体上可以从以下的五个方面来进行概括和分析:

第一,符号主义把对于物理符号的加工看作是概念表征的适当载体,而联结主义则是用认知系统或者说人工神经网络的整体方面的状态的变化来表征外部世界的特征;

第二,符号主义将心智看作是一种单纯的“计算的心灵”,联结主义则是把心智视为对于人的大脑或是大脑神经系统的模拟;

第三,符号主义将数字计算机看作是操作物理符号的典型认知系统,联结主义则是将数字计算机看作是建立大脑或大脑神经系统模型的工具;

第四,符号主义将问题解决看作人的智能的基本形式或者说核心内容,试图通过构建某种形式结构来赋予物理符号系统以问题解决的能力,联结主义则把学习的能力当成人的智能的基本形式或者说核心内容,强调建立某种学习机制使得人工智能体能够获得或是拥有自我学习的能力。

本质:符号主义和连接主义都是人脑具备的功能,而人脑的基本物理结构就是神经元,所以符号主义和连接主义必定是基于同样的基本原理。按照这种基本原理,首先实现的就是符号主义,以逻辑为主体。基于符号代表事物之间的联系性,随着符号系统的复杂度不断变大,最终产生了连接主义的那种效果。

尽管最近connectionistAI已经开始解决狭义识别和分类任务之外的问题,但connectionistAI是否能够完成需要常识推理和因果推理的复杂任务还有待观察(所有这些都不包括knowledge和symbols。现在,和那时一样,人们需要新的技术来解释人工神经网络中的处理过程,因为处理过程通常是不透明的,需要将知识注入到联结主义的体系结构中以实现多步推理,需要结合两种范式优势的神经符号架构的第三种方式。

最近的认知科学理论提出了产生人类行为的双重过程——有时被称为系统1和系统2(Kahneman,2011;StanovichandWest,2000),为协调符号性人工智能和联结主义人工智能的各个方面提供了一个理论框架。根据思维的双过程理论,系统1是联想的、隐性的、想象的、个性化的和快速的,而系统2是分析性的、明确的、口头的、泛化的和缓慢的。然而,值得注意的是,符号人工智能和联结主义人工智能与人类认知中的系统1和系统2之间的映射并不是一个直接的一对一映射。虽然系统1可能包含符号和连接主义人工智能的抽象和算法,但系统2的抽象和算法可能大多是象征性的(当然,它也是在人类大脑的神经网络上实现的)。

无论是符号化的还是联结主义的人工智能都没有太多关于社会环境智能的内容。这为XAI的发展提供了机会。

人工智能三大主要学派:符号主义、连接主义、行为主义

人工智能的发展,在不同的时间阶段经历了不同的流派,并且相互之间盛衰有别。目前人工智能的主要学派有下列三家:

符号主义(symbolicism),又称为逻辑主义、心理学派或计算机学派,其原理主要为物理符号系统,即符号操作系统,假设和有限合理性原理。

连接主义(connectionism),又称为仿生学派或生理学派,其主要原理为神经网络及神经网络间的连接机制与学习算法。

行为主义(actionism),又称为进化主义或控制论学派,其原理为控制论及感知-动作型控制系统。

会发现三者的根源依据存在着较大的差异性,也为后世的学派发展产生了较为深远的影响。

符号主义(优秀的老式人工智能)

认为人工智能源于数理逻辑,主张用公理和逻辑体系搭建一套人工智能系统。代表的有支持向量机(SVM),长短期记忆(LSTM)算法。

数理逻辑从19世纪末起得以迅速发展,到20世纪30年代开始用于描述智能行为。计算机出现后,又在计算机上实现了逻辑演绎系统。其有代表性的成果为启发式程序LT逻辑理论家,它证明了38条数学定理,表明了可以应用计算机研究人的思维过程,模拟人类智能活动。

正是这些符号主义者,早在1956年首先采用“人工智能”这个术语。后来又发展了启发式算法>专家系统>知识工程理论与技术,并在20世纪80年代取得很大发展。

符号主义曾长期一枝独秀,为人工智能的发展作出重要贡献,尤其是专家系统的成功开发与应用,为人工智能走向工程应用和实现理论联系实际具有特别重要的意义。在人工智能的其他学派出现之后,符号主义仍然是人工智能的主流派别。

优点:越来越多的人认识到,高风险决策领域对人工智能系统有需求,因此这些系统的行为要有可验证性与可解释性,而这恰恰是符号主义AI的优势,联结主义算法的短板。

不足:虽然符号主义AI技术可以处理部分不可观察概率模型,但这些技术并不适用于有噪输入信号,也不适用于无法精确建模的场合。在那些可以准确判断出特定条件下特定动作利弊与否的场合中,它们会更有效。此外,算法系统还要提供适当的机制来实现清晰的规则编码与规则执行。

符号主义算法会剔除不符合特定模型的备选值,并能对符合所有约束条件的所求值做出验证,以后者而言,符号主义AI远比联结主义AI便捷。因为符号主义AI几乎或根本不包括算法训练,所以这个模型是动态的,能根据需要迅速调整

连接主义(壮年最普遍的人工智能)

认为人工智能源于仿生学,神经网络,特别是对人脑模型的研究,主张模仿人类的神经元,用神经网络的连接机制实现人工智能。

它的代表性成果是1943年由生理学家麦卡洛克(McCulloch)和数理逻辑学家皮茨(Pitts)创立的脑模型,即MP模型,开创了用电子装置模仿人脑结构和功能的新途径。

它从神经元开始进而研究神经网络模型和脑模型,开辟了人工智能的又一发展道路。20世纪60~70年代,连接主义,尤其是对以感知机(perceptron)为代表的脑模型的研究出现过热潮,由于受到当时的理论模型、生物原型和技术条件的限制,脑模型研究在20世纪70年代后期至80年代初期落入低潮。

直到Hopfield教授在1982年和1984年发表两篇重要论文,提出用硬件模拟神经网络以后,连接主义才又重新抬头。1986年,鲁梅尔哈特(Rumelhart)等人提出多层网络中的反向传播(BP)算法。此后,连接主义势头大振,从模型到算法,从理论分析到工程实现,伟神经网络计算机走向市场打下基础。

现在,对人工神经网络(ANN)的研究热情仍然较高,但研究成果没有像预想的那样好。

行为主义

行为人工智能源于控制论。控制论思想早在20世纪40~50年代就成为时代思潮的重要部分,影响了早期的人工智能工作者。维纳(Wiener)和麦克洛克(McCulloch)等人提出的控制论,和自组织系统以及钱学森等人提出的工程控制论和生物控制论,影响了许多领域。

控制论把神经系统的工作原理与信息理论、控制理论、逻辑以及计算机联系起来。早期的研究工作重点是模拟人在控制过程中的智能行为和作用,如对自寻优、自适应、自镇定、自组织和自学习等控制论系统的研究,并进行“控制论动物”的研制。

到20世纪60~70年代,上述这些控制论系统的研究取得一定进展,播下智能控制和智能机器人的种子,并在20世纪80年代诞生了智能控制和智能机器人系统。行为主义是20世纪末才以人工智能新学派的面孔出现的,引起许多人的兴趣。

这一学派的代表作者首推布鲁克斯(Brooks)的六足行走机器人,它被看作是新一代的“控制论动物”,是一个基于感知-动作模式模拟昆虫行为的控制系统。

总结

三大主义,从不同的侧面研究了人的自然智能,与人脑的思维模型有着对应的关系。粗略地划分,可以认为

符号主义研究抽象思维;

连接主义研究形象思维;

而行为主义研究感知思维。

研究人工智能的三大学派、三条途径发挥到各个领域,又各有所长。

符号主义注重数学可解释性;

连接主义偏向于仿人脑模型,更加感谢;

行为主义偏向于应用和模拟。

符号主义与机器学习的认知问题

二、何为符号操作机制?如何使用符号操作机制构建认知框架?

符号操作机制,顾名思义,就是对物理符号系统中的符号进行运算或加工的一系列操作。这里有几个值得我们思考的问题:符号操作机制从何而来?它在人类的认知过程中起到了什么样的作用?首先探讨符号操作机制的来源。符号加工机制从何而来的问题可以从两方面来理解:符号加工机制是如何在儿童身上发展起来的,以及符号加工机制是如何在人类身上发展起来的。加里.马库斯在他的《代数思维》中持有这样一种观点:在儿童接触外部世界并获得经验之前,符号加工机制就已经包含在一套对于他们来说天生可用的事物中。简而言之,我们的大脑天生就拥有一套符号加工机制,也就是说,符号加工是人类大脑中固有的设计的一部分。不妨假设我们天生拥有一套与环境互动的机制,一套从世界中提取知识的工具,一套利用知识的工具。如果没有天生的学习工具,就根本不会有学习。我们将这套工具称为符号操作机制,当我们暴露在环境中时,我们使用这种机制对环境中的个体进行表征,并从外部世界自发地进行学习。相信某些事物是天生的一个原因是,可能没有其他令人满意的解释来说明一种已知的知识是如何产生的。当然,符号加工机制是否是人类与生俱来地并未得到验证,不过倘若用这种观点去解释大多数现象得到地结果都是合理地。关于符号操作机制是如何构建的,其中最明确的观点是,遗传密码指定了一份密码本,告诉每个脑细胞它应该是什么样的神经元,以及它应该如何连接到其他神经元。加里.马库斯对符号操作机制做出了三个假设:第一,大脑表示变量之间的抽象关系;符号操作机制处理的便是变量的关系,既然符号操作机制是大脑固有的设计,那么大脑理所应当地可以表征变量之间或抽象或具象的关系;第二,大脑具有递归结构化表示的系统;大脑可以根据已习得的知识对新的事物进行表征,以一种递归式结构用符号表征对象;第三,大脑区分个体的心理表征和种类的心理表征;简而言之,大脑具有的符号操作机制,可以从心理表征的角度对个体和种类进行符号表征。

符号学的支持者表示,人类所具有的知识都是具有某种形式(具象或者抽象)的信息,所有的知识都可以通过符号(语言或者非语言)表征出来,而数理逻辑则是用符号表征知识的典型形式,将符号学理论与人工智能及其应用结合起来,便出现了人工智能领域的符号主义纲领。

那么,符号操作机制是如何在认知过程中发挥作用的呢?说到底,人类的认知过程说就是一个对符号进行操作(运算、加工等处理)的过程,用符号操作的过程来模拟人脑对信息处理的过程。因为人类对世界的认知离不开理性的推理过程,而理性的推理过程可以通过形式化的语言尤其是数理逻辑来完成,其中数理逻辑的表征归根结底是符号表征。认知学大师赫伯特·西蒙在四个维度回答这个问题:一是善用跨学科的思维;认知涉及的领域众多,无论是传统的心理学还是行为主义,在解释认知的过程中都有一定的局限性,因此西蒙开创性的引入计算科学来解释人的认知行为;二是引用计算科学表征思维;认知是一个抽象的过程,主要包括了人类对概念的理解、逻辑的推理和自我解释的能力,西蒙引用计算科学对认知进行表征,就是一个将抽象的认知过程表征为可以客观而具象描述的过程;三是建立人类认知的科学;西蒙认为,完整的符号操作系统具有六种功能:1.输入符号(输入)2.存储符号(储藏);3.建立符号结构;4.条件性迁移;5.复制符号(复制);6.输出符号(输出);而人类的认知过程与符号操作系统可以一一对应,因此可以使用计算机模拟人的认知行为(见图一);四是将人视作符号系统;人类如何认知:人通过搜索解决问题,一般并不去寻找最优方法,而是寻找最满意方法,并能调整满意的程度。认知的过程即是对符号进行操作的过程。

三、符号主义AI的瓶颈问题

尽管符号主义AI取得了很多代表性的成果,但是符号主义的瓶颈问题一直困扰者AI的众多学者。在过去几十年里,大量的研究试图创建一个可以模拟人类大脑进行理性推理和数理逻辑运算的符号主义AI系统,但事实证明,人类许多问题采取的方案都无法进行符号表征。例如,人类可以凭借符号表征提取出猫的特征(如四肢、胡须、叫声等),但这一特征提取过程非常复杂,涉及到视觉、听觉等。但对于计算机来说,将这些特征转换为符号相当困难,需要从无限种可能中抽象出这些特征,需要处理大量的数据才可以提取这些相同的特征。例如,当一只猫完整地呈现在人和机器面前时,人和机器都能很容易地分辨出来这只猫;但是当一只猫的眼睛被暴露出来而身体的其他部位被遮挡住时,人可以凭借自己的“直觉”和“习得的经验”做出辨别的对象是一只猫的判断,而机器却很难拥有这样的“直觉”和“习得的经验”。简而言之,符号主义AI不适合处理图像、音频、自然语言处理等非结构化数据。

哥德尔不完全性定理中的第一定理指出,任意一个包含一阶谓词逻辑与初等数论的形式系统,都存在一个命题,它在这个系统中既不能被证明为真,也不能被证明为否。同样的,符号主义AI也面临类似的问题,因为符号主义AI不能囊括所有的可能性。

另外,“常识”最明显的特征就是数据量过于庞大,从理论上来说,人类大脑的容量是无法估量的,且人类可以自主性地接纳自己需要的“常识”,但是机器缺乏这种自主性,倘若要机器处理海量的“常识”信息,在符号主义AI的纲领下几乎是无法实现的,毕竟,机器无法对所有的“常识”进行符号表征。

符号主义AI的另一个瓶颈问题就是缺乏泛化的能力,即缺乏动态表征的能力,我们称之为“框架问题”。二十世纪六七十年代拉斐尔(BertranmRaphael)、尼尔森(Nilsson)团队研发的机器人沙基(Shakey)[5]便是“框架问题”的真实写照:机器人沙基被认为是第一台能够进行行动推算的可移动机器人,它配置的摄像头和传感器使得它可以在复杂的环境中完成对周围环境的感知,并在没有人工干预的情况下完成一些简单的操作。这是第一次将逻辑推理与机器的自身行动相结合的成功尝试。事实上,沙基这样的系统完成了内部世界的静态表征,即能够对特定的特征进行符号表征。然而,如果外部环境处于一直变化的状态,沙基的内部系统就必须对当前外部环境的特征进行动态表征,这就需要耗费大量的计算时间,显然,机器人沙基并不具备这样的动态表征能力。

四、符号主义AI未来发展的方向

针对符号主义AI的“常识”问题,科学家提出了将行为主义、联结主义和符号主义三者贯通,最终实现机器通过模拟人类的思考方式,自身可以进行合理思考。例如,联结主义与符号主义的结合,便可以解释深度学习的学习机制,并且完成海量“常识”信息的学习。(深度学习通过模拟人类大脑的学习方式,因此学习效果突出,但是深度学习的学习效果为什么好,就像是一个黑箱子,无法给出合理的解释,即缺乏可解释性)。三种流派都有自身的局限性,但是倘若可以将各自的优势都结合起来,或许可以使得人工智能的发展方向更加清晰明了。

事实上,为了解决框架问题,符号人工智能的研究者们已经提出两种相关的解决方案,豪格兰德(JohnHaugeland)分别称之为“廉价测试”(cheaptest)和“省事策略”(sleepingdog)。[6]“廉价测试”方法要求人工智能系统能快速检索每个事物,以便区别出行动会引起的相关项与非相关项。“廉价测试”的实现方法的设想就是将人类的“常识”进行公理化,即将常识都变成普遍接受的公理,再将这些公理用物理形式表征出来,机器可以通过学习公理进行正确的决策,实现逻辑自洽(实质上就是对知识进行全局化处理,再进行符号表征)。防止框架公理激增的另一种方案被称为“省事策略”,这种方案运作的机理依赖于常识惯性定律的形而上学原则(TheMetaphysicsofCommonSenseInertia),它预设了世界具有巨大的惯性,除非有一些积极的理由(情境中所施加的行动确定会引起变化的事物),否则假定其他事物和关系都保持不变[7]。“省事策略”的想法并不是试图把所有“常识”进行表征,而是对部分“常识”进行公理化,机器通过逻辑推理试图理解未表征的“常识”。尽管这种策略看起来比“廉价测试”更节约资源成本,但是机器的泛化能力如何实现还有待商榷。不过两种机制为机器学习“常识”问题提供了解决思路。

五、机器学习的弊端分析

不难发现,机器学习与符号主义一样,面临着缺乏泛化能力的瓶颈。与符号主义又不同的,符号主义所缺乏的是跨类别的泛化能力,而对于机器学习而言,缺乏泛化能力这个问题是致命性的。目前几乎所有的机器学习系统都是被训练于执行单一任务,而如果要实现通用智能(AGI),那么机器学习系统必须能够被用于执行多种不同的任务。虽然借助于表示学习(representationlearning)和迁移学习(transferlearning),现在可以将模型的一部分应用于新的任务,但是针对新的任务进行重新训练(fine-tune)的模型在旧的任务上还是会有显著的性能下降——这意味着单一模型是不能够在完成当前训练任务的同时,仍然完好地保留对上一个任务的记忆的。是因为机器学习有一个很严重的现象,就是自我偏差,这种偏差可以体现在统计学的一个重要概念中,就是我们获得的数据也许是一个有偏数据,我们可能建了一个模型,对大部分的数据都有用,但其中有一些特例。面对这些特例,机器学习的处理方式往往是带有“自我欺骗”性质的,只会得到一种模糊的结果。例如分类模型,在遇到特例的时候,就会将其归类为决策面上的样本。尽管现存的各种机器学习的模型的优化已经完成得尽善尽美,但是涉及到场景迁移的内容,机器学习往往表现得力不从心。

另一个不得不提的瓶颈就是机器学习等算法模型缺乏“自主性学习”。我们知道,符号主义的人工智能虽然缺乏一定程度的泛化能力,但具有“自主性学习”的知识迁移能力。尽管迁移学习给机器学习、强化学习带来了将模型应用到大量数据的能力,但依然缺乏自主认知的能力。换个说法,也就是符号主义拥有主动认知的能力,而机器学习等算法模型只能被动地产生非真正意义上的“认识”。机器学习、强化学习所能做的,只是利用高质量的大数据实现某些特定的场景下的功能罢了。我们所处的世界中,机器学习的应用有上千种。机器学习正变得无处不在,这意味着,尽管我们仍持续强烈关注机器学习在准确性方面的表现,但我们的意图在于使得它们的准确率进一步提高。因为当我们在现实世界中使用机器学习时,它带来了一系列的新挑战。我把这看作是围绕着机器学习工作核心问题的隐蔽性问题。由于数据集的偏见,预测结果中就会有隐藏的偏见,比如公平问题,可解释性问题,因果关系的问题,如果我们真的想对结果的偏见进行干预的话,就必须采取更多的措施。如今机器学习成功的很重要的一个因素在于对数据集进行了适量的缩放,缩放数据集的大小,缩放学习算法的大小,缩放参数数量方面的模型,但在大规模的数据集上仍旧不存在突破,这也是它的主要弊端之一。

还有一点便是机器学习对数据的依赖性太强。我们知道,数据是机器学习的核心。当我们试图让机器学习扩展到越来越多的领域,收集数据、收集可用的数据,然后利用机器学习进行研究成果的推广,确实会给社会带来巨大的潜在好处。但是很多数据非常敏感,非常个人化,比如医疗数据,就是一个很好的例子。所以从隐私和安全的角度来看数据,这其中便是掣肘机器学习进一步发展的因素。我们知道机器学习不仅受益于更多的数据,而且受益于不同的数据。有时,你可以将多个数据集放在一起,你得到的不仅仅是数据之和。但问题在于,不同的组织,不同的人,如何把他们的数据放在一起,汇集这些数据来进行机器学习,而不是简单地让其他人或其他组织直接访问这些数据。机密的机器学习提供了这种可能性,数据可以整合,但只能在芯片上解密。它在芯片中被用来训练一个机器学习模型,然后这个机器学习模型或者它的预测结果被提供给数据提供者。由于它是在汇集的数据上训练的,所以它更有效,更有能力,但在任何阶段,任何实体都不能访问其他实体的数据。

六、如何让认知深入机器学习方法

人类通过不断的自主学习,当大脑的认知能力达到一定程度的时候,便可举一反三,可以对信息进行不同维度的转化,转化结果又能够应用到其他维度,从而产生新信息和新观点,也就是我们的大脑能够通过认知进行知识的再创造。那当机器具备一定程度的认知智能时,能对已有的信息进行再创造吗?目前我们可以确定地说“能”。认知系统在训练的过程中模拟人的思维,通过持续学习,获得不断增强的智能性,逐步接近人类所具备的认知能力。然而机器的信息再创造是创造出已存在的信息,是一个客观存在的知识,是确定性的。我们只能说,机器学习的成果可以作为人类认知的延伸,而不是人类认知的再创造。目前,研究认知计算与机器学习的领域也做出了颇多的成果,例如自然语言处理、计算机视觉、图像检测与预测等。尽管AI和机器学习的发展跌宕起伏,但深度学习和认知计算等新方法仍大大提高了这些学科的标准。有意识的机器可能仍无法实现,但帮助改善人类生活的系统目前已存在。

七、总结与展望

尽管符号主义和机器学习都不能完美的诠释人类认知的架构方式,但是符号主义与机器学习的结合AI未来可能的发展方向为实现机器进行自主思考提供了新的思路,只不过这其中,还有很长的路要走。未来的发展方向应该是人机结合,为机器赋予“认知”的“灵魂”,不可否认的是,人类的认识能力在机器的帮助下得到了很大的提升,因此,模拟人类智能的路还有很长,未来人机结合的发展依旧拥有无限可能。

参考文献略返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇