博舍

AI 仿人类人工智能(超级智能)的本质 人工智能和人类智能的本质区别是什么

AI 仿人类人工智能(超级智能)的本质

仿人类人工智能(超智能)

目录1. 希望的人工智能   12. 基础认同   23. 器官及作用   24. 器官数据   25. 对象及对象类型   36. 记忆   47. 目标   68. 情感   79. 思考   710. 总结   8

1.希望的人工智能

我希望的人工智能(目前来讲比较科幻):不一定有着人一样的外型,但是要有人一样的各式各样的器官,比如:眼睛、耳朵、鼻子、感知触摸和冷暖的皮肤、手、脚。。。;能做人类能做的事,人类不能做的事它也能做(人总不能上刀山下火海吧)。能像人类一样学习、有情感、能科学研发。

个人感觉,人类科技步伐太慢了。我的梦想是星辰大海,不知何年何月才能把太阳系当成我们的后花园?(各位见笑,本人科幻电影看多了)原因当然是人类顶尖的专业性人才太少了;若是有一款智能能象人类一样做科学研发。假设我们花十亿或百亿成本将它培养成爱因斯坦级别的人才。然后我们只需再花低成本复制N(十万,百万)多个‘爱因斯坦’,想想都激动。或许有生之年还可以走出太阳系游玩一方。(做梦中)

很喜欢二句名言。言一:有一就有二,有二就有三,直到无穷无尽。我个人相信地球之外绝对有外星生命,因为我们地球人就是别‘人’眼中的外星生命(信不信由你,反正我是信了)。

人是一台机器,由细胞构成的生物机器。而我们现在要做的是把生物物质换成金属物质。人就是这里的‘一’,即然有生物‘机器’生命,凭什么就不能有金属机器生命!!!

言二:一生二,二生三,三生万物。复杂的事物是由极其简单的‘单元’组合而成;这类例子就多了。比如:由二进制0、1组合成复杂的程序、操作系统;由基本粒子组合成各式各样的物质;。。。

言一,是想从哲学角度上证明:像人(或是超越人类)的金属机器生命是可以存在的。言二,是想从哲学角度上证明:金属机器生命的实现或许没有想象的那么复杂,只要找到对的‘单元’。

以下要谈的仿人类智能,不是只想解决某一个问题(比如自动驾驶),而是要解决所有的问题。

2.基础认同

基础认同,显然就是想让读者认同我的以下看法,否则后面的内容你应该是不会理解和支持的。

人是一台生物机器,与外界环境交流都是通过人体器官交互。各个器官时时刻刻在收集外界信息传输给大脑,大脑则对比过往数据并选择对自身有‘利’的结果做出反映。

各个器官(包括大脑)就是一个个‘单元’;‘记忆’、‘目标’、‘情感’、‘思考’都是以器官为基础。

好吧,大部分人是不明白我的想法的,要骂我神经病了。

3.器官及作用

器官的作用是非常巨大的,作用一就是收集外界信息,作用二是做为大脑执行动作的载体。器官是智能的基础。

有的器官能采集外界信息,比如:耳朵,通过它我们能听到声音。有的器官能执行动作,比如:手、脚。有的器官能采集也能执行动作,比如:眼睛,通过它我们能看见物体,同时我们也能控制眼睛转动来转移视线,控制瞳孔缩小放大来对焦。

人体器官应该是几十种吧,你能想象的出:一个婴儿出生时,没手,没脚,皮肤感觉不到冷暖触摸,有眼睛但看不见,有嘴但不能说话,有鼻但不能闻气味,有耳朵但听不到。这样的人即时能一直活着,但他的智商肯定提升不了。他的思维应该是‘静止’的,他的大脑因为获取不到外界器官数据而一直处于空转。4.器官数据器官作用,不管是采集信息,还是发出执行动作指令,都是通过‘器官数据’实现的。

我们的记忆,对物、事(抽象和非抽象)的描述都是通过器官数据来表现的。

何为‘器官数据’?‘器官数据’在人类大脑是以什么形式存在的? 我是不知道的。但在金属智能这里会以二进制形式存在。

以我们的眼睛器官为例。设想下,你面对一面脏脏的白色墙,在墙中央有一个一厘米大小的黑点,你盯着这个黑点看。然后把你看到的以照片方式展示出来,你会发现除了小黑点清楚外,黑点周围以辐射样往外越来越模糊。我所说的‘器官数据’并不是指这一整张照片,而是从这张照片里分解出更详细的信息数据。比如:焦点大小、焦点颜色、焦点明暗轮廓、等等。。。这些‘器官数据’以二进制数据类型保存在大脑。

‘器官数据’必须要有以下特性:一、单一性。二、可对比性。

器官收集的数据分解出更多的‘器官数据’,智能程度将会越高,更聪明。

假设我们眼睛采集的结果能分解出 10 种‘器官数据’,人的眼睛一秒钟采集50次数据。那么相当于一秒钟就有 50 * 10 = 500 的‘器官数据’被保存(永久或临时)在大脑。人体身上的器官数据以 50 计算。那么一秒就有 500 * 50 = 25000 的‘器官数据’被保存。一天24小时,一年365 天。那么一年下来产生的数据量为 25000 * 3600 * 24 * 365 = 788,400,000,000。数据量超大。(好吧,其实是夸张了)重复的‘器官数据’是不应该被保存的。盯着一个静止的物体1秒钟,即时大脑会接收到500条‘器官数据’,但重复的数据都应该过滤掉。这是一个夸张数值,但实际上数据量也不会少,百亿级数据会是有的。那么问题来了,当眼睛看到一个物体时,大脑要根据接收的‘器官数据’去匹配记忆中的‘器官数据’进行分辨。

我有说过,‘器官数据’是以二进制形式保存的。可以说在百亿级数量并以二进制作条件来对比(注意:不是根据主键ID查询)。这是任何数据库服务器也做不到的。那问题怎么解??? 你们想想吧。

5.对象及对象类型

整理出来的对象类型:系统对象、系统键对象、器官数据对象、器官数据键对象、器官对象、器官键对象、普通数据对象、时间点对象,事件对象;

非系统对象之间的关系图如下:

‘普通数据对象’即可以做为‘值’也能做‘键’使用。

‘系统对象’、‘系统键对象’是系统自带对象。要想让一个系统跑起来,系统首先要有一个框架,然后要初始化一些数据。

‘事件对象’用来关联‘普通数据对象’。事件的本质就是多个时间点按发生的先后排列,且每个时间点记录所关注的对象当前属性状态。‘时间点’包含一个或多个‘普通数据对象’。‘属性状态’就是我所说的‘器官数据对象’。

所有的对象会像一个立体的网交织在一起。

6.记忆

注意:以下我会把 ‘器官数据键对象’,‘器官键对象’,‘普通数据对象(键)’说成‘属性’;‘器官数据对象’,‘器官对象’,‘普通数据对象(值)’说成‘属性值’;

记忆分为认知类、非认知类和记录类(事件);1.认知类保存低频率对象属性状态,这里的属性有个特点:属性值不会轻易、经常性的改变(但也不一定)。就好比:你认识一个人,不能因为他换了件衣服你就不认识了。你认知这个人,不会拿穿着打扮等一些经常性改变的属性做认知判断。

我们都知道大熊猫有一对黑眼圈,爱吃竹子,声音独特。

有点要说明,不同的人对同一对象的认知记忆保存的‘器官数据’是不一样的。有的人偏爱用眼睛器官数据来描述对象,但有的人偏爱用耳朵器官数据来描述对象。偏爱用眼睛器官数据的是这样:大熊猫有一对黑眼圈(眼器官),爱吃竹子(眼器官),声音独特(耳器官)。偏爱用耳朵器官数据的是这样:大熊猫有一对黑眼圈(耳器官),爱吃竹子(耳器官),声音独特(耳器官)。

若不理解,你就想象成‘偏爱用眼睛器官’的人耳朵听不到声音。‘偏爱用耳朵器官’的人眼睛看不见。

同一物品,可以用不同的‘器官数据’描述,但它们的描述能力却各不相同,相互之间互补。比如:二件物品,看着都一样,但闻着不一样。也或许看着不一样,但尝起来味道是一样。

从执行效率上来讲,用‘耳器官’要比‘眼器官’要高,因为声音数据相对于图片数据处理起来容易些(但也不是绝对的)。

‘器官数据’越简单意为着能表达的信息越少;越复杂意为着能表达出更多的信息。

2.非认知类保存高频率对象属性状态,属性值经常性的改变,比如人物的穿着打扮。此类记忆多用于描述事件中某一时间点物体的当前属性状态。

时间点:

举个例子:人A(认知类对象),在 201878 14:38:00 穿着一件红色的衣服,在201878 15:00:00 换成了一件白色的衣服。在这二个时间点,人A穿着属性发生了变化。二个时间点分别会保存为二个不同的非认知类对象,但这二个对象都是人A。非认知类对象是通过认知类对象关联的。

3.记录类(事件)记录也就是事件,记录所关注的对象(一个或多个)在不同时间点上的属性状态。

事件:

7.目标

这里的目标也可以说成是:想法、希望。

目标是基于器官生成的,原则是’自私‘。

以饿为例:新生婴儿,当器官第一次发出饿的信号时,因为大脑‘空白‘,不能产生吃的念头,他只能发出哭的行为。给他喂食时,饿的信号慢慢减弱(器管数据发生变化),大脑会把饿与喂食行为关联起来。当器官再一次发出饿信号时,大脑会因为‘自私’想找到能让饿信号减弱的行为,因为大脑记录了喂食行为,婴儿就能想到吃的念头了。

当某一行为促进某一器官正极信号变强,那么大脑会记录此行为。则会在特定条件下极力想去重复这一行为。

目标生成的原则是’自私‘,对自已好的才会想着去做。那怎样判断好坏呢?大脑会把对器官产生正极信号的行为认定为好,对器官产生负极信号的行为认定为坏。不同的器官之间正负极信号能相互组合成新的信号。不同的器官正负极信号有优先级高低之分。

’自私‘的重要性:设想下,在原始社会,只存在二个人类始祖 A(男), B(女),还有一条他们养的狗。他们现在都饿的快要死了,然后A,B发现了一点点食物,但他们却把好不容易找到的食物给了狗。再然后。。。没有然后,A,B都饿死了,人类的历史从此结束。

’自私‘是所有生命的本性、本能。

说到‘自私’就不得不说安全性了,很多人都当心人工智能将来是否会不受控制。当心是必需的,有人提义在智能中加入几大定律来约束行为。但我想说的是这方法不能百分百的解决问题。道理很简单,大家都听说过或是体验过好心办坏事吧。

8.情感

情感有:喜、怒、哀、乐。。。人每时每刻都处于某种情感状态之下。情感会影响我们的每一个行为 (没情感也是情感的一种)。一般来讲处于什么情感状态之下,我们的各个器官会做出相应的表情。高兴时我们会笑,悲哀时会哭。

这里要提个问题情感是怎样产生的?答:情感是对比器官数据得出来的。对比差值越大情感表现越强列,否则反之。

举个例子:一个穷人,穷的过年都拿不出钱办年货。一个富人,钱多的想扔。他们二人买双色球都中了一等奖,奖金 500 万。正常来讲,穷人会高兴的分不清方向。富人呢可能只是微微一笑。穷人,从一无所有,到一夜暴富。前后对比差值巨大。富人,本来就是亿万家产,多了500万跟没多钱似得,前后对比差值微小。

道理好比:没对比就没伤害;人比人气死人;当你心里不平衡时,就去想想比你差的人,心里就好受些;。。。

对比差值有了,那么各个器官是怎样做出反应的吗?答:反应包含二点:本能反应、后天反应。本能反应是指天生自带的,不知你们有没有体验过,在想某事时,皮肤会突然起鸡皮疙瘩。

后天反应则是学习所得的,小屁孩子全身光溜溜的在人群中,也无所谓。但若是成年人全身光溜溜的站在人群中,那还不得羞死呀(脸皮厚的,当我没说)。

9.思考

大脑也是器官,也会有自已的器官数据。但这个器官与普通的器官却不同。普通器官只能收集和执行固定的器官数据,大脑要能模拟出所有器官的器官数据。这一点非常重要。‘思考’就是基于这一点才能运作。

大脑就象是操作系统,其它器官就是安装在系统里的应用软件。大脑接收各个器官的器官数据,经过思考,再发送器官数据给相应的器官做出反应。

至于大脑是怎样思考的,这里不做讨论。

10.总结

以上都只是整体的描述。

重点强调:各个器官(包括大脑)就是一个个‘单元’;‘记忆’、‘目标’、‘情感’、‘思考’都是以器官为基础。

像人一样的人工智能将来是一定会存在的,能预言到将来会有这样二种行业:一:机器人培训机构,也就是培训机器人做某事。二:机器人技能贸易,也就是交易‘技能’。(我所说的机器人,不一定是人一样的外型)

最后,感谢各位能看到这里。--------------------- 作者:hcss_ss 来源:CSDN 原文:https://blog.csdn.net/hcss_ss/article/details/81040521 版权声明:本文为博主原创文章,转载请附上博文链接!

什么是人工智能人工智能的本质是什么

人工智能(ArtificialIntelligence,简称AI)是一种使计算机系统具有智能的技术和方法。它的目标是使计算机系统能够像人一样思考、理解、学习和解决问题。人工智能的研究领域涉及到机器学习、知识表示与推理、自然语言处理、计算机视觉、智能控制等多个方面。在实际应用中,人工智能技术可以被用于识别图像、语音和文字,自主决策、自适应学习和自主行动等多种场景。目前,人工智能已经在医疗、金融、制造、交通等多个领域取得了广泛应用。

人工智能的本质是什么?

人工智能的本质是模仿人类智能的一种计算机技术。它的目标是实现计算机像人一样具有智能,包括感知、学习、推理、决策和交互等多个方面。人工智能通过对大量数据的学习,训练出可以自主决策的模型,并可以不断地优化和完善这些模型,从而实现更为复杂的任务。人工智能的实现涉及到多个学科领域,如机器学习、深度学习、自然语言处理、计算机视觉等,是一项集硬件、软件、算法等多方面技术为一体的综合性计算机技术。人工智能的本质在于使用计算机技术模拟人类的智能行为,以达到人类无法完成或难以完成的任务,并在实践中不断推进和完善其应用。

免费分享一些我整理的人工智能学习资料给大家,整理了很久,非常全面。包括一些人工智能基础入门视频+AI常用框架实战视频、计算机视觉、机器学习、图像识别、NLP、OpenCV、YOLO、pytorch、深度学习与神经网络等视频、课件源码、国内外知名精华资源、AI热门论文等。

下面是部分截图,点击文末名片关注我的公众号【AI技术星球】发送暗号321领取(一定要发暗号321)

目录

一、人工智能免费视频课程和项目

二、人工智能必读书籍

三、人工智能论文合集

四、机器学习+计算机视觉基础算法教程

 五、深度学习机器学习速查表(共26张)

学好人工智能,要多看书,多动手,多实践,要想提高自己的水平,一定要学会沉下心来慢慢的系统学习,最终才能有所收获。

点击下方名片,扫码关注公众号【AI技术星球】发送暗号321免费领取文中资料。

人工智能到底是啥

原标题:人工智能的本质究竟是什么?

HackerNoonCEO大卫•斯穆克(DavidSmooke)将人工智能定义为科技领域,并预计其未来将会有巨大发展。他指出,发展人工智能似乎可以用来研究如何进一步减轻一些基础任务的负担,如会议的安排与协调等。

那么,人工智能的现状究竟如何呢?

人工智能的性能取决于其训练集。最好的人工智能可能有最多的数据点来进行对比和计算。斯基纳(Skinner)和帕夫洛夫(Pavlov)的行为主义对人类学习的本质做出了相似的假设。

也就是说,人类是基于数据集进行训练的,而大脑内部的运作机制则略有不同。人可以简单地给予奖励和惩罚作为输出(或行为)的条件,并通过这种方式最终实现目标行为。

问题是,虽然心理学在很大程度上已经对人类学习进行了深刻研究,但机器学习却没有。这个问题可能在人机交互的模拟中越愈发凸显,也经常出现在人工智能工程师们在试图模拟人类思想的过程中。

重要的是,人类似乎能够解释和理解其所生活的环境。相比之下,计算机只是一台从事匹配工作的机器。哲学家约翰·塞尔(JohnSearle)很久以前就通过他的“中文房间”思维实验(ChineseRoomthoughtexperiment)指出了这种差异。在本实验中,他将自己关在密闭的房间中。

他既不会说也听不懂中文。但是在这个房间里有一本很大的手册,里面有一系列的假设陈述。通过门上的一个插槽,他可以接收汉字,查找手册中的字符串,并找到要通过插槽送出的字符串。显然,塞尔可能会让房间外的人相信他真的懂中文,但事实上他并不懂,他只是在匹配符号。因此,他表现出的能力受限于中文手册的内容。

一些人工智能的创建者可能会声称,创建人工智能的意义实际上只是人类庞大的记忆内存和快速匹配能力的虚幻副产品。这和行为主义者的说法是一样的——大脑是一个黑匣子,学习可以自动进行,而不需要机器中的某些神秘力量。

笔者并不是认为必须以神秘的方式探索思维,而是指出这种还原论对行为主义者存在误导,因此它很可能成为人工智能发展的一个绊脚石。

在讨论一些毁灭性的类似机器学习的人类学习模型的实验之前,先来回顾一些非常基本的概念:计算机“智能”是由一组二进制开关构成的。

因此,一切事物都是独立的,与其他事物无关的。例如,“好”就是好,它不带有任何语境意义;它存在于一个毫无意义的真空中(就像塞尔的汉字搜索一样)。因此,机器学习过程不能自动捕获对象之间的关系。

这是自然语言处理的难点之一。在自然语言处理中,词的语境共同构成彼此的含义(见下图中的示例)。计算机并不自带这种能力。因此,程序员必须手动为机器编写代码,然后“自动”学习这些关系。

人类的理性是不同的。人类的理性不是二元的。因此,事物不是无语境的独立的单位,而是超越自身,存在于与其他事物的关系网中。例如,“好”的意思也可以指“不坏”。

对于人类来说,这种对立性赋予了他们区分不同类型字符的先天能力,例如“好的坏”和“好的鞋”。然而对于计算机来说,这些对立关系必须进行有目的地学习了才行,因此在概念上,“坏”与“好”间的联系并不比“好”与“鞋”的联系更紧密。

乍一看,这似乎不那么重要,但想象一下,如果一个人认为好与坏和好与鞋的意思相近?,那就说明他既不知道“好”是什么意思,也不知道“鞋”是什么意思。

笔者非常尊敬的心理学家约瑟夫·莱克拉克(JosephRychlak)在《人工智能与人类理性》(ArtificialIntelligenceandHumanReason)讨论了计算机与人类理性之间的这种差异。在书中,他回顾了那些毁灭性的关于人类学习的(人工智能)行为主义模型的研究。笔者将在此对老先生的回顾做一个总结,感兴趣的人可以在他的“作为预测过程的学习”一章中找到完整的内容。

1955年,心理学家乔尔·格林斯平(JoelGreenspoon)对后效强化能力进行了测试,以研究人们的某些特定的行为。具体来说,格林斯平要求研究参与者说出突然浮现在脑海中的任何单词,一次说一个。

在10分钟的时间里,参与者列出了没有任何语言强化的词作为实验对照。之后,参与者继续列出单词。每当参与者说一个动名词,格林斯平就会提供语言强化(例如说一些语气词等)。75名参与者中有10人掌握了研究的内容,于是,该实验在分析时将这10人进行了排除。

在剩下的65人中,格林斯平声称发现了自动的、无意识的行为,可与语言强化适应(即人们开始列出更多的动名词,展示出了无意识的“学习”)。

这种研究类型应该令人工智能开发者振奋,因为他们希望机器学习的原则本质上与人类学习的原则相同。参与者假设学习内在的精神世界是没有必要的,他们似乎是通过纯粹的联想进行学习的。如果这是真的,那么机器学习的主要问题就变成了训练数据的多少。但后续研究远比这复杂得多。

1961年,杜拉尼(Dulany)重新考察了这些实验参与者的知识水平。他发现,尽管许多参与者不能正确地说出这项研究是关于复数名词的学习,但许多参与者提出了“相关假设”,这使得他们在没有掌握正确方法的情况下说出“正确”的单词,例如“giraffes,”。又例如,参与者可能假设是有关动物的研究,于是列出一些动物,“giraffes,hippos,parrots,lions”。

听到这类单词,实验者会说一些语气词,并标出参与者是在无意识中知道的(他们无法准确认识到此次研究的内容是复数名词)。但这些相关的假设清楚地表明,参与者有意识的假设指导了他们的反应,他们的思维过程导向了假设性的“认识”。

其它类似研究,例如佩奇(Page)在1969年和1972年进行的研究中强调,参与者是否合作是进行这类研究的另一个重要因素。佩奇发现,一些参与者的行为实际上是相互对立的。

佩奇在进行格林斯平实验时,(他用“好”来代替语气词),他发现一些参与者在研究的第二阶段(应用强化的阶段)说出复数名词的几率更低(低于参与者自己的基本比率)。例如,在第一阶段中,没有经过强化的参与者有20%的几率列出动名词,而经过强化阶段后,则只有2%的几率列出动名词。

随着研究的深入,佩奇表现得更为直接。一旦参与者意识到这些规则并且更为合作时,佩奇就开始暗示那些合作程度较差的参与者说出能“让我说‘好’”的词,而对于那些合作程度较好的参与者,佩奇则会让参与者说出“让我不说‘好’”的词。这些参与者很快改变了说词语的方向,并让佩奇开始说“好”或不说“好”。

如果合作程度较差的参与者仍表现不佳,就说明参与者试图避免他们认为的研究者的不道德行为(他们认为研究者试图以某种假设的方式影响数据,并且不想参与操纵结果)。

显然,这些研究和类似的后续研究困扰了人工智能爱好者。在人类世界,某种预测过程似乎正在发生——人们对世界做出假设从而理解世界,指导行为。

此外,这些假设与其他可能性相关,这些可能性就是机器不具备思维灵活性。佩奇只需要说“让我不说‘好’”,就可以完全扭转参与者的行为。而对人工智能来说,这样一个简单的陈述需要一个新的训练过程,而不能立即重新理解过去的数据以导出算法推论。这是由于前面提到的人类理解的对立性。

机器本质上并不理解“让我说‘好’”和“让我不说‘好’”之间有一种特殊的对立关系,而人类则不然。这种情况带来很大影响,一些合作程度较差的参与者甚至公然采取藐视态度,因为他们的对立性使他们的道德权威比实验者的权威更大。不禁让人想起了iRobot的桑尼,这个机器人比其他机器人“聪明”多了,因为他像人类一样能够理解对立性。

有证据表明人类的记忆与机器的记忆大不相同。除硬件故障外,机器会存储无语境的信息。然而,人类的记忆取决于是否能够将其置于有意义的环境中。例如,克雷克(Craik)和托尔文(Tulving)发现,当人们被问到“____是一种鱼吗?”时,他们更容易记住该填空是“鲨鱼”,而不是“天堂”。

同样,人们记住按相似度分类的事物比记住没有这类分类的事物更容易。然而,对于计算机来说,事物是独立的,不需要语境。机器制造记忆和检索记忆与概念语境或现实语境无关,但对人类来说并非如此。

如前所述,意义创造是人与机器区别的核心。这让人工智能很难识别偏好和判断。人自然而然地会审视自己的语境,赋予周围环境以意义;在一种语境中,“hammer”是承包商的工具,在另一种语境中,“hammer”是武器,在其它语境中,“hammer”是镇纸。

如果听到“西雅图在地图上与洛杉矶不相邻”这一说法,听者可能会思考这句话的真实性。说这个话的人可能会用一种奇怪的方式折叠地图,让西雅图和洛杉矶紧挨着,然后沉浸在狡猾、骄傲的微笑中。意义创造是语境与对立性的结合;意义创造是人类理性的重要组成部分,机器则不具备这一点,至少现在还没有具备。

这并不是说人工智能注定要失败,也不能忽视已经取得的不可思议的飞跃。笔者不否认机器学习能够很好地模仿任何一项人类的任务,任何有限自动机都能做到这一点。

但要使人工智能令人信服,需要大量的极端案例、修改、再训练、大量计算。正如我们目前所知,人工智能不是很灵活,除非计算机从盲目地匹配对象转向创造意义,否则它就不可能有灵活性。由此可得出结论,在可预见的未来,人工智能最适合于概念灵活性很小、不受环境影响、不涉及对人类偏好的任务(例如,辅助耕作和驾驶飞机等任务)。人工智能工程师应该在其他任务中发展机器学习,比如提出好的建议(推荐食物/电影/朋友)或者做出道德判断(比如自动驾驶汽车的安全协议)等。返回搜狐,查看更多

责任编辑:

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇