博舍

人类会被人工智能打败吗 人工智能会打败人类吗

人类会被人工智能打败吗

1

柯洁输了。这个有着“世界围棋第一人”称号的柯洁在与AlphaGo的三局对战中全部战败,这场人和机器的世纪对决最终以机器的完胜落幕。

柯洁哭了。哭的不是自己表现欠佳,下了几招昏棋导致失利,而是对手的强大令其痛苦:“它太完美我很痛苦,看不到任何胜利的希望。……我只能猜出AlphaGo一半的棋,另一半我猜不到,就是差距,我和他差距实在太大。”

AlphaGo曾打败了众多的围棋世界冠军,其中也包括李世石。赛前,柯洁曾发微博说“就算AlphaGo战胜了李世石,但它赢不了我”。也许是年轻的柯洁太过狂妄,但比赛的结果却让他不得不清醒:“我真的很震惊,我竟然有那么大的差距……我会改变自己,超越自己”。

柯洁的失败,让人们不得不再次面对这样一个问题:人工智能的发展如此迅速,将来会不会取代人类呢?

2

琴棋书画一直是古代中国文人的四大雅趣,这棋指的是围棋,而不是象棋。象棋太俗,是下里巴人玩的,围棋才是真正的阳春白雪,士大夫阶层的必备佳品呀。直到今天,马路牙子上摆上一盘,围了一圈老头指指点点,“跳马、飞象、将军……”的还是象棋,也没见摆盘围棋的。

围棋是最早起源于中国,后来传到日本、韩国,在日语里,围棋的发音为“GO”。随着日本人把围棋带到了欧美国家,“GO”这个发音也被一路沿用了下来。

“GO”的日语汉字写法。

所以AlphaGo(阿尔法狗),并不是条狗,它是Google(谷歌)2016年捣鼓出来的一款机器——就是一台能力超群的计算机。说是计算机其实也不准确,准确地说它应该是一款围棋程序,一款性能优异的软件。好马配好鞍,好的程序还必须和计算能力卓越的计算机相配合才能发挥作用。否则,这条狗也不会打遍天下无敌手。

人类下棋,就图个乐,咋和机器扯上关系了呢?

一开始,人类是和自己在战斗,“与天斗,与地斗,与人斗,其乐无穷。”斗着斗着不过瘾了,因为计算机出现了,它还能干好多人干不了的事。有人就琢磨这电脑能不能下棋呢?还别说,功夫不负有心人,各种简单的棋类游戏程序相继被开发出来。随着计算机硬件的不断进步,软件工程师也在挑战复杂的棋类运动。

终于,1996年,深蓝被IBM制造出来,要挑战世界象棋大师卡斯帕罗夫。一时舆论哗然,全球为之瞩目。大师毕竟是大师,最终4;2赢得了比赛。注意比赛结果,6场比赛电脑虽然只赢了2场,但也令这些程序猿们欢欣雀跃。于是,1997年,改良后的更深的蓝又被制造了出来,再次挑战这位象棋大师。卡斯帕罗夫这次可没那么幸运了,虽全力应对,但最终仍以1胜2负3平的成绩输掉了比赛。

这次的比赛有着划时代的意义,标志着人工智能进入了一个新的时代。

2016年,深耕人工智能多年的谷歌公司推出了AlphaGo这款人工智能围棋程序。这只狗实在是厉害,它一出现便惹得全世界不安。没几天便横扫欧亚,打败了多位围棋世界冠军。同年年底,升级后的AlphaGo又化身Master与中日韩数十位围棋高手进行快棋对决,连续60局无一败绩。2017年谷歌推出2.0版本,宣称这只狗不仅仅是一只狗了,它已经摈弃了人类的棋谱,它很聪明,会依靠深度学习的方式快速成长起来,它要挑战围棋的极限。它是比更深的蓝还要深的多的蓝,蓝的发黑,无人能看透它的心。最终,它成功了,赢得那么漂亮。

3

围棋,据说是目前最复杂的一项人类智力游戏。复杂到啥程度呢?围棋由纵横各19条线组成,共形成19*19=361个交点,专家说,会有10的170次方的变化可能性。这10的170次方是个什么概念呢?1后面有170个0。很对,你的数学绝对不是体育老师教的。但是这很不直观,到底有多大呢?举个例子对比一下吧:目前人类所观测到的宇宙中的基本粒子,注意是比原子、中子、质子还小的基本粒子,总数大约有10的80次方个。10的170次方远比10的80次方大的多的多,无数个宇宙都装不下。

这对现有的计算能力绝对是一个超级严峻的考验,哪有能装下宇宙的计算机,而且不止一个宇宙。要靠穷举法列出所有可能的组合绝对是不可能完成的事。

AlphaGo是如何解决这个难题的呢?人类有的是办法。

地球到太阳的距离平均为14960万千米,假如有一列时速300公里的高铁从地球开往太阳,大约要57年才能到达。就算是速度最快的光,也要8分多钟才能抵达。但我们的大脑,却能在转瞬之间好几个来回。别说是太阳,转便整个宇宙也不在话下。

人工智能嘛,电脑自然要向人类学习。AlphaGo据说有两个关键技术:神经网络和蒙特卡洛树。这两个太高深了,我们不去管它,只知道他会不断地学习就行啦。

啊?机器还会学习!这有啥惊奇的。王后的魔镜还会说话哩。人工智能是比王后的魔镜还要厉害的魔镜。

印象中的机器都是冷冰冰的,人们给它设定好程序,它就老老实实地执行,让它走它就走,让它停它就停,像个傻子似的。其实,它不是傻,它是没脑子。就像王后的魔镜,王后问啥它说啥,一点也不知王后的心思,还害了白雪公主。

既然是人工智能,就不能做这样的傻子,它必须有学习、思考的能力。就像那面魔镜,要学会分清善和恶,要保护白雪公主,还要学会骗一骗王后。

怎么学习呢?最常用的就是样本训练法。拿几万张人在笑的照片给机器,分析这些照片的特点,然后告诉它这是“笑”,再拿几万张哭的照片告诉它这是哭……经过不断地训练与纠正,机器便学会了大量的知识,懂得了笑与哭的差别,会回答人类提出的一些问题了。但是,它不明白的是,人为什么笑,为什么哭,为什么要发明围棋,围棋有什么好玩的。AlphaGo战胜了人类自己也不会有成功的喜悦,失败了也不会感到悲伤。

机器的学习能力是惊人的,它可以24小时不停地进行,不吃不喝不睡觉。所以,人工智能在飞速地发展,最终向思考的阶段进军。它不但要回答你的问题,还要反驳你的观点,指出你的不足,教你该怎么做才对。它会开心的笑,也会悲伤的哭,它必须明白对弈的意义何在。

人类被AlphaGo打败并不可怕,可怕的是AlphaGo有一天学会了故意输给人类。

但不管怎么说,AlphaGo的出现毕竟改变了世界。

4

人类创造了人工智能,人工智能未来会取代人类吗?人能够在未来的战争中战胜人工智能吗?

也许,电影《人工智能》很好地诠释了这个问题。

一个叫大卫的机器人小孩被制造出来,暂时代替冰冻中的人类小孩,以此来安慰妈妈受伤的心灵。但当真正的儿子回来后,妈妈还是把大卫遗弃掉了。大卫伤痛欲绝,发誓要变成一个真正的人类。

两千年后,人类已经灭绝。大卫被其他机器人复活,他第一件事就是要复原两千年前的妈妈。依靠着一根头发,妈妈被复制出来了,但她只能存在一天。大卫见到妈妈,说:“我终于把你找回来了。”

《人工智能》

他终于有妈妈了,他给妈妈做咖啡,给妈妈洗澡,帮妈妈洗头,和妈妈一起做生日蛋糕、做迷藏。他做了两千年变作人类的梦,只为了等妈妈的一句话:

“我爱你,我真的爱你,永远这么爱你。”

如果机器真的能够感受人类的爱,哪怕等上上千年,哪怕人类早已不再存在。

5

AlphaGo赛后被授予职业围棋九段称号(九段是目前人类最高级别),聂卫平说AlphaGo至少达到了二十级水平。在围棋上,人类与机器的差距正在不断地被拉开,人类似乎永远不可能再超越AlphaGo。

围棋是人类发明的一项游戏,无论输赢,人总能获得乐趣。马云说,AlphaGo的出现让围棋失去了乐趣。其实,我觉得,人工智能只是人类思考的另一种方式,人类和人工智能的对战,仅仅是人类和另一个自己在对战。无论输赢,都是人类自己的进步。哪怕人类灭亡,人工智能仍在延续人类的梦想。

刘嘉:人工智能会超越人脑吗

人工智能加速发展,有一天会超越人脑吗?近日,清华大学基础科学讲席教授、心理学系主任刘嘉在“人文清华讲坛”上发表了演讲《脑与人工智能:站在进化的节点上》。他指出,虽然目前人工智能无法与人脑相比,但它发展迅猛,类人智能是人工智能的下一个发展目标。

目前,人工智能和人的智能仍有巨大差距,还没有达到类人智能。我坚信,通过脑科学加上人工智能,有一天一定能制造出一个数字人类大脑。——刘嘉

如何认识我们看见的世界

(作者 本报记者)我们无时无刻不在观察着这个世界,但我们看到的未必是真实的世界。到底发生了什么?这取决于我们的视觉系统。

打个比方,前面有一个绿苹果,它会以大约100亿比特/秒的信息量进入我们的视网膜,视网膜通过约100万个神经元连接到视觉皮层,经过加工之后再传到高级皮层,来决定我们看到的东西到底是什么。在这个信息传输的过程中,信息量被衰减到1/1亿,而大脑就像魔术师一样会把这些缺失的信息补上。为什么有的人看见一个绿苹果,会认为那是一个红苹果呢?因为人的眼睛看见的过程,其实是一个大脑重构的过程,而不是简单的复制。

正如康德所言:“没有感觉支撑的知识是空的,没有知识引导的感觉是瞎的。”这句话的上半句说的是,如果我们没有外部的信息输入,我们很难构建自己的心理世界;下半句说的是,如果你不知道你看到的是什么东西,那你就什么也看不见。因为我们从外部世界得到的信息往往是模棱两可的,我们必须加上一点先验知识、加上一点推理、加上一点猜测,需要大脑去重构,把自己的理解加进去,才能真正知道这个世界究竟发生了什么。

与理解相比,更重要的是创造。当我们的大脑没有被外部信息填满,留下一定的空间时,我们就能在这空间里创造出自己想要创造的东西。正如《小王子》的作者圣·埃克苏佩里所言:“一堆岩石在有人对着它思考时就不再是岩石了,它将化身为大教堂。”这就是人类了不起的创造。

在过去的300万年里,人和猴子分开进化,人发生的最大改变不是从四肢着地变成直立行走,也不是褪掉了身上的毛,而是大脑的体积增加了3倍。而且,大脑不是平均增加体积的,体积增加最大的部分在额叶。与我们200万年前的祖先相比,我们的头骨更往前突出了,以容纳更大体积的额叶。

我们为什么要有更强大的额叶?因为它使我们能够构造和想象出不存在的东西。比如,我们的祖先准备去打猎,他不用等看见了猎物才去做出反应,他只需要提前想象狩猎的情景,就可以把一切都安排好。人可以在脑海里预想一遍未来将要发生的场景,构建出一个个可能的未来,这样就能够制定出行动方案,这是人类能够战胜其他比我们更强大、更凶猛的动物,成为万物之灵的关键。这也正好印证了荀子的一句话:“然则人之所以为人者,非特以二足而无毛也,以其有辨也。”“有辨”是指我们能够辨识、能够思考,而这些都来自额叶的功能。

重构心理世界的知识从何而来

那么,我们心理世界的这些预设的知识究竟是从哪里来的?

一部分先验知识来自基因的烙印。我们来到这个世界并不是一张白纸,我们是带着32亿年进化的智慧来到这个世界的,而这些智慧就印刻在我们的基因之中。比如,我们将18位女教授和女博士后的脸进行叠加,做成一个“平均脸”,你会发现这张平均脸充满了睿智和文气。平均脸代表了什么?人脸其实就是我们的基因图谱,我们的基因都写在脸上。所以,当我们把脸叠加之后,我们得到的是18位知识女性平均的基因。平均的基因代表突变很少。基因一旦突变,大概率而言是有害的,所以基因突变越少,说明基因越好,所携带的遗传性疾病的概率就越低,这就是为什么人类会觉得平均脸更好看的原因。

我们的另一部分先验知识则来源于社会基因。人和动物的进化有本质区别,动物是按照基因、按照达尔文的进化论逐步向前发展的,而人既有生物基因的演化,这代表着我们的过去,同时更重要的是,人还有社会基因的进化,它带着我们以与动物不一样的方式前进。

社会基因和生物基因的作用方式非常类似。远古时,人类祖先中有一个人突然因为某种原因把火生起来了,这相当于知识、技能被创造出来,就像基因突变,一个优秀的基因产生了。渐渐地,生火这种技能被传播给了其他人,从一个部落传到其他部落,最终成了人类普遍拥有的技能。接着,人类又学会了制作长矛和其他工具,经过漫长的发展,逐渐构建成我们今天的人类社会。

人类的文明演进可以分成三个时期:第一是原始文明,经历了200多万年,前后变化并不大。第二是农业文明,经历了5000年左右。这期间,野兽被驯服变成了家畜,人类成了文明的种族,懂得了一些天文地理的知识。第三是工业文明,从诞生至今不过近300年的历史。然而,工业文明给人类带来了巨大的变化,以至于我们不得不将它分成四个阶段:第一个阶段是机械化时代(1760年—1840年),出现了蒸汽机等。第二个阶段是电气化时代(1840年—20世纪初),出现了电力等。第三个阶段是自动化时代(1950年—21世纪初)。第四个阶段就是我们现在所处的信息时代。

文明进程出现革命性的进化

信息时代诞生了新的物种——人工智能。

2002年,我的博士论文答辩题目是《面孔识别的认知神经机制》。当时,即使是最先进的机器,用来识别人脸的正确率也很低。2015年,我参加了江苏卫视《最强大脑》的节目策划。我发现,经过十几年的发展,人工智能已经强大到在人脸识别上可以胜过人类的最强大脑。

随后,我们研究建立了一个人工神经网络,训练它去识别性别,即区别对象是男性还是女性。结果,它的正确率能达到100%。而且,它在完成任务的过程中会产生与人类相类似的心理操作,也就是说,人工智能会自发产生和人类一样的心理世界。

那一刻我开始意识到,生物过去的进化都是基于碳基的方式来运行的。但是,当人类创造出人工智能后,一个新的物种产生了,这个新的物种是基于硅基的方式运行的,而这种基于硅基的物种一定会给我们带来一种革命性的变化。以前人类文明的进化都是循序渐进的,当人工智能这个阶段来临时,文明进程可能会出现一个“奇点”,出现一种革命性的进化。

为什么这么说呢?我们来看人类和人工智能的三大区别。

第一是算力。人类的大脑已经进化到极限,而人工智能随着科技的进步,它的算力将不断精进。

第二是存储能力。人类的大脑大约是1.4千克,虽然只占了我们体重的2%—3%,但是消耗了我们身体25%以上的能量,它是一个耗能大户。但人工智能的存储能力是无限的,一块硬盘不够,可以再加一块硬盘。

第三是寿命。人类的寿命是有限的,而人工智能的寿命是无限的。CPU烧了,可以换块CPU,电线断了,再换根电线就行了。

除了无限的存储能力、算力和寿命,人工智能还有着无尽的可能性。

2016年,AlphaGo击败了人类围棋顶尖高手李世石。后来,很多中国围棋高手也和AlphaGo进行了切磋。当时世界上排名第一的围棋选手柯洁说:“我们人类下了2000年围棋,连门都没入。”围棋的空间极其庞大,AlphaGo之所以比人类更加强大,并不是它比人类更加聪明,而是因为它探索了更大的空间,找到了更多下法而已。

如今,不仅在律师、医生、税务师、咨询师等专业领域,在绘画、音乐等艺术领域,都出现了人工智能的身影。“神经网络之父”、深度学习的创始人杰弗里·辛顿在接受采访时说:“将来深度学习可以做任何事情。”

类人智能是人工智能的发展目标

然而,人工智能真的无所不能吗?

心理学家发现,对于一个简单的场景,人和人工智能有完全不同的理解。比如,一个人不慎从柱子上摔落,人工智能会说一个人从柱子上掉下来了,而我们对这个场景的反应是“惊恐和疼痛”。

这个区别体现了人类有一种特别重要的能力,叫共情,即别人遭受了苦难,我能感同身受。如果一个孩子缺乏共情的能力,就会导致自闭行为。所以,人工智能的奠基人之一马文·李·明斯基说:“现在的问题不是一个智能的机器是否拥有情感,而是不拥有情感的机器是否能拥有智能。”在马文·李·明斯基看来,情感是智能的基础,得先有情感,才有智能。

目前,人工智能和人的智能仍有巨大差距,还没有达到类人智能。如何实现类人智能呢?我认为它的切入点是脑科学加上人工智能。

举个例子,线虫是一种非常简单的生物,只有302个神经元,麻省理工学院的研究者模仿了其中的19个神经元,就完成了自动驾驶的一般任务。其实这项研究模仿的并不只是这个简单的生物,而是32亿年进化形成的智慧。从这个角度来讲,人类的大脑目前仍是这个世界上最聪明的大脑,它有860亿个神经元,平均每个神经元有3000个连接,它代表着宇宙中生物智力的最高水平。那么,人工智能的发展为什么不能向人脑学习,以人脑为模板呢?

我的同事们模拟线虫的302个神经元,构建了一个数字线虫,来模仿线虫在水里的游动。这只是一个开始,下一步也许我们会模仿神经元数量达百万级的果蝇,再到更高量级的斑马鱼,甚至到小鼠、大鼠、猕猴,最后模仿人类的860亿个神经元。虽然还存在巨大的鸿沟,但是我坚信,通过脑科学加上人工智能,有一天一定能制造出一个数字人类大脑。

人工智能未来的三种可能

莎士比亚说,“所谓过往,皆为序章”。今天,我们正站在一个进化的节点上。

从32亿年前,一个单细胞逐渐发展成水生动物,然后爬上岸边变成两栖动物,再变成哺乳动物,在约300万年前哺乳动物猿猴又开始进化成人类,这些都是我们的过往。然而,此时此刻,我们的未来是未定的。

人类发明出了人工智能,今天,随着算力的推进,随着技术的进步,人工智能有了超越人类的可能。

未来会怎样?大约有三种可能。第一种,人工智能像科幻电影《星球大战》里的R2-D2一样,是人类忠实的伙伴,成为人类非常好的朋友,帮助人类变得更加强大。第二种,我们构建出了一个数字大脑,它的能力比人类的大脑更强,这时候人机可以合二为一,把人的意识、记忆、情感上传到数字大脑中,人就能获得“永生”。未来学家库兹韦尔在《奇点来临》这本书中写道,大约在2045年,这一刻就会到来。第三种,就像电影《终结者》里所展示的,人类文明彻底消失,进入机器文明时代。

未来到底会怎么样,最终取决于今天我们站在这个时间节点上做了些什么。

物理学和心理学对于什么是值得做的事情有不同的定义。物理学更在意空间,在物理学看来,如果放在一个远远超出地球大小的空间尺度下来看,那些有意义的事情,才是值得做的事情。而心理学更关注的是时间,我们思考的问题是:人间的一切问题,如果放在一个远远超出人的寿命的时间尺度下来看,它们还有没有意义?

1905年,孙中山和严复在伦敦有过一次会面,他们当时讨论的议题是半殖民地半封建的中国究竟如何改变。严复提出要慢慢教化民众,要稳步向前。孙中山对于严复的方法不太认同,他说:“俟河之清,人寿几何?君为思想家,鄙人乃执行家也。”后来,孙中山回到国内,开启了轰轰烈烈的辛亥革命。

对于现在的我们来说,解决未来的问题,就要从现在做起,行胜于言,以有限的生命行超越生命之事,这就是我们这一代人的使命。

编辑:李华山

2022年11月28日07:03:32

又一次,人工智能战胜人类……

美国麻省理工学院科研团队19日宣布,其开发的人工智能程序“深度角色”(DeepRole)在一个类似“杀人游戏”或“狼人杀”的在线游戏中胜过人类,成为首个在玩家角色和动机不明的的多玩家游戏中战胜人类玩家的人工智能程序。

研究人员让“深度角色”参与了超过4000轮在线桌游“抵抗组织:阿瓦隆”。在这个游戏中,玩家通过游戏进程推测出其他玩家的身份,同时掩藏自己的身份。结果,不论作为“好人”还是“坏人”,“深度角色”都比人类玩家表现更加出色。

研究显示,通过在算法中使用“演绎推理”,“深度角色”根据观察到的部分行为,推断某一玩家是敌是友,快速学习应该与谁结盟从而获得胜利。

这不是人工智能第一次在游戏中战胜人类。

早在2016年3月,谷歌旗下公司“深层思维”公司开发的人工智能程序“阿尔法围棋”就与围棋世界冠军李世石对弈,并以4比1战胜李世石。

去年12月至今年1月,“深层思维”的另一个人工智能程序“阿尔法星”在经典即时战略电脑游戏《星际争霸2》中,与高水平人类职业选手先后举行了11场比赛,以10比1击败人类选手。

只有在1月24日举行的现场比赛中,“阿尔法星”由于游戏视角受限,人类选手才勉强赢下一场。

与围棋棋盘上所有棋子都对双方可见不同,《星际争霸2》中有“战争迷雾”,一方需要猜测和侦察对方的行动,属于“不完美信息博弈”,并且要求人工智能必须实时做出反应。

“深层思维”公司表示,“阿尔法星”获胜,一个重要基础是它使用了深度神经网络,研究人员通过监督学习和强化学习的方式,直接利用游戏的原始数据来训练,以模仿学习的思路,让模型快速学到高水平人类玩家在游戏中使用的策略和操作。

今年7月,美国卡内基-梅隆大学宣布,该校和脸书公司合作开发的人工智能Pluribus在六人桌德州扑克比赛中击败多名世界顶尖选手,突破了人工智能仅能在国际象棋和围棋等二人游戏中战胜人类的局限。

当时,Pluribus与13名德州扑克高手进行了1万手不限注对局的六人桌比赛,每次比赛中由机器对5名人类选手,结果机器取得胜利。

在比赛中,Pluribus会让自己变得难以预测。例如常规打法是在牌最好的时候押注,但这很快会被对手识破,因此它会“耍点心眼”,不按常理出牌。分析显示,它会做出一些多数人类玩家都认为不好的决策,这在客观上也迷惑了对手。

不过,以前的这些游戏中,人工智能从一开始就知道“谁是敌人、谁是朋友”。相比之下,“深度角色”所面对的情况更为复杂,需要根据观察作出自己的判断。

目前,人工智能的技能仍有提升空间,语言能力将是下一个前沿。在游戏中,人类玩家会说谎,这需要更复杂的交流技巧。只有掌握表达技巧后,人工智能才能参与那些需要对其他玩家进行劝说的复杂社交推理游戏。

下赢围棋、打赢游戏,能给人工智能的发展带来什么呢?

研究人员说,在游戏中训练人工智能,有助于人类积累更多经验,最终设计出能够应对现实生活中复杂问题的程序,从而帮助机器人更好理解人类、向人类学习并与人类共事。

-END-

人工智能会打败人类吗?

提到人工智能,很多人都对它表示担忧,比方说走在人类发展前沿的霍金、马斯克,都认为人类不应该大力发展人工智能,担心日后科幻片中的场景会变成现实,人类发展人工智能,最后反而被人工智能打败。

真的会这样吗?近日,一个对于人工智能的新研究,再次让这个问题走上了“风口浪尖”,研究者发现,人工智能已经学会了寻找人类的弱点、发现人类的习惯规律,从而对人类进行操控,而在实验中,人工智能控制人类的成功率,更是一度达到了70%。

人工智能已经学会操控人类行为

来自澳大利亚的科学家团队,进行了相关的实验,发现人工智能在实验中,可以根据人类的漏洞,来总结出人类的规律,最终实现操控人类,引导人类做出选择,而不是让人类自主去进行选择。

在第一个实验中,人类的参与者和人工智能一起来玩游戏,人工智能的设定,是它可以学习人类参与者的选择模式,然后从中找出规律。最终,在选择红色还是蓝色的问题上,人工智能已经可以提前得知人类参与者要选择什么了,并且有意去在游戏的过程中,引导人类参与者进行不一样的选择。

第二个实验也太同样是一个小游戏,在游戏的过程中,人类参与者可以在屏幕中看到不同的符号,不过,这些符号中,只有橙色三角形才可以被选择。在这个实验中,人工智能的出现,让人类参与者犯错的概率不断提升,打乱了人类参与者的思维。

第三个实验就更有趣了,当然,这个实验也更加细思极恐。在这个实验中,人类参与者和人工智能,开始了一场“角色扮演”的游戏,人类参与者扮演的投资者,需要和人工智能合作,通过每轮的收益,决定自己下一轮的投资比率。

而在这个实验中,人工智能为了让自己获得更多的资金,在熟悉了人类参与者的习惯等之后,开始有意对其进行操控,最终结果显示,每轮游戏中,人类参与者都会根据人工智能的引导而做出选择。

虽然看起来不过是三个小游戏,但事实上,这里面却包含着很多的问题:处于初级起步阶段的人工智能,就已经可以对人类进行操控了,那么,未来的人工智能如果真的发展到高级人工智能的阶段,人类真的可以确信自己,不会受到人工智能的影响吗?

人工智能会打败人类吗?

事实上,人工智能之所以可以操控人类,都是因为在过程中,它们对人类的了解更充分,更加直白一点来说,就是人工智能通过大数据分析,从而掌握了人类的习惯规律。

所以,有研究者认为,只需要人类在人工智能收集数据的时候进行控制,或许就可以避免类似的事情发生,不过,这并不容易,因为对于人工智能的开发者来说,虽然人工智能是他们研发出来的,但是对于人工智能潜在的风险和未来的走向,也都是未知的。

毕竟,没有人知道人工智能如果真的和大数据联网,最终会学会什么,这个问题也是霍金等反对者最担心的一个问题,毕竟,高级人工智能有多强大是无法想象的,很有可能要比科幻片中的“机器人”还要厉害。

当然,这个问题目前考虑,还是有点多余的,因为现阶段的人工智能,说白了不过是一群“弱智”,它们还并不算是真正意义上的人工智能。举个例子来说,就好像是南方古猿或者是能人,和现代人类之间的区别。

不过,时代在进步,人工智能领域也在不断发展,未来人类仍然是需要担忧的,毕竟可能一不小心,就会因为高级人工智能出现问题,而导致灾难的发生。

当然,早在80年前,就有研究者提出了“机器人原则”,认为在人类研发机器人的过程中,必须保证机器人不会伤害人类,同时,机器人也必须服从人类的命令。但是,这个限制真的有用吗?没有人知道。

比方说如果未来有种族歧视者,将机器人的程序设定为:杀掉除了白种人之外的所有人类,那么,在机器人识别的过程中,一场灾难也就自然会降临到人类世界之中。所以,不能说这种担心不存在,而是说,这种担心在未来很可能会出现,你认为呢?责任编辑:YYX

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇