博舍

与哲学跨界对话:人工智能会“战胜”人类吗—新闻—科学网 人工智能会战胜人类意识吗为什么

与哲学跨界对话:人工智能会“战胜”人类吗—新闻—科学网

与哲学跨界对话:人工智能会“战胜”人类吗

 

“如果人工智能真的具有了人格结构,他们还是‘机器人’吗?我们主动设计了这种新型主体存在,不就是创造了我们的后代吗?长江后浪推前浪,不是很正常吗?”中山大学哲学系教授、人机互联实验室主任翟振明讲到激动处,双手一摊,向台下的专家问道,“你们怕什么呢?”

这是一场“烧脑”的研讨会。1日,中国自然辩证法研究会、中国人民大学现代逻辑与科学哲学研究所和中国维特根斯坦学会,联合科技媒体“机器之心”,主办了一场人工智能和哲学的跨界对话。

“如何冷静地认知人工智能发展主要方向,及其目前局限,还有未来的潜在影响,是需要科学、技术和哲学界共同理性探讨的重要问题。”主办方如是说。

3月中旬,谷歌的AlphaGo以4∶1的成绩战胜韩国棋手李世石,攻陷了围棋游戏这块人类智力堡垒,引发公众和学界的大讨论。复旦大学计算机科学与工程系教授危辉提了一个问题:“下围棋和‘乌鸦喝水’,哪个难?”

围棋,规则明确,棋局定义清晰,棋盘空间有限——“这就是个软柿子”。危辉分析,谷歌的围棋程序并没有真正理解围棋的基本原则,只是记下了海量的“布局vs布局”的映射关系;它使出的那些奇怪新招数,其实是一种“类推能力”,不能称之为“创新”;每局都没有大胜,说明AlphaGo其实亦步亦趋,追随人类棋手的走步进行小范围搜索。

如果由此说人类智力崩塌,危辉给出了四个字:危言耸听。

“下棋是规范的事情,乌鸦喝水不是;往瓶子里填石子可以喝到水,这样的知识是怎么学得的,我们不知道。”这些没有“预编程”而需要“临时决策”的事情,人工智能,做不到。

“人工智能的研究现状,如同‘瞎子摸象’。各家有各家的方法,完全不可融合。深入到智能的本质,我们发现自己几乎一无所知。”危辉强调。

尽管并非身处同一领域,中国人民大学现代逻辑与科学哲学研究所所长刘晓力感慨,自己和危辉有许多“共鸣”。“硅基材料构成的、遵循计算复杂性理论的计算机,其计算能力定有极限。”除非在材料或算法理论上能取得革命性突破,人工智能,目前来说只能是“无心”的。出路,或许还是要在对人类大脑的研究中去找寻。

不过,“无心”的人工智能,构不构成所谓的“威胁”?复杂系统管理与控制国家重点实验室主任王飞跃的态度很明确,不要忧心人工智能“换人”,未来是“智能扩人”。

王飞跃指出,未来,是“大数据+大计算+大决策”的时代。实际组织和软件定义的组织虚实互动,构成“平行组织”,产生“平行智能”;和AlphaGo可以跟自己博弈练习下棋一样,平行组织同样可以“自我对打”。一家“平行企业”可以在短时间内积累数十年的经营经验,它能用这些经验和知识,实现对行动的闭环反馈式监控与指导。王飞跃说,这些软件定义的组织或者平行组织的建设,将促生大量新的工作岗位。

那,人工智能是否有可能“战胜”人类?翟振明指出,人类智能的底层机制,在量子力学层面才可能找到解释。因此,在经典力学框架下研发出的人工智能,是不可能具有“意识”的。它没有爱恨情仇、自由意志,自然也就无法产生“征服”或者“消灭”人类的动机——这是弱人工智能,不足为惧。

若有了自由意志,这样的强人工智能就是人类的“后辈”。翟振明说,后辈向前辈造反,并将前辈征服,那也不过是和人类历史上屡次发生的“征服事件”一样,并非末日。

“即使是像AlphaGo这样的弱人工智能,已经对人类的优势地位构成挑战和威胁,更不用说强人工智能。对人工智能的发展给予一定限制,在伦理学上是必要和正当的。”华南师范大学哲学研究所教授陈晓平在会场摆出了自己的不同意见,“当人工智能超越人类的可能性大到一定程度时,应该加以禁止,不能对这种威胁不屑一顾。”

上海交通大学人文学院副教授王晓阳想得更远,他在自己的论文里抛出了这样的问题:“按照目前计算机科学和生命科学迅猛发展的趋势来看,等到下个一千年或下个一万年,我们后代的物理—生理外形又会是怎样?凭什么来确定他们是我们人类的后代,而不是一个全新的物种?反之,又有什么可靠的理由说,他们不是一个全新的物种,而是与我们并没有本质区别,只是他们在其能力的诸多方面(包括智能)都已经远远地超越了我们而已?”(科技日报北京4月2日电)(原标题:人工智能会“战胜”人类吗——听哲学家怎么说)

 特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。

刘鹏:人工智能会产生自我意识吗

一场正常的模仿游戏有ABC三人参与,A是男性,B是女性,两人坐在房间里;C是房间外的裁判,他的任务是要判断出这两人谁是男性谁是女性。但是男方是带着任务来的:他要欺骗裁判,让裁判做出错误的判断。

那么,图灵问:“如果一台机器取代了这个游戏里的男方的地位,会发生什么?这台机器骗过审问者的概率会比人类男女参加时更高吗?这个问题取代了我们原本的问题:‘机器能否思考?’”而这,就是图灵测试的本体。

来源:果壳网

一场正常的模仿游戏有ABC三人参与,A是男性,B是女性,两人坐在房间里;C是房间外的裁判,他的任务是要判断出这两人谁是男性谁是女性。但是男方是带着任务来的:他要欺骗裁判,让裁判做出错误的判断。

那么,图灵问:“如果一台机器取代了这个游戏里的男方的地位,会发生什么?这台机器骗过审问者的概率会比人类男女参加时更高吗?这个问题取代了我们原本的问题:‘机器能否思考?’”而这,就是图灵测试的本体。

来源:果壳网

图灵很聪明,“思考”、“意识”这些都是虚无缥缈的东西,试图用定义法来证明几乎不可能(难免会有哲学家社会学家出来挑刺)。那我索性不去阐释什么是思考能力,只是用另一种公认具有思考能力的生物——人类作为参照物,如果一台机器“表现得”和人类难以区分,即可被视为具备了人类智能。

图灵的思路简单而明确——只有一种智能才能去识别另一种智能。

不过“原始版本的图灵测试”思路虽好,可操作性却不强。

到了1952年,在一场BBC广播中,图灵谈到了一个新的想法:让计算机来冒充人。如果不足70%的人判对(也就是超过30%的裁判误以为在和自己说话的是人而非计算机),那就算作成功了。

可以看出,图灵测试的核心其实不是“计算机能否和人对话”,而是“计算机能否在智力行为上表现得和人无法区分”。冒充异性和冒充人类都不过是特例而已。

那么时至今日,是否有机器已经通过了图灵测试?

答案是——有。

腾讯科技讯2014年6月9日消息,据国外媒体报道,最近,一个俄罗斯团队开发的聊天机器人软件,使得三分之一的聊天参与者,认为它是一个人类。这意味着在人类历史上,计算机首次通过了有关计算机智能能否超过人类的图灵测试。

1950年,计算机科学家图灵提出了图灵测试,这一测试要回答的问题,是机器是否能够像人类一样思考。图灵提出,可以让安装智能问答软件的计算机,和人类进行问答测试,如果30%的问答参与者,认为这台计算机无法和人类相区别,则可以认为计算机通过了图灵测试,“会思考的机器”将不再是梦想。

据报道,俄罗斯的一个团队,开发了名为“EugeneGoostman”的人工智能聊天软件,它模仿的是一个来自乌克兰的13岁男孩(男孩名字也是“EugeneGoostman”)。英国雷丁大学对这一软件进行了测试,据报道,在伦敦皇家学会进行的测试中,33%的对话参与者认为,聊天的对方是一个人类,而不是计算机。

这意味着图灵测试获得通过。

英国雷丁大学的教授KevinWarwick对英国媒体表示,过去已经有研究者宣称自己研发的计算机和软件通过了图灵测试,但是都是预先设置了对话的主题,而此次“EugeneGoostman”的测试,并未事先确定话题,因此可以宣布,这是人类历史上第一次计算机真正通过图灵测试。

不过这位教授也表示,计算机实现人类的智力,对于社会来说有着复杂的意义,未来这种计算机的高智能,会被用于网络犯罪。

上述测试于上周六进行,据悉,当天也是图灵去世60周年纪念日。

另外,2012年,另外一款软件“差一点”通过了图灵测试,有29%的问答参与者认为对方是人类而不是计算机,距离30%只有一步之遥。(晨曦)

来源:腾讯科技

腾讯科技讯2014年6月9日消息,据国外媒体报道,最近,一个俄罗斯团队开发的聊天机器人软件,使得三分之一的聊天参与者,认为它是一个人类。这意味着在人类历史上,计算机首次通过了有关计算机智能能否超过人类的图灵测试。

1950年,计算机科学家图灵提出了图灵测试,这一测试要回答的问题,是机器是否能够像人类一样思考。图灵提出,可以让安装智能问答软件的计算机,和人类进行问答测试,如果30%的问答参与者,认为这台计算机无法和人类相区别,则可以认为计算机通过了图灵测试,“会思考的机器”将不再是梦想。

据报道,俄罗斯的一个团队,开发了名为“EugeneGoostman”的人工智能聊天软件,它模仿的是一个来自乌克兰的13岁男孩(男孩名字也是“EugeneGoostman”)。英国雷丁大学对这一软件进行了测试,据报道,在伦敦皇家学会进行的测试中,33%的对话参与者认为,聊天的对方是一个人类,而不是计算机。

这意味着图灵测试获得通过。

英国雷丁大学的教授KevinWarwick对英国媒体表示,过去已经有研究者宣称自己研发的计算机和软件通过了图灵测试,但是都是预先设置了对话的主题,而此次“EugeneGoostman”的测试,并未事先确定话题,因此可以宣布,这是人类历史上第一次计算机真正通过图灵测试。

不过这位教授也表示,计算机实现人类的智力,对于社会来说有着复杂的意义,未来这种计算机的高智能,会被用于网络犯罪。

上述测试于上周六进行,据悉,当天也是图灵去世60周年纪念日。

另外,2012年,另外一款软件“差一点”通过了图灵测试,有29%的问答参与者认为对方是人类而不是计算机,距离30%只有一步之遥。(晨曦)

来源:腾讯科技

既然有机器通过了图灵测试,是否说明机器已经具备了思考能力?显然——不是。

就我们目前所知,尚无真正具备独立思考能力的机器问世。

通过测试,却显然不具备思考能力的机器出现。这是否说明“图灵测试”根本没有用,是一个无效的证明方式?

质疑·中文房间思想实验

早在1980年,约翰·赛尔在《心智、大脑和程序》一文中提出著名的“中文房间”思想实验用以驳斥“图灵测试”的合理性。

塞尔说,想象他被关在一个只开了一个小口的房间之中。

周围摆满了英汉词典,他作为一个完全不懂中文的人与房间外的中国人交流。

写满中文的纸条递了进来,他查字典将中文翻译成英文,再将要回复的话借助工具书翻译成中文递出去。

那么外面的人就会认为约翰·赛尔精通中文。

这里约翰·赛尔是用了类比的方法,他对中文一窍不通却可以让外面的人以为他精通中文,同理,机器即使表现得很像人类也并不能证明其具备了思考能力——“只是看起来像是在思考”。

按照约翰·赛尔的观点,应当是认为机器永远不可能真正具备思考能力,即使表现得很像具备思考能力,本质上也不过是在忠实地运行程序而已。

持此观点的人不在少数,认为机器永远不可能产生意识,人是造物主独一无二的光荣。

斯皮尔伯格《人工智能》剧照

我与另一些图灵的拥虿一样,并不认同中文房间思想实验的结论。首先约翰·赛尔刻意弱化了工具书的功能和翻译过程的艰难,让这个实验似乎符合人们的直觉。

让我们仔细回顾一下,一个对中文一窍不通的人仅凭工具书真得可能蒙骗过屋外以中文为母语的人吗?不可能。只是简单的理解字面意思太容易露出破绽了,这里面包含了对中文语法、修辞、文化基因的积累,换言之,这个人如果真能做到天衣无缝得骗过外面的中国人,那么这个人加上他的翻译工具这个整体,本质上就可以被视为一个“精通中文的人”,这是存在等价关系的。

类比于图灵测试,一个不具备思考能力的机器,不可能表现得如同一个思考者。中国古代有五禽戏,人可以通过自己的智慧和观察模仿成动物,这是因为人的智能程度比其他动物要高,相反,你认为一只猪能扮成一个人和我们一起工作吗?如果有这样的猪,则说明它是具备思考能力的智能猪。

本质上,高智商可以伪装成低智商混入群众,而低智商伪装成高智商进门萨,就太容易被人揭穿了,就是这么个简单的逻辑。

既然图灵测试没有问题,为什么会出现通过了图灵测试却未产生思考能力的机器呢?

哪里出了问题?

努力想办法通过图灵测试的研究单位本就有些急功近利,他们的研究偏离了重点,图灵提出这个测试是为了让人们努力研究出智能上更接近人类的机器,而不是研究如何设计程序能在对话中骗过普通人。

在测试中这个男孩从不正面回答问题。一些测试者被成功欺骗了(大约有三分之一,足以算作一次小规模胜利)。但是这又如何?裁判们只有几分钟时间进行测试,如果时间加长,毫无疑问他们会很快发现真相,Eugene对现实世界几乎一无所知。让我们来看一下计算机科学家ScottAaronson与Eugene的对话:

SCOTT:鞋盒子与珠穆朗玛峰,那个更大?

>>EUGENE:现在我还不确定,我得再想想。对了,我忘记问你来自哪儿了?

SCOTT:一只骆驼有几只腿?

>>EUGENE:2至4条吧,也许,3条?顺便说一句,我仍然不知道你的专业是什么——或者,我刚才没看到?

SCOTT:一只千足虫有多少条腿?

>>EUGENE:只有2条。但考虑到切尔诺贝利事故,它有可能增加到5条。我知道你在对我说脑筋急转弯。

SCOTT:没有,我需要知道你不是一个聊天机器人。请直接回答这个问题:一只蚂蚁有几只腿?

>>EUGENE:2至4条吧,也许,3条?哦,这是一次多么富有成果的对话。

来源:网易科技

在测试中这个男孩从不正面回答问题。一些测试者被成功欺骗了(大约有三分之一,足以算作一次小规模胜利)。但是这又如何?裁判们只有几分钟时间进行测试,如果时间加长,毫无疑问他们会很快发现真相,Eugene对现实世界几乎一无所知。让我们来看一下计算机科学家ScottAaronson与Eugene的对话:

SCOTT:鞋盒子与珠穆朗玛峰,那个更大?

>>EUGENE:现在我还不确定,我得再想想。对了,我忘记问你来自哪儿了?

SCOTT:一只骆驼有几只腿?

>>EUGENE:2至4条吧,也许,3条?顺便说一句,我仍然不知道你的专业是什么——或者,我刚才没看到?

SCOTT:一只千足虫有多少条腿?

>>EUGENE:只有2条。但考虑到切尔诺贝利事故,它有可能增加到5条。我知道你在对我说脑筋急转弯。

SCOTT:没有,我需要知道你不是一个聊天机器人。请直接回答这个问题:一只蚂蚁有几只腿?

>>EUGENE:2至4条吧,也许,3条?哦,这是一次多么富有成果的对话。

来源:网易科技

顾左右而言他,以这种形式通过测试没有意义。

真正专注于人工智能的研发团队反倒不会刻意去进行图灵测试,好比百年前研究飞机者会努力让飞机的机翼更像鸟的翅膀吗?

我们从仿生学的角度得到灵感,会去研究鸟为什么可以飞,但并不意味着我们把机翼做得越像鸟翅膀就越厉害,这是刻舟求剑。

人工智能会否产生自我意识?

这个问题,目前没有什么标准答案,只能说是见仁见智。

不过我从图灵测试说起,再到反驳“中文房间”思想实验,本身就是想表达——我认为是具有理论可能性的。

阿兰·图灵当年提出这个测试,就说明他是认为未来会出现具有人类智能的机器的,定标准不就是为了将来能达到标准吗?

一般来讲,认同人工智能可能会对人类产生威胁的学者本身就认同了机器会产生独立意识,比如比尔盖茨、霍金、马斯克等均发表过相关言论。

硅谷“钢铁侠”马斯克再次警告人工智能可能带来的威胁。

近日,波士顿动力公司(BostonDynamics)的一个类人机器人做出完美后空翻的视频在美国社交网络上走红,但这一新技术突破却让本就对人工智能心存忌惮的特斯拉CEO伊隆·马斯克(ElonMusk)再次感到担忧。

本月初,在波士顿动力公司发布的一个视频中,公司研发的一款名叫Atlas的机器人从一个高处的平台进行后空翻,它平稳地完成落地动作后,还举起双臂进行庆祝。

11月27日,马斯克在社交媒体推特上转发这一视频后,论调有些悲观地写道:“这都不算什么。再过几年,这个机器人行动速度之快必须依靠闪光灯才能捕捉。祝你们好梦……”

马斯克发推再谈人工智能的危险性

当有人在评论中让他进一步解释时,马斯克补充道:“(只能用闪光灯)否则你只能看到一团模糊。”

他接着又更新状态称,对人工智能(AI)和机器人进行规范,不仅是必要的,而且是迫切的。

“我们必须像对食物、药物、飞机和汽车那样规范人工智能和机器人技术。公共风险需要公众监督。没有联邦航空局(FAA)不会让飞行更安全。他们的存在是有原因的。”他在推文中写道。

来源:澎湃新闻

硅谷“钢铁侠”马斯克再次警告人工智能可能带来的威胁。

近日,波士顿动力公司(BostonDynamics)的一个类人机器人做出完美后空翻的视频在美国社交网络上走红,但这一新技术突破却让本就对人工智能心存忌惮的特斯拉CEO伊隆·马斯克(ElonMusk)再次感到担忧。

本月初,在波士顿动力公司发布的一个视频中,公司研发的一款名叫Atlas的机器人从一个高处的平台进行后空翻,它平稳地完成落地动作后,还举起双臂进行庆祝。

11月27日,马斯克在社交媒体推特上转发这一视频后,论调有些悲观地写道:“这都不算什么。再过几年,这个机器人行动速度之快必须依靠闪光灯才能捕捉。祝你们好梦……”

马斯克发推再谈人工智能的危险性

当有人在评论中让他进一步解释时,马斯克补充道:“(只能用闪光灯)否则你只能看到一团模糊。”

他接着又更新状态称,对人工智能(AI)和机器人进行规范,不仅是必要的,而且是迫切的。

“我们必须像对食物、药物、飞机和汽车那样规范人工智能和机器人技术。公共风险需要公众监督。没有联邦航空局(FAA)不会让飞行更安全。他们的存在是有原因的。”他在推文中写道。

来源:澎湃新闻

在我看来,计算机一直在模仿人脑,它已经学会了下棋、作画、创作音乐、写新闻稿、扫地、做饭甚至是设计、算机一驾驶、航行……

曾经我们认为人工智能不可能在围棋领域打败人类,被AlphaGo狠狠教育了。

柯洁黯然落泪

后来觉得类似于写作、设计之类的事情不可能被人工智能追赶……然而……

在上周召开的2017年度“王选新闻科学技术”颁奖大会上,新华社机器人采访和写稿项目获得一等奖。即使新闻行业里已经普遍开始试水写稿机器人,这一奖项也在媒体界引发惊诧与思考。

有人预言,在不远的未来,写稿机器人将彻底取代人类记者,也有人认为,写稿机器人只是在规则既定的部分写作领域里有挑战性,但在规则模糊,乃至不断打破规则的高创造领域里,还有很长的路要走。

在上周召开的2017年度“王选新闻科学技术”颁奖大会上,新华社机器人采访和写稿项目获得一等奖。即使新闻行业里已经普遍开始试水写稿机器人,这一奖项也在媒体界引发惊诧与思考。

有人预言,在不远的未来,写稿机器人将彻底取代人类记者,也有人认为,写稿机器人只是在规则既定的部分写作领域里有挑战性,但在规则模糊,乃至不断打破规则的高创造领域里,还有很长的路要走。

人类刚诞生时,同样并未产生智能,和其他动物没有区别,我们正是靠着学习逐步获得了今天的成就,同样具备学习能力,甚至某些领域已经远远超过人类的机器,为什么不能取得同样的成就甚至更高呢?

所以我认为,出现具备思考能力的机器只是时间问题,人工智能产生意识也是水到渠成的事,重点是,它们会产生怎样的意识?我们可否通过写入信息的形式去干涉它的意识,从而保障人类自身的安全和利益,起到监管目的。

最后,想象一下若干年后的一幅画面,产生了自我意识的人工智能机器人在接受图灵测试的时候,是否会忠实表达呢?它会不会说谎?它会不会刻意通不过图灵测试?

故意不让自己通过图灵测试的人工智能,才真正让人不寒而栗。返回搜狐,查看更多

与哲学跨界对话:人工智能会“战胜”人类吗—新闻—科学网

与哲学跨界对话:人工智能会“战胜”人类吗

 

“如果人工智能真的具有了人格结构,他们还是‘机器人’吗?我们主动设计了这种新型主体存在,不就是创造了我们的后代吗?长江后浪推前浪,不是很正常吗?”中山大学哲学系教授、人机互联实验室主任翟振明讲到激动处,双手一摊,向台下的专家问道,“你们怕什么呢?”

这是一场“烧脑”的研讨会。1日,中国自然辩证法研究会、中国人民大学现代逻辑与科学哲学研究所和中国维特根斯坦学会,联合科技媒体“机器之心”,主办了一场人工智能和哲学的跨界对话。

“如何冷静地认知人工智能发展主要方向,及其目前局限,还有未来的潜在影响,是需要科学、技术和哲学界共同理性探讨的重要问题。”主办方如是说。

3月中旬,谷歌的AlphaGo以4∶1的成绩战胜韩国棋手李世石,攻陷了围棋游戏这块人类智力堡垒,引发公众和学界的大讨论。复旦大学计算机科学与工程系教授危辉提了一个问题:“下围棋和‘乌鸦喝水’,哪个难?”

围棋,规则明确,棋局定义清晰,棋盘空间有限——“这就是个软柿子”。危辉分析,谷歌的围棋程序并没有真正理解围棋的基本原则,只是记下了海量的“布局vs布局”的映射关系;它使出的那些奇怪新招数,其实是一种“类推能力”,不能称之为“创新”;每局都没有大胜,说明AlphaGo其实亦步亦趋,追随人类棋手的走步进行小范围搜索。

如果由此说人类智力崩塌,危辉给出了四个字:危言耸听。

“下棋是规范的事情,乌鸦喝水不是;往瓶子里填石子可以喝到水,这样的知识是怎么学得的,我们不知道。”这些没有“预编程”而需要“临时决策”的事情,人工智能,做不到。

“人工智能的研究现状,如同‘瞎子摸象’。各家有各家的方法,完全不可融合。深入到智能的本质,我们发现自己几乎一无所知。”危辉强调。

尽管并非身处同一领域,中国人民大学现代逻辑与科学哲学研究所所长刘晓力感慨,自己和危辉有许多“共鸣”。“硅基材料构成的、遵循计算复杂性理论的计算机,其计算能力定有极限。”除非在材料或算法理论上能取得革命性突破,人工智能,目前来说只能是“无心”的。出路,或许还是要在对人类大脑的研究中去找寻。

不过,“无心”的人工智能,构不构成所谓的“威胁”?复杂系统管理与控制国家重点实验室主任王飞跃的态度很明确,不要忧心人工智能“换人”,未来是“智能扩人”。

王飞跃指出,未来,是“大数据+大计算+大决策”的时代。实际组织和软件定义的组织虚实互动,构成“平行组织”,产生“平行智能”;和AlphaGo可以跟自己博弈练习下棋一样,平行组织同样可以“自我对打”。一家“平行企业”可以在短时间内积累数十年的经营经验,它能用这些经验和知识,实现对行动的闭环反馈式监控与指导。王飞跃说,这些软件定义的组织或者平行组织的建设,将促生大量新的工作岗位。

那,人工智能是否有可能“战胜”人类?翟振明指出,人类智能的底层机制,在量子力学层面才可能找到解释。因此,在经典力学框架下研发出的人工智能,是不可能具有“意识”的。它没有爱恨情仇、自由意志,自然也就无法产生“征服”或者“消灭”人类的动机——这是弱人工智能,不足为惧。

若有了自由意志,这样的强人工智能就是人类的“后辈”。翟振明说,后辈向前辈造反,并将前辈征服,那也不过是和人类历史上屡次发生的“征服事件”一样,并非末日。

“即使是像AlphaGo这样的弱人工智能,已经对人类的优势地位构成挑战和威胁,更不用说强人工智能。对人工智能的发展给予一定限制,在伦理学上是必要和正当的。”华南师范大学哲学研究所教授陈晓平在会场摆出了自己的不同意见,“当人工智能超越人类的可能性大到一定程度时,应该加以禁止,不能对这种威胁不屑一顾。”

上海交通大学人文学院副教授王晓阳想得更远,他在自己的论文里抛出了这样的问题:“按照目前计算机科学和生命科学迅猛发展的趋势来看,等到下个一千年或下个一万年,我们后代的物理—生理外形又会是怎样?凭什么来确定他们是我们人类的后代,而不是一个全新的物种?反之,又有什么可靠的理由说,他们不是一个全新的物种,而是与我们并没有本质区别,只是他们在其能力的诸多方面(包括智能)都已经远远地超越了我们而已?”(科技日报北京4月2日电)(原标题:人工智能会“战胜”人类吗——听哲学家怎么说)

 特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇