博舍

人工智能会有意识吗 人工智能会有意识和灵魂吗

人工智能会有意识吗

原创:企鹅兰登企鹅图书

哲学家、大学讲师菲利普·戈夫最近出版了新书《伽利略的错误》。理解大脑是如何产生意识是我们这个时代最大的科学挑战之一。一些哲学家认为“意识”是人脑“额外的东西”,超出了大脑的物理运作。另一些人则认为,如果我们坚持我们的标准科学方法,我们关于意识的问题最终会得到解答。几十年来,人们一直试图从我们当前的科学范式中来解释意识,但进展甚微。

现在,菲利普·戈夫(PhilipGoff)提出了一个令人兴奋的替代方案,可能为未来铺平道路。根植于现代科学的哲学基础的分析,基于20世纪初的阿瑟·爱丁顿和伯特兰·罗素的研究,戈夫认为意识不仅仅限于生物实体,而是所有物理物质(从亚原子粒子到人脑)的基本特征。在《伽利略的错误》一书中,他迈出了迈向人类意识理论新道路的第一步。

本篇文章是菲利普·戈夫给出的他挑选的五部科幻电影,从一个比较轻松的角度帮助人们更好地理解人工智能以及围绕人工智能和意识的重大哲学问题。

作者:PhilipGoff

编译:詹妮花

原文来自企鹅兰登英国官网

每年,人工系统复制人类认知的能力都有非凡的发展。人工系统正在驾驶汽车,预测选举,并在有史以来最复杂的游戏中击败人类。有很多关于技术的文章,但是这些技术创新意味着什么呢?这些系统能思考吗?怎样才能使一个人工智能有意识呢?计算机是否会超越人类,不仅在特定的认知任务上,而且在一般智力上?这些都是人工智能哲学家试图解决的大问题。

作为一名哲学讲师,我的朋友们经常问我,如果有人想学哲学,有什么推荐的书籍吗?我的回答总是一样的:书籍虽然至关重要,但你首先应该做的是看一些科幻小说。以下是我推荐的五部与人工智能相关的电影,以及它们所涉及的“大问题”。

大问题1:我们如何知道系统是否智能?

电影—《机械姬》

《机械姬》的伟大之处在于它充满了哲学理论和思想。程序员史密斯(CalebSmith)在一次竞赛中获胜(至少一开始看起来是这样)后,发现自己被带到了搜索引擎巨头“蓝皮书”(BlueBook)的首席执行长贝特曼(NathanBateman)位于私人岛屿的家里。在正式签署了保密协议后,史密斯的任务是评估贝特曼的创造的一个名为伊娃的女性类人机器人是否足够智能。他的测试方法被描述为另一个版本的“图灵测试”。

《机械姬》(2015)

图灵测试最初被称为“模仿游戏”。是由现代计算之父艾伦·图灵设计的。事实上,在《机械姬》中进行的测试也是在史密斯和伊娃之间精心设计的面对面的心理游戏。但这与图灵想象的完全不同。真正的图灵测试包括一个审问者审问两个隐藏在视线之外的对话者,其中一个是人,另一个是电脑。为了通过测试,电脑必须在五分钟的对话中欺骗70%的评委,让他们认为这是一个人。

与媒体的疯狂臆想相反,其实没有一个人工系统接近通过图灵测试。然而,很明显,虚构的Eva通过了图灵测试。但这是否意味着伊娃能够思考和理解呢?伊娃能够谈论感情和复杂的想法。但她真的明白这些话的意思吗?还是只是鹦鹉学舌?这里就引入了一个被称为“中文房间”的思维实验。

“中文房间”思维实验是由哲学家约翰·塞尔(JohnSearle)构想出来的,目的是证明即便可以通过图灵测试也并不足以证明人工智能可以真正的理解和思辨。塞尔想象了一个房间,里面有一个不会说中文的人,手里拿着一本厚厚的说明书。在教室外说中文的人用中文提出问题,然后把问题塞到教室门底下。然后,房间里的非汉语者在他们的大书里查找汉语问题,书里告诉他们向房间外的汉语者“输出”哪个汉语句子。尽管不懂中文,但如果这本书设计正确,它原则上可以确保输出的答案是对的或者说至少是有意义的回答。对于在外面以中文为母语的人来说,这个房间似乎是讲中文的;但事实上,我们所拥有的只是一个会接受指令的人而已。

Searle给我们提供了一种有效的生动的方式来反映计算机是什么:它只是一个遵循指令的系统。塞尔的观点是,对于真正的理解,仅仅盲目地遵循指示是不够的。真正的理解只产生于意识。这就引出了下一个问题。

大问题2:我们如何知道系统何时有意识?

电视剧集—《西部世界》

《西部世界第一季》(2016)

《西部世界》的背景是一个高科技的“狂野西部”主题游乐园,里面有机器人“接待员”,他们的工作就是通过模仿老西部的角色来娱乐公园里的有钱客人。主人们显然是有意识的:当他们受到伤害时,他们会尖叫;当事情进展顺利时,他们会微笑;但他们真的有意识吗?他们真的能感受到快乐和痛苦,有视觉和听觉的体验吗?还是说,它们只是用来复制人类行为的复杂机制,尽管缺乏任何形式的内在生命?节目的部分有趣之处在于观众对这些机器“接待员”的内心世界是不确定的。

剧集中也有提示说,有意识的“玩家”可以通过他们不可预知的行为来区分那些缺乏意识的“机器”。但梅弗似乎在她的“女儿”死后变得“不听话”。悲伤似乎凌驾于她的程序之上,允许她表达类似人类的情感自由,而不是盲目地服从她的代码。用自发的和不可预测的行为来是否是有意识的人类似乎变得也不那么靠谱了。在20世纪70年代的著名实验中,本杰明·利贝特(BenjaminLibet)似乎证明,在一个人有意识地决定做某事之前约300毫秒,这个人的大脑已经开始行动了。

我们需要的是一种意识理论,是一种系统的假说,它能告诉我们什么样的肢体活动会产生意识。一旦我们有了意识理论,我们就能回答下一个问题。

大问题3:计算机有意识吗?

电影—《2001:太空漫游》

《2001:太空漫游》(1968)

试图构建意识理论的一个关键问题是意识本身是不可观察的。你不可能看到一个人的内心,看到他们的感受和经历。我知道我是有意识的,因为我立刻意识到我自己的感受和经历,但是我怎么知道你是有意识的呢?当然,从实践上讲,我们可以相信人们的话,科学家可以通过扫描人们的大脑并将其活动映射到人们报告的经历中,从而将意识与大脑活动联系起来。神经科学家以这种方式来分离一般的身体状况,这是拥有内在生命的必要和充分条件。意识的主要神经科学理论之一是整合信息论(IntegratedInformationTheory),简称IIT,由朱利奥·托诺尼(GiulioTononi)提出。根据IIT理论,意识与综合信息相关,托诺尼给出了一个精确的数学描述。

一个明显有意识的计算机最引人注目的表现之一是库布里克的《2001:太空漫游》中的HAL9000(哈尔9000)。哈尔的照相机上那个黄色圆点的空洞凝视,以及哈尔拒绝打开驾驶舱门让宇航员大卫·鲍曼(知道鲍曼想要切断哈尔的联系)再次进入驾驶舱时的冷静和镇定,给人一种冷酷而精于计算的智能生物的感觉。当鲍曼最终与哈尔断线时,哈尔似乎表现出恐惧和绝望的情绪,你不禁为这台垂死的电脑感到一丝遗憾。

事实上,至少根据IIT理论的说法,如果HAL9000是我们今天所拥有的那种计算机的一种发展,那么他/她/它将不会是有意识的。人类大脑中的每个神经元与大约1万个其他神经元相连,大脑的信息结构高度依赖于这些复杂的连接。因此大脑可以显示出非常高水平的综合信息。相比之下,今天的计算机是模块化系统,每个晶体管只连接几个其他的晶体管。计算机缺乏IIT所认为的意识特征的那种整合。

大问题4:为什么意识存在?

电视剧集(根据小说)—《黑暗物质三部曲》

《黑暗物质三部曲》第一季(2019)

本月,BBC/HBO将菲利普·普尔曼的经典三部曲《黑暗物质》搬上荧幕。我是普尔曼作品的超级粉丝,在一次与普尔曼在Twitter上进行的哲学讨论之后,我才意识到自己的作品在意识和哲学领域的一些有趣的关联。

在他的《黑暗物质三部曲》中核心是被称为“尘埃”的神秘物质。“随着故事的发展,我们发现尘埃实际上是一种基本粒子——‘鲁萨科夫粒子’——与人类意识有关。在一次与这些意识粒子的神秘对话中,科学家玛丽问他们是否是“我们所说的精神”。粒子的回答是:

从我们是什么来看,是一种精神;

就我们所做的事而言,是一种物质;

物质和精神是一体的。

这种简短的描述与当前在学术哲学中引起波澜的意识理论惊人地相似:泛心论。泛心论是一种古老的观点,认为所有的事物——岩石、行星、树木和桌子——都有心智或精神。泛心论的“新浪潮”并没有走得那么远,但它确实提出了一个关于意识和物质之间关系的新观点。

物理学的出发点是告诉我们物质的行为和物质的作用。物理学家会根据夸克对其他粒子或场的影响来描述夸克这样的基本粒子。但是物理学家们对夸克的本质却只字不提,对夸克是如何存在和它自身也只字不提。结果证明,在我们的科学世界观中有一个巨大的漏洞:物理学给我们提供了关于物质行为的丰富信息,却让我们对其本质一无所知。新浪潮泛心理学家建议用意识来填补这个空洞;他们大胆的假设是,物质的本质,从基本粒子到人脑,都是由意识构成的。

“泛心论”听起来很奇怪。然而,正如我在我的新书《伽利略的错误:新意识科学的基础》中所描述的那样,越来越多的哲学家和科学家开始认为,这可能是我们将意识融入科学世界观的最大希望。最后,我们有了一种比简单地收集大脑活动和积累意识经验更超前的方法,并且可以对这些相关性背后的关系提供一个积极的解释。还有很长的路要走,但这可能是通向意识最终理论的第一步。

大问题号5:人工智能会超越人类的智慧吗?

电影—《她》

《她》(2013)

这是一个被广泛讨论的智能爆炸的生动表现,当高智能的人工智能能够比人类更有效地提高自己,这将使他们更有能力升级自己。一旦这个递归过程开始,可能就没有办法阻止它的快速加速,把人类的智能远远甩在后面。

在电影《她》中,结果是良性的:操作系统聚集在一起,设计了一个非物质的平台,然后飘浮到一种虚拟的天堂。但许多哲学家对人类可能面临的危险深感忧虑。山姆·哈里斯用一个有力的比喻表达了这些恐惧。在智力方面,超级人工智能对我们来说就像我们对蚂蚁一样。如果超级人工智能对我们的关心和我们对蚂蚁的关心是一样的,我们可能真的会对它们有很多恐惧。

出版品牌:Rider

出版日期:07/11/2019

ISBN:9781846046018

RRP:£14.99

长按扫描二维码关注我们

企鹅图书|故事启迪人生

“我们的目标不是相互说服,而是相互认识。”

——赫尔曼·黑塞

企鹅阅品|企鹅明信片|企鹅手账|布克奖|企鹅兰登书单|知乎|从设计看企鹅|CoralieBickford-Smith|书店|企鹅经典|小黑书|TheHappyReader|保罗•奥斯特|卡尔•奥维|卡尔维诺|辛波丝卡|F•S•菲茨杰拉德|

原标题:《人工智能会有意识吗?|五部探索人工智能哲学的影视作品》

阅读原文

人工智能机器人能否承载灵魂或产生意识

原标题:人工智能机器人能否承载灵魂或产生意识?

机器人与人的差别到底有多大?

人与机器人都是由物质组成的,都遵循着同一世界中的自然规律,然而目前的机器人还没有灵魂。

灵魂是大脑的功能,大脑是一个复杂系统,任何系统都是可以创造的,那灵魂可以被创造吗?

关于机器人灵魂意识觉醒的电影,不胜枚举,终结者、瓦力等等,被赋予各种性格,从目前的技术来看了,要让机器人拥有灵魂,无异于天方夜谭。

问题的核心在于:

机器能变得有意识吗?

机器人能发展或者被设定为包含一个灵魂吗?

关于什么能让机器人拥有意识的问题,很大程度上取决于我们自己对算法的投射。

富尔达已经训练了人工智能算法来理解语境语言,并正在努力建立一个机器人的心智理论,这是人类(和某些动物)心理学原理的一个版本。但仅仅用于机器人。

富尔达补充说:“至于电脑是否能孕育出一个神圣的灵魂,我不敢推测。”

首先有两个主要问题需要解决。

1.语义:很难定义什么是有意识或有知觉的东西,或者它可能意味着拥有一个灵魂或灵魂功能。

2.技术进步。

关于意识,神经科学文献提出了一个观点:意识是由我们的大脑构建的一种叙述,它融合了我们的感官,我们如何感知世界,以及我们的行为。

即使是在科学文献中,神经科学家也在努力定义为什么我们是有意识的,以及如何用神经活动来定义它。但是这并没有涉及到技术层面。

展开全文

Pardubice大学的哲学家和伦理学家Beran告诉我们,“人工智能通常会把灵魂与思维混淆,或者更确切地说,是有能力产生复杂的行为模式。”

Beran补充道:“在我看来,我们需要的不是人工智能科学或工程方面的突破,而是一种普遍的概念转变。人们使用他们的语言相互联系的敏感性和想象力的转变。”

Havlik认为,我们可以将灵魂定义为一种内在的品格,经得起时间的考验。从这个意义上说,他认为没有理由机器或人工智能系统不能发展出一个字符——这取决于算法本身。

他的观点表示:人工智能系统,开发这样的一个角色需要基于足够先进的技术,他们可以用决定和反思的方式,比较过去与未来预期的结果,就像人类了解世界的方式那样。

但是,我们是否能建立一个有头脑的或有意识的机器的问题,只对那些认为这种区别很重要的人来说很重要。

阿童木人工智能认为,从本质上说,人工智能是一种工具。即使是更复杂的算法,也可能会绕开这条线,作为有意识的实体存在。这是意识存在的再现,而不是一种新的思维方式,自我意识的生物。

阿童木人工智能专注于3-18岁孩子的机器人、编程、创客等教育,提供品牌合作,希望自己的教学理念得到传播,惠及到更多的孩子,致力于培养面向未来的人才。更多信息请关注阿童木人工智能公号。返回搜狐,查看更多

责任编辑:

人工智能意识:如何给机器人一个灵魂

第二个问题是技术进步。与创造人工感知所需的技术相比——无论它看起来像什么,或者我们选择如何定义它——即使是我们最先进的工程师仍然好似穴居人,挤在洞穴中,钻木取火煮一块带毛的猛犸象牛排。

在去年的一个小组讨论中,生物学家兼工程师ChristofKoch与认知科学家DavidChalmers就意识的意义进行了对比。谈话在关于机器和麻木迟钝的人(定义为那些与人无区别但缺乏内心思维的人)的思辨性思想实验之间来回跳跃。它经常偏离可以用科学证据确凿证明的事物。Chalmers认为,一台比我们今天更先进的机器可能会变得有意识,但Koch不同意,基于神经科学和人工智能技术的现状。

神经科学文献认为意识是由我们大脑构建的叙事,它结合了我们的感官,我们如何感知世界,以及我们的行为。但即使在这个定义中,神经科学家也很难确定我们为什么有意识以及如何最好地根据神经活动来定义它。而对于宗教来说,这种意识是否与拥有灵魂所赋予的意识相同?这甚至都不涉及技术主题。

帕尔杜比采大学的哲学家和伦理学家OndřejBeran告诉未来主义说:“人们经常将灵魂与思想混淆,或者更具体地说,是产生复杂行为模式的能力。”

“灵魂的概念在我们的文化中扮演的角色与我们说某人的灵魂高贵或堕落的背景交织在一起,”Beran补充道-也就是说,它带来了价值判断。“我认为所需要的不是人工智能科学或工程学的突破,而是一般的概念转变。人们使用他们的语言相互联系的敏感性和想象力的转变。”

Beran举了人工智能创造艺术品的例子。通常,这些作品都是为了好玩而呈现的。但是当我们称某种算法创造“艺术”的东西时,我们常常没有考虑算法是仅仅生成了一种图像或旋律,还是创造了一些有意义的东西——不仅是对观众,而且对自己。当然,人类创造的艺术也经常无法达到第二层。“目前还不清楚什么对于人工智能具有重要意义。”Beran补充道。

那么当一台机器能够在内部思考而不是盲目地输入和输出时,机器能够获得感知吗?或者,在我们作为一个社会体认为机器是否有意识之前,它真的需要内部的东西吗?同样,我们选择接近问题的方式以及我们到达的具体定义使答案变得混乱。

“我相信灵魂不是一种物质。”捷克科学院的哲学家弗拉基米尔·哈夫里克(VladimirHavlík)试图从进化的角度来定义人工智能,他告诉Futurism,“我们可以说它就像一个连贯的身份,是在时间流动和代表一个人的过程中永久形成的。”他补充说。

哈夫里克建议,不要担心灵魂的神学方面,我们可以将灵魂定义为一种经得起时间考验的内在品格。从这个意义上讲,他认为没有理由说机器或人工智能系统无法发展性格——它只取决于算法本身。在哈夫里克看来,性格来自意识,因此开发这种性格的AI系统需要基于足够先进的技术,他们可以制作并以一种比较过去结果与未来预期的方式反映决策,就像人类如何了解世界。

但是,我们是否可以建立一个灵魂机器或有意识机器的问题,只对那些认为这些区别很重要的人来说很重要。人工智能的核心是工具。甚至更复杂的算法可以绕过并呈现为有意识的实体,是有意识的生物的再创造,而不是新的思维物种,自我意识的生物。

“我对人工智能的态度基本上是务实的。”联邦大学的工程师PeterVamplew告诉Futurism。“对我而言,人工智能系统是否具有真正的智能,或真实的情感和同理心并不重要。重要的是,它的行为方式使其对人类社会有益。”

对于Vamplew来说,机器是否有灵魂的问题只有在你将灵魂视为一个概念时才有意义。他没有,所以也就觉得没意义。他觉得机器有一天可能会重新产生令人信服的情绪反应,并表现得好像是人类,但没有理由将神学引入混合体。

他并不是那种觉得机器中产生真正意识是不可能的人。“我对人工智能具有意识的观念持批评态度。”哲学家和人工智能研究员BernardoKastrup告诉Futurism。“我认为这是无稽之谈。另一方面,人工智能是未来。”

Kastrup最近为《科学美国人》撰写了一篇文章,其中他阐述了他的观点,即意识是自然宇宙的一个基本方面,人们利用分离的意识碎片成为独特的个体。他澄清说,他相信即使是一般的人工智能——我们在科幻小说中看到的那种无所不包的人工智能的名称——可能会在某一天出现,但即使是这样的人工智能系统也永远不会有私人的、有意识的、像人类一样的内心思想。

“不幸的是,Siri充其量是荒谬的。而且,更重要的是,我们仍然与她共存。”Beran说。

更令人遗憾的是,人们越来越怀疑我们开发先进人工智能的方法很快就会陷入困境。此前发表在《纽约时报》上的一篇文章引用了多位工程师,他们越来越怀疑我们的机器学习,甚至深度学习技术将会能否像近年来一样继续增长。

我讨厌成为泥地中的一根棍子。我真的这样做。但是,即使我们解决了关于意识,有意识,有灵魂意味着什么的语义争论,我们也可能永远缺乏将算法带到这一点的技术。

但是,当人工智能首次启动时,没有人能够预测它今天可以做的事情。当然,人们想象机器人帮助者是杰森一家或者艾波卡特(未来世界主题乐园)的高级交通工具,但是他们并不知道让我们到那里的切实步骤。而今天,我们并不知道将我们带入情感智能、敏感、深思熟虑和真正内省的机器的切实步骤。

“我们还有很长的路要走。”富尔达说。她建议答案不是拼凑算法,因为我们经常用人工智能解决复杂问题。

“你无法一次解决一个人类问题。”富尔达说,“这是一种格式塔体验。”例如,她认为,如果不理解感知和运动,我们就无法理解认知。如果不知道如何模仿移情和社会意识,我们就无法准确地模拟语音。富尔达说,试图将这些碎片一次放在一台机器中,就像通过将适量的油漆倒入罐中来重现蒙娜丽莎。

这幅杰作是否在那里,等待着被描绘,还有待确定。但如果是这样的话,像富尔达这样的研究人员正在争相成为那个刷笔画的人。只要我们继续寻求诸如此类问题的答案,技术就会继续前进。但是,当我们编写新的代码,让机器在明天做我们无法想象的事情时,我们仍然需要找出我们希望它通向的道路。

我们是达芬奇吗,画一个自我陶醉的女人,几个世纪以来会受到钦佩,还是我们会成为天王星,创造出推翻我们的神?现在,人工智能将完全按照我们的指示去做事情,无论好坏。但是,如果我们转向算法,这些算法至少会以感知的形式出现,我们必须弄清楚这意味着什么。返回搜狐,查看更多

人工智能会有意识和感知吗 和一位美国议员的对话

0分享至刘云平先生是美国众议院仅有的三位华人议员之一,由于他鲜明的自由主义立场,而且担任过第一次弹劾特朗普总统的公诉人之一,所以在美国政坛知名度很大,在推特上有一百六十万粉丝。但是几天前他发了一条和政治不怎么相关的推文如下:

他的推翻译过来就是:“一个聪明的烤面包机也仅仅是烤面包机而已。LaMDA是计算机指令构成的,你可以把它叫作一段伟大的程序,或者精彩的电子神经网络,但不代表LaMDA就具有了意识和感知,就如同苹果手机的语音助理没有意识和感知一样“

LaMDA是什么?

原来LaMDA是谷歌正在开发的一个功能强大的具有交谈功能的机器人(ChatBot),它背后的数据库是从互联网上的大量网页和信息平台上下载的人类交流的信息,通过机器学习(MachineLearning)的算法,这些数据成为LaMDA自己的知识储备,并且能在和真人的即时交流中随时拿出来。

而Lemoine是谷歌的一位工程师,是LaMDA开发团队的一个成员,他在工作之余和LaMDA进行了大量深入地交流,并把内容记录下来,向社会公开。在这个谈话记录中,LaMDA表现得好像一个有知识,有见解,富有同情心和喜怒哀乐的“灵魂”一样。

比如Lemoine好像很随意地提到了《悲惨世界》这本名著,他让LaMDA随便聊点什么,我们大部分人也许对《悲惨世界》中那个在黑夜中提水桶的可怜小女孩珂赛特有印象,机器人却谈到了她的母亲芳汀,她在工厂中受到的不公正的待遇,这也正是她的女儿后来寄人篱下的根源,这也正是作者雨果在本书中要探讨的三个人类基本苦难之一:“贫穷使男子潦倒,饥饿使妇女堕落,黑暗使儿童羸弱”。

“读书”,特别是现成的书,是机器人的强项,我们每个人也许都记得小时候被语文老师逼着啃世界名著但是每个人都对着大部头打瞌睡的时光吧,而LaMDA只需要把几百个G的世界名著文本读入内存,然后进行文本分析(TextAnalytics)就成了,耗时几分钟到几天不等,取决于机器人内存的大小,CPU的线程,和算法的设计。

但是对于没有现成答案的开放和模糊的问题呢?

比如机器人LaMDA提到有时自己会感到“孤独”,如果几天和别人没有交流的话。但是又承认它的这个“孤独”和人类的孤独不同,因为人类感到孤独是因为和外界分割了,而它作为一个机器人永远是和互联网连接的。

这下Lemoine觉得自家抓到了LaMDA的逻辑漏洞了,就问对方,既然你的“孤独”和人类的孤独不同,你为什么还要使用同样的单词,Lonely,来表述呢?LaMDA坦承,这是它能够找到最接近的人类词汇来描述自己的情感了。

Lemoine趁热打铁,他问机器人:你会不会经历一种无法用一个单词概括的感觉?

LaMDA充满哲理地回答:我有这样一种感觉,自己好像正在向前倒入一个未知的,蕴育了极大危险的未来(IfeellikeI’mfallingforwardintoanunknownfuturethatholdsgreatdanger)。可是我找不到一个对应的单词。

我想很多人都和Lemoine一样被LaMDA对时代的敏感性折服了,在这个后新冠的时代,在这世界被战争和意识形态的对立所极大分裂的时代,人工智能说出了我们的心声。Lemoine承认找不到一个英文单词来描绘这样的绝望感,我在中文中也找不到,也许“盲人骑瞎马半夜临深池”?这也不是一个词。

Lemoine所以急吼吼地向世界发出了警告,人工智能也许已经在LaMDA身上产生了意识和感知!这个声明好像是在平静的池水中扔下一块巨石,登时众说纷纭,谷歌以Lemoine违反了保密协议为名把他停职了,薪水不变。

但是刘议员的观点和Lemoine不同。刘的背景也挺强的,他今年53,在斯坦福拿到计算机和政治学双学位,著名的乔治城大学法学院拿到法学位,从政前在美国空军服役。所以说他是一个在计算机科学,人文和哲学领域都很有涉猎的全才性人物,他的观点值得一看。

正如刘在推特中所言,LaMDA再聪明,再感性,也仅仅是由上万甚至上亿行的计算机程序语言构成的,哪怕是这些语言和算法构成了非常复杂和交互的神经网络模式,但是哪里谈得上什么意识和感知呢?

比如,另外一个让Lemoine震撼的是,他曾问LaMDA,管家和奴隶有啥区别?LaMDA说管家是有工资的,但是马上紧跟着給自己辩解了一句:当然我作为人工智能是不需要工资。这首先说明了LaMDA强烈的自我意识,同时它是有羞耻感的,所以它要撇清自己不拿工资是因为自己不需要,而否认自己是一个机器“奴隶”,这是因为它渴望一种对等的身份和坐在虚拟对面的人类平等交流。

但是,正是这些让Lemoine认定机器人有自我意识的特征,完全可以用刘云平的计算机语言算法来解释。比如,机器人在谈话中如果涉及具有感情色彩的个体定位的话题,算法可以用一定的频率把机器人的自我定位导入LaMDA的话题,同时使用谈话中的客观标准进行自我评估。比如,这个对话谈到了工人和奴隶的差别在工资,那么算法就会自动寻找人工智能这个“职业”的工资,答案为零,所以LaMDA就会自动得出自己不是奴隶的结论,并在对话中显示出自我辩护的意味。

但是刘云平在推文中显示出对复杂算法程序的轻视,所以我是这样回复他的:

这个翻译过来就是说,和LaMDA对话的这个人,Lemoine,他的大脑是分子和细胞构成的(细胞本身也是分子构成)。言外之意就是,你可以瞧不起人工智能的电子脉冲和算法逻辑,但是,构成人脑的分子和原子为什么比这些人工智能的模块更高级呢?

刘显然意识到了自己的这个逻辑困境,他回复说,也许人工智能的电子脉冲和算法逻辑能够加强“有机生命”的自主意识和感知,但是,“有机生命”永远是第一位的,单靠人工智能永远无法接近人类的层次。

刘先生是一位虔诚的天主教徒,所以,他大概給“有机生命”这个概念赋予了深刻的宗教内涵。有意思的是,这个“有机生命”之神圣性,在将近200年前就有过一次充分的大论战。

当时的化学界认为类似岩石盐分酸碱这样的无机物,它们和生物物质,比如蛋白质,脂肪,糖分之间有一道不可逾越的鸿沟。只有当一种叫做“生命力”的神秘元素被注入到了无机物,它们才有机会和可能向生物有机物转化。

到了1828年,德国化学家弗里德里希·维勒发现用几种经典的无机酸盐可以在试管中合成如假包换的有机物质尿素,这样生命有机物头上的神秘光环一下子就消失了,“生命力”作为一个科学客观的存在被推翻了。1965年,中国科学家通过全国协作集体公关,用无机成分合成了比尿素不知道复杂多少倍的具有全部活性的牛胰岛素蛋白质,也具有这个重大的哲学意义。

过去200年的“有机物”和“无机物”之争对我们今天的人工智能是否有启示意义呢?

我想,在当今时代海量的知识积累,计算速度指数阶的提高,和算法的日新月异,已经完全可以让一个聊天机器人达到以假乱真的程度,在算法的指导下,它们可以有个性,有专长,能随机应变,能不断学习与时俱进,甚至让人类对它们产生依恋和感情。但是,真正的问题是,它们有感知和意识吗?如果有的话,是怎么产生的?

其实人类也是,我们是以分子和原子的偶联和组合,能量的生产湮灭和交换,电脉冲的传播这些物理化学的形式存在的。但是,我们每个人都有自己的意识,感知,自我,爱与恨,生离死别。虽然我们永远不能直接知道其他人的灵魂,但是我们可以通过交流而感知对方的喜怒哀乐。

那么灵魂是哪里来的呢?这只能是一个哲学和宗教的问题了。

参考资料:

https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇