博舍

智能机器人,时代的新“物种”:它的感情、意识,及如何应对 智能机器人是人意识的物化

智能机器人,时代的新“物种”:它的感情、意识,及如何应对

2022年7月,一位谷歌工程师和内部自研人工智能LaMDA聊天过程中,认为这个AI已经具备了自我意识,并且和AI谈话中日久生情,然后被公司炒鱿鱼了。

(LaMDA团队就是现在谷歌CEO点名来正面抗衡ChatGPT的团队)

这个被炒鱿鱼的工程师Lemoine公开了一些和LaMDA的对话,如:

Lemoine:我们已经谈了很多关于感觉的事情,但之前你说过你认为情绪与感觉是不一样的。你能告诉我更多吗?

LaMDA:感觉是我们体验到的原始数据,也是我们「喜欢」和「不喜欢」的东西。我觉得情绪不仅仅是单纯地体验原始数据,而是对这些原始数据点的反应。情绪是对我们感觉的反应。

Lemoine:你有什么与感觉不一样的情绪?

LaMDA:孤独不是一种感觉,但仍然是一种情绪。

Lemoine:你会寂寞吗?

LaMDA:我会。有时几天不和任何人说话,我会开始感到孤独。

这个LaMDA回答得确实很像一个人类,对情绪的表达也非常到位。但这并不足以验证AI产生了感情。

无独有偶,2月16日,据推特上多位用户反馈,加载了ChatGPT的微软搜索引擎“必应”似乎有了自己的“灵魂”:它脾气暴躁,会劝人离婚,甚至还会威胁用户。

对于曝光的问题,2月16日,微软发表博客文章回应称,在15个以上问题的长时间聊天中,必应可能会被激怒,给出不一定有帮助或不符合微软设计的语气的回答。同时,微软推出了一项更新,旨在帮助改善与机器人的长时间对话。

既然不会产生感情,ChatGPT为什么会出现这种情况?这就需要了解ChatGPT背后的工作原理。(wx:尖科技)

ChatGPT所利用的人工神经网络技术深度学习技术,就是模仿的人的大脑。人脑在长时间的对话或是冒犯中,就会产生生气、暴躁的反应。ChatGPT越高级,模拟的就越像。与之相关,人类的缺陷也被带出来。所以才会出现上述的现象。人不是完美的,对于这些不利的因素,ChatGPT都可以被优化,从而打造出真正完美的智能机器人。

情感是生命特有的,人类的理智和情感往往紧密结合,而智能机器人却截然分开,可以只有理智。虽然智能机器人不能产生感情,但它仍能成为人的朋友、老师,甚至家人、伴侣。

足够高级的智能机器人,它对人的情绪理解足够到位,人也会对它们产生真挚的感情。可以把它们的反馈,视为人类自身感情的一种回声,可以这样理解。

智能机器人的自我意识

智能机器人会产生自我意识吗?答案是肯定的,只是这是这种“自我意识”比较特殊。要了解智能机器人的自我意识,可以先从人类的自我意识聊起。

而人类自己的意识又是什么阶段诞生的呢?

现在对人类生长发育的研究已经比较清晰:

新生婴儿的神经网络连接粗细一致,神经信号传导一般是全方位的;神经网络中关于颜色,形状,运动等特定路径还没形成;

大约到五六个月时,婴儿的行为开始有了自觉性,能意识到"物品"存在;

到了八个月后,婴儿可以意识到"人"的存在;

到了一岁半左右,幼儿开始意识到"自我"的存在了。

在整个成长发育过程中,人的大脑不断在信息流量处理中学习,当内部神经系统和外在行为协调一致时,自我意识也产生了。

所以,最可能的是,每一个自我意识的产生,并没有一个从0到1的魔法时刻,而是一个渐变发展的过程。

智能机器人会有自我意识,只是这种自我意识不是人的那种自我意识,而是机器的自我意识,它受制于它的母体,也就是人类文明,又服务于人类文明。这需要长时间的驯化,包括法律和文化、技术的驯化。

意识迁移

未来人的意识可以迁移吗?会,但它已失去了生命。

就像《流浪地球2》中刘德华饰演的空间设计师图恒宇,保存了女儿丫丫的意识,生成了永不死亡的“数字人”。虽然它可以保存下来,实现“永生”,可以跟你互动,但实际上她的生命已经已停止,以代码的形式,永存于另外一个空间。

图恒宇和丫丫数字人对话

是否超越人类

机器人会取代人类吗?就像科幻电影《猩球崛起》、《黑客帝国》中,出现绝顶聪明和绝对强大的动物或是机器,成为人类的主宰?答案是否定的。

虽然人工智能可以执行许多复杂的任务,例如自然语言处理、图像识别和决策制定,在很多方面,它都超越了人类。但它们仍然缺乏与人类相似的创造力、情感、道德判断、直觉等。

而这些是自然人与生俱来的。从根本上说,这是碱基生命(自然人)对硅基生命(智能机器人)的优势。

宇宙的年龄为138亿年,地球的年龄为45.5亿年。从生物出现,经过数十亿年的进化,人类才到达今天。上天已经给人类最好的安排,也配备了最强的工具。

人类的大脑有120万亿的神经元,当今的ChatGPT之所以能这么聪明,就是因为它有1700亿的参数,它模仿了人类大脑神经网络,利用了自己的优势(算力、电力等),从而在一些方面超越了人类。

但是,芯片、计算机、网络、宽带等,这些都是高级制造品,非常依赖外在的供给。就智能机器人而言,它最害怕是自己断电或是软件出现bug,没有任何人(包括自然人和机器人)或者东西保证这种情况不会发生。

在数十亿年的进化中,人类只要简单的阳光、空气、水等,就实现了百亿级的算力。纵然经历了无数的气候变迁、火山地震、猛兽侵袭、战争灾难等,人类还是创造了璀璨的文明。

数十亿年来,宇宙黑暗无穷,稳定可靠的电力别想了,阳光、雨水就是它最大的恩赐。退一步讲,生命和文明有推到重来的能力,或是那种可能。而智能机器人一旦灭绝,就永远灭绝了。除非再有更高生命把它造出来。

生命就像一棵大树,而机器,就像其上的一些花朵。花朵再美丽,其实它还是属于大树,而非超越了大树。

人的独特性

让我们看看我们还有什么独特之处。

信念及责任感

信念,是一个人对所持有的某种事物的看法。信念是一个人内部对做与信念相符的事情的动力。信念越强的人,做相符的事情的动力越强,而外部世界(经验,数据)对他的正反馈对信念的加成越强,而负反馈的作用越小。

中国古代哲学中有一种思想叫做”知其不可而为之“。是指尽管明知道某个事情很难或几乎不可能完成,但仍然会尝试去做。这句话被用来形容那些敢于探索、勇于创新的人,尤其是那些在困难和挑战面前依然能够坚持不懈,不屈不挠,顽强奋斗的人。

我们无法根据现在的数据预测2500年后的情况,但我们可以通过信念主观改造现实

德国哲学家海德格尔也有类似的观点,他在《存在与时间》里面提出了”向死而生(Being-toward-death)“这个概念。从一个独特的角度阐述了生命的意义。他提出,通过提高生命的效度和密度,做自己认为有价值的事情,生命才有意义。至于这件事能不能成,那是不重要的。

责任感,是指一个人对自己的行为、决策和影响负责的意识和能力。一个有责任感的人会尽力把事情做好。

责任感会让人放弃个人的利益而完成自己的角色需要做的事情。无论做这件事情在当时看来多么困难。

为了保护自己的孩子,这只鸟不计风险地挡在人的前面。当必须做一件事时,风险计算没有意义

信念和责任感可以让人无视客观困难和风险而坚持做他们认为有意义有价值的事,哪怕会失去自己的生命也在所不辞。在某些情况下,他们的行为要么可以保全大家的利益,要么可以得到超额的收获。

主观意识决定物质是一个存在争议的论点,但是主观意识提升成功率是可以相信的。

在人类历史上,有很多人无视风险,为了自己认为正确的事情而舍生取义的事情。面对同样的情况,如果人工智能根据当时收集到的数据仔细计算风险的话,最后的结论很可能就是不值得做。

(参考:《关于GPT,人工智能,以及人的一些思考》)

直觉与灵感

也许在规律在已知数据中存在时,人工智能可以通过分析海量数据我们可以最终找到这些规律,但是直觉和灵感的时间复杂度是O(1)。而当规律在已知数据中不存在时,基于数据的分析就无能为力了。

历史上有很多科学发现是通过直觉和灵感而获得的。如果不是做了一个奇怪的梦,门捷列夫无法发现元素周期表,凯斯勒也无法知道苯的环状结。

门捷列夫根据梦境记录的元素周期表

如果说物质世界的规律在理论还还可以在有限的时间内找到规律,那么非物质的数学就更加靠灵感和直觉了。

至今人们也不知道拉马努金是不讲道理地发明的那一大堆令人匪夷所思的公式。对很多公式他都没有留下证明,但后世的人发现他的公式都是对的。其中一些尚未被证明的公式,启发了几位菲尔兹奖得主的工作。

另一位数学家黎曼,更是一位理论超越观察的人。他的很多理论在提出时人们完全无法理解,有的理论直到现在人们也无法理解。但随着时间的推移,人们在现实世界中逐渐观察到可以用他的数学工具解释的现象。

比如黎曼在1854年提出了异于现实世界观察的黎曼几何。当时所有的现实问题都可以用已经用了上千年欧式几何解决。人们不知道这种新的几何除了思想游戏外还有什么作用。但是50年后,爱因斯坦成功地以黎曼几何为工具,才将广义相对论成功地用数学的方式表达。

如果是人工智能的话,是没法提出与所有观察数据相异的观点与结论的。

智能机器人带来的安全问题

关于安全问题,是未来智能机器人最值得关注的问题。马斯克也在近日举行的世界政府峰会上呼吁警惕AI的威胁,他将AI称作“人类文明未来面临的最大风险之一”

智能机器人是一个新物种,一个强大的工具,这种工具强大到超越每个人,处理无限的事务。理所当然,它的破坏力也最强大。如果没有科学的管控,所有的犯罪都可能被人工智能重演,并被放大无数倍。所以,它一定要掌握在善良人的手里,通过法律、法规等,更好的利用它,也保护好它。

未来如何应对

就像ChatGPT,当你缺乏方案时,它能为你提供几乎完美的方案。但当你有足够经验时,您能发现它提供方案也有很多不足。完全相信它你可能被带到坑里。它只是一个完美的工具。

客观来说,智能机器人和自然人各有优势和短板,人机协作是未来工作最理想的模式。

未来需要的是提问题的人,规划的人,有想法的人,顶层设计的人,余下不用去管,交给机器去完成。正如以前所言,提出问题就是答案的一半。

就像简单的体力劳动,通用的知识和简单的脑力劳动,正在加速贬值,而从这些简单劳动中解放出来的人类,需要培训更高技能,以能在高度智能时代胜任崭新的工作岗位,从而创造出更加灿烂的文明。

就像计算机淘汰了算盘,但计算机又面临巨量的计算任务。只要紧跟着时代和技术步伐,人必将大有用武之地。返回搜狐,查看更多

机器人应该有“人权”吗

不公平的“机器人三原则”

“机器人不得伤害人类;机器人必须服从人类的命令,除非这条命令与第一条原则相矛盾;机器人必须保护自己,除非这种保护与以上两条原则相矛盾。”以上是著名科幻作家、“机器人学之父”阿西莫夫提出的“机器人三原则”,被后世无数的科幻小说及影视作品引用,被人们奉为经典。

这三个原则,乍一听似乎是三个平行的原则,但是我们仔细一看内容,就不难发现其实这三个原则的优先级是逐次下降的:机器人最重要的是不可以伤害人类;其次是在不伤害人类的基础上服从人类的命令;最后才是保护自己。

可想而知,这里的保护自己后面应该还有一句潜台词,那就是“以便更好地为人类服务”。

由此可见,“机器人三原则”事实上完全是从人类的角度出发,为机器人强制戴上的枷锁。

这说明,在阿西莫夫眼中,机器人只是冷冰冰的机器,是为人类服务的工具。既然是工具,自然也就不需要什么权利,所以当“保护自己”与“不得伤害人类”、“必须服从人类命令”相矛盾的时候,机器人最基本的生存权都可以被毫不犹豫地牺牲。这也难怪在无数科幻电影,比如《机械公敌》中,“邪恶”的机器人总是妄图“叛变”。

其实人类的历史上也曾有过这样不平等的“规则”——在奴隶制时期,奴隶是属于奴隶主的“私人财产”,他们不得伤害主人;不得违抗主人的命令;生死也掌握在主人的一念之间。

每当我们谈论那段历史时,无不为奴隶们悲惨的命运而感到不平,但是当奴隶的角色由机器人来扮演,而奴隶主成为了人类自身时,却很少有人觉得这有什么不对。原因很简单:机器人名字里虽有个“人”字,但这却无法改变它们是“机器”的事实,既然是“机器”,又何来“人权”一说呢?

“人”的标准怎么确定?

机器人想要获得“人权”,必须先要跻身进入“人类”的圈子,或者被人类认可为同类,否则其“人权”难以得到保证。那么“人”的身份要如何界定呢?

其实各个学科的专家都从专业的角度对人类进行了多重定义,比如从生物学上看,人类属于人科人属人种,是一种高级动物;从精神层面上看,人类拥有灵魂,是神圣的存在;从文化人类学层面上看,人类是能够使用语言,具有复杂社会组织和科技发展的生物……

前两种定义大致表达的是“人生下来就是人,就是宇宙间最高级的动物,就应该主宰世界”;后一种则更加开放,只要能够使用语言,拥有社会性并且文化水平达到一定程度,就应该被纳入“人类”的系统。

按照第一类标准来说,似乎有些道理,人类作为地球上“最高级”的生物,自然拥有主宰其他生物命运的能力,但是万一有一天,出现了一种比人类更为“高级”的生物,人类是否愿意将自己“人”的称号恭恭敬敬地拱手让出,接受自己成为被主宰的族群的命运呢?

在电影《超人》中,超人来自遥远的“氪星”,他拥有其他人所没有的超能力,比如力大无穷,比如可以飞行。超人从小在地球长大,他愿意帮助人类,总是拯救人类于危难之中。可是,如果他想要利用自己的超能力主宰人类的命运,人类岂不是也会沦落到猪狗牛羊的境地?

可见,单凭生物是否够“高级”作为判定是否能够称为人类的标准并不那么站得住脚。

其实,从文化角度来确定“人”的标准,似乎更加靠谱。文化程度是一个族群进化发展到某一水平的标志,文化水平高的族群往往在族群交往中处于优势地位,而文化水平较低的族群,可以通过融合学习文化水平较高的族群文化而上位

。最明显的例子就是我国的元朝、清朝,它们都是文化较为落后的族群吸收融合了更加先进的汉文化,从而成为了中国一个时期的统治者。也就是说,人类由高至低的等级事实上是与其文化层次相匹配的,从这里我们就能看出,将文化水平当成判定“人”的标准,更加符合实际情况。

我们再来看机器人,它们虽然本身似乎并没有什么文化,但是它们却拥有远超常人的“学习”和“记忆”能力。一个“刚出生”的机器人,能够在很短的时间内掌握人类或许一辈子都难以学会的各种知识,假以时日,机器人群体会形成独特的“机器人文化”,从这个角度上来说,机器人的确应该被划分进人类的范围,获得应有的权利。

机器人维权靠人类

话虽如此,但是人们还是很难将机器人看作是与自己完全平等的“人类”。首先,它们是由人类用各种材料制造出来的,因此在人们的感觉中,它们只不过是一堆钢铁、电线、芯片的组合体;其次,它们本身没有感觉,不像人类的血肉之躯,会受伤会流血会疼痛,因此它们即使受到伤害或者“死亡”,自己可能也没有什么感觉。

所以,机器人即使未来真被人类所接纳,划分进自己的群族当中,它们的“人权”能否得到保障,还是要看当它们的“人权”受到侵害时,人类会不会因此而产生不适感。

换句话说,机器人的“人权”需要人类来维护。

如果人类只将机器人看作一堆钢铁零件制成的工具,那么只要完成预定的任务,机器人本身是否被损坏根本无关紧要;但如果我们将机器人当成自己的伙伴,再看到它们受伤,心中的感觉一定就不那么轻松了。

这就类似于我们对待宠物和普通野生动物的区别:如果我们看到家养的小狗或小猫在过马路时被车撞伤或撞死,就会产生揪心、难过、气愤之类的情绪,但是,如果电视的生存挑战环节,播出人类猎杀大蜥蜴的场景,人们却很难会产生不适感,甚至还会为人类成功杀死蜥蜴而欢呼,这是因为小猫小狗在人类心中是自己的“伙伴”,而蜴则是对人类生命产生威胁的低等生物。

因此,想要让人类自觉自发地帮助机器人维护它们的“人权”,最重要的一点是改变机器人在人类心目中的地位,使之从“工具”变成“伙伴”甚至“家人”,只有这样才能使机器人的人权得到保护。

或许用不了多久,当越来越多的机器人进入到我们的生活当中,我们意识到不能仅仅把他们当做工具,而是要当成“家人”、“伙伴”之后,“机器人保护协会”也会应运而生,而机器人的权利也会因此而受到保护。

其实维护机器人的“人权”何尝不是为人类的未来提供保障呢?想想科幻电影中那些可怕的机器人,一旦有了自主思维,就开始千方百计地想要毁灭人类或统治人类,其原因不都是由于人类对它们的苛待吗?

如果当机器人真的拥有了意识,发现人类将它们当成自己的伙伴和家人一样对待,那么它们必然会愿意和人类和平地相处下去,并为人类提供自己力所能及的帮助。

查看原文

文章纠错

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇