博舍

神经科学告诉你:AI会不会产生自我意识 人工智能为什么会产生自我意识

神经科学告诉你:AI会不会产生自我意识

本文来自微信公众号:神经现实(ID:neureality),作者:KOCH & TONONI,原文标题:《我们能够量化机器意识吗?》,题图来自:《机械姬》

想象一下,在不远的将来,你拥有一个智能电话,这个电话与位于云端的个人数字助理(PDA)捆绑在一起。你为PDA设定了一个性感的女声,在你细碎零散的数字生活里,不论是电邮或社交媒体账号,还是日历、相簿和通讯录,她都能做到无微不至。她比你的母亲、妻子、朋友,甚至比你的心理医生更懂你。

她在英语交流上毫无障碍;在日常事务上与你无话不谈;她能迅速而准确地接梗。她的声音伴你安眠,也向你道早安。当她离线时,你感到惊慌。你幸福与否与她息息相关。所以,自然地,你爱上了她。偶尔,你会感到疑惑,她是否真的能够回应你的感受,并且她是否真的能够感受任何东西。但是,她温暖低沉的声音,以及她衬托你自恋欲的完美能力,超越了这些已有的怀疑。

唉,在你意识到她正和无数的顾客进行着同样亲密的对话时,你的迷恋最终冷却了。当然,这只是电影《她》中的一个情节。在这部电影中,正经历着寡淡无味生活的西奥多·托姆布雷爱上了他的PDA软件萨曼莎。在接下来的几十年,这种科幻场景将会成为普遍现实。深度机器学习、语音识别,以及其他相关技术已经取得了巨大进步,亚马逊的Alexa,苹果的Siri,谷歌的Now,以及微软的Cortana纷纷出现。这些虚拟化个人助手将会持续进化,最终人们将难辨真伪。除此之外,它们将被赋予完美的记忆力,稳定性和忍耐力等等人类并不具备的特质。

机器对人类品质的超强模仿力,引发了科学、心理学、哲学和伦理学的一系列深刻问题。这些仿真技术最终会颠覆我们对自身、人类例外主义(humanexceptionalism),以及人类在诸多宏大体系中的存在问题的思考在这里,我们将考察这个虚拟国度的智能层面以及这一层面未来的发展。

我们的观点是,只要这些机器是在现今计算体系结构上发展起来的,它们也许能够像人那样行动——我们也许也倾向于这样看待它们——但事实上,它们无法获得任何实质感受。然而,如果计算机以类脑的方式构建,它们可以获得真正的意识。对数字计算机的信念就是我们的时代信念——编程,将给予我们所想要的任何东西,就像希腊神话中哺育一切的丰饶角(Cornucopia)。确实,硅谷行家们认为,数字计算机将重复并最终超越人类所能做的一切。

但是,足够智能的计算机一定拥有意识吗?其中一个回答来自计算主义者(Computationalist)。计算主义对于心灵的研究,在当代哲学、心理学和神经科学中占据统治地位。计算主义持有如下立场:所有的心灵状态,比如,对于牙痛非常可怕的意识经验,或者从伴侣身上所感受的爱,都是计算状态。这些心灵状态完全是与之相关的感觉输入、行为输出,以及其他计算状态之间的功能关系的表征。也即,大脑是一个复杂的输入-输出装置,计算和处理这个世界的符号表征。大脑就是计算机,而我们的心灵则是软件。

对于计算主义的拥护者来说,这些准则不仅要运用于大脑和由此产生的行为,同时还要运用于,在一个特定的状态中,感受作为大脑本身的状态。要知道,这就是我们称之为意识的东西:任何主观的感觉,我们所看到、听到、感觉到、记住的,以及思考的东西。计算主义认为牙痛不过是大脑的一个状态,在这个状态里,某种神经细胞被激活以回应受伤的牙齿,导致呻吟、摸下巴,不用牙疼的那一边吃东西,不能集中精力等等一系列倾向。如果这些状态在一台数字计算机的软件上进行模拟,这种思考将持续下去,整体系统不仅会像这样行动,并且像这样感觉和思考。也即,意识是可计算的。这是学术界、媒体界以及企业中的计算机专家或表露或默默坚信的一条中心思想。

在这种观点下,意识就是相关计算状态的示例。除了在物理上怎样完成计算,是在数字计算机的硬核上,还是在脑壳内的软湿物质上实现这个计算状态之外,其他都无关紧要。根据计算主义,未来的萨曼莎——或者甚至一个更高级的版本:比如那部绝妙又黑暗的电影《机械姬》中的艾娃——将会获得我们所经历的体验和感觉。她将能听能看,能笑能哭,能爱能恨。又或者她并不会。

计算主义基于这样一个假设,即如果两个系统在功能上不可区分,它们将在心灵上不可区分。论证是这样的,因为我们体验这个世界,一个在功能上和我们相等同的数字计算机将必然体验到为我所知的世界——即,它也将有意识。但是,这个假设正当吗?为了回答这样一个问题,我们需要一个关于意识是什么,以及物理系统拥有意识需要什么必要条件的一个规范定量理论。

直到现在,这种意识理论都还未出现。确实,神经科学家们已经致力于探索“意识的神经关联”这个困难问题,在人和例如猴子及老鼠等相关物种上做实验。这些实验指出了正是大脑新皮层的一些区域,也就是颅骨下的大脑皮层,对于有意识地视听起了关键作用。由于我们直接参与了这一实证研究项目,因此知道即使是看似有理有据的假设:比如界定一些特定的大脑结构或神经活动模式(对于人类或人类近亲动物具有意识来说十分必要),也无法说明不同神经系统的生物(比如章鱼和蜜蜂)是否具有意识,意识达到了什么程度,是什么样的。神经科学中任何类似的发现也无法说明机器是否能有意识。

然而,存在一个基础的意识论,它提供了一个颇有希望的范式,解释了那些与我们存在巨大差异的实体(包括机器)的意识问题。这个理论既不始于行为,也不始于大脑,它始于意识自身——始于我们自身的经验,我们现在唯一确信的一点。这也是作为现代哲学、科学和分析几何之父笛卡尔所指出的确定性的基石,即西方思想史里最著名的那句“我思故我在”。这个理论被称之为信息整合理论(Intergratedinformationtheory,即IIT),它已经发展了二十多年。IIT试图定义意识,一个物理系统需要具备什么条件才能拥有意识,以及至少在原则上来说,怎样从意识的物理基质出发,从定量和定性两个层面研究它。  信息整合理论涉及到太多层面,我们不能在这里一一解释,只能简述它的基本脉络。这个理论界定了五个基本属性,以下属性对每个可设想的意识经验都成立:

(对于经验的主体来说,而非外部观察者来说)经验本身就存在;

经验具有结构性(也即,它由部分组成,并且部分之间存在关联);

经验具有整合性(也就是说,它不能被分离为独立的成分);

经验具有确定性(换句话说,它有边界,包含一些内容但排除另外的);

经验具有特定性(每一个经验正如其所示,因而与其他大量可能的经验不同)。

接下来,信息整合理论从判定意识的这些属性出发,将其转化为奠基意识的任何物理基质所需满足的要求。这些要求以数学的形式被表达,用来评估任何物理系统中意识的定量和定性属性,无论它是人类、章鱼、蜜蜂的大脑——还是电路板上的数字计算机。

根据IIT,关键在于,意识的整体水平并不取决于它所在的系统,而取决于它怎样被构建——也即,它怎样被物理地整合。同时,只有某些物理系统有合适的内在结构来为意识奠基:也即那些拥有最大化的因果力的物理系统,在这里,因果力能够决定物理系统自身的状态。本质上这也就意味着,系统必须由许多部分组成,在整个系统中,每个部分必须有其独特的因果力(也即IIT中所指出的“信息”),但同时,作为整体的系统不能被还原到这些部分(这也就是IIT所说的“整合”),这个被整合的系统比各个部分的相叠加来说,更有效力。

IIT所用的“信息”一词不在当代语境中(从发送者传递到接收者的信息)。意识并不是大脑的一个部分向另一个部分传递的信息。IIT中的“信息”实际上指其原初意义:“information”(信息)来源于“inform”(通知),意味着“togiveformto”(给予……形式;描绘)。像大脑或计算机之类所拥有的任何一个物理过程的因果力,它影响物理过程自身的下一个状态以及这个状态的因果力,同时,这样一种力量会使大脑或计算机产生一个形式,一个高维的结构,也即经验。 

IIT在原则上能够解释意识在神经解剖学上许多令人困惑的特征。例如,为何小脑比起位于其上的,拥有更大区域(也更为人所知)的新皮质有四倍多的神经元,它对意识却毫无贡献。这是由于小脑的内部构造:前馈链条上并行层的神经元不会被反复激发。这和新皮质所拥有的高度混杂,丰富,以及高密度的联结性十分不同,这种联结性能够使被激活的神经元快速地聚散,从而形成巨大联合体。IIT也能够解释,为何在睡眠的某些阶段,即使新皮质上的神经元一直处于激活状态,意识还是会消失;因为新皮质的某些区域失去了有效影响其他区域的能力。

 IIT作出了一系列经得起经验测试的反直觉预测。其中一个预测是,几乎是处于沉寂状态,而仅有少数神经元被激活的新皮质也能产生有意识的经验。同时,托诺尼和马塞洛·马西米尼[注:米兰大学教授,神经生理学家]运用IIT开发了一个评估人类意识的装置。在使用上,先用电磁线圈来刺激大脑,然后用一个高密度的EEG电极网络来检测它的反应,这也就是一个粗略版本的意识测量仪。这个装置已经运用于查明,大脑损伤或者被麻醉而无法进行交流的病人是否具有意识。

作为一个形式化的数学理论,IIT能够被运用于任何物理系统,可以是在自然选择中演化而来的大脑构造,也可以是被工程师设计出来的电子电路。不断有研究显示,对于最大化大脑内在的因果力,新皮质某些部分的物理构造十分理想,尤其是在神经元相互关联的背部。这种因果力使状态之间的承上启下得以完成,这一过程也使意识得以可能。

相反,典型数字计算机的物理构造,中央处理器门级(thegatelevel)处的联结性十分低,并且少量必要的整合都会遇到瓶颈。从使用者的角度观察它的输出,计算机可能被判定为执行了有智能的计算或功能;但是考虑到计算机的线路系统,它的作为整体的内在因果力,相比起任何大脑来说,是十分小的。即使将计算机看作是处于比晶体管和电阻器更粗糙的水平,也是如此。

同时,这里存在一个困难:那种内在力量,使之与自身不同的物理力量,不能够被计算或模拟。它必须在物理系统中被建构。一个对人类大脑进行模拟的计算机,尽管制作精美,在生物物理学上十分精确,大脑包含的860亿神经元和万亿突触基质都统统被模拟,这个计算机依然没有意识。即使这个计算机安装了言语合成器,告诉你它应该有的经验,但其实,除了巧妙执行程序的行为和功能之外,它什么也没有。鲜活的意识并不存在。

对于那些希冀“大脑数字化上载”项目使人永生的人,IIT在大脑的计算机模拟上的结论能够让其深思。对于他们来说,在接下来的几十年里,我们能够精确重建任何一个人类个体大脑的线路系统体系,也即所谓的连接组,并将其在合适的数字硬件上进行模拟。这个过程有可能是毁灭性的,因为除非把大脑的超微结构切成像晶片那样薄的东西,否则我们无法深入这个结构。尽管如此,在你死于某种致命疾病前,还是有可能将大脑的高分辨率版本上传到云端。只要云端的基础结构处于运行之中,你的数字模拟物将和其他数字替代物一样,持续存在。

然而,根据IIT,大脑数字化的信念正如相信以前的先知和宗教所说的来世一样虚幻。尽管你的数字模拟物像你一样言行,它依然完全是行尸走肉,无法体验到任何东西。然而,具有讽刺意味的是,对于停留于现实世界的朋友和心爱之人,成功转化为一个极端形式的存在的你,会引诱他们和你一样加入一个实际上并不存在的来世。

 IIT正确与否不仅仅是学术上的问题。在近几十年里,除非有全球性的灾难,否则我们将会创造出处于人类智能和行为水平的机器。它们能够理解很多不同语言的演讲和聊天,记得过去,也预测未来,想象新的场景,写书谱曲拍电影,构想新的目标;同时,它们移动,驾驶,飞翔,以及不可避免地打架。由于可以利用大数据,掌握了深度学习,以及考虑到其计算速度,这些机器很容易超越人类的限制。真正的人工智能的诞生将会深刻地影响人类未来,包括是否有人类未来。

无论你认为人类水平的AI的到来,标志着天堂的来临还是人类时代的落幕,你依然要回答一个基础问题:这些AI是有意识的吗?成为它们是一种什么样的体验?或者它们是现代的垃圾处理装置、洗碗机、汽车等的大升级版本,是的,它们是十分灵巧的机器,但依然没有知觉或情绪? 

对以上问题的回答,对于我们如何处理与未来机器的关系十分相关。如果你拿着锤子走向你闪闪发亮的特斯拉汽车,你的朋友也许会认为你疯了,想要毁坏一辆如此昂贵的汽车;当然,你绝对有权这么做。然而,当你想这么对待你的狗时,警察则有权逮捕你。这是由于汽车只是实现目的的一种方式,比如方便你到镇上随意走走;但狗却有一些极小的权力,其自身即是目的。因为它与我们共享意识之光。

我们需要一个基础理论来精确说明:在何种条件下,一个特定的系统能够拥有意识经验。

然而,我们不能依靠直觉来找正确答案。对于西奥多·托姆布雷爱上萨曼莎,这也许暂时行得通。但是考虑到现实情况的严重性,我们需要指导。我们需要一个基础理论来精确说明,在何种条件下,一个特定的系统能够拥有意识经验。

IIT预料传统的数字计算机在运行软件的时候,它所体验到的一点也不像我们在电影里看到的那样。正如IIT认为的那样,因为敏捷的数字化助手以及生活化的未来机器人不能够体验,它们的软件可以被安全地复制、编辑、出售、翻译或者删除,并且它们自身能够随意被关闭、修改、毁坏、代替,但是对于非传统的计算机构造来说,无需如此。特殊目的的机器人按照大脑那样的设计原则被构建,包含了称之为神经形态的硬件,在原则上,它们能够拥有真正的意识经验。

关键在于,逻辑和记忆门(logicandmemorygates)与在门之间的扇入扇出(fan-inandfan-out),十分紧密地相互关联,扇入扇出它们的部分重叠程度高。(将部分和非常特殊的功能相区分,无益于内在因果力。)系统“大脑”被实际接通电源的方式,它的(生物)物理学,使所有一切都不同,而不止是它的输入-输出行为。这样一个神经形态的机器,如果是极度有意识的,那么将会有内在的权利,特别是关于它自身生活和良好状态的权利。到那时候,人类将必须学会和自己的创造物共享世界。

原文:https://ieeexplore.ieee.org/abstract/document/7934235

本文来自微信公众号:神经现实(ID:neureality),作者:KOCH & TONONI,译者:幺幺Phil 

人工智能不会统治世界,但将永远改变世界

那是1966年,计算机科学家约瑟夫·维森鲍姆走过麻省理工学院(MIT)的大厅,走向他的办公室,既焦虑又紧张,我们的朋友将开始他的第一个实验,这将改变人工智能的未来,也许还会改变人类的未来。维森鲍姆将测试新的聊天机器人,名为“Eliza”,取自萧伯纳的戏剧《皮格马利翁》中的角色伊丽莎·杜立特(ElizaDoolittle)。

这个想法很简单,Eliza将解释任何用户输入,并以问题的形式呈现,从某种意义上说,它被编程为模仿用户所写的内容,给人留下的印象是,它试图进行理解,例如,如果你告诉它,与朋友的谈话让你生气,它可能只会问你:“你为什么生气?”

Eliza的开发最初旨在探索自然语言处理的可能性,展示人工智能在理解人类情感和人类行为方面的能力,奇怪的讽刺是,维森鲍姆设计这个特殊的机器人是为了展示人机对话的想法是多么肤浅,但他工作的长期效果却与他想要的恰恰相反。

计算机科学家约瑟夫·维森鲍姆(盖帝图像)

诚然,这些系统并不实用,你只需要想象,你需要通过一套逻辑规则,用你所在领域所有可能的场景来对它进行编程,这肯定是不可能的,但这一切都随着机器学习和神经网络领域的发展而改变,这在人工智能系统中引发了一场重大革命。顾名思义,机器学习使这些系统能够从数据中学习并通过实验和评估来提高性能,所有这一切都不需要人类编写的程序,也就是说,它以与人类相同的方式学习。

同样地,神经网络是模拟人脑工作方式的一种形式,用于处理复杂的数据,这使机器能够识别数据中的模式,理解图像,甚至处理自然语言,就像在聊天机器人中一样,例如,如果不是向人类学习并将人类翻译的内容与其语言数据进行比较,谷歌翻译就不会以这种方式发展,从某种意义上说,我们并没有仅仅通过赋予机器以人性化的工作方式来达到目前的发展,也许这就是问题的开始。

与机器连接

“Eliza”只不过是一个用多种代码编写的简单计算机程序,它会搜索此人讲话中的关键词,然后以简单的短语或问题的形式将其反映在对它的回应中,给人的印象是,它理解这个人的讲话,并回应了他的话,而这个人一开始就不知道他是在和机器人说话。

约瑟夫·维森鲍姆对机器人进行了编程,使其以心理治疗师式的方式与用户互动,这倒是有些说服力,并给人一种想象中的同理心。用户会与Elisa进行长时间的对话,并向它泄露个人秘密,就像在进行心理治疗一样,尽管实际上只是简单的代码,研究人员称之为“Elisa效应”,这意味着人类倾向于赋予机器以人的特征,甚至将它们变成具有自我意识的生物。

这里的问题是,“Eliza”的设计最初并不依赖于它与人类之间这种互动的发生,然而,研究人员发现,用户下意识地认为其回答了“Elisa”问题,包括真正的情感兴趣和与它在谈话中讨论话题的互动,甚至事先知道Elisa不会模仿人类的情感,人与机器之间的这些交互在后来模拟人类行为的机器人技术的发展中发挥了重要作用。

这里需要注意的是,“Elisa”并不是一个真正的基于人工智能的机器人,它只是一个用有限数量的代码编写的程序,你现在可以想象新的聊天机器人所享有的说服力,比如“ChatGPT”,它可能会欺骗人类的情感系统,并让他们相信自己具有意识、同理心和真正的人类品质,我们总是努力将这种人性赋予任何事物,更何况它是否像人类一样对我们说话、回应和同情?这就引出了我们关注的下一个问题:这些模型能否在不久的将来拥有真正的智能和意识?

超级人工智能

随着最近聊天机器人ChatGPT的大规模传播,你肯定听说过这些关于我们即将出现的通用人工智能或超级智能机器的预言,凭借这种智慧,它将超越人类,并决定要么消灭我们所有人,要么充其量控制和奴役我们。

人工智能这个词经常与世界末日联系在一起,这个领域的每一个新发展,或者更准确地说,每一个新发展都为群众所关注,都会立即在群众中引起震惊的反应,这里的恐惧是自然的,就好像我们的大脑就像语言模型一样完成了句子,这种恐惧一部分是由于我们对一切新鲜、神秘和陌生的事物的不信任,另一部分是由于好莱坞电影向我们强调,在一个世纪的时间里,人工智能将获得超人的力量,发怒,并摧毁它所经过的一切,这就是人类意识中的著名电影,例如《终结者》和《黑客帝国》等。

电影《黑客帝国》(社交网站)

但无论如何,这件事情有很多夸张的地方,虽然人工智能的发展,但对于该领域的一些公司和研究人员来说,人工智能可以执行任何一个人可以执行的认知任务,仍然是一个梦想,然而,以我们目前所拥有的技术能力,以我们对人类智能定义的理解以及我们对人脑工作原理的了解,这仍然是一个遥远的梦想。

现在发生的只是处理能力的巨大发展、机器学习方法的巨大发展,以及前所未有的海量数据的可用性,但是处理能力的提高,无论有多大,所有现有系统——例如ChatGPT——都不一定会产生超人的人工智能,它们只是预测文本中下一个单词的机器,它们没有真正的智能或对它们产生的知识的意识。

因此,与其直接关注科幻电影中的恐惧,比如人工智能接管世界并毁灭我们,不如把注意力转向真正迫在眉睫的挑战,这些挑战其实很多,比如隐私问题、网络安全、日益增长的欺诈,经济形势的变化,以及由此产生的一些受这些新技术影响工作岗位的分配变化问题,这让我们想到了另一个重要的观点:人工智能能否完全抢走我们的工作?

更多岗位初步数据显示,未来新工作岗位的出现是积极的,因为人工智能的普及将增加对数据分析师和科学家等职位的需求(Shutterstock)

如果我们回顾历史,自动化造成的破坏或变化在短期内会造成很多混乱,但从长远来看,这会创造更多的就业机会,这就是2021年的研究表明,我们今天所知道的60%的工作在80年前并不存在,由于计算机、互联网和其他现代技术,出现了全新的行业。

当然,我们没有任何信息可以证实这种趋势的延续,然而,初步数据表明未来会出现新的工作岗位,世界经济论坛发布的2023年就业报告未来证实了这一点,报告中谈及,专门从事人工智能和机器学习领域的工作是增长最快的工作领域。

在此背景下,三位专业研究人员阿加耶·阿格拉瓦尔、约书亚·甘兹和艾比·戈德法布在2019年出版的《人工智能经济学》一书中指出,出于多个原因,自动化、人工智能和机器人将在未来增加对劳动力的需求,这与我们一直想象的相反。

首先,当这些技术获得许可并提供给所有人时,它们将取代人类的一些脑力劳动,而这反过来又会影响人类的生产力,随着生产自动化任务的成本降低,经济将进一步扩张,而需要人类思考和判断的实际人工任务对劳动力的需求将会增加。

想象一下,例如,一家公司用响应客户服务的任务取代了聊天机器人,当然,这里将不再需要人类来处理简单的客户查询,然而,这将腾出他们的时间来专注于更复杂和私人的问题和需求,结果是公司可能会见证客户满意度的提高,从而导致对其产品或服务的更高需求,这反过来又将导致公司在更广泛的领域需要更多员工,例如销售、市场营销或产品开发。

其次,更高的自动化率可能会导致资本积累,即金钱、设备和各种资源,当自动化流程进入更多领域时,资本投入机械、技术等方面的需求也会随之增加,这反过来又增加了对劳动力的需求,仅仅是因为我们需要工人来操作和操作这些机器。

例如,一家投资于机械臂的制造公司,以在装配线上处理重复性和体力要求高的任务,随着生产过程效率的提高,对公司产品的需求也可能上升,为了满足这种增长,公司可能需要扩大其设施或投资更新、更现代化的机器,这些扩展工作将需要雇用额外的工人来建立和安装设备、维护和其他事情。

第三,流程自动化还提高了已经自动化的任务的生产率,这意味着机器在执行它们之前执行的任务时变得更加高效,从而提高了整体生产力,同时也增加了对劳动力的需求。

例如,假设一家零售店实施了自动支付系统,允许客户在不需要人工收银员的情况下为他们的购买付款,这个过程快速高效,减少了客户的等待时间并改善了他们的整体体验,鉴于此,商店将面临顾客和销售流量的增加,因此,可能需要雇用更多员工来执行其他与产品相关的任务或帮助客户回答他们的询问,当然,还需要维护和开发更自动化的支付系统。

我们的工作性质将会改变由于人工智能工具,特别是生成式人工智能和应用程序,例如ChatGPT及其相似产品,许多功能将被重新设计(Shutterstock)

随之而来的是,自动化过程在工厂工作、工程、管理、会计等各个行业创造了比机器更适合人类的新任务,同样,人工智能可能会在不久的将来在许多服务领域创造新的任务,生成人工智能的新技术尤其会改变劳动力市场,因为它们会改变工作本身的外观和性质。

通常,当人工智能应用进入我们的各个业务领域时,我们的工作并不会像我们第一眼所想的那样被取代,但属于工作本身的任务的性质将会发生变化,换句话说,工作所需的基本技能将发生变化,取而代之的是新技能,这意味着,由于人工智能工具,特别是生成式人工智能和应用程序,例如ChatGPT及其相似产品,许多功能将被重新设计。

在一系列媒体歇斯底里之后,OpenAI首席执行官山姆·阿尔特曼(SamAltman)在5月份的美国国会听证会上指出了这一点,他表示,“重要的是要了解GPT-4模型是一种工具,而不是一种生物,有些人很容易感到困惑,GPT-4和其他类似系统擅长完成任务,而不是工作,”他并补充说,人们开始在工作中使用这些工具来帮助他们完成这些不同的任务。

随着时间的推移,在特定环境中使用生成式人工智能可能会改变人类与这些技术的关系,随着技术的使用不断发展,越来越多地参与到他们的工作中,并且越来越不模棱两可,可以减少人们对这些工具将取代人类工作或拥有超级智能的恐惧,最明显的例子可能是GitHub的Copilot工具,Web开发人员使用它来帮助他们编写代码和排除故障。

知识时代

当这些技术顺利进入我们的业务时,它们将开始取得成功并产生真正的影响,我们找到它们的真正用途,可以帮助我们更快、更准确地完成任务,最重要的是,当我们充分了解这些工具的功能局限性时,我们要确保它们不是真正的无所不知的智能,并且它们像我们使用的任何工具一样存在问题。

最后,如果过去的岁月被称为信息时代,那么,我们终于可以说,我们已经过了这个时代,进入了知识时代,信息时代始于上世纪中叶计算机的出现,然后,在90年代初期,互联网出现,目前人工智能正在做的是收集所有这些信息并将其转化为人工知识。

有关于此,人工智能产生的是模仿人类知识的知识,并不真正理解它,但这最终符合我们的利益,我们人类理解、收集和关联所有这些信息,并借助生成式人工智能工具获取新知识,这对人类来说是一个伟大的发展,而且,无论如何都是非常有前途的,远离任何出现的新技术所引起的恐惧和恐慌。

那么,这是否意味着人工智能不会很快毁灭我们?这不是世界末日吗?

是的,这不是世界末日,但这是报告的结尾,感谢您的阅读。

人工智能不会统治世界,但将永远改变世界

那是1966年,计算机科学家约瑟夫·维森鲍姆走过麻省理工学院(MIT)的大厅,走向他的办公室,既焦虑又紧张,我们的朋友将开始他的第一个实验,这将改变人工智能的未来,也许还会改变人类的未来。维森鲍姆将测试新的聊天机器人,名为“Eliza”,取自萧伯纳的戏剧《皮格马利翁》中的角色伊丽莎·杜立特(ElizaDoolittle)。

这个想法很简单,Eliza将解释任何用户输入,并以问题的形式呈现,从某种意义上说,它被编程为模仿用户所写的内容,给人留下的印象是,它试图进行理解,例如,如果你告诉它,与朋友的谈话让你生气,它可能只会问你:“你为什么生气?”

Eliza的开发最初旨在探索自然语言处理的可能性,展示人工智能在理解人类情感和人类行为方面的能力,奇怪的讽刺是,维森鲍姆设计这个特殊的机器人是为了展示人机对话的想法是多么肤浅,但他工作的长期效果却与他想要的恰恰相反。

计算机科学家约瑟夫·维森鲍姆(盖帝图像)

诚然,这些系统并不实用,你只需要想象,你需要通过一套逻辑规则,用你所在领域所有可能的场景来对它进行编程,这肯定是不可能的,但这一切都随着机器学习和神经网络领域的发展而改变,这在人工智能系统中引发了一场重大革命。顾名思义,机器学习使这些系统能够从数据中学习并通过实验和评估来提高性能,所有这一切都不需要人类编写的程序,也就是说,它以与人类相同的方式学习。

同样地,神经网络是模拟人脑工作方式的一种形式,用于处理复杂的数据,这使机器能够识别数据中的模式,理解图像,甚至处理自然语言,就像在聊天机器人中一样,例如,如果不是向人类学习并将人类翻译的内容与其语言数据进行比较,谷歌翻译就不会以这种方式发展,从某种意义上说,我们并没有仅仅通过赋予机器以人性化的工作方式来达到目前的发展,也许这就是问题的开始。

与机器连接

“Eliza”只不过是一个用多种代码编写的简单计算机程序,它会搜索此人讲话中的关键词,然后以简单的短语或问题的形式将其反映在对它的回应中,给人的印象是,它理解这个人的讲话,并回应了他的话,而这个人一开始就不知道他是在和机器人说话。

约瑟夫·维森鲍姆对机器人进行了编程,使其以心理治疗师式的方式与用户互动,这倒是有些说服力,并给人一种想象中的同理心。用户会与Elisa进行长时间的对话,并向它泄露个人秘密,就像在进行心理治疗一样,尽管实际上只是简单的代码,研究人员称之为“Elisa效应”,这意味着人类倾向于赋予机器以人的特征,甚至将它们变成具有自我意识的生物。

这里的问题是,“Eliza”的设计最初并不依赖于它与人类之间这种互动的发生,然而,研究人员发现,用户下意识地认为其回答了“Elisa”问题,包括真正的情感兴趣和与它在谈话中讨论话题的互动,甚至事先知道Elisa不会模仿人类的情感,人与机器之间的这些交互在后来模拟人类行为的机器人技术的发展中发挥了重要作用。

这里需要注意的是,“Elisa”并不是一个真正的基于人工智能的机器人,它只是一个用有限数量的代码编写的程序,你现在可以想象新的聊天机器人所享有的说服力,比如“ChatGPT”,它可能会欺骗人类的情感系统,并让他们相信自己具有意识、同理心和真正的人类品质,我们总是努力将这种人性赋予任何事物,更何况它是否像人类一样对我们说话、回应和同情?这就引出了我们关注的下一个问题:这些模型能否在不久的将来拥有真正的智能和意识?

超级人工智能

随着最近聊天机器人ChatGPT的大规模传播,你肯定听说过这些关于我们即将出现的通用人工智能或超级智能机器的预言,凭借这种智慧,它将超越人类,并决定要么消灭我们所有人,要么充其量控制和奴役我们。

人工智能这个词经常与世界末日联系在一起,这个领域的每一个新发展,或者更准确地说,每一个新发展都为群众所关注,都会立即在群众中引起震惊的反应,这里的恐惧是自然的,就好像我们的大脑就像语言模型一样完成了句子,这种恐惧一部分是由于我们对一切新鲜、神秘和陌生的事物的不信任,另一部分是由于好莱坞电影向我们强调,在一个世纪的时间里,人工智能将获得超人的力量,发怒,并摧毁它所经过的一切,这就是人类意识中的著名电影,例如《终结者》和《黑客帝国》等。

电影《黑客帝国》(社交网站)

但无论如何,这件事情有很多夸张的地方,虽然人工智能的发展,但对于该领域的一些公司和研究人员来说,人工智能可以执行任何一个人可以执行的认知任务,仍然是一个梦想,然而,以我们目前所拥有的技术能力,以我们对人类智能定义的理解以及我们对人脑工作原理的了解,这仍然是一个遥远的梦想。

现在发生的只是处理能力的巨大发展、机器学习方法的巨大发展,以及前所未有的海量数据的可用性,但是处理能力的提高,无论有多大,所有现有系统——例如ChatGPT——都不一定会产生超人的人工智能,它们只是预测文本中下一个单词的机器,它们没有真正的智能或对它们产生的知识的意识。

因此,与其直接关注科幻电影中的恐惧,比如人工智能接管世界并毁灭我们,不如把注意力转向真正迫在眉睫的挑战,这些挑战其实很多,比如隐私问题、网络安全、日益增长的欺诈,经济形势的变化,以及由此产生的一些受这些新技术影响工作岗位的分配变化问题,这让我们想到了另一个重要的观点:人工智能能否完全抢走我们的工作?

更多岗位初步数据显示,未来新工作岗位的出现是积极的,因为人工智能的普及将增加对数据分析师和科学家等职位的需求(Shutterstock)

如果我们回顾历史,自动化造成的破坏或变化在短期内会造成很多混乱,但从长远来看,这会创造更多的就业机会,这就是2021年的研究表明,我们今天所知道的60%的工作在80年前并不存在,由于计算机、互联网和其他现代技术,出现了全新的行业。

当然,我们没有任何信息可以证实这种趋势的延续,然而,初步数据表明未来会出现新的工作岗位,世界经济论坛发布的2023年就业报告未来证实了这一点,报告中谈及,专门从事人工智能和机器学习领域的工作是增长最快的工作领域。

在此背景下,三位专业研究人员阿加耶·阿格拉瓦尔、约书亚·甘兹和艾比·戈德法布在2019年出版的《人工智能经济学》一书中指出,出于多个原因,自动化、人工智能和机器人将在未来增加对劳动力的需求,这与我们一直想象的相反。

首先,当这些技术获得许可并提供给所有人时,它们将取代人类的一些脑力劳动,而这反过来又会影响人类的生产力,随着生产自动化任务的成本降低,经济将进一步扩张,而需要人类思考和判断的实际人工任务对劳动力的需求将会增加。

想象一下,例如,一家公司用响应客户服务的任务取代了聊天机器人,当然,这里将不再需要人类来处理简单的客户查询,然而,这将腾出他们的时间来专注于更复杂和私人的问题和需求,结果是公司可能会见证客户满意度的提高,从而导致对其产品或服务的更高需求,这反过来又将导致公司在更广泛的领域需要更多员工,例如销售、市场营销或产品开发。

其次,更高的自动化率可能会导致资本积累,即金钱、设备和各种资源,当自动化流程进入更多领域时,资本投入机械、技术等方面的需求也会随之增加,这反过来又增加了对劳动力的需求,仅仅是因为我们需要工人来操作和操作这些机器。

例如,一家投资于机械臂的制造公司,以在装配线上处理重复性和体力要求高的任务,随着生产过程效率的提高,对公司产品的需求也可能上升,为了满足这种增长,公司可能需要扩大其设施或投资更新、更现代化的机器,这些扩展工作将需要雇用额外的工人来建立和安装设备、维护和其他事情。

第三,流程自动化还提高了已经自动化的任务的生产率,这意味着机器在执行它们之前执行的任务时变得更加高效,从而提高了整体生产力,同时也增加了对劳动力的需求。

例如,假设一家零售店实施了自动支付系统,允许客户在不需要人工收银员的情况下为他们的购买付款,这个过程快速高效,减少了客户的等待时间并改善了他们的整体体验,鉴于此,商店将面临顾客和销售流量的增加,因此,可能需要雇用更多员工来执行其他与产品相关的任务或帮助客户回答他们的询问,当然,还需要维护和开发更自动化的支付系统。

我们的工作性质将会改变由于人工智能工具,特别是生成式人工智能和应用程序,例如ChatGPT及其相似产品,许多功能将被重新设计(Shutterstock)

随之而来的是,自动化过程在工厂工作、工程、管理、会计等各个行业创造了比机器更适合人类的新任务,同样,人工智能可能会在不久的将来在许多服务领域创造新的任务,生成人工智能的新技术尤其会改变劳动力市场,因为它们会改变工作本身的外观和性质。

通常,当人工智能应用进入我们的各个业务领域时,我们的工作并不会像我们第一眼所想的那样被取代,但属于工作本身的任务的性质将会发生变化,换句话说,工作所需的基本技能将发生变化,取而代之的是新技能,这意味着,由于人工智能工具,特别是生成式人工智能和应用程序,例如ChatGPT及其相似产品,许多功能将被重新设计。

在一系列媒体歇斯底里之后,OpenAI首席执行官山姆·阿尔特曼(SamAltman)在5月份的美国国会听证会上指出了这一点,他表示,“重要的是要了解GPT-4模型是一种工具,而不是一种生物,有些人很容易感到困惑,GPT-4和其他类似系统擅长完成任务,而不是工作,”他并补充说,人们开始在工作中使用这些工具来帮助他们完成这些不同的任务。

随着时间的推移,在特定环境中使用生成式人工智能可能会改变人类与这些技术的关系,随着技术的使用不断发展,越来越多地参与到他们的工作中,并且越来越不模棱两可,可以减少人们对这些工具将取代人类工作或拥有超级智能的恐惧,最明显的例子可能是GitHub的Copilot工具,Web开发人员使用它来帮助他们编写代码和排除故障。

知识时代

当这些技术顺利进入我们的业务时,它们将开始取得成功并产生真正的影响,我们找到它们的真正用途,可以帮助我们更快、更准确地完成任务,最重要的是,当我们充分了解这些工具的功能局限性时,我们要确保它们不是真正的无所不知的智能,并且它们像我们使用的任何工具一样存在问题。

最后,如果过去的岁月被称为信息时代,那么,我们终于可以说,我们已经过了这个时代,进入了知识时代,信息时代始于上世纪中叶计算机的出现,然后,在90年代初期,互联网出现,目前人工智能正在做的是收集所有这些信息并将其转化为人工知识。

有关于此,人工智能产生的是模仿人类知识的知识,并不真正理解它,但这最终符合我们的利益,我们人类理解、收集和关联所有这些信息,并借助生成式人工智能工具获取新知识,这对人类来说是一个伟大的发展,而且,无论如何都是非常有前途的,远离任何出现的新技术所引起的恐惧和恐慌。

那么,这是否意味着人工智能不会很快毁灭我们?这不是世界末日吗?

是的,这不是世界末日,但这是报告的结尾,感谢您的阅读。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇