博舍

人工智能可能有自主意识了吗 人工智能能否取代人类意识

人工智能可能有自主意识了吗

➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术

➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互

➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系

➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。

LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。

为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。

事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?

人工智能自主意识之辨

勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。

受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。

至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。

清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”

中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。

被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。

这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。

当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。

但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。

段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。

若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。

不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。

若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。

段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。

但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”

换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。

郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”

技术换道

有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。

据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。

一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。

从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。

梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”

不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。

谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。

郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。

梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。

相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。

这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。

“人工智能觉醒”背后

有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。

梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”

据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。

这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”

梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”

我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。

中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”

在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。

毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。

从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。

为了人机友好的未来

确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。

薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。

梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。

“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。

因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。

与其对立的观点则认为,目前这一担忧为时尚早。

“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。

商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。

郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”

在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

编辑:李华山

2022年08月16日07:42:05

人工智能可以替代人类今天要来说说人工智能与人类意识到底差距在哪里!

作者|AdamZacharyWasserman

翻译|天道酬勤,责编 | Carol

出品| AI科技大本营(ID:rgznai100)

人工智能对很多人来说意义重大。通常,它的含义不是很清晰。它要么被人们崇拜,要么被人们亵渎和恐惧。

 

在本文中,作者将探讨人工智能对整个社会的真正意义,而不是研究人员或计算机科学家的意义。本文想向非技术人员阐明什么是人工智能可以实际期待的,更重要的是要阐明什么是不切实际的猜测。

 

作者担心对人工智能的盲目恐惧(有时甚至是崇拜)正在被用来操纵社会。

 

政界人士、商人和媒体人物围绕人工智能写故事,这些故事能够激发他们利用自己优势产生的深刻情感。但,真理只能在普通人无法企及的大量技术文献中找到。

我们所说的智力是什么意思?

 

智力是纯粹的人类特征吗?大多数人会认为有些狗比其他的狗更聪明。或者说,狗比豚鼠要聪明,所以很明显,智力也是动物可以拥有的东西。

如果狗可以有智力,那么鸟可以吗? 蚯蚓或植物又怎么样呢?我们的底线在哪里?关于智力的定义很多,但作者喜欢(来自维基百科)的定义是:

“感知或推断信息并将其保留为要应用于环境或上下文中的适应性行为的知识的能力”。

这看起来合理吗?有人认为,按照这个定义,即使植物也可以是有智力的,那为什么计算机不是呢?

这就是人工智能研究人员通常所指的智能。然而现实是,当普通人谈论或想到人工智能时,他们想到的并不是植物或动物。大多数人不会对于计算机可能能够在植物、豚鼠甚至狗的水平上运行的想法感到太兴奋。

同样,人们并不真正在乎一台机器可以按照其创建者的意图去做的事情,它被编程来做什么。制造手枪是为了杀死人,它们的确是用来杀人的,但是没有人担心手枪会像机器被编程那样发展意识并杀死所有人类。

如果说老实话,我们必须承认,普通人所说的人工智能实际上是像人类一样的人工智能,而他们担心(或庆祝)的是人工智能可能会自发地地生产同类的动机。

人为因素

动机是关键的,人类的动机与所有其他动物的动机都不同,这种差异可以说是人类与众不同的原因。

伟大的数学家和计算机先驱艾伦·图灵(AlanTuring)提出,与其问人类是什么(他认为这是在实践中不可能的),我们可以简单的说:

“如果它走路像鸭子,嘎嘎像鸭子。” 

图灵的建议是,如果计算机程序可以通过书面面试,而面试官没有意识到他们正在与计算机交互,则可以说该计算机实际上是具有人类特色的人工智能。但是,这并不能真正回答以下问题:计算机程序是否可以像人类一样实时做出相同类型的复杂决策,它是否可以具有未预先编程的动机。 

最重要的是,书面面试只包含人类经历的一小部分。我们生活在一个行动世界中,许多行动都具有非常现实和直接的后果。是否走下一条黑暗小巷的决定是一个复杂的决定,影响我们这一决定的许多因素尚不清楚。每天,我们都在不知道所有数据的情况下做出决定,而人类生存下来并蓬勃发展这一事实无可争议地证明,如果将成功定义为生存,那么我们整体上将取得惊人的成功。

 

价值观创造机

我们如何成功是一个尚有争议的问题。但是,大多数严肃的学者都同意,人类被赋予的价值观倾向几乎是不可避免的情况,这是事务的核心。

人类是价值观创造机,而我们创造价值观的速度是任何计算机网络都无法企及的。如果你听到一个意想不到的声音,你会在170毫秒内做出反应。从这个角度来看:单击链接后,第一个字节的数据到达你的浏览器的时间比Google建议的时间快30毫秒,Google建议页面在第一个字节后完成加载的时间为500毫秒。

顺便说一下,加载一个网页对于计算机而言是微不足道的操作,但计算机执行此操作所需的时间仍然比你的大脑要花多倍的时间才能弄清它是否会发出意外的噪音威胁(响动的树枝或金属声音)或令人愉快的(冰淇淋卡车铃铛或孩子的笑声),它可以立即执行,几乎没有任何数据。

我们所说的价值观评估是指把某事物认定为具有威胁性或令人愉悦的,这是我们本能地、自动地、不假思索地进行的事情。但是,如果不这样做,我们将无法像我们所知道的那样思考。

说你口渴,你必须解决喝什么的问题,然后必须解决得到它的问题。

假设你选择在池塘水和新鲜的井水之间选择喝什么。你现在想的是,很明显我们需要井水。但是,如果你是一个越狱的囚犯,池塘里的水安全地流出了森林,而井就在一个城镇广场上,你可能会被看到,那你该怎么办?现在你想到的是池塘水。渴望会激发你的动机,但你更有动力去保持自由。这是因为你对保持自由的重视远高于对水的新鲜度的重视。

人的动机完全取决于价值观。一只口渴的狗只会从它找到的第一个可用水中喝水,因为它的动机是生存,不受价值观的影响。

让我们来考虑一个与生存无关的示例:你按下某个按钮肯定会杀死一个人,还是拒绝按下该按钮,即使这意味着10个人可能会死。你对这个问题的思考与你的自身生存没有任何关系,但是它具有道德上的紧迫性,很少有人可以否认。你的思维将完全由你在评估选项时分配的价值观所指导。

这些价值观从何而来?

 

事实是我们并不知道。 

对于某些人来说,这是一个信仰的问题。真诚的宗教人士相信我们的价值观是上帝旨意的反映。真正相信进化论及其所有含义的少数人会说,我们的价值观是那些允许我们生存并因此使其永存的价值观。 

几乎所有人都认为价值观是不言而喻的真理。我们拥有这些价值观是因为我们所有人都有它们,很显然是这样的。正如山姆·哈里斯(SamHarris)所说: 

“当我们真的相信某事在事实上是真实的或在道德上是好的时,我们也相信另一个人,同样的立场,也应该分享我们的信念”。

就所谓的理解而言,这是淡茶。它没有提供有用的依据来解释为什么某些价值观在文化上是依赖的,而另一些价值观似乎是普遍的或几乎是普遍的。它没有解释价值观的起源,因此尽管有宗教和进化论的影响,但在大多数情况下,我们没有关于价值观如何运作的有用解释。

正是在价值观中,我们发现了意识差距。在上面的示例中,你是出于渴求的动机,这是一种生物因素。配备有适当传感器的人工智能也可能具有这种动机,例如需要为电量低的电池充电。 

但是,是什么促使你对美丽的事物拍照来与亲人分享,或者与你的朋友争论政治呢?是什么促使你观看恐怖电影或学习一项运动的呢?按下按钮的例子呢?如果没有人先提供的价值观,比如一条生命的价值低于10倍,或者在任何情况下杀人都是错误的话,计算机凭什么基础做出这样的决定呢?我们的道德,在眨眼间赋予价值观的能力已经发展了数百万年。一台计算机在一代人的时间里,你怎么能想到它们有天生的繁殖机制,如何在没有人先提供蓝图的情况下自行建立起道德基础的呢? 

我们真的想要吗?人类历史表明,在达到我们现在认为的文明行为之前,需要成千上万的世代的努力。我们真的想让人工智能种族同样缓慢而痛苦地方式迈向文明么?

当然,我们可以给它们一个跳跃式开始的方法,但是随后我们又回到了意识鸿沟:如果我们以跳跃式开始进行编程,基本上是按照某些人的价值观进行编程,那么可以说人工智能确实具有类人的意识、能够自发动机吗?你可能已经猜到了,作者相信答案可能是否定的。

人工智能的危害

 

这并不是说人工智能完全没有涉及任何危险或任何需要关注的方面。与人类努力的其他任何领域一样,使用人工智能不再受制于意料之外的后果法则。

我们可以确定,将人工智能用于诸如管理你的社交媒体订阅内容之类的事情,将直接导致许多人不喜欢的意外结果。

这不是由于人工智能的任何固有特性。这是我们所生活的世界的本质。这是人类决策所固有的,无论这个决策是将甘蔗蟾蜍进口到澳大利亚(来控制害虫),还是使用人工智能进行自动化的股票购买,都极有可能发生灾难。

交际技巧

 

我们无法想象试图向狗狗提出纽扣问题。我们没有理由相信狗狗会有任何道德框架使问题相关,也没有理由相信狗狗会以某种方式关心。

我们没有更多的理由相信我们可以向人工智能提出这个问题,而不是向狗提出这个问题。我们根本没有证据表明,任何地方的任何人工智能都具有一种道德框架,该道德框架受到标记人类的自发性价值创造的指导或启发。

计算机可以比人类更快地计算,或者可以更快或更佳地预测某些类别的问题,这是无关紧要的。在与人的对弈中获胜是编程和计算机科学领域的一个里程碑,但在现实世界中却没有多大意义。在非常严格且非常有限的规则集中计算出大量排列的能力绝不表示一般的智能或计算机发展意识的能力。

能够对医疗状况进行分类和诊断的计算机,甚至可能优于人类医生,也许听起来并不那么令人印象深刻。当然,自动化检查列表和决策树非常有帮助;在紧急医疗情况下,计算机比破解书本更快。

的确,如果没有这些检查表,人类很容易出现各种感知和认知偏差,但是如果你认为能够进行分类的人工智能也可以决定汽车前部的阴影是否是一个纸箱或儿童三轮车,那将是非常错误的。

哗众取宠销售,天总是要塌下来,而上周关于世界末日的预言(“千年虫”或纽约西区高速公路到2019年将被水淹没)的失败,似乎从未满足人们对本周即将到来的末日预言的渴望。同样的道理也适用于追求轰动效应的理想主义。乌托邦意识形态的一再失败,实际上产生了预言中的人间天堂,这似乎并不妨碍真正的信徒相信这一次。 

人工智能一点也不像它的支持者和反对者会想像的那样令人兴奋、神秘、危险或宏伟的。在大多数情况下,它已成为概率数学的一个分支,被美化了的精算工作。它具有御宅族或穿着夹克的人在谈论他们最喜欢的话题时的性感魅力。它是一匹诡计多端的小马。

简而言之:不必太担心或太兴奋,以平常心态看待这一项技术,也许是最正确的做法。

 

原文:https://hackernoon.com/ai-and-the-consciousness-gap-tr9f3ydz

(*本文由AI科技大本营编译,转载请联系微信1092722531)

【end】

原力计划

《原力计划【第二季】- 学习力挑战》正式开始!即日起至3月21日,千万流量支持原创作者!更有专属【勋章】等你来挑战

推荐阅读

赔偿谷歌1.8亿美元!前Uber自动驾驶主管被告到破产

“一网打尽”Deepfake等换脸图像,微软提出升级版鉴别技术FaceX-Ray

小米回应"暴力裁员";报告称安卓手机贬值速度是iPhone两倍;AntDesign4.0.1发布

时间复杂度的表示、分析、计算方法……一文带你看懂时间复杂度!

闪电网络的5个优点和4个缺点、本质、来源与工作原理……一文带你读懂闪电网络!

国内外大厂集结,远程办公大考成绩单发布!

你点的每个“在看”,我都认真当成了AI

ChatGPT刷爆全网,人工智能真的能大规模取代人类吗

一款由OpenAI公司开发的ChatGPT智能聊天机器人爆红全网。上线仅2个月活跃用户就破了亿,成为抖音之后,全球用户最快破亿的APP。

微软CEO纳德拉说:“对于知识性工作者来说,这完全等同于工业革命。” 

以前,我们以为人工智能机器人首先取代的会是简单的体力劳动,但谁都没想到的是,人工智能机器人首先取代的竟然是简单的脑力劳动。 

ChatGPT之所以能够在2个月内用户破亿,关键就在于,它在某些领域已经开始展现出比人类更高的智慧,对人类的工作已经形成足以令人恐慌的替代性作用。在接下来的2-3年里,许多人都会因人工智能技术的进步而失业。这已经是不可阻挡的技术浪潮。 

 

ChatGPT到底有多强?它能干哪些工作?队长跟大家说几个简单的例子。 

第一个,在线客服。在ChatGPT没出现之前,我们对在线客服机器人可谓是深恶痛绝。因为它根本就不智能,简直就是智障。其中臭名远扬的就有鹅厂的在线客服机器人,经常逼得用户亲自前往鹅厂总部,讨要说法。 

那么,有了ChatGPT机器人后,它就可以大规模取代人工在线客服了。如果一家公司,原来需要100个在线客服,以后可能就只需要2-3个在线客服就够了。90%以上的问题都可以交给ChatGPT去回答。后台可以删掉所有的负面词汇,然后给它投喂行业内所有的客服数据,它会像知心小姐姐一样,回答它所知道的一切。 

第二个,标准化新闻写作。队长是做媒体的,但队长毫不怀疑,ChatGPT可以完成绝大部分的标准化新闻写作,尤其是事实类新闻报道。但它的缺陷是,写不了新闻评论。它只能算是一个高级写作机器人,缺乏视角、观点、立场和深度。 

新闻是一个需要为内容负责的行业。如果出现重大新闻失误,ChatGPT不能背锅,这是人工智能最大的弱点。可以说,时政新闻,是人工智能机器人暂时还无法进入的领域。 

举一反三的话,你要看你的工作能否被替代,你就看你是否需要为你的工作承担重大的法律责任。在这个情况下,会计师、律师和建筑设计师等需要终身负责的职业,是难以被替代的。它不可能代替你去坐牢。 

第三个,程序猿。人工智能技术是程序猿发明和推动的,但程序猿也在革自己的命。许多代码具备复制性和通用性,这些可复制、可通用的代码都能由ChatGPT所完成。 

那么,基层的程序猿都有可能被大量替代。 

除了上面三个职业外,像画师、平面设计、论文代写以及口水歌等,都能被ChatPGT所替代。 

ChatGPT的工作模式其实并不复杂。我们可以把它理解成一个超级洗稿机器人。它的素材量巨大无比,理论上可以包含全人类的数据资料。当我们让它去写一篇文章时,它会迅速检索海量数据库,对人类的原创内容进行重新组织,进而生成一篇新的文章。 

它缺乏人类的思想,但它可以完成那些不需要思想的内容创作。它可能写不出《三体》这样的科幻小说,但你让它写个睡前小故事,写个鸡汤文,写个历史小短文,那太简单了。它可以在一分钟内给你写完满满的一本杂志。 

ChatGPT的出现可以让搜索引擎变得更智能。我们以前使用百度搜索时,它是单向的。百度有什么信息,就出来什么信息。但有了它,以后的搜索就是双向的了。你可以像聊天一样,去不断地追问,直到得出你想要的答案。 

很多美国大学生都用这玩意儿代写论文,代写作业。以后,在学校厕所里的论文代写广告可能很快就会消失了,这个行业要死掉了。 

对付应试考试,ChatGPT具有先天性优势。它最擅长的就是标准。

化和机构化,标准化和结构化程度越高,ChatGPT的替代能力越强。以后,ChatGPT要是写出一篇高考满分作文,大家也不要惊诧。 

我们一直在讲的人工智能革命,从数字货币,到元宇宙,都没有真正地大规模落地,也没有真正地深入到人类的生活。数字货币关系到金融稳定,元宇宙缺乏配套的产业链技术,可ChatGPT不同,它是可以直接拿来用的,具备广泛的应用场景。 

就像前文中所提到的在线客服、平面设计师、画师、论文代写、口水歌、程序猿以及文案编辑等,都能有所取代。ChatGPT不会彻底消灭这些行业,但它作为一款人工智能工具,可以大幅减少用工数量。 

它具有极强的通用性,可能是人类人工智能革命的转折点。微软已经把ChatGPT应用到必应搜索引擎中,试图颠覆谷歌搜索的霸主地位。它能丰富人们的搜索结果,提高搜索体验,百度搜索也很快会引入相关人工智能机器人。 

如果人工智能机器人得到广泛应用,它首先带动的不是互联网行业,而是云计算行业。它每天需要处理海量的数据,对算力消耗极大。OpenAI公司投身微软,就是想获得微软云计算的支持。不然,仅算力成本就是OpenAI所不能承受之重。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇