我为什么说人工智能不能超越人类,原因有四个!
约翰·希尔勒通俗地将其解释为:“从无梦的睡眠醒来之后,除非再次入睡或进入无意识状态,否则在白天持续进行的,知觉、感觉或觉察的状态”,现在意识概念中最容易进行科学研究的是在觉察方面。例如,某人觉察到了什么、某人觉察到了自我。有时候,“觉察”已经成为了“意识”的同义词,它们甚至可以相互替换。目前在意识本质的问题上还存有诸多疑问与不解,例如在自我意识方面。现代对意识的研究已经成为了多个学科的研究对象。意识这个问题涉及到认知科学、神经科学、心理学、社会学、哲学等。
那么意识是如何产生的?意识的产生:当代研究表明,大脑是由1000亿个神经细胞构成,单个细胞本身并不聪明,这一点在上面已经说过。大脑能够产生意识,是神经完美构造和亿万细胞协作使然。
拿电脑的运作机制来作对比,电脑诞生初始,只能被运来进行运算。可是随着科技的发展,电脑的内部构造,部件逐渐更换,有跳跃式的发展。计算,搜索,图文,看视频,录音,录像,网络……功能与日俱增。人类的大脑也是如此,是随着历史的发展,不断发展,进化,完善结构,分工,协作,才有现在的意识产生机制。
但是我个人认为不论人工智能发展多少年,在很多方面超越人类,也改变不了人工智能永远不能超越大脑的事实!!
不能超越人类的原因有四:
1、人工智能是“被”制造出来的。它的局限性,在于人。
2、大脑智慧经过几百万年的发展,是人类还是一个海中生物的时候,就已经在发展了。它形成和机制,是人工智能不能重走和模仿的。
3、人类大脑的智能在于“个性”。大脑内部塑造”性格“,塑造”行为“的模式是随环境刺激可变化的东西。人工智能对于环境刺激可以发生程序变化,但永远无法形成这种永久的”性格“和”个性烙印“
4、人类智能是一个需要亿万细胞,协作,产生化学反应,电流刺激的自然产物。人工智能是一个程序,软件,芯片”设计“的”纯“电流反应。即使是1岁的大的婴儿的吃饭能力,学习认识世界的能力,也是人工智能所无法模拟的。
有人说给人大脑内安装一个芯片,这样他即具有人的智能,又具有”电脑“智能,结果就是超于大脑。我依然持高度怀疑态度。脑细胞,芯片,脑神经,如何建立一个互相识别,互相融洽的激烈的化学反应机制。人类大脑实现今天的智慧,走了几百万年。人工智能呢。
在心理学上,意识具有四个特性:
1、意向性。意向性是指人的意识能在某个事物或某件事上集中多长时间,这种多是主观的。
2、统一性。统一性指的是意识是很难分开的。例如,当某人一边开车一边打电话,此人是不可能在两件事上都集中意识。这就是我们通常所说的“一心不能二用。”意识具有这种统一整体性。因为神经意识是相互联系的。意识专注了电话内容,就对开车内容减少关注。
无疑人工智能在这方面,可以独领风骚,比之人类强了很多。
3、选择性。选择性是有关人能注意到某些事情,却没有注意到另外的事情。例如,在一个鸡尾酒会,某个人提到你的名字,当时你和那个人都同时跟不同的人群在聊天,但你却注意到了他(她)提到了你的名字。
4、短暂性。短暂性又叫改变的倾向,是威廉詹姆士所描述的意识就像一条小河里的河水。我举一个例子,你现在闭上眼睛,想象自己在一条路上开车,这条路你是熟悉的。你脑中会不断跳跃过画面,但你发现这些画面很“短暂”,你甚至会很快跳跃到另一个地方的一条路上。你无法阻止这种跳跃。
而且你试着说我要把我熟悉的这条路上的一个个建筑,逐一在大脑中呈现,可是你发现自己做不到完整的陈述。总是会跳过一些点建筑,跳跃过后,你才发现,刚才那个点没有出现在我的大脑中。
就这个意识的特性,对于人工智能来说,是望尘莫及的。而且程序员是很难这样去“设计”的。因为这将导致人工智能工作的不可靠性。
还有一个点是大家要知道的,就是关于人工智能“超越”人类的定义,是比较模糊的。你怎么定义超越?
就好比我们日常生活中说某人比某人强,这个算超越吗?没有前提条件,陌生人是不太理解的。熟人之间会意会,明白对方在说什么。
陌生人之间,我们必须说清楚,某人比某人强,是工作方面,或身体方面,或钱财方面等等。总之要有前提。
所以说人工智能要超越人类,一般我们说是全方面超越。如果单从计算角度来说,人工智能已经超越人类了。
还有一个关于超越的感性的定义,就是谁决定谁,谁是主动的。显然就目前而言,人类是主动的,人类决定人工智能的方向。
如果有一天人类变成被动,被人工智能掌控,那么也可以说这时候人工智能超越了人类。这个定义不明确,但大家都会认同。
就像有些人说的那样:“人能创造机器人,但是机器人永远都创造不了人。就凭这一点,机器人就无法取代人类。”其实关于人工智能和人类意识的话题,更多的不是在未来,而且还包括过去。也就是人类的进化史,已经为人类在智能方面,积攒了无法超越的过程。
如果人类恐惧人工智能,害怕人工智能在意识到自我之后,朝人类开枪的话,在今天就可以设置一个终极bug。也就是当人工智能在意识到自我之后,该bug行使人类的意志。人类还是在充当“上帝”的角色。
所以人工智能不可怕,可怕的还是人。人如果要设计出“心怀恶意”的人工智能,那么我们其实不是对抗人工智能,我们是跟自己对抗。和飞机,大炮,导弹不是一个概念吗?
我们不是和枪支做斗争,我们不是和导弹在战斗,我们是和拥有和制造这些东西的人在斗争。世界上的每个国家,都是以威慑力来对抗威慑力。因为没有威慑力,就不可避免的被威慑,这就是人类。
至于在哲学层面的讨论,我觉得马克思已经做了很严密的论证,就不多论述。
摘自独立学者,诗人,作家,国学起名师灵遁者心理学科普书籍《探索生命》返回搜狐,查看更多
人工智能可能有自主意识了吗
参会者在第六届世界智能大会上参观(2022年6月24日摄) 赵子硕摄/本刊
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
文 |《瞭望》新闻周刊记者 于雪 魏雨虹
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨
勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道
有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后
有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来
确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”□
长沙华夏实验学校学生和机器狗互动(2022年6月22日摄)薛宇舸摄/本刊
人工智能不能取代人类的真正原因
原标题:人工智能不能取代人类的真正原因人工智能(ArtificialIntelligence),英文缩写为AI,是一门研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的新的技术科学。AI所涉及的学科十分复杂和广泛,例如:哲学和认知科学、数学、神经生理学、心理学、计算机科学、信息论、控制论、不定性论等等,同时人工智能又是一门边缘学科,属于自然科学和社会科学的交叉。
目前,人工智能已经应用在机器视觉、指纹识别、人脸识别、视网膜识别、虹膜识别、掌纹识别、专家系统、自动规划、智能搜索、定理证明、博弈、自动程序设计、智能控制、机器人学、语言和图像理解、遗传编程等领域中。由此看出,人工智能已经渗入到人类生活中并且将人类的生活提升到另一个层次,而就在这样的发展形势下,有人对人工智能提出了担忧和质疑:人工智能会不会从体力劳动和脑力劳动方面逐步取代人类?
1956年,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家首次提出了“人工智能”这一术语。人工智能学科发展了六十年,而AI是否能代替人类也反反复复经历了很多个阶段,从否认机器人可以代替人类的工作,到承认可以帮助人类做很多事情,到尽管可以做很多事情,但却要人类来处理AI出现的故障;从AI的工作从不出错到训练它完成更新的任务,到最后,认为很多工作根本就不应该是人类应该做的。从人类的心理变化,可以看出,AI正在一步一步的减轻人类的负担,提高人类的工作效率,甚至会让人担心自己的工作会被AI所代替。
1997年,美国IBM公司的“深蓝”超级计算机以2胜1负3平战胜了当时世界国际象棋冠军,成为早期人工智能技术的一个完美例子。2016年3月15日,随着谷歌围棋人工智能“阿法狗(AlphaGo)”与韩国棋手李世石最后一轮较量的结束,这场引起全世界广泛关注的“人机大战”总比分定格在1:4。“人工智能”战胜“人类智慧”。
“阿法狗”完胜李世石,体现了深度学习神经网络技术和人工智能的巨大潜力。但是机器人的智力与人类的智力相比还是有很大差距的,谷歌的人工智能虽然在围棋博弈这方面智力水平达到了职业九段选手,但是人类的感知、学习、理解、认知等综合能力是当前机器人无法达到的。
总的来说,人工智能的目的就是让计算机这台机器能够像人类一样思考。如果希望做出一台能够思考的机器,那就必须知道什么是思考,更进一步讲就是什么是智慧。什么样的机器才是智慧的呢?科学家已经作出了汽车,火车,飞机,收音机等等,它们模仿我们身体器官的功能,但是能不能模仿人类大脑的功能呢?到目前为止,我们也仅仅知道这个装在我们天灵盖里面的东西是由数十亿个神经细胞组成的器官,我们对这些细胞的了解甚少,模仿它们恐怕是天方夜谭。就像有些人说的那样:“人能创造机器人,但是机器人永远都创造不了人。就凭这一点,机器人就无法取代人类。”
展开全文智能的布局体现在两个方面,一个通过经验获得知识,另一个是对整体环境的理解。从这个角度来看,机器人在面对未知环境的变化,未知的任务,它的决策能力还是非常弱的。从专业角度分析,人类比机器人强的地方在于学习与理解能力。人可以通过经验来学习新事物,并具备触类旁通的能力。人是通过数以亿计的神经元互相连结构成大脑,大脑是一个并联机制,所以人善于学习,通过所经历的事情或经验,能够发现事物的特征,发现本质规律,从而全面理解周围环境。与此同时,人类生活的日常环境却是多任务的,要面对各种各样的情况。人工智能的优势就在于能用复杂的计算处理简单的任务。因此有专家认为,人工智能自我学习、举一反三的能力还不如5岁孩子。有谁会担心,五岁的孩子来统治人类?
人类制造了机器人并不是用来代替人类,而是来帮助人类、延伸人类的能力。机器人是人造的,需要人去维护,而机器人有很多能力是人所不及的,如一些危险环境,人不能去而机器人可以去;而机器人在很多未知和复杂的危险环境如地震环境,无法做出正确的决策,这时就需要有丰富经验与知识的人类与它合作,共同完成任务,因此人与机器人是合作的关系。
人类大脑的记忆能力和计算能力的确比不上机器,但是人脑的智慧其实是对于信息的分析和决策能力,这是世界上任何最强大的电脑都无法比拟的。正因为如此,人工智能在未来几十年内应该都没有办法赶超我们人类的大脑,但它们会在生活中广泛应用,人类需要担心的并不是人工智能奴役人类,而真正要担心的是人类本身会不会退化。(来源:宇辰网)
声明:本号原创,注明出处即可转载。转载联系微信号:zythkj或QQ:2037535620
中翼网(www.skyservice.cn)飞行行业垂直媒体及服务平台。专注报道最新行业资讯、专业角度评测、热点视频分享、互动社区,发现最优秀的飞行设备,提供最优质的航空服务,促进行业技术交流资本对接,开启全新飞行时代。
投稿及联系:tougao@skyservice.cn联系人:小翼返回搜狐,查看更多
责任编辑: