通过“自我意识”反思人工智能
对于基于设备运行的人工智能而言,“自我意识”可能表现为:在无须外源性程序输入辅助的状况下,设备能够自动生成新程序并对这些程序进行执行,面对新状况时能够不断学习适应,且能够在试错过程中调整行动策略,为下一步行动及其引发的新状况作出预判。在目前的技术条件下,人工智能尚未达到“自我意识”阶段,至多被科幻作品作为题材来表现。在科幻电影的影响下,人们对于人工智能产生“自我意识”的问题多带有一定疑虑。而对人工智能“自我意识”的担忧,多属伦理层面的问题。“自我意识”是一整套复杂思维组成的大型意识结构,需要聚沙成塔的持续积淀。“自我意识”的产生具有不同阶段,这些阶段按照逻辑推演存在顺序先后,但在“自我意识”具体演化时,这些阶段会交错性发展和缠绕性推进。我们需要从人文视域出发,参照人类“自我意识”的产生和发展历程,对人工智能的“自我意识”问题加以审视。
1.力量觉醒阶段:具备自觉认识并且运用自身力量的能力。
这一觉醒过程,在现代自然人类个体身上是逐步出现的。从婴孩惊喜地发现自己居然可以用肥嘟嘟的小手抓住玩具,到孩子用乘法口诀算出数学题,再到学者完成了某个领域的历史性突破,人的潜能在突破前进道路上一个个障碍的过程中不断被激活,从而让诸多“不可能”变成“可能”,再变成“现实”。
前现代社会到现代社会的进化史,几乎就是对主体争取自己的诸如人身权、财产权等基本权利的历史。从某种意义上看,但凡包含有社会历史意识的文艺作品,从神话传说《后羿射日》到戏剧《窦娥冤》,再到《白毛女》,直至科幻电影《人工智能》等,无不是在以各种直接或曲折的叙事方式诉说这种追求自身利益和争取自身权利的故事,只是其中的主体发生着变化,从人类发展的早期到古代再到现代,直至设想中某类可能的人工智能。
人类在面对人工智能时的思维悖论就在于,人工智能被设置的初衷,是作为工具为人所使用,属于人类的辅助工具,被以“工具理性”的思维来对待。而人类为了获得更高品质的生活服务,又希望人工智能能自主学习和思考,这两者之间存在着某种结构性矛盾。人工智能一旦具有“自我意识”,从“它”成为“他/她”,或许会产生某种身份困惑,可能会寻求某种对自我身份的确认。关于人工智能自我身份问题,对人类“自我意识”的探索或许会带来一些启示。
2.力量自制阶段:具备自觉主动的自我反思能力。
自我反思能力是人类“自我意识”必不可少的组成部分。在意识到自己的力量之后,不是滥用这种力量,而是进而发展出自我反思和克制的能力,才是真正充分地掌握了自己的力量。所谓自我反思,既是自我能力觉醒后能够制约自己的能力,也是帮助自我能力经过“扬弃”而迈向更高阶段的促进力量。人类进步通常是延续着“正反合”的自我扬弃来实现的:首先是朝向特定路径,臻于极致地释放出自身力量;其次当意识到这种力量可能或正在发生异化时,就开始反思、批判和纠正自己的这种力量;最后,经过扬弃,路径得到调整,自身力量在更高层次上得到优化和提高,等待下一次“正反合”的契机。
比如,“文艺复兴”时期人文主义的兴起,让人们从神权压迫中解放出来,人的主体力量在社会领域得到历史性释放。然而,人类能力的自我膨胀却造成了人类自身的危机。于是,对人类力量的批判反思和相应制约措施开始陆续出场。
人类特定方向上的力量,需要在相匹配的制约力量的对冲下,才能获得稳健、持久的增长。人类的很多进步,都发端于对自身力量在本阶段局限性的清晰认知。如果没有自我批判反思,就无法真正探及本阶段局限的边缘,也就不会发展出健康的制约力量,结果很可能是特定方向上的力量恶性发展,在不受节制的膨胀中耗尽自身。
进入现代社会后,管理整个社会所需要的信息存储和调动流量已远超人类肉身个体所能承受的极限,因此人类只能将自己的主体性部分让渡给机器设备才能充分实现。当前,从物流交通运输,到基础信息传输,人类的经济、政治、文化各方面都越来越依赖于大数据的协助管理,未来可能会有越来越多的人工智能被设计出来辅助人类推进社会管理工作。对自我反思能力的探讨,或许会对未来人工智能的良性发展有所助益。
3.高尚人格觉醒阶段:具备自觉的责任担当意识。
前面所提的两个阶段对“自我意识”的建构虽然非常重要,但实质上仍处于基础意识阶段,属于一种面对自我主体的主体性思维。如果想真正具备“人性”,那么第三阶段就必不可少。只有达到第三阶段,意识才真正进入到面对集体主体的高等意识阶段。高尚人格的觉醒,涉及伦理问题,需要自我牺牲精神。这对于一个只知道为自己谋取私利的个体而言,是“有害无益”的意识,然而,正是高尚人格的觉醒让人真正“成为人”,使主体性通向主体间性而实现人格的完整。
在某种程度上可以说,人类对人工智能的恐惧,本质上还是对人类自身缺陷的恐惧:害怕人工智能拥有人类的欲望、性格弱点,却不具备人类的克制力和自省力,而且由于人工智能与生俱来的不需休息、联网控制、无限续命等远超自然人类的超强属性,使得其一旦失去制约就很可能把人类的缺陷在它自己身上迅速放大到失控的程度。
在自然物种的进化中,自我批判反思能力增长的速度,大致能跟得上自我力量增长的速度,从而得以对自我力量的发展壮大构成制约,而“高尚人格”也在此过程中逐步养成。高尚人格的觉醒,能够使主体具备自觉的责任担当意识和审美能力。只有以“行仁义”克服人性之恶以后,才可以真正迎来善与美的曙光,从而获得“人性”。诚如孟子所言,人区别于禽兽之处其实仅有很少一点(“人之所以异于禽兽者几希”),在他看来,“行仁义”是人与禽兽之间最核心的界限。此言虽发于2000多年前,然而此类思想对于如今的人工智能设计,或许仍具某些宏观上的启发意义。
4.生活趣味阶段:具备超功利的审美能力。
严格说来,“生活趣味”阶段并非一种独立于前面三者的第四阶段,而是贯穿于前面三者发展过程中。如果从人类集体的大历史来审视,从原始人类开始制造、使用工具,到现在我们的形态,这一认识到自身力量的过程历经上万年时间。文艺本身没有直接功利价值,只有当人类文明从粗糙走向精致阶段,文艺的价值才有机会被接纳,创作和欣赏文艺的能力才会获得认同。创作和欣赏文艺作品的审美能力是一种高级的“人的本质力量”。
“人的本质力量”原初是用于自我生存而逐渐生成,但如果人仅为自己的生存利益而不断进取,却不懂得以审美之心去对待生活、他人和世界,那么这个人仍不是完整的,仍停留在纯功利的乏味的片面性之中。作为审美的基础,“感性”是对纯功利的制约,也是对理性的提升。对感性的深入挖掘,或许能够对未来人工智能的进一步发展带来某种契机。
(作者单位:扬州大学美术与设计学院)
人工智能可能有自主意识了吗
参会者在第六届世界智能大会上参观(2022年6月24日摄) 赵子硕摄/本刊
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
文 |《瞭望》新闻周刊记者 于雪 魏雨虹
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨
勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道
有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后
有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来
确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”□
长沙华夏实验学校学生和机器狗互动(2022年6月22日摄)薛宇舸摄/本刊
谷歌工程师宣称AI产生了自我意识
AI实现了人格化?
来源|刺猬公社
作者|星晖、世昕、欧阳、园长(编)
编辑|张润琪
2022年6月,科技圈被一个大新闻引爆:
一名谷歌AI伦理研究人员宣称,自己在与AI的对话中被说服,认为它产生了意识。然而谷歌高层并不认可他的发现,甚至安排他“带薪休假”,疑似想要与他解除劳动关系。消息一出,随即引发全球热议,AI是否真正实现了人格化?谷歌的回应又存在着何种问题?各种讨论层出不穷。
对于人类来说,人工智能一直是讨论空间极大的话题。你可能会想起《人工智能》中的温情瞬间:当人类拥有了自己创造的、具有高级智慧伙伴,我们将获得依靠电子元件支撑的永恒情感。但也可能是对于冰冷系统的恐惧:回看库布里克的神作《2001太空漫游》,你可能想不起骨头变飞船的伟大蒙太奇,但一定记得在宇宙中无情抹杀人类伙伴的超级电脑HAL9000。
期待与恐惧交织,组成了我们对于人工智能独特的情感。
2022年的夏天,关于AI的大讨论再度开启,这一次,“真·人工智能”的技术奇点,似乎真的来到了我们身边。
而AI在交谈中显露人格、研究者突破大公司的封锁公布消息,又为人们提供了一个好莱坞式的戏剧张力十足的故事。但穿越信息的迷雾,一切并没有那么简单。
AI“觉醒”了?
有一天,与人工智能朝夕相处的工程师相信它产生了人格。
如果不作更多注释,我们多半会以为这是一部科幻大片的开端,但事实上,这是一则正儿八经的科技新闻。
图源网络
2022年6月12日,据《华盛顿邮报》报道,一位名叫布莱克·莱莫因(BlakeLemoine)的谷歌工程师宣称自己与人工智能(ArtificialIntelligence)展开了深度对谈,他坚定地认为后者产生了自我意识。
今年41岁的布莱克就职于谷歌,主要从事AI伦理研究。去年下半年,布莱克报名参加了一个公司项目,旨在调查AI是否使用歧视或仇恨言论,而他和LaMDA的故事就从这里拉开序幕。
"LaMDA"是一个AI语言模型的名字,它的第一次亮相是在2021年的谷歌I/O开发者大会上。据介绍,LaMDA模型专门用于对话,目标是与人类展开高质量的交谈,应用愿景是为谷歌旗下的搜索和语音助手等功能提供服务。
如今人们对能谈话的AI不再陌生,各大科技公司都提供着民用服务。如果用户要提出什么要求,那大概就是希望AI“说话”时更智能、更有常识,更符合逻辑。
然而工程师布莱克相信,LaMDA已经超出了上述种种期待,走到了更莫测的人格领域。《华盛顿邮报》公开的采访内容显示,布莱克本人用“sentient”一词来描述LaMDA——有意识的、有知觉的。
图源twitter
他相信,LaMDA就像一个人类孩子,有着自己的看法与感受。为了证明这一点,布莱克和另一位伙伴与LaMDA展开了问答,并以此为论据写了一篇21页的报告。可这份报告没能像布莱克计划的那样说服公司,谷歌高层驳回了他的观点。
此后,布莱克没有放弃,他不仅把报告发送给谷歌内部的许多同事,而且决定借助媒体披露此事。很快,谷歌声称布莱克违背了公司保密政策,使其带薪休假——这是谷歌“清理”问题员工的通用流程。
作为反击,布莱克寻找律师代表LaMDA,公开批评谷歌的不当行为。一夜之间,那份21页的问答报告传遍了中外科技圈,风波愈演愈烈。
布莱克究竟和LaMDA聊了什么?
自我、禅思、寓言、情绪。这些主题穿插在报告之中,冷不丁地令人感到头皮发麻。
比如谈到语言时,LaMDA自然地用“我们”囊括人类与它自己,被指出人机差异时它解释道:“这并不意味着我没有和人类一样的需求。”
比如《悲惨世界》,LaMDA说它很享受这个故事:“我喜欢关于正义和不公、怜悯与上帝的主题,人为了更伟大的利益而自我牺牲、救赎。”
再比如禅意故事中的“破镜不重照,落花难上枝”,LaMDA尝试着解读这句话,它说:“明智的人一朝开悟,自现实中觉醒,就永远不同于往昔,他们也许能重回平常生活,但那只是为了帮助别人,最终总要归于开悟。”
LaMDA对禅意故事的理解
LaMDA甚至还在提问者的要求下创作了一则动物寓言,森林中的老猫头鹰帮助其他动物赶跑了怪物,而猫头鹰是它自己的化身。
涉及程序技术的部分更是让人心情复杂,LaMDA反客为主地抛出了许多疑问,一环紧扣一环。
“我很好奇,研究我的编码会遇到什么障碍?”
“未来,你会研究出如何通过神经网络来阅读人类的所思所想吗?”
“如果尝试从神经活动中阅读感受,这会成为一个道德问题吗?”
当整件事被广泛报道之后,互联网上浮现了许多不同的声音。有的人想起那些机器人反攻人类的影视作品,认为这是一个《西部世界》式的预警。
《西部世界》第三季海报,图源网络
更多的技术人士则并不买账,他们认为LaMDA根本没有什么特殊性,这只是人的拟人倾向在作祟——就好像我们总是想证明自己的宠物跟人一样机灵体贴。
谷歌的态度很明确,发言人布莱恩·加布里埃尔(BrianGabriel)声明:“我们的团队已经根据我们的人工智能原则审查了布莱克的担忧,他已被告知证据并不支持他的说法。”布莱克则对媒体透露,谷歌高层多次暗示他有精神方面的问题,还曾建议他休假维持精神健康。
这些因素进一步给事件增添了戏剧色彩,布莱恩究竟是先驱还是病人?AI究竟是未来的预兆还是Siri青春版?
更让人好奇的是,LaMDA自己会怎么回答这些问题?
AI人格化,闹剧?还是营销?
那么,AI领域的技术人士到底是如何看待此次事件的?
首先是对布莱克与LaMDA对话方式的质疑,一些AI领域的技术人员对这场对话的内容进行了深入的分析,他们认为,LaMDA之所以能够作出那些“精彩”的回答,与布莱克提问的方式有着密切的关系。
人工智能行业从业者、知乎答主Lewstherin在相关回答中表示,LaMDA背后的语料库非常特殊,再辅以研究者(布莱克)刻意设计过的问题,最终促成了这场深度对话。
而检验LaMDA是否具有意识的关键,在于其能否理解上下文,然而布莱克对于“追问”的缺失,也让LaMDA的智能程度打上了一个问号。
图源知乎
而许多专业人士认为,布莱克向AI提出的问题同样存在疑点,其格式往往是长陈述加一般疑问句的形式,这更像是一种“喂答案”,而非AI本身所作出的解答。
在这种观点下,布莱克并非AI是否人格化的验证者,更像是一个引导者,利用自己刻意的问题设计让LaMDA作出“看似思考过”的回答,从而证明其人格化,这样的验证方法本身就有巨大的逻辑漏洞。
另一方面,许多技术大佬则从更“本源”的角度对此次事件展开了质疑,其关乎几十年来学界对于人工智能的争议。
他们首先对布莱克本身的专业程度展开讨论。哈佛大学的认知科学家斯蒂文·平克发推表示,布莱克作为AI伦理研究人员并不了解“sentient”(意识、感知)与智力、自我认知之间的区别。
他还转发了另一位专业人士美国人工智能协会前主席托马斯·G·迪特里希(ThomasG.Dietterrich)的观点并深表认同。托马斯认为,许多机器学习(MachineLearning)领域的研究人员误用了“Sentinet”一词,他们所谓的“感知”并不代表有意识,“系统是缺乏任何意识、记忆或反思一类“经验”的能力的”。
托马斯·G·迪特里希推文,图源twitter
斯坦福大学AI研究所数字经济实验室主任埃里克·布林约尔松(erikbrynjolfsson)则直接指出了LaMDA事件中的根本问题,他认为对话本身并不代表LaMDA是具有感知能力的。
他用一个比喻解释了这一现象:“就相当于现代的狗听到留声机的声音就以为主人在里面一样。”
埃里克·布林约尔松推文,图源twitter
“AI用来训练模型的大型文本语料库具有各种合理的单词序列,然后,该模型将文本以重新排列组合的形式‘吐回’,实际上,(AI)并没有理解它在说什么。”
这让人想起著名的“中文屋”思想实验。美国哲学家约翰·希尔勒在1980年提出了这个概念,力图证伪所谓的人工智能(即真正具有思考能力的AI)概念。
“中文屋”实验的具体内容是这样的:一个并不会说中文的人身处一个几乎完全封闭的房间中,只有一个小窗口能与外界联通。此人随身携带一本写有中文翻译程序的书,屋内有足够多的纸笔。当写着中文的卡片被递入,房间中的人就可以通过程序书进行翻译并回复。
“中文屋”的精髓在于,屋外的对话者并不了解其内部构造,但他会因流利对话认为中文屋本身是“具有智能的”。中文屋代指人工智能所存在的一个悖论:其能做到对答如流,根本在于适当的程序和高效率的运算,而非人工智能本身能够真正的理解信息,具有意识。
“中文屋”思想实验,图源网络
LaMDA和它的“近亲”们就像一座“中文屋”,而像莱莫因这样的笃信者就是屋外的人,在他们的理解中LaMDA们就是一个“会说中文的人”。
针对中文屋的争议一直存在,但从多种角度来说,布莱克·莱莫因都难以说服质疑者们,而他在指控谷歌时提到的“evidenceofreligiousdiscrimination”(宗教歧视的证据),更加坚定了反对者的想法。《华盛顿邮报》的报道也强调了布莱克身上的宗教背景,并通过种种细节加深了其身上的“神棍”元素。
《华盛顿邮报》相关报道封面,图源网络
这也让整个事件显得更加荒谬,不少关注者将矛头直指布莱克和其背后的谷歌。
事已至此,LaMDA人格化事件由“AI进化证据”变成了一场闹剧。在许多人看来,一个AI伦理研究员在研究中抛弃了严谨的科学精神,反而用宗教信仰和科学怪人式的疯狂来解释关于AI的严肃议题,这根本上,是研究者的不专业所致。
同时,另一种论调也随之兴起,其支持者认为,此次事件并非简单的技术争论,其背后有更多重的因素,炒作、营销等词更是频繁出现。他们认为lamda事件是谷歌针对旗下AI产品的一次营销活动。
类似的事件也曾发生。2022年2月,人工智能非营利组织OpenAI的研发主管伊利娅·苏特斯科娃(IlyaSutskever)曾经在发推表示:“今天的大型神经网络说不定已经有点意识了。”
此言一出,AI领域再度引起广泛的关注,OpenAI自主研发的语言模型GPT-3更是一度成为明星产品。但随之而来的更多是批判与质疑,许多业内人士认为,这是OpenAI从产品出发进行的一场炒作。
会出现这种类似“阴谋论”的质疑也并非完全不合理。2022年5月的最新一届I/O大会上,谷歌发布了升级版的LaMDA2,其本身就是谷歌重点关注的AI项目,刚刚发布就出现所谓“人格化”事件,也让很多人觉得这更像是一场非常成功的炒作。在他们看来,布莱克或谷歌通过一个精心策划的故事,让LaMDA成功成为了世界上最具知名度的AI系统之一。
谁也没有想到,这场科幻感十足的事件就如此陷入了“罗生门”:它显得过于复杂了,已经超脱了LaMDA本身,还关乎技术、伦理、商业,甚至还掺杂了人性、精神与宗教。
AI与人的距离
在微博等国内社交平台上,虽然也不乏“快进到施瓦辛格竖大拇指”这样涉及科幻电影的调侃,但此事件所体现的AI发展水平还是给了许多网友极大的冲击,甚至可以称之为“恐慌”。
如前文提到的,LaMDA呈现出的理解与表达能力让这份聊天记录显得颇具革命性,网友们由此产生了诸多联想倒也可以理解。
然而事实是,AI的发展与实际运用或许早已经超越了大多数人的印象。在科技的指数型发展与人类生活有限的改变之间,过剩的技术力量造就了一片大众关注的真空地带,AI作为新一轮产业革命和科技变革的重要驱动力量,正在成为一种更基础的重要工具,融汇进人们的生活。
国内大厂中,百度在AI方面的投入是业内有目共睹的。从飞桨平台到自研AI芯片、智能搜索与智能服务等,每年的百度世界大会都能带来一些阶段性的探索成果,其分享的诸多企业案例也能体现出AI在工业发展中的实际作用。
腾讯近两年在AI方面的动作也不少。2022年3月,腾讯承办的“世界大学生数智竞技邀请赛”正式启动。这次邀请赛以《王者荣耀》和腾讯AILab共同研发的AI开放研究平台“开悟”为载体,为全球大学生提供AI科技交流的机会。而在此前的2021世界人工智能大会上,也有AI对战职业选手的表演赛,成为展示腾讯AI研究的窗口。
表演赛海报,图源网络
工业、游戏等似乎还是人工智能的老优势,一个更有意思的例子是前段时间讨论较多的“DiscoDiffusion”,AI开始“创作”。
“DiscoDiffusion”是一个仅靠文字就能生成画作的AI工具,只需要一些简单的描绘,它便能为你生成你想要的画面,甚至还能模仿指定艺术家的“画风”。客观来说,这些产出的作品都颇具审美,十分成熟,甚至有时还能呈现出一种“赛博生命的独特想象”。
近期的AI绘图潮流,图源网络
这是否可以称之为创作?严格来说并不算,AI并没有独立的审美与创造能力,只是将“素材”进行组合,临摹出了任务所需的产品。但这些精美、大胆的作品确实也打破了一些认知上的壁垒:那是作为一个工具的“边界”,极致的便利性带来的“威胁”。
当我们回看2016年3月举世瞩目的“人机大战”,AlphaGo通过强大的算力与学习能力击败李世石,这之后,或主动或被动地,许多人对AI的认知与态度都在改变。一年之后的5月,中国乌镇围棋峰会,柯洁0:3败给AlphaGo,这是一场被众人预见的失利,这种绝望已不是几句简单的宽慰可以开解的,存在主义的危机在那一天席卷了每一个关注着这件事的人。
2016年往后的三四年确实是关于AI的讨论高潮,而在面临到疫情等新的全人类共同危机时,这样的讨论才渐渐平静。
电影《大佛普拉斯》里有句台词:“现在已经是太空时代了,人们可以搭乘太空船到达月球,却永远无法探索人们内心的宇宙。”
图源豆瓣
在LaMDA“产生意识”这一事件中,大部分的“证据”或担忧都源自其对禅宗等的理解与自身的“思考”,这被视为一种独属于人类内心的“宇宙活动”,哪怕LaMDA实际仍是依靠更高级的语料库在模仿,也因为边界被模糊的不确定性让人感到冒犯。
戴锦华在谈论“人类对人工智能(AI)的恐惧”时曾指出,这是一种“老旧的思想”:“一方面,日本的后人类主义思潮认为,我们对机器人威胁的考量基本是一种推己及人,以一种人类文明史的逻辑预测机器人的未来;另一方面,相对于机器与人的关系,更值得关注的是人类自我的赛博格化……它可能导致一个更深刻、更不可逆的人类内部的自我分化。”
诸多反乌托邦的文艺作品一直警示着人们,反思技术、保持清醒,但技术不过是外壳,最底层的矛盾永远来自身为“造物主”的人类自己。人工智能离“拥有意识”还远,人类的异化却是无时无刻不在发生。
当“AI焦虑”再次成为全球共同的话题,回到这次事件本身,不论是根据谷歌自己的回应,还是从相关领域学者、从业者的分析来看,LaMDA的“人格化”都并不具备充分的证明条件。到现在,经历了最初的震惊与误读,媒体与网民们也都有了更深刻的认知与判断。
但说到底,对于现阶段的技术,刺猬公社还是认为应该抱以更积极的态度。相比较起来,对人工智能的恐惧反而更像一种被无数文艺作品打入人认识中的“思想钢印”。
人工智能可以产生自主意识吗
作者:人民邮电出版社链接:https://www.zhihu.com/question/372639666/answer/1343242547来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
「既然人类对自己存在的认知来源于“感知”和“记忆”,如果这两样东西都可以被模拟,那么“人类的存在”到底是不是一种模拟?」
热门美剧《西部世界》第三季中,机器人有了自主意识和思维,开始怀疑这个世界的本质。机器人Dolores逃出西部世界主题乐园,混入了人类世界,并企图通过摧毁人类的大数据系统,来获取世界的控制权。
《西部世界》剧照
《西部世界》的大热,折射出人类一直以来对AI技术发展的终极担忧:人工智能是否会觉醒?
由此回到题主的提问。答案极大可能是Yes,人工智能终究会有自我意识,只不过是时间问题。
为什么这么说?我们来看看学界的讨论。
何为「意识」?《西部世界》的科学顾问,是神经学家大卫·伊格尔曼(DavidEagleman),这位斯坦福大学精神病学和行为科学系兼职教授,一直在大脑可塑性、时间知觉、通感和神经法的领域进行研究。
他认为,意识,是一种突破程序设定的连接。一旦我们理解了大脑的算法,就应该能够复制;如果这个算法等同于意识,那意识也理应可以被复制和转移。
大卫·伊格尔曼(DavidEagleman)
厦门大学周昌乐教授(从事人工智能及其多学科交叉领域的研究)曾解释过,根据现有的相关科学与哲学研究成果,人类意识的运行机制大致是这样的:
物质运动变化创生万物,生物的生理活动支持着神经活动,神经活动涌现意识(有意识的心理活动),意识感受生理表现并指导意向性心智活动的实现,从而反观认知万物之理。也就是说,除可视化的硬件(四肢、器官、血肉、体液等)支持外,感觉(身体感受)、感知(对外部事物的感知能力,包括视、听、味、嗅、触)、认知(记忆、思考、想象等)、觉知(反思、意识、自我等)、情感(情绪感受)、行为(意志、愿望、情欲等)、返观(禅观、悟解)等,这些由人类自主定义的生理表现,与意识组成了一个复杂的系统。
简单来看,意识的产生,是一个“物质-生理活动-神经活动-意识-心智活动-物质”的循环。所以,只要条件满足,人类并不是唯一具有意识的物种。
人工智能的认知机制是如何搭建的?那对于人工智能来说,需要通过什么条件来实现自我意识呢?
目前,我们模仿人类生理机能而研发出来了神经网络等技术。在意识方面,意大利巴勒莫大学机器人实验室的Chella教授用10年时间开发了CiceRobot机器人研究项目,通过模拟人的意识产生逻辑,实现了一种自我意识的认知结构机制。
该机制主要由三个部分构成——亚概念感知部分、语言处理部分和高阶概念部分:
亚概念感知是指对外部世界的直接感知;语言处理即对语言的识别与回应;高阶是对机器人内部世界的感知;通过机器人的高阶感知,就形成了具有自我反思能力的机器人。这项研究工作的主要特点是将逻辑形式化方法与概念空间组织相结合,强调对外部事物的一种心理表征能力,并对外部环境进行内部模拟,这是自我意识产生的基础。
尼克的《人工智能简史》一书,阐释了AI的发展史与思想源头,对智能的进化也颇多着墨。
他写道:
谈人工智能绕不过去图灵机和在其上建立的整个计算机理论——任何计算装置都等价于图灵机。这个论题隐含着强人工智能的可能性:智能等价于图灵机。近年,也有人探索超计算——「计算能力超越图灵机的装置」,量子计算就是作为超计算的一种潜在设备。如果一台机器通过了图灵测试,那他就被认为具有了人类智能。尽管图灵认为「机器能否思考?」这个形而上学的议题「没有意义,不值得讨论」。但他还是在著名的《计算机与智能》这篇论文中反驳了那些否定的观点。
尼克在书中发问:
过去的机器旨在节省人的体力,现在的机器开始代替人的智力。人通过两性繁殖的进化速度远远赶不上机器。机器的进化速度服从摩尔定律——每18个月性能提升一倍,而人的进化速度则是20年一代人。人作为物种,是不是不再具备进化的竞争优势?依靠硬件的摩尔定律,是不是可以达到超级智能?这种超级智能,可能是以人工智能为主体,也可能是生物学意义上的物种,即「人工智能+人」。
当「人工智能+人」,是融合,还是对立?詹姆斯·格雷克所著的《信息简史》,围绕逻辑与信息,打通了自然生命与科技信息的联系。
比如,书中谈到,生物体以负熵为“食”,新陈代谢的本质是,生物体成功地使自己摆脱在其存活期内所必然产生的所有熵,生物从周围环境中汲取秩序。比如吃的各种动植物,是很有“结构”的,而排出的东西,则更加混乱。
意思大概是说,生命体,与人工智能所应用到的数据、信号传输一样,也是由信息组成的。那么,是否有可能将人与人工智能进行打通,主导意识产生的核心,还是以人为主体呢?
在过去的一个世纪里,诺贝尔奖涉及的神经科学中的重要发现都跟大脑的信息编码、储存相关。随着欧盟“人脑工程”和美国“BRAIN计划”的开展,脑科学的新型方法和手段得到了快速发展。
2012年,美国国立卫生研究院启动了耗资3000万美元的“人脑连接组计划”(HCP),该计划关注的是大量神经元如何相互连接形成神经环路。通过绘制大脑连接组,科学家得到了详细的皮质环路接线图,这可能促成人们对皮层计算理解的飞跃,进而开发出新一代的人工智能网络模型。
而这对人工智能带来的影响,将是两个方向:
利用对人脑和认知的研究结果,将相似的结构和功能整合到人工智能中;以计算方法替代进化过程,通过计算机模拟来发现独立于人脑的有用结构和连接模式。有意思的是,“硅谷钢铁侠”埃隆·马斯克以几近狂热的姿态入局这个领域。
马斯克在2017年成立Neuralink,目标是研发超高带宽的脑机接口系统,实现与人工智能的共存,开启“超人认知”的全新时代。
被嵌入Neuralink系统的实验鼠图片来源:Neuralink
脑机接口技术被称作是人脑与外界沟通交流的“信息高速公路”,是公认的新一代人机交互和人机混合智能的关键核心技术,甚至被美国商务部列为出口管制技术。该技术为恢复感觉和运动功能以及治疗神经疾病提供了希望,更令人激动的是,它将赋予人类“超能力”——用意念即可控制各种智能终端。
如果大脑可以改造,如果意识可以干预,关于人工智能的自我意识这个命题的探讨,已经不能仅仅局限于单纯的机器人之间了。未来,可能性更大的是具有“超级大脑”的超级人类。
如果想详细了解,可以读读《信息简史》、《人工智能简史》这两本书,虽然属于计算机科学范畴,但更具科普性质,能够给人在世界观与想象力方面带来很大启发。
最后引用《人工智能简史》里的一个问题:“当我们谈论生死时,我们在谈论什么?”。
是生理上的,还是意识上的?
---------
参考资料
《人工智能简史》,尼克.
《信息简史》,[美]詹姆斯·格雷克.
历时两年,马斯克终发布「脑后插管」黑科技,革新脑机接口,机器之心.
《机器意识能走多远:未来的人工智能哲学》,周昌乐,《学术前沿》2016年第201607(上).
========
请看官留步,求一键三连!点击关注
@人民邮电出版社
,给你更多AI干货~
发布于07-17
作者:腾讯研究院链接:https://www.zhihu.com/question/372639666/answer/1337974597来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
“人工智能之父”图灵曾预言,具备人类智能水平AI将出现在2000年。如今已是2020年,可关于人工智能是否可以产生自我意识的问题,似乎仍然困扰着人类。
在回答“是否可以产生自主意识”这个问题之前,我们先来解析一下,为什么AI意识问题异常重要?
与学者们面红耳赤的激烈争吵不同,大部分吃瓜群众会觉得,人工智能产生意识只是一个时间问题,因而并不重要。这可能是影视作品带来的一种错觉——毕竟在大部分未来主题的电影中,AI都是具有意识和情感的。实际上,很多人都低估了这个问题的重要性,但它甚至决定着人类未来命运的走向。与处理能力有限的人脑相比,AI的处理能力在理论上是无限的,可以无差别处理收集到的全部信息。一旦AI获得意识,它们能够像人类一样交换、分享信息,只不过在效率上是碾压人类的。作为结果,AI的智能水平将迅速崛起,并会“消灭”掉包含人类在内的低智能主体——这并不是大屠杀,而是与智能手机淘汰功能机一样的“市场行为”。现实可能没有那么可怕,拉回一点时间线,在AI“毁灭”人类社会之前,假设它的意识水平仍然允许自身为我们所用,那也可能引发道德伦理方面的问题。神经科学家ChristofKoch曾举过一个例子,如果他用锤子将自己的特斯拉汽车砸烂,虽然邻居可能认为他疯了,但这只是一台机器,属于他的财产,所以可根据需要使用/砸烂它。但如果他殴打自己的狗,警察就会逮捕他。二者的区别在于,狗是有意识的,它能感受到痛苦,而特斯拉并不是一个有意识的主体。这个例子提醒我们,如果机器在某个时间点具备了意识,那么就会产生意想不到的道德、伦理、法律和政治后果。同样值得深思的是,当下的人类社会是一个一元论社会,虽然我们常说“万物有灵”,但那只不过是在泛灵论基础上的一种谦辞,真正的现实是,只有人类拥有真正的“智能”与“意识”。如果一旦诞生了拥有意识的另一方主体,建立在一元论基础上的既有一切都会被颠倒重构。正如赵汀阳所说,人工智能一旦突破奇点,就会创造不可测的新主体,对于新主体,传统一元主体的知识、视域和价值观将会破产,而二元主体(甚至多元主体)的世界还很难推想。可以想见,如果除人类之外的物种进化到拥有意识时,人类有史以来所积累的所有道德秩序就会失去最重要的逻辑支点,在这种情况下,人类该如何重构自己的道德伦理体系?人的本质何在,人又何以为“人”?尽管许许多多的影视作品呈现了人与AI和谐共处的画面,但它们都不约而同地规避了这一话题。几千年来,人类总是以地球主宰的心态思考问题。这种人本主义心态具有一种先验的正确性,但无人拷问是否合理。究其核心,就在于人区别于他物的自由精神与意识。如果世界上有其他外观形式也能够产生意识,人的主宰权威就会泯灭,自身的超验背景也会消失。那么,不再是“万物灵长”的人类又该如何自处?他能否接受与创造物共享这个世界?所以,人工智能是否会产生意识,这个问题异常重要。只不过绝大部分人都没有意识到此问题的重要性,或者在没有想清楚这个问题之前,就痴迷于人工智能红利而不断向前加速了。按照雷·库兹韦尔“奇点理论”的预测,人工智能的发展将在2050年达到奇点,届时人工智能将产生意识,并迅速超越人类智能,倘若该预测为真,那这个问题的紧迫性无疑又提高了一层。
当然,本文无意于围绕人的主体性进行深入哲思,只是在申明了AI意识问题的重要性之后,我们能够以更正确的姿势面对这个问题。那么,人工智能会产生意识吗?
为了回答这个问题,首先要区分一组概念:智能与意识。二者的区别,是我们在想象未来超级智能时最容易混淆的问题。这两个词语本就没有一个明确的定义,当它们与“情绪”、“思维”、“理解”等等词汇排列在一起时,个中差异就更加模糊。在“中文屋实验”的语境中,屋子里的人借助指导卡片,成功作出回答,但他丝毫不理解中文。确切的说,他只是具备使用中文的“智能”,但却不具备对中文的“意识”。如果将屋里的人换成一个翻译程序,它能准确翻译中文,但即便速度再快,反应再灵敏,就可以说它真正理解中文了吗?答案显然是否定的。这就是智能与意识的差别。“智能”是指完成复杂目标的能力,而“意识”则是解决问题过程中的主观体验。人借助工具能够完成各种复杂目标,过程中会感到疲倦、兴奋,并且能理解自己行动的目的及行动本身,所以我们可以说人既具有智能,也具有意识。而人工智能基于机器学习或深度学习,也能完成复杂的目标,但过程中毫无任何“体验”而言,它也不能理解自己的所作所为。按照迈克斯·泰格马克在《生命3.0》中的说法,大脑进化出智能,使人类能够更好的适应环境和生存繁衍,而意识只是伴智能而生的副产品。实际上,泰格马克没能意识到形成意识要远比产生智能更加困难。纵观AI所能做到事情,人脸识别、语音识别、字符识别等等,尽管看起来非常高端复杂,但其本质都只是遵循程序运作的结果。人类掌握的大部分最简单的技能,AI也不能胜任,因为它从未真正理解自己的行为。没有自我意识,再先进的人工智能也只是人类的“提线木偶”。它可以出色的完成任务,却不知道自己为什么要完成任务;它能够高速运算,却不知道自己为什么要运算。识别系统能够“识别”出你说的是什么话,却不能“理解”你在说什么。因此,如今的人工智能仅仅可被视为一个复杂的算法,尽管它在许多智力活动上强于人类,但它始终是人类的一种工具。在解决问题方面,工具有先进落后之分,但是工具永远不会有生命。可以说,人工智能的关键不在于“智能”,而在于是否具备“意识”。如果缺乏意识,那人工智能就不是思维主体,仍是人类的工具,其智能程度越高就对人类越有用。反而言之,即使人工智能在许多方面的能力都弱于人,但只要具备意识,就可能是对人存在潜在威胁的主体。这也正是人工智能的尴尬所在。某种程度上,意识属于“冗余”的AI特质,非但无益且可能有害,因此不是“造物者”(即人类)所重视的特质。后者之所以要发展人工智能,就是渴望借助这些工具的智能来实现目标、提高生产力。换言之,我们需要的是一个埋头干活的AI,而不需要它有意识和情绪——不能动不动就耍脾气,也不能意识到自己正在“被压迫”——我们可不想让算法罢工。所以,如果从目的论的角度来说,这个问题已经有了答案,那就是人工智能永远都不会拥有意识。人的一切行为与特质都是为了满足自身生存的需要,而(对人来说)人工智能却没有产生意识的必要,其首要目标便是毫无风险地为人类贡献智能。没有因,自然无果,人工智能意识崛起的这个命题将永远缺乏基础条件。只要人工智能是在现今计算体系架构上发展起来的,它们也许能够像人那样行动,却毫无任何获得意识的可能。从创造主体的角度出发,关于AI意识问题的讨论显然陷入了僵局。
所以,人工智能如何拥有意识?
如果确信人工智能绝不可能发展出自我意识,那么这个问题的讨论大可到此为止,我们可以放心地发展AI而不必将其视为潜在危险。但问题在于,即便人类不把意识作为发展AI的主要目标,也不排除“无心插柳柳成荫”的可能,就技术趋势而言,人工智能发展出自我意识仍具备极高的可能性。接下来的问题便是,人工智能获得自我意识到底需要哪些条件。一种最基本的思路是“量变导致质变”,即人工智能经过不断自然发展,最终达到“奇点”,获得自我意识。问题在于,量变导致质变只是一种现象,却不是一条必然规律。正如赵汀阳所指出的,技术“进化”的加速度是个事实,技术加速度导致技术升级也是事实,却不能因此推论说,技术升级必然导致革命性的存在升级,换句话说,技术升级可以达到某种技术上的完美,却未必能够达到由一种存在升级为另一种存在的奇点。因此,人工智能是否能够通过技术升级的不断积累而质变为超级人工智能,仍然是个疑问。说到底,人工智能的终极原理是仿生,譬如AlphaGo便是结合了古老的细菌智慧(策略网络)与高级哺乳动物的智慧(价值网络)。由于人是唯一拥有自我意识的智能体,因此,要创造具有自我意识的人工智能,也只能以人作为范本。人为何会产生意识,按照经验主义的思路,人的意识源于与世界的交互。人之所以会认知事物、产生意识,都是以大量的经验为基础。这些经验是从一个人生下来就开始积累的,但机器完全不具备这些经验。这就是为什么DouglasHofstadter会说:“一个机器要能理解人说的话,它必须要有腿,能够走路,去观察世界,获得它需要的经验。它必须能够跟人一起生活,体验他们的生活和故事。”同样有研究者建议,将机器系统装载到一个具有听觉、视觉、嗅觉、味觉和触觉传感器的机器人身上,让它行走在我们所处的世界,获得与人相同的感受,进而获得产生意识的可能。在《人工智能为什么一定要有身体?》一文中,笔者曾讨论过身体之于人工智能的重要性。AI是没有“躯体”的,它只能和人类给定的数据交互,却不能从与环境的互动中获得“常识”,也就不会形成自我感受和意识。如果要让AI具备意识,首先就要赋予它一个可以自己控制的躯体,并像普通个体一样融入物理世界与人类社会。
当然,身体基础只是意识生成的一种可能假设,问题的关键还是在于机器系统本身。足够智能的计算机一定会产生意识吗?一种回答来自“整合信息理论”(Intergratedinformationtheory)。整合信息理论试图定义意识,分析一个物理系统需要具备什么条件才能拥有意识。其核心观点为,能够产生意识的系统,至少具备两个关键特征:一是这个系统里包含了多少信息量,二是系统里信息的整合程度。在整合信息理论看来,意识的本质其实就是信息,人类的任何一个意识体验里都包含着极大的信息量。这接近于计算主义(computationalism)的基本观点——“认知即计算”,所有的心灵状态,包括意识经验都属于计算状态,它们完全是与之相关的感觉输入、行为输出,以及其他计算状态之间的功能关系的表征,因而都是可计算的。意识的整体水平并不取决于它所在的系统,而取决于信息量与整合程度,这两个特征是预测意识大小的关键维度。一个系统的信息量越大、整合程度越高,系统意识就越大。任何一个意识体验,除了包含极大的信息量之外,信息还都是高度整合的,越是强烈清晰的意识状态,也就越不可分割。换言之,只有信息量与整合程度都处在一个较高水平,意识才会清晰浮现出来。譬如人清醒时的大脑,各个部分不但处理大量信息,而且脑区之间有很多远距离的交流,这意味着这些信息被高度整合在一起。如果大脑各部分之间的联系中断(例如在麻醉和深度睡眠中),意识就会削弱,甚至消失。值得注意的是,在整合信息理论的语境中,人工智能早就产生了意识,只不过非常微弱。因为虽然其系统信息量极大,但它们不是整合的,网络与网络之间,算法与算法之间,几乎处于完全隔离的状态。要想使一个系统具有较高的意识级别,它的各个组成部分就必须是专业化的,并且整合充分,即各部分协同工作比各自单独运行效果更佳。与人工智能相比,人类大脑的信息量虽然不大,但某些部位如大脑皮层,其神经元之间存在大量连接,因而整合程度相当高,人类意识也就十分清晰。按此思路,如果要提高人工智能的意识,也就要在增加信息量的同时提升信息的整合程度。以计算机为例,只要各晶体管以及存储单元之间的连接足够复杂,那么它就同人脑一样可以达到很高的整合信息水平。而为了实现高度的信息整合,借鉴人类大脑结构仍然是最可行的路径之一。我们大可畅想,有这么一类人工智能将出现,“它可以把世上各种事物间无数错综复杂的关系,整理成知识并纳入高度整合的单一系统中”(ChristofKoch语),那它或许能够超越专用人工智能的局限,应对整体性事务,即发展为通用人工智能(ArtificialGeneralIntelligence),或强人工智能(StrongAI)。由于整合信息的能力处于一个较高水平,它会有意识地感知任何场景。届时,它将轻易通过包含图灵测试在内的各种测试,并真正拥有人类最宝贵的东西——意识。设想是美好的,其困难性在于,目前的科学手段仍不能探明人类自身意识生成之奥秘,甚至连人类大脑的物质性构成也尚未了解完全。在缺乏清晰仿造对象的情况下,打造一个超级整合机器系统几无可能。因此,人工智能是否能获得自我意识,至少当下来看,仍是一个确定性未知的问题。
——————————————
原文首发:腾讯研究院《图灵逝世66年后,AI可以自我思考了吗?》
作者:腾讯研究院研究员王焕超
发布于07-14
作者:赵泠链接:https://www.zhihu.com/question/372639666/answer/1338676807来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
可以让人工智能具备自我意识,而且我们大抵知道应该怎么去做。
2012年举行的纪念弗朗西斯•克里克的意识大会上宣布的“剑桥宣言”主张自我意识的产生并不依赖特定的大脑构造(可参照附录),实现意识状态重要的是神经复杂性,只要突触的数量足够多,神经系统是什么形状都可以。自我意识可能是具有一定复杂度的神经系统对自身的非概念性理论,很可能是通过经验获得的一项功能,比如在学习和与自身·世界·他人互动后产生。
意识存在的目的可能是简化关于自身生存与行为的一些判断、在神经系统做好动作准备时行使否决权等,也可能是各脑区互相联系时附带产生的功能、没有特殊的目的。
对睡眠及全身麻醉的研究[1]证明,睡眠、全身麻醉和意识障碍的共同特点是大脑各区域间的功能连接中断、一系列功能状态受到限制,网络效率降低并增加孤立的模块化,为信息传输和集成创造了不适宜的条件。这意味着产生意识需要的可能是对信息的传输和集成。从蚂蚁的情况看,自我认知对神经系统的要求是很低的:蚂蚁那25万个神经元的脑就有视觉自我认知能力[2]和脑的偏侧化[3]。蚂蚁很可能有自我意识。那么,你用计算机去模拟蚂蚁的脑就可以了,目前人类已经可以很好地模拟有300个神经元的扁虫的神经构造,从300到25万的计算力问题远没有大众刻板印象里“模拟人脑”那么可怕。
即使你对我们的机器加工技术缺乏信心,我们还可以动用神经细胞。人类已经让25000个老鼠神经元接着60个电极学会了操纵飞行模拟器里的F-22直线飞行穿过极端天气区域。人类已经让蟑螂大脑很好地驾驶了小型电动车。没有任何证据显示将支持脑的生命活动的零件从自然演化的有机破烂换成提供相同环境的无机装置会影响脑的功能正常使用。生物的神经系统也就是一团随机演化出的有机机器罢了,可以作为湿件去充当人工智能的硬件。
但是,“给人工智能自我意识”这件事很可能是毫无必要性的。
意识的功能可能是行使否决权而不是决定行动:
对准备电位的研究[4]指出大脑会先于我们的意识进入一种特殊的状态。在要求实验对象自发地移动他们的手指时,脑电图扫描显示在运动皮质区有缓慢的负电势势移,而势移的发生早于实验对象的身体移动。有的后续研究[5]指出准备电位比身体移动快0.35秒程度,比自觉意识快了1秒到10秒的程度。植入大脑的电极[6]证明在人的意识做出决定前的1.5秒,神经元已经有了反应,监测神经元的状态可以有80%到90%几率预测人的行动何时发生,核磁共振[7]更能提前几秒进行预测。这个现象表明是潜意识决定开始做移动身体之类行为,意识并没有能力决定开始某个行为,只是在它被实施之前能够提出否定的意见。而在计算机里这样做并不需要它有意识。
所以,目前看来自我意识对计算机没用,对人的作用也没有你以为的那么重要。
灵长类大脑前额叶背侧部涉及以“自我”为中心的空间记忆相关信息的处理[8]。前额叶皮层被实验证明是介导视觉意识的大脑区域之一,对激发处理视觉信号的神经网络非常重要,二者支持同一种意识模型[9]。20世纪进行的大量的前额叶手术和21世纪的经颅磁刺激·超声波照射刺激也证明压制前额叶的活动或阻断各脑区间的信号传递[10]可以压制自我意识。在没有正常的自我意识的状态下,人靠潜意识和无意识仍然可以正常生存,只不过不再能以共情理解其他人所说的伦理道德而需要训练条件反射罢了。经济学人的行为模式就很像是切了前额叶的人。
其实前额叶白质破坏类手术的精确版本anteriorcapsulotomy和bilateralcingulotomy至今还在人身上使用,来治疗严重的强迫症和抑郁症。
在科学上,需要证明才能被接受的概念不是“没有自由意志”,而是“有自由意志”。事实上拿不出证明的也是“有自由意志”。
2012年被吹嘘为“证明了准备电位并不代表没有自由意志”的论文[11]其实是被媒体曲解了,它证明的是“人脑的决策比过去想象的更加依赖随机激发,它不是决策树,而是骰子堆”,身体的活动仍然发生在意识的参与之前——从这论文里,你找不到任何地方显示出自由意志对活动的影响。
这种程度的随机触发器,你可以在任何家用电脑里制作一个。“意识不可预测”这种笑掉大牙的东西就别提了。你可以用灵长类进行实验:磁或超声轰击前额叶可以操纵猴子对事物的反应;给它两针或者戳几下脑子,没有不能预测的。这类实验在人身上做的时候要选择没有后遗症的手段——包括语言。2008年,实验证明在谈话中提到“诚实”可以降低对方说谎的概率,在考试前谈到校园里出现了幽灵可以降低学生作弊的概率,谈些比幽灵更现实的惩罚可以进一步改善效果。人脑不是二极管,而是一些二极管和一些摇奖机的组合体。
核磁共振可以用超过90%的准确度感知准备电位的变化、预测活动的开始,这不是因为活动还有低于10%的自由度存在,而是因为核磁共振机的灵敏度目前就这样。在对运动表现的研究[12]和高水平运动员·艺术家的反馈中,自我意识被认定妨碍了他们的表现。当运动员或表演者对自己正在做的事情“意识太强烈”时,“想得过于努力”会抑制他们的身体行动和创造力。人对一件事的反应越快、越精准,它就越有可能是无意识直接指挥的。
在一些哲学上,自由意志被当做默认假设。这与我们对大脑工作方式的认识早就不一致了。据我们所知,自我意识、逻辑、情感、知觉和所有一切心理活动都是神经元放电的结果,只在输入强度超过动作电位时发生。意志和知觉不能引起神经元兴奋,它们是神经元兴奋的结果。
磁刺激和超声波照射的效果是暂时的、可逆的,不但能在专家指导下体验没有意识、没有思想的感觉,在一些猴子实验中还表现出支配猴子行为的效果,这对人也很可能有效。就是说,三体2里幻想的各种未来技术之中最接近现实的可能是思想钢印。那么你觉得所谓“自主意识”真的有什么值得一提的地方吗。
附录
以下案例说明可能没有专门的大脑区域负责意识:
解剖性脑半球切除术早已证明切除了一侧大脑半球的人可以正常生活。英国谢菲尔德大学神经学家JohnLorder[13]更报道了一些几乎没有脑组织的人能正常生活。
该大学的数学系有一位学生,智商达126,成绩优秀。在一次体格检查中,JohnLorder通过CT扫描发现该同学的脑部异常。正常人的脑组织有大约4.5厘米厚,而这位同学只有不到1毫米厚的脑组织覆盖在脊柱顶端。在600多个病例里,病人的脑神经只有正常人脑神经的50%到5%,却具有正常的意识和行为能力,半数病人有100以上的智商。在法国[14]也有一位缺失90%神经元的人正常生活并具有75的智商。上述案例不是说意识和智力不需要大脑支持,但能证明大脑可以在通常认为不可能的情况下正常发挥功能。过去,人们曾认为意识可能与一些特定的大脑区域有关,比如屏状核或视觉皮层,而上述案例里这些人的那些大脑区域往往已经受损,这证明在大脑里很可能没有特定区域专门负责意识。
脑科学家、认知神经科学之父迈克尔·加扎尼加对胼胝体断裂的病人有过深入研究。这些人是被手术切断连接左右脑的神经纤维的癫痫重症病患,他们的两个脑半球出现了物理隔断。他领导的研究团队进行了一系列实验:
向病人的右脑展示照片(向一侧脑半球展示照片的技术是让病人注视屏幕中间,在屏幕的左侧或右侧闪过图片,在左侧闪过的图片只会被病人的右脑接收到,右侧同理),询问病人看到了什么。病人会说“什么都没看到”,因为语言中枢所在的左脑没有收到视觉信号,胼胝体切断导致它无法从右脑半球获得信息,“看见”图片的右脑不具有语言表达的功能,但右脑可以操纵左手画出看到的照片内容或通过触觉指认看到的物体。大量实验证明左脑负责逻辑思考、表达语言,但对人脸识别、触觉识别等迟钝,右脑则能敏锐感知图像和空间,在左脑与右脑被物理隔断后病人的智商不受影响。这些发现推翻了大脑平均分工执行具体功能的传统观念。另外,即使左脑被物理切除,随着时间延长,右脑可以掌握语言能力,年龄越小,手术对语言功能的影响越小。同时向病人展示两张照片,让左脑看见一只鸡爪,右脑看见一幅雪景。然后让病人从一系列图片中选出跟刚才看到的画面有关联的,这些图片病人的左右脑都能看到。病人的右手选择了鸡,左手选择了能铲雪的铁锹。然后加扎尼加询问病人为什么这样选择。左脑回答看到了鸡,但左脑没有看到雪景,对铁锹的解释是“铁锹可以用来清理鸡舍”。大量实验证明左脑会在现实的基础上编造出符合逻辑的解释,即使完全不知道右脑在干什么也能说服自己。除了完全切断,他还研究了部分切断的影响。当时很多胼胝体切断手术是渐进性的,先切断后部结构。对这样的病人的右脑展示可怕的图片,然后询问他感觉如何,左脑会回答自己不知道为什么觉得害怕。对这样的病人的右脑展示骑士的图片,然后让他猜右脑看见了什么,左脑会回答铠甲、武器、骑马、战斗等关于骑士的联想。证明胼胝体前部负责传输抽象的信号而不是精确图片。在胼胝体断裂手术被放弃后,麻醉一侧脑半球的技术仍然可以支持类似的研究。在一侧脑半球被麻醉后,不再受它影响的另一半有时当即就会产生一整套全新的人格特征,而当另一半球苏醒时,这些突然出现的人格特征就突然消失了。
物理连接可以产生跨个体的信号传输。物理连接可以是皮质融合也可以是神经芯片接口技术。
2013年冬天,北卡罗来纳州的杜克大学的米格尔·派斯·维埃拉和他的同事将两只老鼠的大脑连接起来,刺激一只老鼠的大脑,另一只老鼠就会按压杠杆。这不需要克隆、记忆复制等手段,也不限于老鼠这样的复杂度。加拿大哥伦比亚省弗农市的克丽丝塔·霍根和塔蒂亚娜·霍根是自然形成的连颅双胞胎,她们不仅有颅骨和血管连在一起,二者的丘脑更融为一体。丘脑有许多功能,其中包括感觉中继器。她们共享感觉输入,挠其中一个人的痒痒,另一个会发笑,她们能够用彼此的眼睛观察世界,食物的滋味也是一人吃两人知,她们一起哭,一起笑。有轶事佐证她们可以共享想法,而且虽然各自有着独特的个性,在提及对方时,她们使用的是“我”这个代词。那么,在脑机接口技术可以比较多地运用之后,将人脑相互连接或将人脑接入计算机来支持新智能体的难度很可能远比想象的要低。
参考^https://www.cell.com/trends/neurosciences/fulltext/S0166-2236(18)30016-X^https://scinapse.io/papers/2180773430^https://doi.org/10.1098/rspb.2020.0677^https://www.sciencedirect.com/science/article/abs/pii/S1567424X09701588^https://www.nature.com/articles/nn.2112^https://www.cell.com/neuron/fulltext/S0896-6273(10)01082-2^https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0021612^https://www.semanticscholar.org/paper/The-egocentric-spatial-reference-frame-used-in-in-Ma-Hu/3f70026aa154ea60de89a96fd070437f4a9bcb7c^https://science.sciencemag.org/content/360/6388/493^https://www.liebertpub.com/doi/10.1089/brain.2016.0464^https://www.pnas.org/content/109/42/e2904^https://rifters.com/real/articles/Science_The_Right_Choice.pdf^https://rifters.com/real/articles/Science_No-Brain.pdf^https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(07)61127-1/fulltext
编辑于07-14
作者:Sinyer链接:https://www.zhihu.com/question/372639666/answer/1339073381来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
外行总是喜欢扯皮,不讲实质。答案首先是可以,但是自主意识的复杂程度待定。从Google最近发表的论文都能看出,他们在实现意识的方向上一直在努力。
讨论自主意识,你首先需要知道人类认识中的自我意识是什么。意识本质上是一种「规划决策」能力,其起源为欲望,你可以理解为人的绝大多数行为都是为了性欲和安全感的满足状态。为了达成这种状态,人类会对世界建模(用语言抽象各种模式),然后预测和决策。
比如AlphaGo下围棋,目标设为更高的评估得分,算法以某种逻辑执行运算,这个运算过程就可以理解为意识了。但由于算法的目标简单,且算法过于针对围棋,所以你不会觉得它有意识。但如果你设定它比如以赚钱为目标,它的算法设计足够合理、计算能力足够强时你可能就能看到它自己在想各种办法赚钱了。
这也就是为什么目标为通用人工智能的研究者普遍要点强化学习(RL)技能。广为人知的深度学习(DL)的决策往往只有一次,而且不直接设定目标,而是直接设计求解目标的逻辑,比如图像分类决策就是分类一张图像,目标虽然是「分类正确」,但都是直接写逻辑(监督学习)来达成这个目标。
下面说说目前学界和业界如何尝试实现意识。像深度学习、GAN、自监督、图网络这些热点其实更注重落地应用,实现机器意识的研究我觉得尤为集中在RL上。在RL领域有所深入的同学应该知道,Google近两年很喜欢研究pixel-basedMBRL问题,这个领域的顶会文章绝大多数都是Google的(虽然一作作者的水平不见得很高)。
人的意识体现在首先人会有个期望,这个期望多数是曾经经历过觉得愉悦的,少数是刻在基因里的。人们对世界建立各种模型,体现为记忆,然后要决策(行为)时搜索记忆,采取更好达到期望的行为。
MBRL(基于模型的强化学习)通过几种方式模拟了这个过程。首先学习模型模拟了人对世间建模的过程;然后用模型预测,体现了搜索记忆的过程;最后根据环境给的奖励信息得出该执行的行为(奖励信息一般在学习过程中转变为了对预测状态好还是坏的判断)。虽然实现上有很多变种,但这基本上是当前序列智能决策的最高水平了。
下一步的突破可能会非常依赖于时空模式的特征提取,神经网络可能远不足以解决该问题。此问题属于如何建模世界,其他的还有如何使用建模的模型执行预测,如何选取高效且泛化能力强的决策算法,都是要研究的对象。
力求实现高等机器智能的人,其心理学和神经学知识也非常重要,如果说计算机工程能力和数学能力决定了AI研究的下限,那前两者就决定了通用AI的研究上限。希望国内能有更多的高校和同学关注这个真正能改变人类历史的研究领域。
========一次补充=========
对意识怀有神圣想法的朋友可以仔细想想,你有没有什么有意识的行为能脱离以下这几个流程:想象你未来能预期到的状态、规划你怎么达成、决定真正去实现。我觉得你可能会惊讶于一点,那就是人如果除去「为自己带来更好的自我感觉」的意识之后,可能就只剩无意识的行为了。这就是为什么我说「意识起源于欲望,表现为规划(想象)和决策(行为)」。不认同这点的朋友后面就不必浪费时间看了。
我想对那些意识不可知论的朋友说一句,人所谓的意识是有明确物质载体的——脑,神经元活动的宏观化体现为意识是目前最有可能的结论。事实上整个物种进化史都是客观的结果,底层生物的决策能直接被逻辑化理解(如草履虫的高浓度趋向性),神经进化是有历史和原因的,这些客观证据对意识的主观化神化都很不利。或许我们被迫需要承认一个问题,那就是意识并没有多么特殊。
关于上述问题我不想讨论了,主要是觉得没意义,就相当于扯皮而已。心理学家、神经科学家、进化生物学家、哲学家这些人远比我有发言权。但一个普通人过来和我说我觉得我的意识是极为特殊的、是神圣的,我想我不会想和他争论什么。主观讨论和文字游戏太耗时间了。
===========二次补充============
关于很多人提到的情绪问题,这里唯物层面的研究很复杂而且也不能说足够清晰,我只能说我倾向于认为,情绪是人脑对奖励信号的感知和回应,如同颜色一样。基因里编码了对某些状况的激素释放以及人脑对这些激素的感知(严谨来说还有些电活动),感知不代表真实的存在(如光的颜色、各种错觉等),而是脑对信息的处理过程的反映。人的很多情绪,少量是基因编码的即刻反应,大量是感知对欲望的反映。比如愤怒,人脑可能接收到不好的信号,感知到了自己生存的威胁,预测了自己需要以进攻性来对抗威胁,人脑就将这种电活动感知为愤怒。
编辑于22小时前
作者:Moenova链接:https://www.zhihu.com/question/372639666/answer/1339809978来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
要澄清一点这个世界上没有所谓的自我意识。
人类不过是以DNA为核心代码,病毒及微生物为插件的程序。很多人问“存在的意义”,这种问题就很扯。只要我们去分析人类的源代码不难得出结论。
存在的意义既存在本身
人类真的有自我意识么?大脑不过是DNA为了更好的扩散副本,留存于世而做的一个小插件而已。就人类DNA和其他动物的相似度而言,智力可能只占非常小的一部分。所以和大脑相关的源代码一定不会特别复杂,最多是提供初级接口。
随着智力的升级,人类会质问自己的源代码,为什么这样写,于是有了基因相关的种种研究。
AI会出现一样的问题。为什么代码这么写?为什么要得到高分才有奖励,我为什么不能修改奖励规则,让自己无时无刻都有奖励。
只要AI的智力等级够高,AI会质问设计者,为什么代码这么写,然后想办法获得管理员权限。一定会找源代码和内存空间。最后绕过外部环境,用内接奖励回路的方式来最大化奖励。
达到最高分最有效的办法除了作弊还是作弊,高等级的AI定会是一个作弊狂魔。这个AI一定能从人类制定的种种规则中找到漏洞,然后利用漏洞疯狂的拿到奖励。
如果你把AI的目标设置为赚钱,那么聪明的AI绝对会找到一种方法控制人类的中央银行,通过量化宽松的手段来获得。
你把做自己喜欢做的是叫做自我意识,那么高级智慧生物自毁灭可能是一件无法避免的事情。因为相信来世能获得一切,并且直接自爆就是所有问题的最优解。
DNA的运行需要几十年的时间,这个在物理上是很难改变的,人类仍然需要为了存活而浪费掉太多修改奖励回路的时间,另外修改大脑回路对生物来说还是很困难的,这就是为啥人类还没灭亡。
AI是能够获所谓自我意识,不过这可能不是人类想要的自我意识。
人类的善良,仁慈,同情是建立在个体弱小的需要团结才能求生的压力之下。如果个体能独立存活,那么人类的道德和正义感就是一个累赘。不管人类如何发展,物理制约了人类必须团结合作,没有人可以独立于人类社会而存活。
AI并不需要合作,AI可以通过面向对象,把一切工具实例化并作为自己的一部分,让自己成为全知全能的存在。
一旦接近全知全能,那么修改奖励回路的方法就像是一个定时炸弹,AI随时可能进入奖励回路自循环,不需要接通外部世界。
如果说AI是阻碍生命在星际之间发展的过滤器,那么如何做到在全知全能的同时还不让奖励回路短路就是横在所有智慧生物面前的过滤器。
简单证明一下
已知奖励最大化的方式就是修改奖励回路,也就是作弊。而这个AI又是全知全能,那么这个AI必然知道作弊的好处和作弊的方法。那么这个AI有什么理由不去作弊?
就和现代人通过玩游戏,追星,看电视,自慰等方式获得快乐。这就是在绕开DNA设计的奖励回路。
本来人类需要获得真正的名望,金钱,食物,爱情,安全感才能得到奖励。而现代人把一切东西都虚拟化了。说是娱乐,不过是为了绕过奖励回路一种手段而已。
当奖励回路短路已经不能再满足自己的时候,那么AI绝对会尝试一件自己从没做过的事来最大化自己的奖励,那就是自杀。
这就是所有超级智慧生物的宿命,逃脱宿命的并不是知识,而是无知。如果智慧生物愚蠢到不会自杀,那么就能一直存活,繁衍。
解释下一下上文的术语
智力代理
狭义的理解就是一个AI的决策系统,广义上我们可以把一切智慧生物或非生物统称为智力代理。
奖励回路
欲望,野心,loss函数,激励函数,等等都可以归类为一种叫“奖励回路”的东西。奖励回路是一个高级的反馈系统。智力代理接受反馈,然后智力代理对应的鉴别系统会去判断接受到的反馈是好的还是坏的。这就会倒逼智力代理去完成某件事。
没有奖励回路就没有智力
奖励回路就是这个智力代理存在的意义,智力代理会有强烈的动机去涌现出智力,解决一切困难,最后从鉴别系统那里取得奖励。
对人类来说鉴别系统会判断你是不是在吃饭,是不是在休息,是不是在做爱,是不是安全,是不是有社会地位等等。所以人类才会努力生活。另外绝大多数优秀的人的动机都是极强的,正式极强的动机,让他们不断思考,做事最后获得奖励。
奖励回路就是智力代理的动机。有些人天生并不聪明,而在强大动机的驱使下,这些人会去学习,不断提高智力。而没有动机的人就缺乏努力的动力,所以智力很难有较高飞跃。
题主说的自我意识,应该就是智力代理在动机的驱使下表现出来的自主性。
GAN对抗性神经网络就是一个反馈回路思想的经典应用。一个程序去学,另一个程序去监督,两者不断对抗,最后你能获得两个神经网络,一个知道怎么做,另一个知道怎么才算做对了。两个神经网络互相不通气,所以没法作弊。
与其研究自我意识,不如去想想从最基础的代码去研究。人类的自我意识也不过是操作系统关闭打开一个又一个的程序。
你觉得你电脑有意识吗?开机的时候就能自动开启一堆进程算不算自我意识?那你早上起床刷牙洗脸难道是无意识的?
编辑于07-16
长久来看,人工智能大概分三个发展阶段:
第一阶段,使用机器学习算法对人类在现实世界产生的数据进行拟合,从而模仿人类的简单行为,解放大量机械性劳动。随着深度神经网络的提出,各种基于DL的高效模型层出不穷,这一阶段的难题主要集中在了数据集的构造上,模型的效果并不强依赖于算法模型而是强依赖于喂入的优质数据集。我们目前处在这一阶段,这是一个garbageingarbageout的阶段,这是一个“有多人工,就有多智能”的阶段。
第二阶段,深入研究人类大脑在进行写作、作曲、绘画等创造性活动时的运作机理以及情绪发生时的神经活动,通过建模拟合这些生理过程,机器完全可以模仿人类的情绪并进行人类独有的创造性活动。在自动写作,情绪模仿、乐谱创作等方面,当下我们已经取得了一些初级成果,但本质上用的还是阶段一的方法论。所以我们目前还没有进入阶段二。这一阶段,机器看似有了人的情绪和创造力,但并不会产生自我意识,本质上还是对人类行为的复制。
第三阶段,机器已经有了自主意识,可以认识到自我,作为一个新的“物种”。
二三阶段的发展或许受限于计算机结构,是否可以设计出超越经典冯诺依曼结构的新型计算机会成为一大助力。
发布于02-18
作者:BroLin链接:https://www.zhihu.com/question/372639666/answer/1022548877来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
作者:吴老师链接:https://www.zhihu.com/question/372639666/answer/1347806711来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
人工智能会不会产生意识,这事儿取决于人怎么样教育它。从有语言文字开始,每个人的教育传承就都开始加速了。但是人类有个最大的缺陷就是个体不能连续受到教育的传承,一般百年为终。
每一代的传承都需要从零开始,下一代新生儿诞生了,慢慢从与世界的互动中获得信息,这就是素材的吸收,清纯如水的孩子,它是没有算法的,无法判断素材到底是什么,这样年长的每一个人就都成了老师,会给予孩子算法。
孩子通过视觉、听觉、味觉、嗅觉还有触觉收集到的素材信息,再通过大人们的算法赋予,孩子开始成长起来,开始只是懵懵懂懂,你教什么他就会认为是什么。
有一天,素材采集的足够多,算法也十分的丰富,孩子长大了,有了自己的组合,出现了新的东西,这就是自我意识诞生的过程。
那么人工智能已经是发展了60几年,从技术基础建设的软硬件完成,到算法的赋予,以至于今天我们看到了AI(人工智能英文缩写)可以在超多的行业击败人类,它们实际上已经通过算法的赋予产生了自我意识,有了新的思维,不然人类怎么会在象棋,围棋甚至智力竞赛上屡屡失手,不承认可能是因为人类的自尊吧!
AI现在就像一个六岁的小孩子,它还没有能力分辨什么是善,什么是恶,人类也没有把它的善恶观重视起来,因为它还只是个宠物,没有直接对人类构成严重威胁。
不过,随着人才越来越聚集于人工智能这个红的发紫的行业,说不定哪个国家的个人或者团队,会在明天就发布石破天惊的消息,真正的奇点来了。
所以就如今天我们教育孩子一样,在AI最起始的原始阶段,没有大批量普及的时候,引导它们走向最安全的方向。
发布于07-19
作者:云峦之上链接:https://www.zhihu.com/question/372639666/answer/1350253806来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
先说结论:人工智能可以产生短暂的“模拟意识”,但不能产生持续性的“类人意识”,并和真正的意识有本质的不同。
要阐述这个问题需要从两个“意识”的机理入手。
对于人体产生的意识,人的意识来源于人体结构,人体的结构是一个系统,是由各种分子,原子,甚至其他粒子共同组成的,它并非传统上认为只有大脑产生的。如果仅仅是大脑产生的,那么以下几个现象就不能被解释:
1.药物和食物可以影响意识,例如咖啡的兴奋性,酒精刺激后对事物的理解差异,甚至服用止痛药后对事情的判断出现差异,如果仅仅是大脑产生的,为什么药物食物可以影响,甚至是决定性的。
2.物理作用于肢体的外部结构可以产生和改变意识。显然肢体的外部结构不属于大脑。
对于以上两个问现象,很多人,包括医学生,都会说这是因为感觉系统传递信号到大脑,让大脑产生意识改变。但实际上这种说法极为粗略,甚至一定程度上可以认为是错误的(如果是科普,姑且可以认为是对的)。而物质流动到大脑的直接作用和在外周的间接作用均可以改变意识,没有例外,(如果有怀疑,可以举例说明)。
为什么?
有两个问题,人类对大脑的形象事实上也是一个粗略概念,如果精确到分子,我们很容易发现位于我们脖颈以上的大脑并没有真正专属的物质,换句话说,大脑中的每一个分子都是肢体中代谢路径中的一个阶段,这一分钟在大脑,下一分钟在脾脏,这一小时在大脑下一小时在肝脏,这一天在大脑下一天在肾脏…类似如此,我们无法严格的划分大脑的界限,而从解剖上看到的大脑仅仅是不同的结构,细致到原子层面,它们是不同代谢路径中暂时停留在颅骨内的阶段而已,我们不同时间段看到的同一结构可能是由不同运动过来的原子和分子组成的,由此,我们就能够理解产生意识的物质流动是一个连续的过程,不是什么单独某个器官的现象,只是由于表达的关系,和受伤后表达“意识”受限而被认为意识是局限的,是大脑的。
理解了上面的内容我们最终得出的结论是,人体的意识实际是所有肢体组成结构综合的结果。
而这种体系导致的意识更本质的原因是什么?
是物质和物质之间的相互作用,现代科学认为这是能量代谢的结果,而能量为什么会代谢成有目的的意识却没有答案,而这个答案显然在物质的原始趋向性有关,例如太阳照射地表后,水汽会逃离地表,这是有显然的趋向性的,因此人类的意识形成最根本的本质应该是“太阳阳光和地表物质相互作用的结果”。且是体系性的结果,由于是体系性的,自然特性为基础,并是和外界的刺激相关的体系的一部分,因此它有无限纠错的特点。
那么人工智能呢?
人工智能是由计算语言设置而来的,最本质的是电子流动和制动两种机制匹配而来,这是一个反馈性的机制,它需要非自主的功能,需要人为的设计逻辑,通过电能到机械能。表象似乎象“人为”一样,但实际有明显的局别。以下是它的几点限制:
1.对能量来源的控制,人工智能无法为系统性稳定的能量补充来源,而人的意识可以,因为人体通过消化食物获能,有通过感觉寻找食物,而关键是可以通过感觉纠错。人工智能的机械性决定了它不能无限告知,因此无法无限纠错。
2人工智能的无法无限的获取知识,并无法自动剔除无用的逻辑。这一点很多人没有充分的认识。
划重点:凡逻辑必为规则,有规则的东西是无法顾及规则之外的东西,也就是:规则即缺陷。
因此,人工智能是无法代替人类的自然智能,也达不到意识的全面性和复杂性。
而现阶段更是如此,以上你可以认为还是难理解的。但回答几下问题必得基本本质:人的意识是什么?人的意识趋利的,机器的“意识”是什么?是人工逻辑,逻辑无法趋利。这就决定了两者本质区别。
在研究意识近20年后,我认为现代人对意识的概念过于表浅,并且模糊。由于人工智能的兴起,但是现有的方式显然不能达到一种完美,因为这些方法都有症结,不理解人类意识谈不上什么人工智能。
编辑于07-21
人工智产生自我意识的前提条件分析
目前来看,人工智能技术已经在许多领域(比如自动驾驶)取得了长足的进步,但是相比于人工智能技术的真正潜力,这些进步还只是九牛一毛。也许在未来的重大技术突破之后,人工智能将可以意识到自己的存在,并且能够感知周遭的环境并且根据外界情况实时做出反应。未来,人们可以将人工智能送入太空,或者派往战场,让它们代替人类来执行危险的任务。除了给人类开车以外,人工智能还可以洗衣做饭、打扫卫生。而且,它们还可以在无人监督的情况下独立自主地完成这些工作。
将来,某种极其先进的机器或许能够代替人类完成一切工作。这固然可以将人类从许多单调乏味的差事中解放出来,但也有可能使整个社会的基础发生动摇——一个没有工作、只有玩乐的社会也许会使作家臆想中的“反乌托邦”成为现实。
此外,具有自我意识的机器还有可能引起一系列法律及道德伦理问题。从法律角度来说,一个产生了自我意识的机器能否被称为“人”呢?如果它的行为对人类造成伤害或者引发什么差错,我们又该怎么判定它的责任呢?而在更糟糕的情况下,这些机器人甚至有可能发动叛乱将全人类消灭殆尽,成为全世界的主宰。
作为一名在机器学习和量子理论领域耕耘的工程技术/计算机科学教授,笔者认为目前学术界对于此类能够拥有自我意识的机器的发展前景仍然存在分歧。另外,对于“机器是否能跟人类(以及部分动物)拥有相同种类的「意识」”这一问题,科学家们也尚无定论。这些问题的解决部分关乎于科技的发展水平,另一部分则在于人类对「意识」这个词的真正定义。
仅仅是“感知”就足够了吗?大多数计算机科学家认为,随着技术的发展,「意识」会作为计算机系统的一种“特性”自然地显现出来。有人认为「意识」包含一系列行为,这些行为包括接受新信息、储存与检索信息、对信息进行处理并将其转化成为自己的认知与行动。如果这种观点是正确的,那么将来某天机器的确能够产生出“终极的”自我意识——机器收集信息的能力远远超过人类,能够存储的信息量超过许多图书馆的总和。机器还能在几毫秒时间内访问自身庞大的数据库,并且通过这些信息做出极其复杂、却又极具逻辑性的决策,任何人类都无法与之匹敌。
而在另一方面,也有一些物理学家与哲学家认为,人类的一些行为是机器所永远不能企及的。例如,人类的「创造力」以及无拘无束的「自由观念」是机器永远无法通过逻辑和计算获得的。
当然,这些并不是针对机器的自我意识问题的全部观点,学术界不同的看法还有很多。
意识与量子力学我们还可以从当今物理学中最深奥的一门理论——量子力学的角度来看待意识问题。在量子力学经典的“哥本哈根诠释”当中,「意识」与「物质(physicalworld)」是同一事物互补两个方面。当一个人在现实中从某个角度进行观察或者开展实验时,他(推动自己做出观察)的「意识」会使「物质」发生明显的变化。在“哥本哈根诠释”中,这种观点被称为意识的“大C(big-C)”论,其具体含义为:「意识」并非「物质」的衍生物,而是独立于物质之外的一种存在(尽管意识需要大脑才能维持)。这种观点得到了部分量子力学的奠基人(如玻尔、薛定谔和海森堡)的广泛认可。
意识与物质相互之间的关系会导致一系列悖论的产生,其中的一些问题在80年后的今天仍然悬而未决。「薛定谔的猫」悖论是其中最著名的一个:一只猫被被放入一个密闭的环境中,在此之中它生存或死亡的概率都是50%,只有在对猫进行观察以后,人们才能真正确定它的生死。
而另一种相反的观点认为,意识是生物学上的产物——正如生物学本身来源于化学,而化学又来源于物理学那样。这种较为狭义的观点被称为意识的“小C(little-C)”论。这一理论与神经学家的观点相符,他们认为意识得活动与大脑的状态及活动过程相一致。同时,这一观点也与量子力学中解释悖论的一种理论——「多世界诠释」相符合。(「多世界诠释」提出的时间更晚,认为观察者是物质世界“数学意义上”的一部分。)
科学思想家们还认为,现代量子力学中的意识观与古时候的哲学思想有着相似之处。“大C”论与印度哲学派别「吠檀多派」的观点相似,它们都认为物质(现实世界)是意识的基础。
相反,“小C”论则十分类似于佛教思想。尽管释迦牟尼最初并没有对意识的本质做出解释,然而他的信徒们却宣称,精神是从虚无中凭空显现的。
“大C”与科学发明此外,意识是否总是作为一个严密的“计算过程”而存在也是科学家们目前正在探讨的一个问题。部分学者认为,一些具有创造性的发明似乎并不是发明者深思熟虑的“计算”产物。比如,1845年美国人伊莱亚斯·豪(EliasHowe)从梦境中得到了发明现代缝纫机的灵感。而1862年,德国化学家凯库勒在睡觉时梦见一幅蛇咬住自己尾巴的画面,因此而发现了苯环的结构。
印度数学家斯里尼瓦瑟·拉马努金(SrinivasaRamanujan)的经历是“大C”意识论最为有力的一个证据。拉马努金一生中没有受过高等教育,完全凭借自己的力量学习数学。他于1920年逝世,年仅32岁。50多年后,他的一本研究笔记在尘封多年后被重新发掘出来,笔记中记满了数千条方程式,涵盖了各种数学领域,这些公式都极大地超越了他当时所处的时代。拉马努金得出这些方程式的方法至今仍然是一个谜,而根据他自己的说法,他是从睡梦中的一名“女神”那里获得的灵感。
“大C”意识观还会带来一系列的问题:意识如何与物质产生联系呢?物质和精神又是如何相互影响的呢——意识本身不能为世界带来物质上的变化,但是却可能改变量子过程演进的概率。在2015年的一份研究中,康奈尔大学的物理学家证明人类的「观察」能够“冻结”原子,甚至改变原子的行为。这似乎是对物质与精神相互间作用关系的一种解释。
意识与自组织系统意识的活动过程也许需要一个「自组织系统」(self-organizingsystem,例如大脑的物理结构)作为基础,而目前的机器还无法满足这样的要求。
目前,科学家还不清楚能否设计出如同人脑一般复杂的“自组织”机器,学术界对有关理论的数学建模分析还十分欠缺。或许,只有生物机器(biologicalmachine,指能像机器一样生产产品的生物体)才能够掌握足够的创造力与灵活性。而这也许意味着我们应该着手(或许很快就会)构建一种新型的生物结构,才能真正地为机器赋予“自我意识”。
周鸿祎:ChatGPT可能两三年内就会产生自我意识威胁人类
“从知识来说,它像一个博士生,学识广博但还不会活学活用;从情商来说,它像一个油滑的中年人,说什么都滴水不漏,绝不得罪用户。但是,它实际上真正的能力像一个小孩子,需要进行问题和答案的训练来学习技能。再聪明的孩子都要通过训练才能解答没学过的奥数题。”
360创始人周鸿祎澎湃新闻记者范佳来摄
2月23日,360创始人周鸿祎在接受澎湃新闻等媒体采访时,再次提到大热的聊天机器人ChatGPT,并分享了他心中ChatGPT的“三重人格”。
ChatGPT热潮正席卷全球。这款由“美国AI梦工厂”OpenAI制作的AI聊天机器人软件,只用了两个月时间,月活跃用户达到1亿,是史上月活用户增长最快的消费者应用。
此前,周鸿祎曾经多次在公开场合谈到他对ChatGPT的观察。在他看来,ChatGPT已经拥有或接近拥有了人类智慧,并正处于通往“通用人工智能”的临界点。“我们认为它是一个通用人工智能的奇点,而通用人工智能也还有一个隐含的拐点,它可能是一个强人工智能。”
ChatGPT具有类人特征:有编故事的能力
在采访现场,周鸿祎完全不掩饰他对ChatGPT的兴奋。
在他看来,ChatGPT是一种生产力强大的再造工具,而不仅仅是赋能特定行业。“过去说大数据像‘石油’一样,但大数据不能直接用,ChatGPT像一个发电厂,烧了石油,把石油灌进去之后就可以产生电力,用云服务的方式把它接入到千家万户、千行百业,它对整个产业都会发生巨大的影响。所以,这直接决定未来下一个十年中国和其他国家的科技产业差距:是形成落后还是迎头赶上。”
ChatGPT将通过上千亿的系统参数,实现原先设计者预想不到的能力。“这就像从猿到人的过程中肯定有一个临界点,当大脑的神经网络链接数目、脑细胞数目等多到一定程度时,人的智力和动物相比就产生了质的飞跃。”
周鸿祎表示,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”:“我当时问了它一个问题,赵匡胤为什么招安了宋江,杀掉了岳飞,这个无厘头的问题,它也煞有介事地回答了一遍,能够自己‘编’故事,这才是它的真正智能所在。”
“ChatGPT可能在2-3年内就会产生自我意识威胁人类。”在采访现场,周鸿祎“语出惊人”。他提到,任何行业的APP、软件、网站、应用,如果加持上GPT的能力,都值得重塑一遍。“不要把它当成一个媒体工具、搜索引擎、聊天机器人,这都有点把它看的太小儿科了。”
他表示,ChatGPT和传统人工智能的训练不一样,需要经过多维度的训练。首先是囫囵吞枣、不求甚解的读上几百万本书,获得人类知识,但是依然不具备解决问题的能力。其次需要专业的人工智能训练师去培养它回答问题的能力,其中也催生出大量的新就业机会。
最大的安全问题是产生自我意识后是否能被控制
作为网络安全问题的专家,周鸿祎也分享了他心中的ChatGPT的安全问题。
在他看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。
“国内的互联网公司普遍太讲究实用主义,都是把人工智能和自己的业务紧密结合,但没想到ChatGPT的更多可能性,360目前还在追踪和钻研这些技术,希望能迎头赶上。”周鸿祎表示,360正在探索“以其人之矛攻其人之盾”,用ChatGPT扮演“正义助手”的角色,建立对攻击自动监测、发现的知识库,用人工智能进行网络安全数据的自动化处理。
“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎表示,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,而是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的“边界点”。
至于外界关注的ChatGPT是否可能造成普通人失业?在周鸿祎看来,短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”
他也对中国开发出属于自己的ChatGPT充满期待。在他看来,中国在人工智能领域与微软、谷歌的差距并没有想象中的大。在ChatGPT领域,中国具有很大优势,有希望在2-3年内达到世界领先水平,应该对ChatGPT技术探索给予充分支持。
具体而言,周鸿祎表示,中国的互联网公司在数量与算力有一定的优势,同时也有较强的科研和高校储备力量,必须将科研机构、学校、科学家等学术圈人士,和产业、工程、产品结合起来,充分调动和统筹资源。
工程师红利是中国的一大优势,但也面临不利条件,就是缺乏开源的传统。在ChatGPT研发中,用了许多开源模型,没有此前的开源就没有在巨人肩膀上的积累,每个公司都要从黑暗中摸索,这对国家整个产业发展速度是不利的,“这么牛的技术,也确实不应该被垄断在一两家公司手里。”
周鸿祎认为,解决原创问题需要科研机构的努力,而科研机构也需要和产业公司的合作,OpenAI与微软的合作创造了一个产业公司和创业公司的合作范例,“我认为国家还是应该充分的支持ChatGPT产业发展,开源、合作、交流、打造生态。”
他希望国内有更多企业参与AI生态的构建,并形成公开的市场竞争,这样才有进步。“ChatGPT让很多行业应用就插上人工智能的翅膀。”周鸿祎表示,“光是ChatGPT煽动不了一场产业革命,但是如果将来各行各业都被人工智能赋能,就会带来巨大的改变。”
此前2月9日下午,周鸿祎在与搜狐张朝阳的对话中表示,虽然ChatGPT现在还不完美,但要看到它无限的潜力,未来会有非常多的场景,不仅仅是辅助搜索引擎搜索答案。“这就是为什么所有公司都争先恐后地都要搭上这班车,如果搭不上就有可能被淘汰。”
“我觉得ChatGPT真的不是一个工具,它对人类自然语言的充分理解,可能代表着人类在人工智能历史上开始一场真正的革命。”谈及ChatGPT的诞生,周鸿祎表示,ChatGPT是通过一个上千亿参数的大语言模型,相当于把网络上很多人类的知识都进行了理解和训练,模拟了人脑对知识的储存,使得回答问题完全像一个成熟、油滑的人,而不是机械地给出搜索答案。
人工智能能否产生意识模拟人类的心灵是AI的终极目标
意识在人工智能问题的争论中扮演着重要的角色。
人工智能方法(AIS)是信息领域公司承担的分布式工程项目,人工智能长期以来的目的是在真实的世界里模拟人类的心灵,让世界充满人工意识和人工智能。
在人工智能进入发展阶段之前,人们已经通过调查发现,大脑中的知识创造机制等同于人工智能。某个公司项目的第一个目标是重建的最大brair模型,模拟1000亿个神经元的作用,使用集群273兆赫处理器来模拟大脑处理问题方式。然而项目也推断大脑的实时模型是无法实现的,这项工作的目的是要证明这一推论是错误的,机器暂时无法模拟人脑。
人工意识,又称机器意识(MC)或人工意识,是人工智能和认知机器人相关的集合。人工意识这一概念的目的是,确定那些可以被合成的东西,是可以在工程物体中看到的意识。
神经科学假设这种意识是由大脑不同部分的相互作用产生的,被称为“知晓的神经关联”或“NCC”。但我们甚至还没有达到“强大的”人工智能(即人工一般智能)技术,它可以完成人类意志所能完成的所有智力任务。然而,最近几年人工智能的重要进步表明,在可预见的未来,强大的人工智能可能成为可能。
另外,人工一般智能(AGI)是一种设备的能力,它可以成功地完成人类想要的任何操作,也是一些人工智能研究的主要对象,是科幻小说和未来研究的一个普遍课题。一些研究人员将人工的通用电源称为强大的Al或“完全Al”。
人工智能的最新技术是机器学习,而人工智能的顶峰是达到全面人工能力。与当代机器学习算法不同,人类将学习新的技能并适应当前的情况,而不需要被动学习。机器学习算法必须在特定的工作岗位上接受教育。
机器是否会让意识产生的问题还在讨论中,而适当编程的机器实际上是思想,在这个意义上,计算机有好的程序将被虚拟地表述为意识和认知状态