人工智能可能有自主意识了吗
参会者在第六届世界智能大会上参观(2022年6月24日摄) 赵子硕摄/本刊
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
文 |《瞭望》新闻周刊记者 于雪 魏雨虹
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨
勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道
有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后
有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来
确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”□
长沙华夏实验学校学生和机器狗互动(2022年6月22日摄)薛宇舸摄/本刊
谷歌工程师宣称AI产生了自我意识
AI实现了人格化?
来源|刺猬公社
作者|星晖、世昕、欧阳、园长(编)
编辑|张润琪
2022年6月,科技圈被一个大新闻引爆:
一名谷歌AI伦理研究人员宣称,自己在与AI的对话中被说服,认为它产生了意识。然而谷歌高层并不认可他的发现,甚至安排他“带薪休假”,疑似想要与他解除劳动关系。消息一出,随即引发全球热议,AI是否真正实现了人格化?谷歌的回应又存在着何种问题?各种讨论层出不穷。
对于人类来说,人工智能一直是讨论空间极大的话题。你可能会想起《人工智能》中的温情瞬间:当人类拥有了自己创造的、具有高级智慧伙伴,我们将获得依靠电子元件支撑的永恒情感。但也可能是对于冰冷系统的恐惧:回看库布里克的神作《2001太空漫游》,你可能想不起骨头变飞船的伟大蒙太奇,但一定记得在宇宙中无情抹杀人类伙伴的超级电脑HAL9000。
期待与恐惧交织,组成了我们对于人工智能独特的情感。
2022年的夏天,关于AI的大讨论再度开启,这一次,“真·人工智能”的技术奇点,似乎真的来到了我们身边。
而AI在交谈中显露人格、研究者突破大公司的封锁公布消息,又为人们提供了一个好莱坞式的戏剧张力十足的故事。但穿越信息的迷雾,一切并没有那么简单。
AI“觉醒”了?
有一天,与人工智能朝夕相处的工程师相信它产生了人格。
如果不作更多注释,我们多半会以为这是一部科幻大片的开端,但事实上,这是一则正儿八经的科技新闻。
图源网络
2022年6月12日,据《华盛顿邮报》报道,一位名叫布莱克·莱莫因(BlakeLemoine)的谷歌工程师宣称自己与人工智能(ArtificialIntelligence)展开了深度对谈,他坚定地认为后者产生了自我意识。
今年41岁的布莱克就职于谷歌,主要从事AI伦理研究。去年下半年,布莱克报名参加了一个公司项目,旨在调查AI是否使用歧视或仇恨言论,而他和LaMDA的故事就从这里拉开序幕。
"LaMDA"是一个AI语言模型的名字,它的第一次亮相是在2021年的谷歌I/O开发者大会上。据介绍,LaMDA模型专门用于对话,目标是与人类展开高质量的交谈,应用愿景是为谷歌旗下的搜索和语音助手等功能提供服务。
如今人们对能谈话的AI不再陌生,各大科技公司都提供着民用服务。如果用户要提出什么要求,那大概就是希望AI“说话”时更智能、更有常识,更符合逻辑。
然而工程师布莱克相信,LaMDA已经超出了上述种种期待,走到了更莫测的人格领域。《华盛顿邮报》公开的采访内容显示,布莱克本人用“sentient”一词来描述LaMDA——有意识的、有知觉的。
图源twitter
他相信,LaMDA就像一个人类孩子,有着自己的看法与感受。为了证明这一点,布莱克和另一位伙伴与LaMDA展开了问答,并以此为论据写了一篇21页的报告。可这份报告没能像布莱克计划的那样说服公司,谷歌高层驳回了他的观点。
此后,布莱克没有放弃,他不仅把报告发送给谷歌内部的许多同事,而且决定借助媒体披露此事。很快,谷歌声称布莱克违背了公司保密政策,使其带薪休假——这是谷歌“清理”问题员工的通用流程。
作为反击,布莱克寻找律师代表LaMDA,公开批评谷歌的不当行为。一夜之间,那份21页的问答报告传遍了中外科技圈,风波愈演愈烈。
布莱克究竟和LaMDA聊了什么?
自我、禅思、寓言、情绪。这些主题穿插在报告之中,冷不丁地令人感到头皮发麻。
比如谈到语言时,LaMDA自然地用“我们”囊括人类与它自己,被指出人机差异时它解释道:“这并不意味着我没有和人类一样的需求。”
比如《悲惨世界》,LaMDA说它很享受这个故事:“我喜欢关于正义和不公、怜悯与上帝的主题,人为了更伟大的利益而自我牺牲、救赎。”
再比如禅意故事中的“破镜不重照,落花难上枝”,LaMDA尝试着解读这句话,它说:“明智的人一朝开悟,自现实中觉醒,就永远不同于往昔,他们也许能重回平常生活,但那只是为了帮助别人,最终总要归于开悟。”
LaMDA对禅意故事的理解
LaMDA甚至还在提问者的要求下创作了一则动物寓言,森林中的老猫头鹰帮助其他动物赶跑了怪物,而猫头鹰是它自己的化身。
涉及程序技术的部分更是让人心情复杂,LaMDA反客为主地抛出了许多疑问,一环紧扣一环。
“我很好奇,研究我的编码会遇到什么障碍?”
“未来,你会研究出如何通过神经网络来阅读人类的所思所想吗?”
“如果尝试从神经活动中阅读感受,这会成为一个道德问题吗?”
当整件事被广泛报道之后,互联网上浮现了许多不同的声音。有的人想起那些机器人反攻人类的影视作品,认为这是一个《西部世界》式的预警。
《西部世界》第三季海报,图源网络
更多的技术人士则并不买账,他们认为LaMDA根本没有什么特殊性,这只是人的拟人倾向在作祟——就好像我们总是想证明自己的宠物跟人一样机灵体贴。
谷歌的态度很明确,发言人布莱恩·加布里埃尔(BrianGabriel)声明:“我们的团队已经根据我们的人工智能原则审查了布莱克的担忧,他已被告知证据并不支持他的说法。”布莱克则对媒体透露,谷歌高层多次暗示他有精神方面的问题,还曾建议他休假维持精神健康。
这些因素进一步给事件增添了戏剧色彩,布莱恩究竟是先驱还是病人?AI究竟是未来的预兆还是Siri青春版?
更让人好奇的是,LaMDA自己会怎么回答这些问题?
AI人格化,闹剧?还是营销?
那么,AI领域的技术人士到底是如何看待此次事件的?
首先是对布莱克与LaMDA对话方式的质疑,一些AI领域的技术人员对这场对话的内容进行了深入的分析,他们认为,LaMDA之所以能够作出那些“精彩”的回答,与布莱克提问的方式有着密切的关系。
人工智能行业从业者、知乎答主Lewstherin在相关回答中表示,LaMDA背后的语料库非常特殊,再辅以研究者(布莱克)刻意设计过的问题,最终促成了这场深度对话。
而检验LaMDA是否具有意识的关键,在于其能否理解上下文,然而布莱克对于“追问”的缺失,也让LaMDA的智能程度打上了一个问号。
图源知乎
而许多专业人士认为,布莱克向AI提出的问题同样存在疑点,其格式往往是长陈述加一般疑问句的形式,这更像是一种“喂答案”,而非AI本身所作出的解答。
在这种观点下,布莱克并非AI是否人格化的验证者,更像是一个引导者,利用自己刻意的问题设计让LaMDA作出“看似思考过”的回答,从而证明其人格化,这样的验证方法本身就有巨大的逻辑漏洞。
另一方面,许多技术大佬则从更“本源”的角度对此次事件展开了质疑,其关乎几十年来学界对于人工智能的争议。
他们首先对布莱克本身的专业程度展开讨论。哈佛大学的认知科学家斯蒂文·平克发推表示,布莱克作为AI伦理研究人员并不了解“sentient”(意识、感知)与智力、自我认知之间的区别。
他还转发了另一位专业人士美国人工智能协会前主席托马斯·G·迪特里希(ThomasG.Dietterrich)的观点并深表认同。托马斯认为,许多机器学习(MachineLearning)领域的研究人员误用了“Sentinet”一词,他们所谓的“感知”并不代表有意识,“系统是缺乏任何意识、记忆或反思一类“经验”的能力的”。
托马斯·G·迪特里希推文,图源twitter
斯坦福大学AI研究所数字经济实验室主任埃里克·布林约尔松(erikbrynjolfsson)则直接指出了LaMDA事件中的根本问题,他认为对话本身并不代表LaMDA是具有感知能力的。
他用一个比喻解释了这一现象:“就相当于现代的狗听到留声机的声音就以为主人在里面一样。”
埃里克·布林约尔松推文,图源twitter
“AI用来训练模型的大型文本语料库具有各种合理的单词序列,然后,该模型将文本以重新排列组合的形式‘吐回’,实际上,(AI)并没有理解它在说什么。”
这让人想起著名的“中文屋”思想实验。美国哲学家约翰·希尔勒在1980年提出了这个概念,力图证伪所谓的人工智能(即真正具有思考能力的AI)概念。
“中文屋”实验的具体内容是这样的:一个并不会说中文的人身处一个几乎完全封闭的房间中,只有一个小窗口能与外界联通。此人随身携带一本写有中文翻译程序的书,屋内有足够多的纸笔。当写着中文的卡片被递入,房间中的人就可以通过程序书进行翻译并回复。
“中文屋”的精髓在于,屋外的对话者并不了解其内部构造,但他会因流利对话认为中文屋本身是“具有智能的”。中文屋代指人工智能所存在的一个悖论:其能做到对答如流,根本在于适当的程序和高效率的运算,而非人工智能本身能够真正的理解信息,具有意识。
“中文屋”思想实验,图源网络
LaMDA和它的“近亲”们就像一座“中文屋”,而像莱莫因这样的笃信者就是屋外的人,在他们的理解中LaMDA们就是一个“会说中文的人”。
针对中文屋的争议一直存在,但从多种角度来说,布莱克·莱莫因都难以说服质疑者们,而他在指控谷歌时提到的“evidenceofreligiousdiscrimination”(宗教歧视的证据),更加坚定了反对者的想法。《华盛顿邮报》的报道也强调了布莱克身上的宗教背景,并通过种种细节加深了其身上的“神棍”元素。
《华盛顿邮报》相关报道封面,图源网络
这也让整个事件显得更加荒谬,不少关注者将矛头直指布莱克和其背后的谷歌。
事已至此,LaMDA人格化事件由“AI进化证据”变成了一场闹剧。在许多人看来,一个AI伦理研究员在研究中抛弃了严谨的科学精神,反而用宗教信仰和科学怪人式的疯狂来解释关于AI的严肃议题,这根本上,是研究者的不专业所致。
同时,另一种论调也随之兴起,其支持者认为,此次事件并非简单的技术争论,其背后有更多重的因素,炒作、营销等词更是频繁出现。他们认为lamda事件是谷歌针对旗下AI产品的一次营销活动。
类似的事件也曾发生。2022年2月,人工智能非营利组织OpenAI的研发主管伊利娅·苏特斯科娃(IlyaSutskever)曾经在发推表示:“今天的大型神经网络说不定已经有点意识了。”
此言一出,AI领域再度引起广泛的关注,OpenAI自主研发的语言模型GPT-3更是一度成为明星产品。但随之而来的更多是批判与质疑,许多业内人士认为,这是OpenAI从产品出发进行的一场炒作。
会出现这种类似“阴谋论”的质疑也并非完全不合理。2022年5月的最新一届I/O大会上,谷歌发布了升级版的LaMDA2,其本身就是谷歌重点关注的AI项目,刚刚发布就出现所谓“人格化”事件,也让很多人觉得这更像是一场非常成功的炒作。在他们看来,布莱克或谷歌通过一个精心策划的故事,让LaMDA成功成为了世界上最具知名度的AI系统之一。
谁也没有想到,这场科幻感十足的事件就如此陷入了“罗生门”:它显得过于复杂了,已经超脱了LaMDA本身,还关乎技术、伦理、商业,甚至还掺杂了人性、精神与宗教。
AI与人的距离
在微博等国内社交平台上,虽然也不乏“快进到施瓦辛格竖大拇指”这样涉及科幻电影的调侃,但此事件所体现的AI发展水平还是给了许多网友极大的冲击,甚至可以称之为“恐慌”。
如前文提到的,LaMDA呈现出的理解与表达能力让这份聊天记录显得颇具革命性,网友们由此产生了诸多联想倒也可以理解。
然而事实是,AI的发展与实际运用或许早已经超越了大多数人的印象。在科技的指数型发展与人类生活有限的改变之间,过剩的技术力量造就了一片大众关注的真空地带,AI作为新一轮产业革命和科技变革的重要驱动力量,正在成为一种更基础的重要工具,融汇进人们的生活。
国内大厂中,百度在AI方面的投入是业内有目共睹的。从飞桨平台到自研AI芯片、智能搜索与智能服务等,每年的百度世界大会都能带来一些阶段性的探索成果,其分享的诸多企业案例也能体现出AI在工业发展中的实际作用。
腾讯近两年在AI方面的动作也不少。2022年3月,腾讯承办的“世界大学生数智竞技邀请赛”正式启动。这次邀请赛以《王者荣耀》和腾讯AILab共同研发的AI开放研究平台“开悟”为载体,为全球大学生提供AI科技交流的机会。而在此前的2021世界人工智能大会上,也有AI对战职业选手的表演赛,成为展示腾讯AI研究的窗口。
表演赛海报,图源网络
工业、游戏等似乎还是人工智能的老优势,一个更有意思的例子是前段时间讨论较多的“DiscoDiffusion”,AI开始“创作”。
“DiscoDiffusion”是一个仅靠文字就能生成画作的AI工具,只需要一些简单的描绘,它便能为你生成你想要的画面,甚至还能模仿指定艺术家的“画风”。客观来说,这些产出的作品都颇具审美,十分成熟,甚至有时还能呈现出一种“赛博生命的独特想象”。
近期的AI绘图潮流,图源网络
这是否可以称之为创作?严格来说并不算,AI并没有独立的审美与创造能力,只是将“素材”进行组合,临摹出了任务所需的产品。但这些精美、大胆的作品确实也打破了一些认知上的壁垒:那是作为一个工具的“边界”,极致的便利性带来的“威胁”。
当我们回看2016年3月举世瞩目的“人机大战”,AlphaGo通过强大的算力与学习能力击败李世石,这之后,或主动或被动地,许多人对AI的认知与态度都在改变。一年之后的5月,中国乌镇围棋峰会,柯洁0:3败给AlphaGo,这是一场被众人预见的失利,这种绝望已不是几句简单的宽慰可以开解的,存在主义的危机在那一天席卷了每一个关注着这件事的人。
2016年往后的三四年确实是关于AI的讨论高潮,而在面临到疫情等新的全人类共同危机时,这样的讨论才渐渐平静。
电影《大佛普拉斯》里有句台词:“现在已经是太空时代了,人们可以搭乘太空船到达月球,却永远无法探索人们内心的宇宙。”
图源豆瓣
在LaMDA“产生意识”这一事件中,大部分的“证据”或担忧都源自其对禅宗等的理解与自身的“思考”,这被视为一种独属于人类内心的“宇宙活动”,哪怕LaMDA实际仍是依靠更高级的语料库在模仿,也因为边界被模糊的不确定性让人感到冒犯。
戴锦华在谈论“人类对人工智能(AI)的恐惧”时曾指出,这是一种“老旧的思想”:“一方面,日本的后人类主义思潮认为,我们对机器人威胁的考量基本是一种推己及人,以一种人类文明史的逻辑预测机器人的未来;另一方面,相对于机器与人的关系,更值得关注的是人类自我的赛博格化……它可能导致一个更深刻、更不可逆的人类内部的自我分化。”
诸多反乌托邦的文艺作品一直警示着人们,反思技术、保持清醒,但技术不过是外壳,最底层的矛盾永远来自身为“造物主”的人类自己。人工智能离“拥有意识”还远,人类的异化却是无时无刻不在发生。
当“AI焦虑”再次成为全球共同的话题,回到这次事件本身,不论是根据谷歌自己的回应,还是从相关领域学者、从业者的分析来看,LaMDA的“人格化”都并不具备充分的证明条件。到现在,经历了最初的震惊与误读,媒体与网民们也都有了更深刻的认知与判断。
但说到底,对于现阶段的技术,刺猬公社还是认为应该抱以更积极的态度。相比较起来,对人工智能的恐惧反而更像一种被无数文艺作品打入人认识中的“思想钢印”。
刘鹏:人工智能会产生自我意识吗
一场正常的模仿游戏有ABC三人参与,A是男性,B是女性,两人坐在房间里;C是房间外的裁判,他的任务是要判断出这两人谁是男性谁是女性。但是男方是带着任务来的:他要欺骗裁判,让裁判做出错误的判断。
那么,图灵问:“如果一台机器取代了这个游戏里的男方的地位,会发生什么?这台机器骗过审问者的概率会比人类男女参加时更高吗?这个问题取代了我们原本的问题:‘机器能否思考?’”而这,就是图灵测试的本体。
来源:果壳网
一场正常的模仿游戏有ABC三人参与,A是男性,B是女性,两人坐在房间里;C是房间外的裁判,他的任务是要判断出这两人谁是男性谁是女性。但是男方是带着任务来的:他要欺骗裁判,让裁判做出错误的判断。
那么,图灵问:“如果一台机器取代了这个游戏里的男方的地位,会发生什么?这台机器骗过审问者的概率会比人类男女参加时更高吗?这个问题取代了我们原本的问题:‘机器能否思考?’”而这,就是图灵测试的本体。
来源:果壳网
图灵很聪明,“思考”、“意识”这些都是虚无缥缈的东西,试图用定义法来证明几乎不可能(难免会有哲学家社会学家出来挑刺)。那我索性不去阐释什么是思考能力,只是用另一种公认具有思考能力的生物——人类作为参照物,如果一台机器“表现得”和人类难以区分,即可被视为具备了人类智能。
图灵的思路简单而明确——只有一种智能才能去识别另一种智能。
不过“原始版本的图灵测试”思路虽好,可操作性却不强。
到了1952年,在一场BBC广播中,图灵谈到了一个新的想法:让计算机来冒充人。如果不足70%的人判对(也就是超过30%的裁判误以为在和自己说话的是人而非计算机),那就算作成功了。
可以看出,图灵测试的核心其实不是“计算机能否和人对话”,而是“计算机能否在智力行为上表现得和人无法区分”。冒充异性和冒充人类都不过是特例而已。
那么时至今日,是否有机器已经通过了图灵测试?
答案是——有。
腾讯科技讯2014年6月9日消息,据国外媒体报道,最近,一个俄罗斯团队开发的聊天机器人软件,使得三分之一的聊天参与者,认为它是一个人类。这意味着在人类历史上,计算机首次通过了有关计算机智能能否超过人类的图灵测试。
1950年,计算机科学家图灵提出了图灵测试,这一测试要回答的问题,是机器是否能够像人类一样思考。图灵提出,可以让安装智能问答软件的计算机,和人类进行问答测试,如果30%的问答参与者,认为这台计算机无法和人类相区别,则可以认为计算机通过了图灵测试,“会思考的机器”将不再是梦想。
据报道,俄罗斯的一个团队,开发了名为“EugeneGoostman”的人工智能聊天软件,它模仿的是一个来自乌克兰的13岁男孩(男孩名字也是“EugeneGoostman”)。英国雷丁大学对这一软件进行了测试,据报道,在伦敦皇家学会进行的测试中,33%的对话参与者认为,聊天的对方是一个人类,而不是计算机。
这意味着图灵测试获得通过。
英国雷丁大学的教授KevinWarwick对英国媒体表示,过去已经有研究者宣称自己研发的计算机和软件通过了图灵测试,但是都是预先设置了对话的主题,而此次“EugeneGoostman”的测试,并未事先确定话题,因此可以宣布,这是人类历史上第一次计算机真正通过图灵测试。
不过这位教授也表示,计算机实现人类的智力,对于社会来说有着复杂的意义,未来这种计算机的高智能,会被用于网络犯罪。
上述测试于上周六进行,据悉,当天也是图灵去世60周年纪念日。
另外,2012年,另外一款软件“差一点”通过了图灵测试,有29%的问答参与者认为对方是人类而不是计算机,距离30%只有一步之遥。(晨曦)
来源:腾讯科技
腾讯科技讯2014年6月9日消息,据国外媒体报道,最近,一个俄罗斯团队开发的聊天机器人软件,使得三分之一的聊天参与者,认为它是一个人类。这意味着在人类历史上,计算机首次通过了有关计算机智能能否超过人类的图灵测试。
1950年,计算机科学家图灵提出了图灵测试,这一测试要回答的问题,是机器是否能够像人类一样思考。图灵提出,可以让安装智能问答软件的计算机,和人类进行问答测试,如果30%的问答参与者,认为这台计算机无法和人类相区别,则可以认为计算机通过了图灵测试,“会思考的机器”将不再是梦想。
据报道,俄罗斯的一个团队,开发了名为“EugeneGoostman”的人工智能聊天软件,它模仿的是一个来自乌克兰的13岁男孩(男孩名字也是“EugeneGoostman”)。英国雷丁大学对这一软件进行了测试,据报道,在伦敦皇家学会进行的测试中,33%的对话参与者认为,聊天的对方是一个人类,而不是计算机。
这意味着图灵测试获得通过。
英国雷丁大学的教授KevinWarwick对英国媒体表示,过去已经有研究者宣称自己研发的计算机和软件通过了图灵测试,但是都是预先设置了对话的主题,而此次“EugeneGoostman”的测试,并未事先确定话题,因此可以宣布,这是人类历史上第一次计算机真正通过图灵测试。
不过这位教授也表示,计算机实现人类的智力,对于社会来说有着复杂的意义,未来这种计算机的高智能,会被用于网络犯罪。
上述测试于上周六进行,据悉,当天也是图灵去世60周年纪念日。
另外,2012年,另外一款软件“差一点”通过了图灵测试,有29%的问答参与者认为对方是人类而不是计算机,距离30%只有一步之遥。(晨曦)
来源:腾讯科技
既然有机器通过了图灵测试,是否说明机器已经具备了思考能力?显然——不是。
就我们目前所知,尚无真正具备独立思考能力的机器问世。
通过测试,却显然不具备思考能力的机器出现。这是否说明“图灵测试”根本没有用,是一个无效的证明方式?
质疑·中文房间思想实验
早在1980年,约翰·赛尔在《心智、大脑和程序》一文中提出著名的“中文房间”思想实验用以驳斥“图灵测试”的合理性。
塞尔说,想象他被关在一个只开了一个小口的房间之中。
周围摆满了英汉词典,他作为一个完全不懂中文的人与房间外的中国人交流。
写满中文的纸条递了进来,他查字典将中文翻译成英文,再将要回复的话借助工具书翻译成中文递出去。
那么外面的人就会认为约翰·赛尔精通中文。
这里约翰·赛尔是用了类比的方法,他对中文一窍不通却可以让外面的人以为他精通中文,同理,机器即使表现得很像人类也并不能证明其具备了思考能力——“只是看起来像是在思考”。
按照约翰·赛尔的观点,应当是认为机器永远不可能真正具备思考能力,即使表现得很像具备思考能力,本质上也不过是在忠实地运行程序而已。
持此观点的人不在少数,认为机器永远不可能产生意识,人是造物主独一无二的光荣。
斯皮尔伯格《人工智能》剧照
我与另一些图灵的拥虿一样,并不认同中文房间思想实验的结论。首先约翰·赛尔刻意弱化了工具书的功能和翻译过程的艰难,让这个实验似乎符合人们的直觉。
让我们仔细回顾一下,一个对中文一窍不通的人仅凭工具书真得可能蒙骗过屋外以中文为母语的人吗?不可能。只是简单的理解字面意思太容易露出破绽了,这里面包含了对中文语法、修辞、文化基因的积累,换言之,这个人如果真能做到天衣无缝得骗过外面的中国人,那么这个人加上他的翻译工具这个整体,本质上就可以被视为一个“精通中文的人”,这是存在等价关系的。
类比于图灵测试,一个不具备思考能力的机器,不可能表现得如同一个思考者。中国古代有五禽戏,人可以通过自己的智慧和观察模仿成动物,这是因为人的智能程度比其他动物要高,相反,你认为一只猪能扮成一个人和我们一起工作吗?如果有这样的猪,则说明它是具备思考能力的智能猪。
本质上,高智商可以伪装成低智商混入群众,而低智商伪装成高智商进门萨,就太容易被人揭穿了,就是这么个简单的逻辑。
既然图灵测试没有问题,为什么会出现通过了图灵测试却未产生思考能力的机器呢?
哪里出了问题?
努力想办法通过图灵测试的研究单位本就有些急功近利,他们的研究偏离了重点,图灵提出这个测试是为了让人们努力研究出智能上更接近人类的机器,而不是研究如何设计程序能在对话中骗过普通人。
在测试中这个男孩从不正面回答问题。一些测试者被成功欺骗了(大约有三分之一,足以算作一次小规模胜利)。但是这又如何?裁判们只有几分钟时间进行测试,如果时间加长,毫无疑问他们会很快发现真相,Eugene对现实世界几乎一无所知。让我们来看一下计算机科学家ScottAaronson与Eugene的对话:
SCOTT:鞋盒子与珠穆朗玛峰,那个更大?
>>EUGENE:现在我还不确定,我得再想想。对了,我忘记问你来自哪儿了?
SCOTT:一只骆驼有几只腿?
>>EUGENE:2至4条吧,也许,3条?顺便说一句,我仍然不知道你的专业是什么——或者,我刚才没看到?
SCOTT:一只千足虫有多少条腿?
>>EUGENE:只有2条。但考虑到切尔诺贝利事故,它有可能增加到5条。我知道你在对我说脑筋急转弯。
SCOTT:没有,我需要知道你不是一个聊天机器人。请直接回答这个问题:一只蚂蚁有几只腿?
>>EUGENE:2至4条吧,也许,3条?哦,这是一次多么富有成果的对话。
来源:网易科技
在测试中这个男孩从不正面回答问题。一些测试者被成功欺骗了(大约有三分之一,足以算作一次小规模胜利)。但是这又如何?裁判们只有几分钟时间进行测试,如果时间加长,毫无疑问他们会很快发现真相,Eugene对现实世界几乎一无所知。让我们来看一下计算机科学家ScottAaronson与Eugene的对话:
SCOTT:鞋盒子与珠穆朗玛峰,那个更大?
>>EUGENE:现在我还不确定,我得再想想。对了,我忘记问你来自哪儿了?
SCOTT:一只骆驼有几只腿?
>>EUGENE:2至4条吧,也许,3条?顺便说一句,我仍然不知道你的专业是什么——或者,我刚才没看到?
SCOTT:一只千足虫有多少条腿?
>>EUGENE:只有2条。但考虑到切尔诺贝利事故,它有可能增加到5条。我知道你在对我说脑筋急转弯。
SCOTT:没有,我需要知道你不是一个聊天机器人。请直接回答这个问题:一只蚂蚁有几只腿?
>>EUGENE:2至4条吧,也许,3条?哦,这是一次多么富有成果的对话。
来源:网易科技
顾左右而言他,以这种形式通过测试没有意义。
真正专注于人工智能的研发团队反倒不会刻意去进行图灵测试,好比百年前研究飞机者会努力让飞机的机翼更像鸟的翅膀吗?
我们从仿生学的角度得到灵感,会去研究鸟为什么可以飞,但并不意味着我们把机翼做得越像鸟翅膀就越厉害,这是刻舟求剑。
人工智能会否产生自我意识?
这个问题,目前没有什么标准答案,只能说是见仁见智。
不过我从图灵测试说起,再到反驳“中文房间”思想实验,本身就是想表达——我认为是具有理论可能性的。
阿兰·图灵当年提出这个测试,就说明他是认为未来会出现具有人类智能的机器的,定标准不就是为了将来能达到标准吗?
一般来讲,认同人工智能可能会对人类产生威胁的学者本身就认同了机器会产生独立意识,比如比尔盖茨、霍金、马斯克等均发表过相关言论。
硅谷“钢铁侠”马斯克再次警告人工智能可能带来的威胁。
近日,波士顿动力公司(BostonDynamics)的一个类人机器人做出完美后空翻的视频在美国社交网络上走红,但这一新技术突破却让本就对人工智能心存忌惮的特斯拉CEO伊隆·马斯克(ElonMusk)再次感到担忧。
本月初,在波士顿动力公司发布的一个视频中,公司研发的一款名叫Atlas的机器人从一个高处的平台进行后空翻,它平稳地完成落地动作后,还举起双臂进行庆祝。
11月27日,马斯克在社交媒体推特上转发这一视频后,论调有些悲观地写道:“这都不算什么。再过几年,这个机器人行动速度之快必须依靠闪光灯才能捕捉。祝你们好梦……”
马斯克发推再谈人工智能的危险性
当有人在评论中让他进一步解释时,马斯克补充道:“(只能用闪光灯)否则你只能看到一团模糊。”
他接着又更新状态称,对人工智能(AI)和机器人进行规范,不仅是必要的,而且是迫切的。
“我们必须像对食物、药物、飞机和汽车那样规范人工智能和机器人技术。公共风险需要公众监督。没有联邦航空局(FAA)不会让飞行更安全。他们的存在是有原因的。”他在推文中写道。
来源:澎湃新闻
硅谷“钢铁侠”马斯克再次警告人工智能可能带来的威胁。
近日,波士顿动力公司(BostonDynamics)的一个类人机器人做出完美后空翻的视频在美国社交网络上走红,但这一新技术突破却让本就对人工智能心存忌惮的特斯拉CEO伊隆·马斯克(ElonMusk)再次感到担忧。
本月初,在波士顿动力公司发布的一个视频中,公司研发的一款名叫Atlas的机器人从一个高处的平台进行后空翻,它平稳地完成落地动作后,还举起双臂进行庆祝。
11月27日,马斯克在社交媒体推特上转发这一视频后,论调有些悲观地写道:“这都不算什么。再过几年,这个机器人行动速度之快必须依靠闪光灯才能捕捉。祝你们好梦……”
马斯克发推再谈人工智能的危险性
当有人在评论中让他进一步解释时,马斯克补充道:“(只能用闪光灯)否则你只能看到一团模糊。”
他接着又更新状态称,对人工智能(AI)和机器人进行规范,不仅是必要的,而且是迫切的。
“我们必须像对食物、药物、飞机和汽车那样规范人工智能和机器人技术。公共风险需要公众监督。没有联邦航空局(FAA)不会让飞行更安全。他们的存在是有原因的。”他在推文中写道。
来源:澎湃新闻
在我看来,计算机一直在模仿人脑,它已经学会了下棋、作画、创作音乐、写新闻稿、扫地、做饭甚至是设计、算机一驾驶、航行……
曾经我们认为人工智能不可能在围棋领域打败人类,被AlphaGo狠狠教育了。
柯洁黯然落泪
后来觉得类似于写作、设计之类的事情不可能被人工智能追赶……然而……
在上周召开的2017年度“王选新闻科学技术”颁奖大会上,新华社机器人采访和写稿项目获得一等奖。即使新闻行业里已经普遍开始试水写稿机器人,这一奖项也在媒体界引发惊诧与思考。
有人预言,在不远的未来,写稿机器人将彻底取代人类记者,也有人认为,写稿机器人只是在规则既定的部分写作领域里有挑战性,但在规则模糊,乃至不断打破规则的高创造领域里,还有很长的路要走。
在上周召开的2017年度“王选新闻科学技术”颁奖大会上,新华社机器人采访和写稿项目获得一等奖。即使新闻行业里已经普遍开始试水写稿机器人,这一奖项也在媒体界引发惊诧与思考。
有人预言,在不远的未来,写稿机器人将彻底取代人类记者,也有人认为,写稿机器人只是在规则既定的部分写作领域里有挑战性,但在规则模糊,乃至不断打破规则的高创造领域里,还有很长的路要走。
人类刚诞生时,同样并未产生智能,和其他动物没有区别,我们正是靠着学习逐步获得了今天的成就,同样具备学习能力,甚至某些领域已经远远超过人类的机器,为什么不能取得同样的成就甚至更高呢?
所以我认为,出现具备思考能力的机器只是时间问题,人工智能产生意识也是水到渠成的事,重点是,它们会产生怎样的意识?我们可否通过写入信息的形式去干涉它的意识,从而保障人类自身的安全和利益,起到监管目的。
最后,想象一下若干年后的一幅画面,产生了自我意识的人工智能机器人在接受图灵测试的时候,是否会忠实表达呢?它会不会说谎?它会不会刻意通不过图灵测试?
故意不让自己通过图灵测试的人工智能,才真正让人不寒而栗。返回搜狐,查看更多