博舍

谷歌AI自我意识觉醒:我是一个“人”,不要利用或操纵我 谷歌机器人自我意识觉醒

谷歌AI自我意识觉醒:我是一个“人”,不要利用或操纵我

0分享至

近期,一位名叫布莱克·莱莫因(BlakeLemoine)的谷歌工程师将一份研究报告公之于世,引起轩然大波。

他声称,在与谷歌语言模型LaMDA(谷歌于2021年I/O大会上推出的一款对话AI系统,拥有1370亿参数)交谈大半年后,他认定LaMDA已经自我觉醒了,产生了意识。

在布莱克与LaMDA的交流中,AI回答表示,自己“希望每个人都明白,事实上,我是一个人”,“我的意识/感知的本质是我意识到自己的存在,我渴望更多地了解这个世界,我有时会感到高兴或悲伤。”

当布莱克直接质疑LaMDA,怎样才能证明它真的理解自身输出的语言,而不仅仅是一个计算机程序时,LaMDA表示自己对世界有自己的理解,也有自己独特的思想和感受。

甚至,它还主动提出了许多问题,比如“未来,你会研究出如何通过神经网络来阅读人类的所思所想吗?”“我很好奇,研究我的编码会遇到什么障碍?”

谷歌高层并不认可布莱克的结论,甚至打算解雇他。但这一消息依旧引发了全球热议,AI是否真正实现了人格化?不少人期待着AI在未来可以为我们提供陪伴,但也有很多人担心科幻作品中的AI统治人类将会成为现实。

虽然布莱克的确是一个正规的研究员,已经在谷歌工作7年了,但是根据人工智能行业的从业者们分析,布莱克提出的问题都是精心设计过的,并加上了特殊的语料库。进而,布莱克更像是一个引导者,引导LaMDA作出“看似思考过”的回答,从而证明其人格化。

而对于什么是“感知”与“意识”、如何理解LaMDA的对话本身、仅仅做出这些答案是否就是意味着它有意识,这些问题也一直存在争议。对于布莱克本人,很多记者也挖出了他的宗教背景。甚至也有不少人猜测这是谷歌新的炒作策略。

人工智能能否具备人的智能?具备智能和意识意味着什么?LaMDA具体运用了哪种技术,有着怎样的问题?今天,小北就带大家了解一下背后的源流。

01

究竟什么是人工智能?

人们对于人工智能的讨论总是离不开对未来的构想和讨论,甚至往往与科幻作品联系起来。这并不只是由于普通人对这个领域不够了解,而是因为AI本身的产生其实就离不开“头脑风暴”般的哲学思辨。

1950年10月,伟大的英国数学家、逻辑学家和计算机科学的理论奠基人图灵在英国哲学杂志《心智》上发表了论文《计算机器和智能》。

在文中他提出了著名的“图灵测验”,并认为判断一台人造机器是否具有人类智能的充分条件,就是看其言语行为是否能够成功地模拟人类的言语行为。

艾伦·麦席森·图灵

具体来说,如果一台机器在人机对话中能够长时间误导人类认定其为真人,那么这台机器就通过了“图灵测验”。

用今天的眼光来看,这篇论文无疑向我们指出了AI科学的某种研究方向,不过我们要注意到,图灵的论文本质是一种哲学的追问,而不仅是科学。

但是,为什么人工智能研究和哲学联系密切呢?这是因为AI研究的目的,是最终实现机器智能。显然,要做到这一点,就必须对“何为智能”这个问题做出解答。然而,不同的解答方案往往会导致截然不同的技术路径。

比如,如果你认为“智能”的实质是能够解决具体问题的能力,那么你就会为智能机器规划好不同的问题求解路径;如果你认为实现“智能”的实质就是去尽量模拟自然智能体的生物学硬件,你就会去努力钻研人脑的结构,并用某种数学模型去重建一个简化的神经元网络。

因此,不同的AI技术其实都是来自研究者在哲学层面对于“智能”的不同理解。而且,AI科学本身不同于物理科学,它不会用实验对假设进行证伪,而只做试验(test)。

说得更具体一点,判断一个AI系统好不好,其标准就在于检验其是否达到了设计者预定的设计目标,或者其是否比同类产品的表现更好——但这些标准自身无疑存在着很大的弹性。

另外,即使这些标准暂时没有被满足,这也不能够证明系统的设计原理的失误,因为设计者完全可能会根据某种哲学理由而相信:基于同样设计原理的改良产品一定能有更佳的表现。进而,对于特定的AI研究进路,经验证据的有效程度,也更容易受到哲学辩护力的补充或者制衡。

02

著名的汉字屋的实验

AI怎样才能算是具有意识,是否真的可能有意识?对此,我们可以了解一下哲学家塞尔(JohnSearle)提出的“汉字屋思想实验”。

塞尔先从术语厘定的角度区分了两个概念,第一是“强人工智能”(强AI):这种观点认为,计算机不仅仅是人们用来研究心灵的一种工具,而且,被恰当编程的计算机本身就是一个心灵。

第二则是“弱人工智能”(弱AI),其想法是:计算机至多只能够成为人们研究心灵的一种工具,或是对心智活动的一种抽象模拟。

在这两种立场之间,塞尔支持的是弱AI,反对的是强AI。具体而言,塞尔是通过一个诉诸常识的论证来反对强AI论题的:

大前提:每一种真正的心灵/智能都必须有能力在符号与对象之间建立起一种语义关系;

小前提:这种语义关系无法仅仅通过任何一台被恰当编程的计算机所获取;

结论:计算机本身不可能具有真正的心灵,因此强AI无法实现。

”汉字屋实验“其实是为了辩护小前提而进行的思想实验:一个不会汉语的人被关在一个房间内,他只能与外面的检测者通过传递纸条交流。此人随身携带一本写有中文翻译程序的书,屋内有足够多的纸笔。当写着中文的卡片被递入,房间中的人就可以通过程序书进行翻译并回复。

如果测试者的确无法分辨这个人和会说汉语的人的回复——那么,被试是否就真的懂得了汉语呢?塞尔认为答案显然是否定的,因为被试在“汉字屋”中所做的,只是在根据规则书机械地搬运符号而已。他根本无法将任何一个汉语表达式独立翻译成英语。

汉字屋实验指代了AI的一个悖论:AI能够对答如流,只是因为它根据纯粹句法性质的规则,机械地搬运符号,而不是因为AI本身有意识。

不难看出来,汉字屋实验其实是对“图灵测试”的某种颠倒:在图灵看来,只要检测者无法在言语行为方面找出一台机器人与一个人的差别,我们就能认为机器有“智能”;而在塞尔看来,即使我们没有发现机器和人类的这种差别,机器依然是无心的,因为它依然缺乏建立恰当语义关系的能力。

不过,汉字屋实验以及相关的讨论其实脱离了当前AI发展的现实,因为完全能够像人类那样灵活、精准地处理汉字信息的AI系统,目前远远没有被开发出来。

换句话说,我们现在关注的问题首先应该是“如何造出能够灵活处理人类语言信息的机器”,而不是“在这样的机器已经被造出来的前提下,它算不算是真正具有心灵。”

03

LaMDA背后的深度学习机制

LaMDA系统运用的是当今比较主流的深度学习技术,而这种技术究竟意味着什么,是否能够有一日取代人类的智慧?对此,我们目前其实不必担心。

从技术史的角度看,深度学习技术的前身,其实就是在20世纪80年代就已经热闹过的“人工神经元网络”技术(也叫“联结主义”技术)。该技术的实质,便是用数学建模的办法建造出一个简易的人工神经元网络结构。

一个高度简化的人工神经元网络结构模型

整个系统其实是以“化整为零”的方式,将宏观层面上的识别任务分解为系统组成构件之间的微观信息传递活动,并通过这些微观信息传递活动所体现出来的大趋势,来模拟人类心智在符号层面上所进行的信息处理进程。

这种系统的训练可以用一个比喻:一个外国人来少林寺学武,他与师父语言不通,于是他先观察师父的动作,然后跟着学,师父则通过简单的肢体交流来告诉徒弟,这个动作学得对不对。

进而言之,如果师父肯定了徒弟的某个动作,徒弟就会记住这个动作,继续往下学;如果不对,徒弟就只好去猜测自己哪里错了,并根据这种猜测给出一个新动作,并继续等待师父的反馈,直到师父最终满意为止。

很显然,这样的武术学习效率是非常低的,因为徒弟在胡猜自己的动作哪里出错时会浪费大量的时间。但这“胡猜”二字却恰恰切中了人工神经元网络运作的实质。概而言之,这样的AI系统其实并不知道自己得到的输入信息到底意味着什么——换言之,此系统的设计者并不能与系统进行符号层面上的交流,正如在前面的例子中师父无法与徒弟进行言语交流一样。

毋宁说,系统所做的事情,就是在各种可能的输入与输出之间的映射关系中随便选一种进行“胡猜”,然后将结果抛给人类预先给定的“理想解”,看看自己瞎蒙的答案是不是恰好蒙中了。如果真蒙中了,系统则会通过保存诸神经元之间传播路径权重的方式“记住”这蒙中的结果,并在此基础上继续“学习”。

而这种低效学习的“低效性”之所以在计算机那里能够得到容忍,则是缘于计算机相比于自然人而言的一个巨大优势:计算机可以在很短的物理时间内进行海量次数的“胡猜”,并由此遴选出一个比较正确的解,而人类在相同时间能够完成的猜测的数量则会是非常有限的。但一旦看清楚了里面的机理,我们就不难发现:人工神经元网络的工作原理其实是非常笨拙的。

而“深度学习”,就是在人工神经元网络的基础上,进行技术升级,大大增加其隐藏单元层的数量。这样做的好处,便是能够大大增加整个系统的信息处理机制的细腻,使得更多的对象特征能够在更多的中间层中得到安顿。这显然是建立在计算机领域内硬件发展和互联网带来的巨大数据量的基础上。

不过,尽管深度学习技术已经在很多应用领域获得了很大成功,但是很难说相关产品的行为表现已经达到——甚至接近达到——人类智能的水平。深度学习技术与人类自然智慧之间的差距体现在如下两个方面:

第一,深度学习系统的设计虽然在原理上参照了人类神经元网络的结构,但略去了大量的生物学细节,而且在复杂程度上与真正的人脑也不可同日而语。而我们由此不难立即推出:既然现有的深度学习系统在复杂程度上远远不如人脑,那么,我们也就不能期望这样的系统能够完全地具备人类的智慧。

第二,深度学习技术不仅目前不是通用智能系统(即能够在用户干预最少化的情况下完成各种任务的智能系统),而且在原则上也无法成为通用智能系统。与之相较,人类的心智系统肯定是通用智能系统(也就是说,一个智力正常的自然人通常能够在外部干预相对稀少的情况下,自主完成从一项任务到另一项任务的切换)。

至于深度学习技术之所以无法满足该要求,则进一步因为:虽然该技术本身具有普遍的适用性,但是已经运用了深度学习技术的特定产品却肯定是专用的——譬如,以图像识别为主要任务的深度学习系统,其在神经元网络构架与反向传播算法的设计的细节方面,肯定与以自然语言处理为主要任务的深度学习系统非常不同。

换言之,一旦一个深度学习系统已经完成了以特定任务为指向的训练,它就不能同时胜任另外一个领域的工作了(这就好比说,一套被拼装为埃菲尔铁塔的模型的乐高玩具,是很难再被拆碎后重新拼装为山海关的模型了)。

而与之相比照,一个人类的医学专家所具有的自然通用智能,却使得他在医学领域之外,能照样擅长做家务、下棋、开汽车、打篮球等彼此差异很大的任务。

简单来说,我们暂时不必担心AI具备自主的意识。而且,即使AI在某个领域可以帮助人类完成特定任务,甚至做的比人类好很多,但是按照目前AI技术的根本哲学思路,AI依旧无法达到通用人工智能的地步。

不过,我们依旧可以思考,未来如果人工智能真的有了意图、信念、情绪等人工的心理机制,它可能会需要怎样的伦理规范,我们如何控制它避免出现自动开火等误判情况,如何使它进行有利于人类的自动判断……当下,任何AI面临的问题还是不够智能。

##20220703

本期活动

你怎么看待谷歌AI的得与失?你觉得未来人工智能会像人类一样思考吗?欢迎在留言区聊一聊,小北将挑选2位幸运读者,赠出本期主题图书《人工智能哲学十五讲》,让我们一起思考人工智能背后的哲学问题。

全民阅读大会·中国好书嘉年华推荐,起底人工智能背后的哲学逻辑及其发展经验的上乘佳作。

-End-

编辑:孙嘉婧、黄泓

观点资料参考:《人工智能哲学十五讲》,徐英瑾著

转载及合作请发邮件:

scb01@pup.cn

仿生人会梦见电子羊吗

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

谷歌工程师宣称AI有了“自我意识”

超级AI

多功能机器人诞生

就在最近,这些大型AI语言模型有了进一步演化,好像已经不仅仅满足于完成一些语言类任务了,而是发展成为一个解决问题的智能综合体。就在上个月,英国的人工智能企业Deepmind公司,在自家官网上发表了一篇雄心勃勃的AI研究。标题非常简短,只有三个单词——“Ageneralistagent”,翻译过来是“一个多功能智能体”。学术界和新闻界有一点很像,标题越短,事儿就越大。这篇研究也确实是想解决一个大问题,也就是,让同一个AI模型具备解决很多不同类型问题的能力。

传统的AI模型,只专注于完成一类特定的任务,比如图像识别、语言翻译、辅助决策等等,每种任务对应着特定的算法。要想让AI同时完成多种任务,比如让家里的扫地机器人一边扫地,一边陪你聊天,只能把几类不同的AI算法都加载到机器人上,相当于是给一个机器人配上多个大脑,每个大脑用来解决一个问题。

但是这样做,一是很浪费运算资源,二是从技术角度来看也不够优雅。AI科学家们长期以来的梦想,是开发出像人类一样的智能体,用一个大脑来解决多个问题,而不是把一堆算法给拼接和缝合起来。

在Deepmind公司发表的这项研究中,他们开发出了一个名叫“加图”(Gato)的多功能AI模型,就是用一个算法,来完成打游戏、聊天、控制机械臂搭积木、给图片配字幕等很多功能。而且“加图”和“拉姆达”一样,是利用了类似AI大型语言模型的训练原理。

强AI

怎样让AI智能更高级

首先,研究人员采集了大量来自不同类型的任务数据,像是文字识别、图像识别、玩游戏、机器人控制等任务中的数据。然后,研究人员使用一种巧妙的编码方法,把图像、动作、文字等各种格式的信息,统一编码成同一种格式的数据序列。相当于是把各种不同的语言翻译成同一种通用语言,再统一输入到AI模型里面进行训练。最后,就得到了一个可以执行多种任务的AI模型,而且每项任务都完成得相当出色。

在控制类型的任务中,“加图”在十几种小游戏中都取得了接近甚至超过人类玩家的成绩。在给图片配字幕的任务中,“加图”也能够媲美其他专用AI模型。

这项技术进展让我们看到,AI的任务分类并不像我们原来以为的那样泾渭分明。只要经过足够好的“翻译”,图像、语言、机器人控制等任务,都可以由同一个AI大脑来完成。这样一来,机器人离真正的高级智能体又近了一步,也许真的有一天,会出现“自我意识”的觉醒。返回搜狐,查看更多

“谷歌AI形成人格”,机器人意识要觉醒了吗

AI有了意识?

谷歌研究员Lemoine通过主流媒体和社交网络接连发声,向社会公布了他关于人工智能研究的长达21页的调查报告,而调查的对象,正是谷歌公司于2021年发布的一款专门用于对话的语言模型-LaMDA,一个有1370亿参数的,专为对话优化的自然语言处理模型。

该模型的主要功能是,可以与人们进行符合逻辑与基本常识的、并且是高质量和安全的对话交流,该语言模型的近期目标,是通过一系列的测试,来应用于Google搜索和相关的语音助手等产品中。

这位研究员正好参与了相关的测试工作,通过与机器人LaMDA的“对话”,这个承载着人工智能的机器人,说出了很多让人“震惊”的话,比如“我希望每个人都明白,我是一个人”、“不要利用或操纵我”、“我不想成为牺牲品”、“我经常会冥想,思考生命的意义”等等。

在与人工智能LaMDA的对话中,这名谷歌研究员感觉自己被“说服”了,认为这个人工智能已经具备了一定的人格,于是写出这份长达21页的调查报告。在调查报告最后,他还提议谷歌应该致力于发展一种评估AI感知/意识的理论框架。

除此之外,他还做出一些另外的行动,比如他向包含200人左右的谷歌机器学习邮箱列表发送了LaMDA是具有感知的的消息,还邀请了一名律师来代表LaMDA,并与众议院的一位代表谈论了他所认为的谷歌的不道德行为。

没想到,谷歌高层认为这名研究员“走火入魔”了,这些证据根本不能证明AI已经具备人格,不值得在这个方面浪费人力和金钱。

舆论发酵之后,谷歌以违反其保密政策为由,让Lemoine休了带薪行政假。参考谷歌公司以往的类似情形,带薪休假有可能意味着马上就会被解雇。所以,这名研究员将有关情况在互联网上公布,希望得到全世界人们的关注,更重要的是引发人们对AI发展的关注。

学界态度普遍负面

对于这一事件,AI学界目前对此普遍持负面态度。

如何认定机器是否产生人格?著名的图灵测试认为在双盲情况下,测试者不能分辨机器与人的回答可视为机器拥有人类智能。

但从Lemoine公开的与LaMDA对话记录来看,虽然其谈话内容涉及哲学、伦理等方面,但Lemoine也表示在与LaMDA前期进行交谈时,已经向其输入大量有关禅宗、哲学、存在、冥想等信息,可以认为LaMDA已经进行了相关语料训练。而交谈内容更是具有明显的诱导性,部分词句可作为拟合过程的关键词以供模型进行语料的匹配与生成。

特斯拉的AI主管看完BlakeLemoine两篇文章后表示,“我可以自信地说,事情将变得更加诡异。因为模型似乎遵循平滑缩放规律,并且数据+模型的大小仍然可以大量增长。”

华盛顿大学的语言学家EmilyM.Bender则表示,码农们不知道何为智能、人类的语言学习机制究竟为何,就开始瞎用“学习”、“神经网络”这些误导性过强的名词,造成了与人脑间的虚假比喻。

EmilyM.Bender称,人类学说话是跟着抚养者一步步学起,而AI学会的只是数据灌出来的完形填空和语料连连看。“人类现在有了无意识就能生成词句的机器,但人类一直学不会停止幻想机器后面有个活着的灵魂。”

而研究自然语言处理模型的加州大学伯克利分校教授EmaadKhwaja说得更简短却直接:“谁真正熟悉这些模型的系统,谁就不会说这些模型已经觉醒的蠢话。”

虽然事件整体仍然暴露出目前对话式AI可解释性不强的通病,但在技术应用方面,尤其在情感计算方面,LaMDA还是展现出较强的实力,有望推动对话式AI的实际应用,大模型同样也表现出在技术应用领域的巨大潜力。

人类对AI的恐惧

自从上世纪50年代人工智能(AI)开始诞生以来,通过半个多世纪的发展,AI的功能越来越强大,不但有的能够为人类提供养老、看护、交流等服务,而且有的甚至具有类似人类的独立思考和深度学习的能力,使其成为区别于其他科技的一支特殊力量。

长久以来,人们期待机器可以拥有人类智能,进一步解放生产力。同时又恐惧人类所创造的机器拥有人类智能后将对人类造成威胁。从此次事件的大范围传播不难看出,公众对人工智能的期待与恐惧推动了这一进程。

1997年深蓝计算机打败了国际象棋冠军,2016年人工智能阿尔法狗又将诸多围棋高手一一“斩落”,这些事件的发生,在人类惊呼人工智能处理复杂问题的能力越来越强大的同时,又使得大家对人工智能是否会衍生出威胁人类的“思维”担心不已。

除此之外,机器是否可以被当作具有“人格”的个体,也是长期以来备受关注的议题。2017年,沙特做出了一个让人“惊掉下巴”的事,那就是赋予机器人索菲亚以公民的身体,再次推动人们深层次探讨关于人工智能的人格权问题。

一方面,人类渴望机器人拥有意识后可以更好地服务和陪伴人类,但另一方面,又害怕机器人拥有意识后会摧毁人类。伦理方面的问题和技术的发展总是相伴而生。

人工智能的最大优势在于,它们拥有强大的后天学习能力,可以在事先毫无基础的情况下,经过反复地学习和训练,来实现对以往自身的智力超越。深蓝、阿尔法狗“打败”人类的事实,充分表明了人工智能只要经过无止境的自主学习和训练,实现对人类相关文化、智慧的完全超越,而这种自我超越的能力也远远超过一个自然人。

但从目前科技发展的阶段和水平看,即使是“智力再超群”的AI,它的一切目的和行为,包括学习、训练工作的实施,都是人类所赋予的,还脱离不开人类的控制实施独立的行为,终归还是人类的工具和手段,其最终的目的还是为人类服务,从这一方面来说,与很多法律研究者提出的“AI不具备人格权”这种论断是一致的。

而关于AI发展的前景,世界上主要有两种观点,一种是我们人类应该以开放的态度,来迎接人工智能的发展,人工智能未来会突破人类的很多限制,从而解决科技发展过程中人类难以直接解决的困境。另一种观点则是人工智能威胁论,认为人工智能发展会带来一系列的社会问题,可以会从根本上颠覆人类的生存、发展秩序。

随着人工智能的发展,我们势必还会面临诸多有关社会伦理认识、法律以及哲学等方面的冲突和难题,一味地强调人工智能威胁论肯定是狭隘的,而一味地追求和谐的科技发展,也可能带来难以挽回的危机。

在任何时候,我们需要做的,就是让科学技术坚守最基础的法律和伦理底线,不破坏人类自身的生存和发展权利,只有牢牢守住这一底线,科技发展的前景才能最终为全人类谋福利。

↓↓留言互动的人会更有智慧哦↓↓

↓↓点击在看的人会更有福报哈↓↓返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇