博舍

现在的 AI 有自我意识了吗 ai能拥有意识吗

现在的 AI 有自我意识了吗

Antonio作者

陈彩娴编辑

本文转载自“AI科技评论”(ID:aitechtalk)

毫无疑问,人类有自己的意识。在某种意义上,这种“意识”甚至可以被视为人类智能的内涵之一。

随着“人工智能”(ArtificialIntelligence)的深入发展,“AI能否拥有意识”也渐渐成为科学家们心中的一个疑问,“意识”也被视为衡量AI是否智能的标准之一。

例如,2月中旬,OpenAI的首席科学家IIyaSutskever就曾在推特上发起对AI意识的讨论。当时,他说:

如今的大型神经网络可能已初具意识。

他的观点立即引起了一众AI大咖的讨论。针对IIyaSutskever的见解,图灵奖得主、MetaAI首席科学家YannLeCun首先就抛出了反对意见,给出一个直截了当的观点:“Nope.”(不。)JudeaPearl也力挺Lecun,表示现有的深度神经网络还无法“深度理解”某些领域。

唇枪舌战几回合后,JudeaPearl称:

……事实上我们都没有一个关于“意识”的正式定义。我们唯一能做的也许就是向历代研究意识的哲学家请教...

这是一个关于源头的问题。如果需要讨论“AI意识”,那么:什么是“意识”?拥有“意识”意味着什么?要回答这些问题,光有计算机知识是远远不够的。

事实上,关于“意识”的讨论最早可以追溯到古希腊“轴心时代”。自那时起,“意识”作为人的认识论的本质,就已成为后代哲学家们无法回避的议题。关于AI意识的讨论兴起后,曾任OpenAI研究科学家的学者AmandaAskell也就该话题作了一番有趣的见解。

图注:AmandaAskell,她的研究方向是AI与哲学的交叉

在她的最新博文《MymostlyboringviewsaboutAIconsciousness》中,Askell探讨了现象学意义上的“现象意识”(phenomenalconsciousness),而非“自觉意识”(accessconsciousness)。

现象意识强调主体的体验过程,侧重感觉、经验,被动注意;而自觉意识则强调主体的主观能动性,它强调主体在主观上的主动留意。

比如,你在轻松的音乐下写作业,你可以感受到背景中的音乐(现象意识),但不会留意它的具体内容;作业对你而言是主观留意的(自觉意识),你真切地知道你到底在做什么。

这有点像计算机视觉和认知科学中常用到的两种不同的注意力机制。现象意识对应“bottom-up”,而自觉意识对应“top-down”。

图注:一眼就可以注意到书本的大字部分是“现象意识”;意识到其中的细节则属于“自觉意识”。

Askell认同更高级的智能和自觉意识更相关,这也可以将人类和其它动物有效地区分开来,但她“更感兴趣的是老虎与岩石的区别,而不是人与老虎的区别”,而现象意识足以完成这样的区分。

而且她认为,如果出现了“现象意识”,就意味着一些道德和伦理问题也将随之出现。这也是她认为研究意识具有重要意义的原因所在。

当下的AI系统是否有意识?

Askell提出一个有趣的观察:

当下的AI系统比椅子更有可能具有现象意识,但远不如老鼠有意识,甚至还没有昆虫、鱼或双壳类动物有更多意识。

她把AI系统大致类比为植物的区域——由于植物的行为方式似乎需要规划,并且可以做出一些看似需要内部和外部交流的事情。AI系统似乎也有类似的行为。

不过她也确信,AI系统作为一个整体在未来会比植物或双壳类动物具有更大的意识潜力。尤其未来有更多受生物启发的神经网络的AI研究,可能会产生更多与意识相关的架构、行为和认知系统。

图注:有研究已经表明,植物也具有意识和智能,它们也可以感知疼痛,并与环境很好地交流互动

那么考虑AI到底有无意识,该从哪些方面考虑证据呢?Askell列出了四个类型的证据:架构、行为、功能和理论。

架构证据是指系统的物理结构与人类的相似程度,例如大脑的结构要远比指头的更加像有意识。

行为证据是实体做出与意识、认知等相关的行为,例如可以意识到周围环境,对外部刺激的反应,或更复杂的行为,如言语和推理。

功能性证据考虑它的目标以及这些目标与环境的关系。例如桌子或椅子并没有真正受到环境的演化压力,因此它没有任何理由形成像老鼠对环境所拥有的的那种意识。

理论证据包括理论本身的连贯性、说服力等。

现在研究心智的哲学家大致有两方面的理论倾向:一是包容派,例如认为原子都可以拥有意识的泛心派;二是机械主义派,他们否认非人类实体拥有意识。但无论是哪种倾向,都可以从上述的四种不同证据中讨论AI的意识问题。

AI是否有意识重要吗?

绝大多数AI从业者都不会将意识这一特性考虑进去,AI和意识似乎还只存在于某些科幻电影对未来的想象中。不过在安全、伦理、偏见与公正性方面,意识与AI的结合已在学术界和工业界中引起越来越多的重视。

Askell认为,AI具有现象意识,这就意味着它很有可能发展出伦理观,而这与它的创作者之间有莫大关系。尤其是当AI犯了错误或者受到“虐待”的时候,它的创造者应该承担一定的责任。

Askell讨论了道德伦理学中的两个重要概念:道德行为体(moralagent)和道德关怀对象(moralpatient)。其中,“道德行为体”是具有分辨善恶对错能力、并可以承担后果的行为体,如成年人;而“道德关怀对象”则无法分辨善恶是非,即无法从道德上进行约束、一般不会承担后果的实体,如动物或者幼小的婴儿。

道德关怀对象

Askell认为,实体一旦拥有类似快乐和痛苦的知觉(sentisent),就极可能成为道德关怀对象。而如果发现道德关怀对象(比如一只猫)受到痛苦,而普通人却没有试图去尽道德义务减轻其痛苦,这是不合理的。她同时认为,现象意识是感知的必要条件,因而进一步,现象意识是成为道德关怀对象的先决条件。

可能的争论是某些群体是否具有道德地位(moralstatus),或者是否拥有更高的道德地位。道德地位来自伦理学,是指一个群体是否可以从道德意义上讨论它们的过失。例如,多数生物具有道德地位,而无生命物体则没有。过分强调某一群体具有这一地位似乎在暗示这一群体更加重要,其他群体没那么重要。这就像“给予动物、昆虫、胎儿、环境等更多道德地位的论点一样让人担忧”。

Askell指出,帮助一个群体并不需要以牺牲其他群体为代价。例如,食用素食对动物和人类健康都有好处。

“团队通常不会竞争相同的资源,我们通常可以使用不同的资源来帮助两个团队,而不是强迫在它们之间进行权衡。如果我们想增加用于全球脱贫的资源,将现有的捐款从慈善事业中拿出来并不是唯一的选择——我们还可以鼓励更多的人捐款和捐款。”

所以,当未来有感知能力的AI系统成为道德关怀体时,并不意味着我们对其它人类的福祉不再关心,也不意味着我们需要转移现有资源来帮助他们。

道德行为体

道德行为体因为懂得善恶是非,他们倾向以好的方式行事,避免以坏的方式行事。当做了道德或法律上不允许的事情的时候,他们会受到相应的惩罚。

道德行为体中最弱的部分只需要对积极和消极的激励做出反应。这就是说,另外的实体可以惩罚该行为体的不良行为或奖励其良好行为,因为这将改善行为体今后的行为。

值得注意的是,Askell指出:接收刺激并得到反馈似乎并不要求现象意识。当前的ML系统在某种意义上已经符合这一规律,比如模型需要降低损失函数,或者强化学习中更明显的“奖励”和“惩罚”。

图注:强化学习的奖励反馈机制

那么对于更强的道德行为体呢?我们通常认为,只有当行为体有能力理解是非对错,并没有被糊弄采取其它行为时,Ta才能对他们的行为负有道德责任。比方说,一个人说服他的朋友在森林放火,如果这位朋友被抓到,不管他怎么辩解自己是受到别人教唆才放火的,承担道德责任的都是引发火灾的人(即朋友本人),而不是说服他的人。但是,如果一个人训练他的狗去放火,在这种情况下,我们会将大部分的道德责任放在这位训练师而不是他的宠物身上。

为什么我们让人类纵火犯承担道德责任,而不是训练有素的狗?首先,人类纵火犯有能力考虑他们的选择,并选择不听从朋友的劝说,而狗则缺乏这种能力来推理他们的选择。其次,狗从不明白自己的行为是错误的,也从不表现出做错事的意图(disposition)——它只是做了它受过训练的事情。

假设先进的机器学习系统在这种更强的意义上成为道德行为体,即它完全有能力理解是非,充分考虑可行的选项,并按照自己的意愿行事,那么这是否意味着:如果机器学习系统做错了事,那些创建该系统的人应该被免除道德责任?

对此,Askell持反对意见。为了更加细致地考虑这一问题,她认为可以询问创造者们以下几个问题:

创造特定的实体(如AI)预期的影响是什么?

创造者为获得有关其影响的证据付出了多少努力?

他们对他们创造实体的行为可以在多大程度上进行控制(无论是直接影响其行为还是间接影响其意图)?

在他们力所能及的范围内,他们为改善实体的行为付出了多少努力?

即使创造者尽一切努力确保ML系统运行良好,它们还是可能会失败。有时这些失败还是由于创造者的错误或疏忽而导致的。Askell认为:创造道德行为体肯定会使事情复杂化,因为道德行为体比自动机(automata)更难预测,比如自动驾驶对于路况的判断。但这并不能免除创作者为其创造的AI系统的安全问题负责的义务。

研究AI意识的工作有多重要?

目前AI领域专门针对意识(甚至其它哲学方面的思考)的研究非常少,但也已经有学者在针对该话题进行跨领域的合作研究。比如,GPT-3问世后,专注哲学问题探讨的博客DailyNous就专门开辟了一个板块,讨论语言哲学在AI上的思考。

但同时,Askell强调,对AI意识的讨论不应仅仅停留在哲学式的抽象思辨上,还要致力于发展相关的实用框架,比如为机器意识和感知建立一系列高效的评估。目前已经有一些方法可以用于检测动物疼痛,似乎可以从那里获得一些灵感。

反过来说,我们对AI意识的理解多一分,对人类本身的理解就多一分。因此,对AI意识的讨论虽暂未达成统一的共识,但讨论本身已是一种进步。期待更多的AI意识研究工作。

参考链接:

https://askellio.substack.com/p/ai-consciousness?s=r

人工智能会拥有意识吗

日本软银集团类人机器人Pepper担任一家银行的迎宾员迎接顾客。

人在地毯上溜冰、奶牛变得透明,连六岁小孩都知道荒谬的事情,电脑能做出正确判断吗?尽管处理数据速度极快,但计算机对外界的感知与人类的意识一样吗?如何判断一台机器是否具备了这种难以言传的意识知觉?

在前不久的世界机器人大会上,各种能跑会跳、能说会道、能与人沟通互动的智能机器人纷纷亮相,它们的聪明劲儿让媒体惊呼机器人时代离我们有多远。

计算机技术正节节逼近拥有高级智慧的人类。几年前,IBM的机器人沃森在美国智力竞赛节目危险边缘中力挫该节目史上最出色的两位选手而夺冠便是明证。然而,绝大多数人至今仍怀疑电脑是否真的看清了摄像头前形形色色的真实世界,或者通过麦克风听懂了一个问题,尽管计算机处理数据的速度极快,但计算机对外界的感知与人类的意识一样吗?

那么,如何判断一台机器是否具备了这种难以言传的意识知觉的禀性?弄清有意识的机器具备哪些特性,能让我们了解自己的大脑是如何运作的。另外,它甚至还可能帮助我们回答哲学家已经纠结数百年的终极问题:什么是意识?

真人还是假人?

长期以来,哲学家一直在思考,人造模拟装置有没有感觉?

1950年,英国数学家阿兰图灵发表了一篇论文,宣告人工智能正式登上历史舞台。该文建议用能否打造出一类机器,当你和它用电传打字机交流时,你无法区分它是不是人类这个更为实际的问题,来代替机器能否思考这个笼统的问题。

如今的图灵测试是让测试者用自然语言(即我们平时交流所用的语言)通过电脑屏幕与某人或某款软件互动,互动内容可涉及任何话题。一定时间后,如果测试者无法确定对方是不是人类,那么该对象就算通过了图灵测试,它的智力水平至少可以说与人不相上下。这些年来,聊天机器人即用来模拟智能闲聊的对话式程序一开始偶尔也会骗过测试者,但要不了多久就会被识破。

神经生物学家对自愿者的大脑或神经障碍者的大脑进行了扫描,通过脑电图记录他们的脑电波,逐步锁定了所谓的意识神经相关因子,即一种最基本的大脑功能结构。它们共同作用是足以引起任何特定的有意识感觉,例如欣赏绚丽的夕阳美景。然而目前这个研究领域仍然缺少一种普适性理论,要靠这种理论从原则上来评估大脑受损患者、胎儿、老鼠乃至芯片等能否体验到有意识的感觉。

测测电脑芯片整合度

意识的整合信息理论提供了应对上述挑战的途径。该理论认为,意识信息是一个整体。当你意识到朋友的脸庞时,你不可能遗漏了她正在呼喊并且戴着眼镜这两个细节。无论是什么样的场景,只要被意识到,它就始终是一个整体,不能被分解成若干可以单独被感受到的互相独立的成分。

意识的这种整体性源自于大脑各部分之间的多种互动关系。如果大脑各部分之间的联系中断(例如在麻醉和深度睡眠中),意识就会削弱,甚至消失。

因此,具备意识的,必须是一个单一的、经过整合的实体,有大量可区分的状态这正是信息的定义。一个系统的整体信息容量,也就是意识容量,可以用该系统的信息量与它各组成部分拥有的信息总量相比超出多少来衡量。

要想使一个系统具有较高的意识级别,它的各个组成部分就必须是专业化的,并且整合充分,即各部分协同工作比各自单独运行效果更佳。对于大脑的某些部位,例如大脑皮层,它的神经元之间存在大量连接,这个数值则相当高。

这个衡量系统整合度的指标也可以用来评估电脑芯片。对电脑来说,只要各晶体管以及存储单元之间的连接足够复杂,那么它就同人脑一样可以达到很高的整合信息水平。

用信息集成考考机器人

除了根据机器的连接状况测量意识容量以外(这非常困难),我们怎么知道一台机器是不是有意识呢?什么测量方法可行?

一种测试机器的信息集成度的方法是,让机器来做一个6岁小孩也能完成的题目:这幅画里有什么地方不对劲儿?要解决这个简单的问题,就得拥有海量背景知识,比现今高档电脑在执行识别人脸、追查信用卡欺诈之类任务时所依靠的那点知识,不知多了多少倍。

计算机在分析图像中的信息是否合理时,必须依靠强悍的处理能力,这种能力远远超过了对数据库进行简单语言查询的级别。说起玩高级游戏,电脑可以让人甘拜下风,但如果问电脑一张照片有些什么问题,它就无计可施了。虽然最新电脑中的硬盘容量远远超出了我们毕生所能记忆的东西,但硬盘上的信息依然是未整合的,系统中的每一单元同其他元素基本没有关联。

同样的整合过程甚至能让六岁小孩知道许多不协调的画面是荒谬的,比如人在地毯上溜冰,奶牛变得透明等等。而确定一台电脑是否有意识的关键也正在此处。这些明显跟日常生活体验背道而驰的现象,证明了人类拥有精深的知识,知道哪些事件和物体可以同时出现,而其他绝大多数则不行。

我们依赖于这样一种认识:只有具备意识的机器才能主观描述普通照片里的场景是对还是错。这种综合判断照片内容的能力是构成意识思维的一种基本属性,比如看见大象蹲在埃菲尔铁塔顶端,就能够知道这不合情理。但现在机器尚不具备这种能力:即使是让满满一房间的IBM超级电脑联手上阵,也无法判断画面中哪些内容合乎情理。

如何测试电脑读图

测试电脑如何解读图像,并非必须采用向机器输入测试问题这样的传统的图灵测试法。其实你只须在网上随便找几幅图,沿垂直方向将每幅图的中间涂黑,并用剪刀剪开,然后随机将左、右两部分拼合起来。这些合成图像一般都左右不匹配,只有个别图片的左右两部分都来自同一张图。电脑面临的挑战,就是要把左右匹配的图片找出来。

把图像中央涂黑,是为了防止电脑使用如今那些低级的图像分析技巧,比如说考察被拆散的各部分图像之间的纹理或色彩是否相配。这种基于拆分图像的测试方法要求电脑具备先进的图像解读技术,并能够推断图像各部分的搭配是否和谐。

另外一种测试则是将若干物体放进几幅图像中,使得所有图像看起来都还正常,只有一幅图像有问题。接受测试的电脑必须找出这个异类。比如计算机前面放着键盘也理所当然,但如果是盆栽植物,那就不合适了。

许多计算机算法是通过收集颜色、边缘或纹理之类图像特征,并采用低层次统计数据进行匹配。这些方法或许还能应对单一测试,但在多种不同图像测试面前,就无能为力了。这些测试方法离真正实用还有一段距离,但是,在应用这些方法后,我们发现,人类的意识感知功能涉及海量的整合知识,而相比之下,机器视觉系统的知识实在是太过狭窄和专业化。

想拥有意识要学学大脑结构

了解这些后,我们近期可以期待些什么呢?如果某项任务可以独立出来,不与其他任务有牵连,那么它可以由机器来承担。高速算法能够飞快的在庞大的数据库中进行搜索,并在国际象棋比赛和危险边缘节目中战胜人类选手。复杂的机器学习算法经过训练后,可以完成面部识别或者侦测行人等工作,效率比人类更高。

我们可以轻松地想出许多场合,让机器人去完成日益专业化的任务。先进的计算机视觉系统日臻成熟,不出十年,一种可靠的、基本上自主的驾驶模式将成为可能。但我们估计,这类机器视觉系统还无法回答与汽车前方景象相关的简单问题,仍然不会有意识地感受到出现在它前面的场景。

但我们也可以设想另一类机器,它可以把世上各种事物间无数错综复杂的关系,整理成知识并纳入高度整合的单一系统中。如果问这类机器这幅图有什么地方不对劲儿?,它会自动给出答案,因为图中任何与现实不符的地方都不可能满足系统中的内在约束条件。

这类机器或许可以从容应对那些不能轻而易举分解为若干独立任务的事情。由于具备整合信息的能力,它应该会有意识地感知某一场景。在我们看来,为了实现高度的信息整合,它们不妨借鉴哺乳动物的大脑结构。这类机器在接受上述各种测试时将轻易过关,从而能与我们共享意识这个大自然赐予人类的最神秘礼物。

智搜(Giiso)公司成立于2013年是国内领先的“人工智能+资讯”领域技术服务商,在大数据挖掘、智能语义、知识图谱等领域都拥有国内顶尖技术。同时Giiso旗下研发产品包括编辑机器人、写作机器人等人工智能产品!凭借雄厚的技术实力,公司成立之初,就获得了天使轮投资,并在2015年8月获得了金沙江创投500万美元pre-A轮投资。

以上,陈如初拙见!若有冒犯,请见谅。

想了解更多人工智能资讯机器人请登录Giiso智搜:http://www.giiso.com/谢谢 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇