人工智能的知识表示
文章目录一、绪论人工智能研究的基本内容人工智能的主要研究领域二、知识表示知识的概念知识的特性知识的表示1.一阶谓词逻辑表示法1.连接词(连词)2.量词3.谓词公式4.量词的辖域谓词公式的性质一阶谓词逻辑表示法的特点2.产生式表示法产生式系统产生式系统的例子——动物识别系统产生式表示法的特点2.框架表示法框架表示法的特点一、绪论智能是知识与智力的总和。智能的特征:感知能力、记忆与思维能力、学习能力、行为能力(表达能力)。人工智能:用人工的方法在机器(计算机)上实现的智能;或者说是人们使机器具有类似于人的智能。知识表示:将人类知识形式化或者模型化。知识表示方法:符号表示法、连接机制表示法。
人工智能研究的基本内容1.机器感知:使机器(计算机)具有类似于人的感知能力。以机器视觉(machinevision)与机器听觉为主。2.机器思维:对通过感知得来的外部信息及机器内部的各种工作信息进行有目的的处理。3.机器学习(machinelearning):研究如何使计算机具有类似于人的学习能力,使它能通过学习自动地获取知识。4.机器行为:计算机的表达能力,即“说”、“写”、“画”等能力。5.知识表示:将人类知识形式化或者模型化。
人工智能的主要研究领域1.自动定理证明2.博弈3.模式识别(patternrecognition):研究对象描述和分类方法的学科。分析和识别的模式可以是信号、图象或者普通数据。4.机器视觉5.自然语言理解6.智能信息检索7.数据挖掘与知识发现8.专家系统9.自动程序设计10.机器人11.组合优化问题12.人工神经网络13.分布式人工智能与多智能体:分布式人工智能系统以鲁棒性作为控制系统质量的标准,并具有互操作性,即不同的异构系统在快速变化的环境中,具有交换信息和协同工作的能力。14.智能控制15.智能仿真16.智能CAD(简称ICAD)就是把人工智能技术引入计算机辅助设计领域,建立智能CAD系统。17.智能CAI就是把AI引入计算机辅助教学领域。18.智能管理与智能决策19.智能多媒体系统20.智能操作系统21.智能计算机系统22.智能通信23.智能网络系统24.人工生命
二、知识表示知识的概念知识:在长期的生活及社会实践中、在科学研究及实验中积累起来的对客观世界的认识与经验。事实知识:有关问题环境的一些事物的知识。规则知识:问题中与事物的行动、动作相关联的因果关系知识。控制知识:问题的求解步骤、技巧性知识。元知识:知识的知识,知识库中的高层知识使用规则、解释规则、校验规则、解释程序结构等。
知识的特性1.相对正确性:任何知识都是在一定的条件及环境下产生的,在这种条件及环境下才是正确的。2.不确定性:①随机性引起的不确定性②模糊性引起的不确定性③经验引起的不确定性④不完全性引起的不确定性3.可表示性与可利用性
知识的表示知识表示(knowledgerepresentation):将人类知识形式化或者模型化。
1.一阶谓词逻辑表示法命题(proposition):一个非真即假的陈述句。若命题的意义为真,称它的真值为真,记为T。若命题的意义为假,称它的真值为假,记为F。一个命题可在一种条件下为真,在另一种条件下为假。命题逻辑:研究命题及命题之间关系的符号逻辑系统。命题逻辑表示法:无法把它所描述的事物的结构及逻辑特征反映出来,也不能把不同事物间的共同特征表述出来。谓词逻辑:允许表达无法用命题逻辑表达的命题。谓词的一般形式:P(x1,x2,…,xn)个体x1,x2,…,xn:某个独立存在的事物或者某个抽象的概念;个体可以是常量、变量、函数、谓词。谓词名P:刻画个体的性质、状态或个体间的关系。
1.连接词(连词)(1)﹁:“否定”(negation)或“非”。(2)∨:“析取”(disjunction)——或。(3)∧:“合取”(conjunction)——与。(4)→:“蕴含”(implication)或“条件”(condition)。(5)↔:“等价”(equivalence)或“双条件”(bicondition)。P↔Q:“P当且仅当Q”。
2.量词(1)全称量词(universalquantifier)(x):“对个体域中的所有(或任一个)个体x”。(2)存在量词(existentialquantifier)(x):“在个体域中存在个体x”。全称量词和存在量词出现的次序将影响命题的意思。
3.谓词公式4.量词的辖域量词的辖域:位于量词后面的单个谓词或者用括弧括起来的谓词公式。约束变元与自由变元:辖域内与量词中同名的变元称为约束变元,不同名的变元称为自由变元。
谓词公式的性质1.谓词公式的解释2.谓词公式的永真性、可满足性、不可满足性如果谓词公式P对个体域D上的任何一个解释都取得真值T,则称P在D上是永真的;如果P在每个非空个体域上均永真,则称P永真。如果谓词公式P对个体域D上的任何一个解释都取得真值F,则称P在D上是永假的;如果P在每个非空个体域上均永假,则称P永假。对于谓词公式P,如果至少存在一个解释使得P在此解释下的真值为T,则称P是可满足的,否则,则称P是不可满足的。3.谓词公式的等价性4.谓词公式的永真蕴含
一阶谓词逻辑表示法的特点2.产生式表示法产生式通常用于表示事实、规则以及它们的不确定性度量,适合于表示事实性知识和规则性知识。基本形式:IFPTHENQ或者:P→QP是产生式的前提或条件,用于指出该产生式是否可用的条件。Q是一组结论或动作,用于指出该产生式的前提条件P被满足时,应该得出的结论或应该执行的操作。P和Q都可以是一个或一组数学表达式或自然语言。产生式与谓词逻辑中的蕴含式的区别:蕴含式是产生式的特例。1.除逻辑蕴含外,产生式还包括各种操作、规则、变换、算子、函数等。例如,“如果炉温超过上限,则立即关闭风门”是一个产生式,但不是蕴含式。2.蕴含式只能表示精确知识,而产生式不仅可以表示精确的知识,还可以表示不精确知识。蕴含式的匹配总要求是精确的。产生式匹配可以是精确的,也可以是不精确的,只要按某种算法求出的相似度落在预先指定的范围内就认为是可匹配的。
产生式的形式描述及语义——巴科斯范式BNF符号“::=”表示“定义为”;符号“|”表示“或者是”;符号“[]”表示“可缺省”。
产生式系统1.规则库:用于描述相应领域内知识的产生式集合。(运行时是不改变的)2.综合数据库(事实库、上下文、黑板等):一个用于存放问题求解过程中各种当前信息的数据结构。(运行时是不断改变的)3.控制系统(推理机构):由一组程序组成,负责整个产生式系统的运行,实现对问题的求解。控制系统要做以下几项工作:(1)从规则库中选择与综合数据库中的已知事实进行匹配。(2)匹配成功的规则可能不止一条,进行冲突消解。(3)执行某一规则时,如果其右部是一个或多个结论,则把这些结论加入到综合数据库中:如果其右部是一个或多个操作,则执行这些操作。(4)对于不确定性知识,在执行每一条规则时还要按一定的算法计算结论的不确定性。(5)检查综合数据库中是否包含了最终结论,决定是否停止系统的运行。
产生式系统的例子——动物识别系统规则库:e.g.:r1:IF该动物有毛发THEN该动物是哺乳动物……综合数据库:存放已知初始事实。推理机构的工作过程:(1)从规则库中取出r1,检查其前提是否可与综合数据库中的已知事实匹配。匹配失败则r1不能被用于推理。然后取r2进行同样的工作。匹配成功则r2被执行。(2)分别用r3,r4,r5,r6综合数据库中的已知事实进行匹配,均不成功。r7匹配成功,执行r7。(3)r11匹配成功,并推出“该动物是长颈鹿”。
产生式表示法的特点产生式表示法的优点(1)自然性(2)模块性(3)有效性(4)清晰性产生式表示法的缺点(1)效率不高(2)不能表达结构性知识适合产生式表示的知识(1)领域知识间关系不密切,不存在结构关系。(2)经验性及不确定性的知识,且相关领域中对这些知识没有严格、统一的理论。(3)领域问题的求解过程可被表示为一系列相对独立的操作,且每个操作可被表示为一条或多条产生式规则。2.框架表示法框架表示法:一种结构化的知识表示方法。框架(frame):一种描述所论对象(一个事物、事件或概念)属性的数据结构。一个框架由若干个被称为“槽”(slot)的结构组成,每一个槽又可根据实际情况划分为若干个“侧面”(faced)。一个槽用于描述所论对象某一方面的属性。一个侧面用于描述相应属性的一个方面。槽和侧面所具有的属性值分别被称为槽值和侧面值。
ISA槽:对象间抽象概念上的类属关系,直观意义:是一个、是一种、是一只。一般用ISA槽指出的联系具有继承性。AKO槽:用于具体的指出对象间类属关系,直观意义:是一种。Instance槽:用于表示AKO槽的逆关系,用Instance槽指出的联系都具有继承性,即下层框架可继承上层框架中所描述的属性或值。Part-of槽:用于指出部分和全体的关系。
当把具体的信息填入槽或侧面后,就得到了相应框架的一个事例框架。e.g.用框架表示地震消息:
框架表示法的特点(1)结构性便于表达结构性知识,能够将知识的内部结构关系及知识间的联系表示出来。(2)继承性框架网络中,下层框架可以继承上层框架的槽值,也可以进行补充和修改。(3)自然性框架表示法与人在观察事物时的思维活动是一致的。
人工智能可能有自主意识了吗
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
编辑:李华山
2022年08月16日07:42:05