博舍

从机器认识的不透明性看人工智能的本质及其限度 人工智能的应用及其限度

从机器认识的不透明性看人工智能的本质及其限度

wechat公众号文章

区分强人工智能与弱人工智能:“理解”:

理解是一种与认识相区别的认知方式。从内在的心灵向度和外在的实践向度:从专门的语言分析角度转向实践知识论的视域(语言、心灵和行动三个维度综合起来探讨心灵、语言、实在和行动的关系问题)。海德格尔、伽达默尔等提出的解释学观点:理解是有关人类的各种经验的意义的诠释活动,是理解者与被理解者的“心灵”的交流与汇通,是认识主体筹划自己可能的存在方式即人生何所向的实践路径。

本文提到的理解概念,是与认识不透明性密切联系在一起并在相对狭义的意义上使用,它的基本含义是:

认识的透明性:一个认识的主体(包括人或机器即AI,下同)对认识的对象即客体(包括人或机器即AI,下同)在某一时刻t时各种状态的了解;因果机制:一个认识的主体对客体在历时过程中各个环节具体机制的把握即对因果机制的认识;借助于“主体间性”的概念,在扩展认识主体内涵的前提下,将人对人的理解的讨论延伸到人与机器的双向理解以及机器与机器之间理解的论域,同时也带来了对AI本身的群体社会性、演化性等问题的探讨。1.认知的透明性与认识的不透明性

心灵本身的性质的主张:

认知是透明的:人的心灵与人的认识之间的“透明”关系(luminosity)——我们心灵的各种状态对于我们自身是透明的。知识的获得可以通过心灵的反思获得。认知是不透明的:(蒂摩西·威廉姆森)并非所有的思维都能够被我们完全觉知(e.g.直觉、顿悟或灵感;默会知识等)——“反透明性”(opacity)。知识是是存在限度的。而上面都是人类中心的前提下的,针对人类心灵的讨论——应该需要摆脱人类中心论,来讨论AI。

计算科学中的认识透明性(transparency)。(保罗·汉弗莱斯)“认识不透明性背后的含义是:主体不了解或无法知道与可证明特定计算步骤的有关内容”。

那么人类对于计算过程是认识不透明的(因为人类不可能审查全部的计算过程)。2.机器认识的不透明性:原则与技术实现2.1理论原则上的不透明性

(1)自然科学的问题:

科学表征:通过数学逻辑语言,量化的表征世界。但是世界不是离散的,二进制的数据必然引向认识的不透明。理论模型和实在的关系问题(~“同构”的假设——人们是通过结构的等价性即同构关系来认识事物的)模型是对现实的抽象的表达,概念和算法都属于模型。但是抽象会导致简化或理想化——对现象世界的“部分描述”。

(2)因果机制问题——统计相关性与因果机制。(因果和统计相关性真的有区分吗?)

AI本质上都属于“统计相关性”,而不是事物之间前后相继和彼此具有决定与被决定意义的因果性。因果关系还应该从因果效应和因果机制两方面来理解,即使A和B之间的因果效应在经验上是可以确证的,但期间可插入的具体环节如果机制不清楚,也不能说理解了整个事件的来龙去脉。(因果效应和因果机制真的有区分吗?)如果机器无法在相关性与因果性之间做出有效区别,如果机器无法把握因果的具体机制,那么机器在“理解”世界方面就始终无法实现质的飞跃。

(3)“自由意志”等不确定的品质。(既然不确定,也就难以作为论据)

过理性主义的路径达到非理性的彼岸,这似乎是一个悖论。人类的认知基础偏向于康德所说的“先验综合判断”。而机器是“白板”。(机器也不是白板,算法的结构也赋予它与人类不同的先天的能力)2.2技术实现上的认识不透明性

计算科学对于人类主体而言,认识的不透明性或为其基本特征之一(即对人而言它是不透明的):

算法“黑盒”。(或者说与人类在认知的鸿沟,只能说它是以人类不能理解的逻辑在运转。)机器本身无法成为一个完备的被认识状态。(人类和AI都不能成为“上帝”。)要先认识才能实现吗?“解释鸿沟”(theexplanatorygap)。(人类历史上有技术实践先于科学分析的实例。)3.主体间性概念

关键是要建构以机器为主体的非人类中心认识论,这在某种程度上可以消解人与机器的对立,承认机器在认识论中应有的价值。

主体间性概念(“子非鱼”的论辩):不同主体之间的群体性问题,尤其涉及主体与主体之间的统一性问题或“共在”问题。

人与人、人与机器、机器与机器之间(“群体智能”)的理解问题。

人工智能与人类的未来是敌是友

杨吉

美国前国务卿亨利·基辛格、谷歌公司前首席执行官埃里克·施密特,还有来自麻省理工学院的计算机科学家丹尼尔·胡滕洛赫尔,每个人都在各自的领域成就斐然、影响广泛。虽然平日里未必有工作交集,但围绕人工智能这个话题,他们不仅聚在了一起,而且还合写了《人工智能时代与人类未来》一书。

按照书中的前言交代,“5年前,人工智能这一主题出现在一个会议的议程上。本书的三位作者中,有一位差点缺席了这个会议,因为他以为这只是一场超出他通常关注范围的技术讨论。而另一位作者当时则力劝他三思,并解释说人工智能将很快影响到人类所涉足的几乎每一个领域”。正是那次会面,引出了本书的第三位作者欣然加入,并最终促成了这部作品的诞生。对于这段创作中的插曲,我们固然不清楚究竟分别对应的是谁,但可以肯定的是,他们对于人工智能所引发的人类历史进程的变迁及其当前已然表现出的对人们思维范式、感知方式和工作模式的改变是巨大而逼真的。诚如这本书试图展示的,既不褒扬,也非贬损,而是尽力以科学、审慎的态度去看待它,尤其要用适当的价值观来塑造它,这是他们三人合作的初衷。正如书中说道,“不论你怎样看待人工智能,它都已变得无所不在”。

和一般科普类读物不同,这本书并不满足于对人工智能在技术层面的普及,也不是浅尝辄止地谈论它带给人们工作、生活、学习的挑战与冲击,它选择从更高的站位、更广的视野、更宏大的话语来重新审视。在这本引人入胜又启迪思考的作品中,作者带领着我们去探寻人工智能之于世界秩序与政治安全、平台崛起与政府治理、个体身份与人类未来的重塑及其意义。这些都是关乎今后社会发展的至关重要的问题,也决定着人类命运的走向。所以,该书像极了一篇较长的序言,点出了我们处于人机协同、机器高度智能化的时代中不得不面临的重大课题;也好似一种有力的宣言,清晰地指引着人们当前亟待从哪个角度反思自身的主体价值。尤其对于后者,这在一个侧面解释了为什么三位作者会在第二章用一整个章节的篇幅来回顾自柏拉图以来至维特根斯坦的哲学思想,其实这里隐含了一个严正的警告:按照作者们的说法,人工智能将挑战自启蒙运动以来就存在的人类理性的首要地位。

机器真的会思考吗?它们是否具备人一样的智慧?以及随着机器深度学习的展开,人工智能会否有一天拥有跟人类一样的同理心、理解力、好奇心?对此,这本书没有给出直接的答案,或者换句话说,三位作者抱持着一种开放的、一切皆有可能的心态去看待人工智能的升级迭代。相较而言,他们更着眼于当下,一种逼近的现实。如果用一个命题陈述句来说,那就是——面对当前的人工智能应用,如果涉及到国际关系安危和国内政治稳定,那么我们该做些什么、如何去做?

明显得益于基辛格博士的参与写作,他把自己擅长全球政经观察、战略格局考虑的能力充分地融入到本书中,尽管他彼时已达98岁的高龄。从《大外交》到《重建的世界》到《世界秩序》,我们大可以在《人工智能时代与人类未来》一书中读到类似的文字、相近的论述。即使没有直接证据表明基辛格究竟参与了该书的哪几章或其中的某些段落,但读者完全有理由相信,其中第五章即“安全与世界秩序”必定主要出自其本人之手。就在这一章,作者们提出一个很独特却又很严肃的假设:“如果一个国家面对的对手已经训练人工智能来驾驶飞机、独立做出瞄准的决策并开火,那么采用这种技术将在战术、战略或诉诸升级战争规模(甚至是核战)的意愿方面产生什么变化?”

顺着句式表达,文中流露出深切的忧虑。“从历史上看,那些积极备战的国家对其对手的理论、战术和战略心理,即便不是了如指掌,也大致了解……然而,当军队使用人工智能来制订计划或锁定目标,甚至在常规巡逻或冲突期间提供动态协助时,这些人们原本熟悉的概念和互动可能会变得陌生,因为这涉及到与一种新型的智能打交道并设法了解它,而该智能的运作方式和战术不得而知。”这无疑让那些军事统领或最高决策者陷入尴尬不安的境地。一方面,他们需要借助智能工具辅助分析、判断;另一方面,也要谨防技术越俎代庖替代人下决断。按照书本的观点,“数字程序现在控制着一个由众多实体系统构成的庞大且仍在不断增长的领域……这催生出一个极其复杂、广泛和脆弱的系统”,同时,就道德哲学维度,“如果战略的各个层面开始在人工智能可及而人类理性不可及的概念和分析领域运作,那么它们的过程、范围和最终意义将变得不再透明”。没有人会质疑甚至反对数字化带来的精准、效率,但关乎国与国之间的冲突战争,世界和平与安全的大是大非上,这几项指标却不是核心的。总而言之,当领导者不可逆地会借助人工智能来帮助其下结论,那么尽早提炼出一套军事用途内的人工智能使用限度与规范则势在必行。

这本书并没有完全讲明我们该如何应对未来的战争,但它着实指明了我们正在为自己制造的新难题。不仅仅是在全世界范围的政治、军事、科技领域,而且在个人的衣食住行、社会交往协作、资讯获取学习交流上,人工智能都已开始普遍地进入、深刻地改变。基辛格等人敏锐地注意到,随着此种进度推进、程度加深,人们会自觉或不自觉地依赖人工智能进而实现一系列的服务功能,它相关的产业机会、潜在市场自然不可限量。但矛盾的地方又在于,人们自以为能掌控全局,占据主动地使用数字工具,但现实恰恰相反,很多时候他们处于被动地位,他们看到的、听到的乃至想到的,往往是数据算法基于个人的消费偏好、浏览历史、行为习惯所反馈的结果。换言之,人工智能正在统领着人们,其中就包括泛滥不绝的假新闻和造成人们认知局限的“过滤泡”。

有鉴于人工智能在民用场景、商用领域的普遍性,倘若要在势头上、总体上去限制人工智能的推广或其学习能力的提升,这显然是不可能的,也是对潮流的反动。三位作者理性地提出:“在文明层面,放弃人工智能是不可行的。领导者们将不得不直面这项技术的影响,他们对这项技术的应用负有重大责任。”但与此同时,他们也一再警告世人,人工智能已加速减损着一些可贵的东西——我们的判断与自省能力等。“结果,个人在审查、检验和理解信息方面的作用被削弱了,取而代之的是人工智能的作用扩大了。”

的确,三位作者思路敏捷、充满真知灼见。他们指出了人工智能在长远上的隐患与威胁。值得注意的是,相同的论调在书中多次出现,略显重复。于是,读者更希望他们能进一步为人类命运共同体的未来去筹划,去建构一套引导人工智能有序发展的解决方案。相信没人会反对他们所谓的“不应将人工智能视为自动运作、无须照管的存在,也不应允许其在无人监督、监视或直接控制的情况下才去不可撤销的行动”这一前提,但具体到行动纲领和实施对策是什么,这本书却未能交出一份答案。

作者不断提到,要形成人工智能的伦理规则,并且在书的最后也提议,应成立一个由政府、企业和学术界的最高层人士组成的国家级委员会。它将具有双重功能:其一,确保国家在人工智能领域保持知识和战略上的竞争力;其二,提高全球对这项技术的文化内涵的认识。由此可见,他们发出了一种呼吁,一种宣告——要在战略和观念上认真对待人工智能;而他们的这本合著也更像是为国家政府层级的高阶人士而撰写的,如同书本的最后收尾:“现在,是时候定义我们与人工智能的伙伴关系,以及由此产生的现实了。”其实,把它与前一句话顺序互换,逻辑就更通了。上一句写道:“不仅各国内部应有此承诺,国与国之间也同样如此。”

(本文作者系法学博士,浙江传媒学院副教授、硕士生导师)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇