博舍

《新一代人工智能伦理规范》发布 人工智能的意识问题

《新一代人工智能伦理规范》发布

9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。

《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。《伦理规范》全文如下:

新一代人工智能伦理规范为深入贯彻《新一代人工智能发展规划》,细化落实《新一代人工智能治理原则》,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展,制定本规范。

第一章 总则

第一条 本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。

第二条 本规范适用于从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等。(一)管理活动主要指人工智能相关的战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。(二)研发活动主要指人工智能相关的科学研究、技术开发、产品研制等。(三)供应活动主要指人工智能产品与服务相关的生产、运营、销售等。(四)使用活动主要指人工智能产品与服务相关的采购、消费、操作等。

第三条 人工智能各类活动应遵循以下基本伦理规范。(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。(二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。(三)保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。(四)确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。(五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。(六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。

第四条 人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范。

第二章 管理规范

第五条 推动敏捷治理。尊重人工智能发展规律,充分认识人工智能的潜力与局限,持续优化治理机制和方式,在战略决策、制度建设、资源配置过程中,不脱离实际、不急功近利,有序推动人工智能健康和可持续发展。

第六条 积极实践示范。遵守人工智能相关法规、政策和标准,主动将人工智能伦理道德融入管理全过程,率先成为人工智能伦理治理的实践者和推动者,及时总结推广人工智能治理经验,积极回应社会对人工智能的伦理关切。

第七条 正确行权用权。明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序。充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。

第八条 加强风险防范。增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。

第九条 促进包容开放。充分重视人工智能各利益相关主体的权益与诉求,鼓励应用多样化的人工智能技术解决经济社会发展实际问题,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的人工智能治理框架和标准规范。

第三章 研发规范

第十条 强化自律意识。加强人工智能研发相关活动的自我约束,主动将人工智能伦理道德融入技术研发各环节,自觉开展自我审查,加强自我管理,不从事违背伦理道德的人工智能研发。

第十一条 提升数据质量。在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。

第十二条 增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。

第十三条 避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

第四章 供应规范

第十四条 尊重市场规则。严格遵守市场准入、竞争、交易等活动的各种规章制度,积极维护市场秩序,营造有利于人工智能发展的市场环境,不得以数据垄断、平台垄断等破坏市场有序竞争,禁止以任何手段侵犯其他主体的知识产权。

第十五条 加强质量管控。强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。

第十六条 保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。

第十七条 强化应急保障。研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。

第五章 使用规范

第十八条 提倡善意使用。加强人工智能产品与服务使用前的论证和评估,充分了解人工智能产品与服务带来的益处,充分考虑各利益相关主体的合法权益,更好促进经济繁荣、社会进步和可持续发展。

第十九条 避免误用滥用。充分了解人工智能产品与服务的适用范围和负面影响,切实尊重相关主体不使用人工智能产品或服务的权利,避免不当使用和滥用人工智能产品与服务,避免非故意造成对他人合法权益的损害。

第二十条 禁止违规恶用。禁止使用不符合法律法规、伦理道德和标准规范的人工智能产品与服务,禁止使用人工智能产品与服务从事不法活动,严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益等。

第二十一条 及时主动反馈。积极参与人工智能伦理治理实践,对使用人工智能产品与服务过程中发现的技术安全漏洞、政策法规真空、监管滞后等问题,应及时向相关主体反馈,并协助解决。

第二十二条 提高使用能力。积极学习人工智能相关知识,主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用。

第六章 组织实施

第二十三条 本规范由国家新一代人工智能治理专业委员会发布,并负责解释和指导实施。

第二十四条 各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。

第二十五条 本规范自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。

 

国家新一代人工智能治理专业委员会

2021年9月25日

“意识、脑与人工智能”十大前沿科学问题

    2018年9月,浙江大学发布“双脑计划”,布局脑科学与人工智能的会聚研究,聚集全校生命科学、信息科学、物质科学和哲学社会科学众多领域的专家学者,开启探索脑认知、意识及智能的本质和规律。2019年4月,浙江大学召开“意识、脑与人工智能”圆桌论坛,吴朝晖院士、段树民院士与倪梁康教授(文科资深教授)分别围绕“意识”问题,从计算机科学、脑科学、哲学角度作主旨报告,提出了一系列具有挑战性的跨学科问题。在此基础上,浙江大学“双脑计划”相关团队组织哲学、计算机科学、神经与脑科学、心理学、社会学等领域专家,聚焦意识与脑、意识与人工智能方面的重大问题,经过反复讨论、不断碰撞、深入凝练,最终提出了十大具有前沿性、挑战性的科学问题,旨在引领国内外学术界的思考,推动意识、脑与人工智能交叉领域的研究。这十大问题是:

一、意识的生物学基础是什么?

    意识曾仅是哲学家的研究领域,但随着神经科学发展,科学家逐渐参与到意识本质的研究中。目前大部分观点认为,意识产生的物质基础是神经元,其生物学基础是脑中多个神经网络间的相互作用;也有研究认为意识的产生由相对独立的脑结构(称为意识开关)来主导。意识的生物学基础是什么,及其衍生出来的一系列问题有待进一步探究。例如,意识产生的物质基础是否唯一,能否在神经元以外的物质载体上制造出意识等。

二、“人工意识”是否可能?

    从人工智能向人工意识的发展,必须考虑将人工情感和人工意欲的因素纳入人工意识和人工心灵系统的可能性。可尝试通过对神经回路的复杂性的把控来解决所有类型的意识涌现(表象、情感、意志)的复杂性,并在神经系统中找到作为意识之自身觉知(qualia)的对应项。

三、机器如何理解人类的情感表达?

    在人机共生社会,需要解决机器人与人类的自然交互问题,以使得机器人可以真正融入人们的生活,产生共情、共鸣和自然的社会行为。其中一个重要的挑战是机器如何理解人类的情感表达。

四、强人工智能的心理机制是什么?

    弱人工智能在解决特定领域问题中,展现出了强大到可以比肩甚至超越人类的能力,但也暴露出通用性弱、学习效率低等一系列问题。解决这些问题需要回归强人工智能的“初心”,即研究人类智能的心理机制是什么,探索人类为何能利用有限的算力实现通用智能、如何在小数据条件下完成高效学习等问题。

五、意识的信息机制是什么?

    意识是指一个人体验自身存在的能力,而不仅仅是记录或者像机器人那样对刺激做出反应。研究意识的信息处理机制,需要重点关注信息处理的主观性(subjective)、结构性(structured)、特有性(specific )、统一性(unified)和确定性(definitive)等问题。

六、脑机融合能否实现超级智能?

    脑机融合是基于脑机接口技术,实现脑与机的双向交互、相互适应及协同工作,最终达到生物智能和机器智能的融合,其目标是实现更强大的智能形态。鉴于机器智能与人类智能的互补性,如何实现生物智能和机器智能的互联互通,融合各自所长,创造出性能更强的智能形态是核心问题。

七、情绪情感的脑机制是什么?

    情绪是个体对一定程度的复杂情况做出反应的特定状态。情绪情感的产生涉及感觉、知觉、动机、奖赏、评估、感觉-行为转换等多种脑功能,并参与修饰和调控记忆及相关认知过程。人类智慧的形成和复杂社会体系的建立,均与情绪情感程序的进化和固化有关。情绪情感相关精神疾病也在持续和广泛地困扰人类社会。因此,研究情绪情感的脑机制是脑科学研究领域最令人兴奋的方向之一,其研究成果也将为相关精神疾病的诊断和治疗提供新的策略和手段。

八、学习的生物学基础是什么?

    动物需要适应环境变化,而学习就是神经系统把环境信息转变成经验的编码过程,与学习密切相关的记忆则是神经系统对这些经验的存储和提取的过程。研究学习记忆的神经生物学机制是神经科学领域至关重要的研究方向,也是阐明认知功能障碍的关键。

九、潜意识的脑科学机制是什么?

    潜意识指“已然发生但并未达到意识水平的心理活动过程或内容”,被认为是最复杂的心理现象,可能成为阐明人类意识大脑机制的突破口。随着认知神经科学和脑科学等交叉学科研究的发展,以及脑图谱技术、基因技术的进步,对潜意识的脑科学机制研究可能会有更大的突破。

十、人类决策的脑处理机制是什么?

    决策脑机制的研究日益受到重视,但决策偏好的神经机理还远未被揭开。系统探究决策脑机制,不仅有助于揭示决策者价值权衡过程的神经基础,还能为基于神经信号预测人的决策倾向,以及诊治决策异常相关脑疾病提供科学研究依据。

沈江平 ▏人工智能:一种意识形态视角

对科学技术和意识形态之间的密切关系,整个法兰克福学派都给予了相当大的关注。法兰克福学派的早期代表人物霍克海默就曾断言:“不仅形而上学,而且还有它所批评的科学,皆为意识形态的东西;后者之所以也复如是,是因为它保留着一种阻碍它发现社会危机真正原因的形式。”在他看来,科学在某些方面阻碍和遮蔽大众去思考和认识社会危机的真正动因,展现给大众的面相始终就是意识形态。马尔库塞则认为,戴着超阶级、非政治化面具的技术理性在晚期资本主义社会操控着社会各个领域,在“虚假需求”的假象中,人收获了“额外压抑”,“这种意识形态属于已确立的社会结构;它是该机构继续运转的必要条件,是其合理性的组成部分”,人们成为其奴役和统治的对象。尤尔根·哈贝马斯在为纪念马尔库塞诞辰七十周年而著述的《作为“意识形态”的技术与科学》中就科学与意识形态关系问题进行了专门阐述,认为科学技术在晚期资本主义社会业已成为一种意识形态。从时间上看,科学技术是意识形态的命题由马尔库塞首提,在哈贝马斯那里得以更明确、更系统地向大众解读科学技术在什么层面具备意识形态属性这个新课题。据此拷问,科学技术在晚期资本主义社会究竟因何被称作是一种意识形态呢?

首先,科技进步的异化导致非政治化。一般说来,科技异化引发人们在包括政治的诸多领域的“非政治化”,但实际上是科技进步的异化促使这种异化现象的产生。“非政治化”是资本主义社会殖民化在当代社会中的新面相。“非政治化”本质上也是一种“殖民化”境况,但“合理化”“合法化”面纱却成为其出场的秘密武器。这是因为,科技进步在某种程度上带动了社会发展繁荣,迎合了大众的口味和兴趣,产生了广泛的认同,但正是这种合理和合法的地位与功效隐蔽地履行资本主义国家的政治职能和意志,这种被遮蔽了的“殖民化”充当和表征着科技进步的“非政治化”。这样看来,所谓资本主义“民主社会”,恰恰是对当代西方社会的“群众的非政治化”和“政治的科学化”的美化表述,本质上就是“非政治化”社会。然而,“合法”和“合理”这些话语却被资产阶级及其代理人用来形容这种“民主社会”,引诱、麻痹大众支持和忠诚于现存的资产阶级政治统治,最大限度消解妨碍资本主义制度延续的任何阻力,为资本主义社会经济发展保驾护航。

透析当代资本主义的发展面相,既要看到科技异化带给大众的“殖民化”和“异化”,更要揭露“科技进步的异化”与“非政治化”之间的密切关联。人类历史表明,科技的发展进步不仅改变了自然和社会,而且改变着人自身,人类的主体性元素以前所未有的速度得以呈现并凸显。与此同时,科技至上的乐观主义也随之衍生。“科技为我们的身心带来愉悦,但是迷上它,却像灵魂被榨干,使人更想追寻人生的意义”,生活的价值和人生的意义乃至人类的生存问题摆在了大众面前。资本主义社会用种种梦幻般的话语麻醉生活于其中的民众,诱使大众相信这是最好的生活状态、最好的民主政治、最好的社会存在,人的生存处于最完美的“非政治化”状态。这个问题已经触动到了人之为人的根本性问题,显然,单纯用“科技异化”已经无法来解读这些问题。在依托科技进步而设置的“政治陷阱”中,晚期资本主义社会“统治的合理性以维护这样一个[社会]系统为标准,这个系统允许把同科技进步联系在一起的生产力的提高作为它的合法性基础”,使得“伴随着科技进步而出现的生产力的制度化的增长,破坏了一切历史的比例关系”,导致“社会的不断‘合理化’是同科技进步的制度化联系在一起的”。今天,无论是剩余价值的获取和扩大还是资本主义政治统治合法化基础的建构,都离不开科技进步这个动力机制。由是观之,科技进步衍生的“非政治化”面相遮蔽了其隐性的社会政治功能,带来的是一种极其隐蔽的殖民化社会生活。

其次,厘清科技进步和隐性意识形态二者的内在逻辑。资本主义社会的演进不断强化着大众对科学技术即意识形态这个命题的认同。那么,科技进步与资产阶级意识形态之间又是如何耦合的呢?有别于以往的意识形态作用模式,科技进步借助“民众的非政治化”模式和“大众媒介”,在一种“人道的”“合理化”的甚至“道德的”“文明的”角色和面相演绎中,“合法的”充当“公众社会系统”的管理人、代言人。旧的意识形态控制模式在科技进步中逐渐退化,由于“第一位的生产力——国家掌管着的科技进步本身——已经成了[统治的]合法性的基础。[而统治的]这种新的合法性形式,显然已经丧失了意识形态的旧形态”。旧貌换新颜,由于科技进步直接改善了资产阶级剥削和压迫的阶级对抗前提,通过对个体需求某种层面的补偿来凸显个体存在感,在一定程度上缓和资产阶级和无产阶级的矛盾与冲突,以往大规模的社会危机爆发次数和危害程度得到一定的缓解和抑制。在这样一种“和平”氛围中,将意识形态的辩护标准与大众的生活系统区分开来,塑造出新的非政治化的变化标准,遮蔽社会价值评判中的政治元素,磨蚀、麻痹大众的反抗意志从而诱导大众对资本主义统治无意识的支持和认同。资本主义社会在科技进步的狂欢中,让大众认为个体能够通过创造科技进步成就来证明个体存在的权利、享有相应的物质和休闲时间,据此把大众对科技进步的支持和忠诚有效地转变成对政治制度的隐形忠诚和支持。

进一步分析发现,由科技进步确立的非政治化的“技术统治”意识成为整个社会集体进行“自我理解”的客观力量,导致大众在目的理性实践领域以及在具有适应能力的行为领域中的个体自我具体化或自我对象化不断被强化,进而引发现实中“同由日常语言交往所决定的社会化和个体化的形式联系在一起的兴趣”能够“消失在扩大我们的技术支配力量的兴趣后面”,在一种社会认同的交往模式中较好地维护大众主体的共同诉求并削弱了政治制度直接管控的强度。与此同时,科技进步呈现在大众面前的是一种具有公信力的力量,生产力原有的作为解放属性的功能被遮蔽。在晚期资本主义社会,劳动和相互作用之间的协同关系取代生产力与生产关系之间的矛盾关系,成为社会的主要矛盾。就这样,在科技不断的进步中,资本主义社会的权利制度框架和目的理性活动的独立系统即大众个体之间原有由于技术引发的差别不断消解。社会大众能够在实践中通过科技进步获得实实在在的好处,而科技进步的“‘意识形态性’较少”,因而很难引起大众对其进行意识形态质疑。实际上,将外在结果作为目的的活动或目的性理性活动,工具性是其本质属性,客观尺度是其主要原则;而把主体作为目的的活动的相互作用,则秉持客观的原则。科技进步所引发的社会关系的变迁,外在的工具性掩盖人的主体目的性成为一种常态,主观的原则日渐被客观原则所取代,主体能动性、价值、诉求的多元化在这种常态中日益被抑制和消解。由此,科技进步无形中充当了维护现实统治合法性的工具,肩负起意识形态的职能,进而陷入“隐性意识形态”的黑洞。

最后,审视科学技术的意识形态面相。马克思认为,科学、技术事实上成为人格化资本的组成部分,工人成为科学技术的奴隶的悲惨命运“可以写出整整一部历史,说明1830年以来的许多发明,都只是作为资本对付工人暴动的武器而出现的”。随着科学技术在整个社会生活占据中心位置后,一种全新的、偶像化的“技治”意识形态就在人类现代生活诸多领域内部衍生、塑造,成为现代人顶礼膜拜的对象。科技的发展有赖于科技自身和人类社会发展的需要,同时也是与政治、经济、社会等媾和而成的意识形态作用的产物。在科学技术酝酿的意识形态思想的推动下,科技的理性力量在社会层面不断激发膨胀。“技术理性的概念,也许本身就是意识形态。不仅技术理性的应用,而且技术本身就是(对自然和人的)统治,就是方法的、科学的、策划好了的和正在策划着的统治。”科技系统的“动因机制”带来的趋利性诱使人们趋之若鹜,“技术统治论的命题作为隐形的意识形态甚至可以渗透到非政治化的广大居民的意识中,并且可以使合法的力量得到发展。”人们在这种趋利性状态中无意识地将科技作为一种合法性、合理性社会存在。当学者们断言科学技术是一种“意识形态”,直言科学技术在促进资本主义社会发展中使人陷入新的异化境况,具备“意识形态”的属性和功能,成了维护现实、为现实辩护的工具。

当然,在描绘科学技术所具备意识形态面相的同时也要看到,有别于既往的意识形态,科学技术这种新的意识形态形式抛弃了以往依赖于绝对的剥削和欺骗的意识形态呈现方式,取而代之的是一种易于让人接受的柔性间接控制方式。社会大众借助科学技术的发展进步能够获得自身需求的满足,从而对它形成依赖和认可。质言之,科学技术这种“新的意识形态同旧的意识形态的区别就在于:新的意识形态把辩护的标准与共同生活的组织加以分离……把辩护的标准非政治化,代之而来的是把辩护的标准同目的理性活动的子系统的功能紧紧地联系在一起。”所以,尽管意识形态的作用方式某种程度上呈现出较大变化,其维护现状、为现实辩护的意识形态面相却一以贯之。哈贝马斯就认为,在当代资本主义社会,“技术始终是一种历史和社会的设计;一个社会和这个社会的占统治地位的兴趣企图借助人和物而所要做的事情,都要用技术加以设计。”因此,一旦科学技术具备了意识形态面相,与传统的意识形态比较,它就具有更多的中立性和隐形性,披上充满幻象的迷人外壳。

马克思主义经典作家通常认为,科学技术是生产力的重要构成,与意识形态、上层建筑迥然不同,两者不能混淆。但这并不能说,科学技术与意识形态二者没有关系。阿尔都塞认为,马克思的意识形态概念要从阶级的实践意识的虚幻的理论呈现和广义的意识形态理解。前者着眼于实践意识的异化状态,与科学是相对立的;后者着眼于实践意识内容本身即“社会历史生活的一种基本的结构,不能设想……可以不需要社会生产组织以及与之相适应的意识形态形式”,与科学就是一个东西了。这种看法值得讨论。可以看到的是,意识形态有意无意地对科学技术的发展产生影响,而科学技术在一定条件下对意识形态也形成某种影响并为它所用。在特定社会形态中,科学技术会间接履行意识形态的某些职能,这种现象直到晚期资本主义社会乃至现在依然存在。法兰克福学派的相关研究和论述颇有见地,但也要看到,他们对科学技术的批判实质上是意识形态批判,在一定程度上揭露出了晚期资本主义社会的弊病。然而,他们主张科学技术即意识形态即“技术统治论”,与作为资本主义辩护士的“非意识形态化”殊路同归,二者都力图把科学技术披上意识形态的外衣,借此来反对马克思主义这种科学意识形态,本质上是一种“意识形态终结论”,试图宣布马克思主义意识形态“终结”或“过时”。用科学技术遮蔽生产关系这个更为根本的资本主义社会矛盾,这种论调本质上就已经落入意识形态的窠臼,试图掩盖普遍存在的社会冲突和日益恶化的阶级对立,走上为资本主义制度辩护的老路。

人工智能:“非政治化”的意识形态

在全球范围内,两种社会制度、以西方国家为主体的发达国家与发展中国家在经济、政治、文化以及意识形态领域的矛盾冲突并未淡化,表象互动掩盖不了根本利益上的冲突。尤其是第三次工业革命引发科学技术突飞猛进,使得意识形态问题更加复杂,其斗争形式更加隐蔽。作为科学技术的新进展,人工智能承载着人类对未知世界的渴望和美好生活的追求。科技在人类文明与生活中的角色越来越重要,作为科学技术发展产物的人工智能是否亦如哈贝马斯等人所言也具备意识形态的属性呢?人工智能,简单来说就是基于认知科学发展起来的人机环境系统交互关联的一种知识集成。当前,人工智能涉及学科领域众多,从生理、心理、物理、数理、地理等自然科学领域到哲学、伦理、法理、艺理等人文艺术社会科学领域,几乎所有学科都囊括在内。在人类未来将进入的智能社会中,必然以人工智能为技术倚仗,人类的生产方式、生活方式乃至休闲方式在智能时代都将发生重大变革,人类也将得以实现全面提升,马克思所倡导的自由全面发展也必将更进一步。以认知科学为理论支撑的人工智能,注定与人的意识、意识形态脱离不了关系。

人不是机器,机器不是人。当审视人工智能与意识形态的关系问题时,一个必须澄清的前提就是人工智能与人的关系。当前,人工智能在诸多领域已经取得可喜成果,成为一门引发极大关注的新兴学科。大量争议也随之出现,主要表现在三个方面:一是认为人工智能可以模拟人的思维;二是认为人工智能可以模拟人的全部思维;三是人工智能可以替代人、超越人甚至控制人。这些争议直指人与机器二者关系,也就是人工智能的本质和界限是什么?早在十八世纪,法国唯物主义哲学家拉·梅特里在《人是机器》一书中,把人比作机器,一台最为复杂的自我助推的机器,力图用力学规律来说明人体内部器官运行机制,不可避免地落入了形而上学机械论的陷阱。伴随人工智能时代日益临近,机器替代人、超越人、控制人的言论实质上是颠倒了梅特里“人是机器”这一命题,断言“机器是人”,走向当代形而上学机械论。在信息与控制规律方面,人与人工智能(机器)具有相通性,但两者有质的区分。作为自然界长期进化的结果,社会劳动是人类的本质属性,与之相反,人工智能只能说是人类在社会劳动中建构出来的生产工具,是用无机物模拟生物和人为了满足人类生产需求而制造出来的产物。人类依靠人脑的机能和属性进行思维活动,是复杂的生理——心理过程,而人工智能则依靠控制机器中的机械和电子元件结构,是机械——物理过程。依其本质而言,人工智能模拟人的思维的信息过程,并且只是一种功能上的模拟,模拟是近似的,而不是等同、替代,更谈不上奴役人。人工智能得以产生并迅速发展,一个很重要的因素在于它可以克服人脑和身体的诸多生理局限,借助物化的智能延展人脑和身体的功能,使人从繁杂的脑力劳动和重体力劳动中解放出来,从而能够进行更有意义、更富创造性的劳动,比如计算速度快、运算精准、危险作业等。但也要看到,至少目前人工智能是无法取代人的思维的社会属性和主观能动性这两大基本属性。比如,从历经沧桑的老人和天真无邪的儿童说出同样一句话,但含义往往大不相同;还有就是外国人与中国人在遇到朋友时说“吃饭”这个话语时,所表达出来的意义往往大不相同。这充分体现出了人思维的社会属性,同时也表明人工智能无法模拟复制这种属性。不难发现,人的主观能动性也不是人工智能的自动性可以同日而语的,人工智能的自动性只是人的主观能动性的延伸罢了。只有人能提出科学预见,能总结规律,能合规律性合目的性地改造客观世界。总而言之,生产力无论如何发展,人自始至终是自然的主人,绝不可能成为机器的奴隶。

人工智能终归是科学技术发展演化的产物。在1956年的达特茅斯大会上“人工智能”概念正式诞生以来,人工智能已经跨越最初的科学实验阶段进入到商业应用阶段,以机器人科技为代表的智能产业蓬勃兴起引领当代科技创新。在技术哲学家芒福德看来,科学技术可以划分为“集权的单一技术”和“民主的综合技术”两大类,前者“基于科学之力和大量生产,以复杂的,高度权力化的机器为中心,目的在于经济扩张,物质丰盈和军事优势,简言之,就是为了权力”,后者“大体以生活发展为方向,而不是以工作或权力为中心的,是一种与生活的多种需要和愿望一致的技术,并以民主的方式为了实现人的多种多样的潜能而起作用”。人工智能以计算技术为技术标志,并融合移动互联技术、数字音像技术、生物工程技术、光电通讯信息技术、传感技术、大规模集成电路技术、离散数据库集成技术等诸多领域的前沿技术。显然,人工智能技术是一种复合型、集成型的技术深度融合,既有“集权的单一技术”的特性,又具有“民主的综合技术”的特征。技术系统无疑已成为人类社会现代化发展过程的有限领域之一,以信息技术为龙头的新科技革命激发了第四次工业革命,数字化、网络化、机器自组织成为这次工业革命的标志,它深刻地改变着人类生产和生活方式。改变第一自然,创造第二自然是人类活动的根本特点。恩格斯早就认识到动物利用自身工具进行的生产对自然界的作用来说归于零,“只有人才给自然界打上自己的印记,因为他们不仅变更了植物和动物的位置,而且也改变了他们所居住的地方的面貌、气候,他们甚至还改变了植物和动物本身”。借助物质、能量和信息来制造人类需要的机器,成为人类改造世界,进行第二自然活动的重要内容。从人类认识物质和能量,创造第二自然的历史进程来看,工作机和动力机相继出现,而真正的动力机则是从蒸汽机开创的工业革命开始。在生产和科学技术的推动下,延伸和扩展人的头脑功能的自动信息处理机出现了。自动机和人的功能越接近,自动化程度越高,第一自然的干预和改造能力就越强,创造第二自然的本领也就越强。所以,人工智能的诞生是基于以科技为动力的机器长期进化的必然产物,是人类改造第一自然、创造第二自然的实践结果。正如日本人工智能专家松尾丰所言:“真正意义上的人工智能,即‘能够像我们人类一样进行思考的计算机’的确尚未实现。探明人类智能原理,并将其用工程学的方法加以实现,这样的人工智能目前在世界上任何地方都不存在……人脑的智能深奥无比、遥不可及,直至今天仍未探明其原理,利用计算机对其进行模仿也未能实现。”所以,人工智能本质上是科学技术发展到一定阶段的产物,是人类在自然界中从体力解放到智力解放的道路演进。

技术的本质及其“内嵌式规则”决定了人工智能承载着意识形态的职能。放在科技发展进程中看,人工智能承袭科技进步所带来的“非政治化”的意识形态面相。21世纪也已成为以人工智能和大数据为显著标志的新工业革命时代,人类生存和生活的现实空间和未来图景不断被重塑。人类在享有人工智能赋予的动力和便利的同时,也在经济、就业、社会、理论、安全等诸多领域面临着巨大挑战。有学者指出:“以算法、机器学习等为核心技术的人工智能在新闻生产与传播领域的应用,对新闻舆论和意识形态工作产生了一定的影响。”在马克思眼里,“技术是关于人的本质力量”的外在呈现,当“技术成为物质生产的普遍形式时,它就制约着整个文化;它设计出一种历史总体——一个‘世界’。”在“中立性”表象的遮蔽下对社会展开“合法性”统治,这种异化方式拓展到大众生活的各个方面,使得大众在需求的虚假满足中将主体的不自由异化成了一种自由,人日益走向工具化。技术的合理性已经丧失了其原初的意义,成为桎梏人的工具,“不仅技术的应用,而且技术本身,就是(对自然和人的)统治——有计划的、科学的、可靠的、慎重的控制。”人本身已不再是目的,而是以工具的形态出现,“政治意图已经渗透进处于不断进步的技术中,技术的逻格斯被转变成依然存在的奴役状态的逻格斯。技术的解放力量——使事物工具化——转而成为解放的桎梏,即使人也工具化了。”作为机器进化产物的人工智能,在推动人类发展的同时,使“人的体力和智力不得不依附于越来越复杂的机器,从而使人失去了其应有的创造性,成为机械系统的奴隶”。人工智能同样使人在诸多领域产生了这种依赖性,并逐渐固化为一种意识形态,“相信事实的就是合理的,并且相信这个制度终会不负所望的信念,反映了一种新型的顺从主义,这种顺从主义是已经转化为社会行为的技术合理化的一个方面。”可以肯定的是,人工智能是技术的新发展,那么这种技术具备意识形态属性吗?技术决定论者克里斯托弗·梅指出:“很多阐释都认定某些技术‘内嵌特殊规则’……内嵌着像自由、共同体、平等、利他主义和民主等价值……无论这些是内嵌着什么样的内容,它都是这样一种理念:技术形式具有与生俱来的特性,而这些特性是人类无法干预的。”显然,人工智能是受人类主体理性建构和制约下的产物,这种特点决定人的主体价值甚至社会价值观念必定融入整个设计过程之中,这些价值观念会随设计过程的完成而发生作用。而价值观念固有的主体性与相应的意识形态语境密不可分,也就是说人工智能必然带有意识形态性。

历史总是惊人的相似,人工智能同样表征着人与人之间的关系。“我们的一切发现和进步,似乎结果是使物质力量具有理智生命,而人的生命则化为愚钝的物质力量。”马克思在此处深刻揭示了人类第一次工业革命,其洞察力依然是当前解读人工智能社会问题的标准。在欧洲大机器生产时代,人们几乎都断言人类将进入一个由机器统治人或机制商品支配人的机器时代。马克思并不认同,在他看来,“资本不是物,而是一定的、社会的、属于一定历史社会形态的生产关系,它体现在一个物上,并赋予这个物以特有的社会性质”,机器统治人只是社会的表象而已,捣毁机器直至所谓的“卢德主义”并不能从根本上改变工人的生存境况,因为“机器”以及“机器”统治人不能与“机器对人的统治”画上等号,其奥妙乃在于有人利用或操控机器来实现对人的新支配和新统治,本质上是人统治人,一些人统治另一些人。人工智能作为人类实践的工具,归根到底摆脱不了“模仿”的命运,本身无法具备“原始创新的能力”。质言之,人工智能绝非机器自身的智能,只是人的智能在机器上的体现而已,究其根源是人的能力、智力等综合能力的沿袭和拓展。我们不能从人与机器的关系视域来考察人工智能的社会意义,终归要从人与人的关系视角来审视。这种社会意义常常表现为掌控人工智能的一个、某些人或某个阶级对处于人工智能支配下的多数人或阶级的关系。当前,人工智能正在全面进入和重塑人类的生产和生活空间。最新一组数据显示,“美国真实的人均国内生产总值增长了36%,但普通基层职工实际小时工资却下降了14%。在80年代,所有的收入增额都被占职工总数20%的那一部分人所占有,而职工中最顶级的1%更是占去了收入增额的65%”,由此带来和加大新的裂痕和不平等,劳动者的收益不断减少,甚至劳动本身都成了问题走向“劳动消亡”。随着人工智能不断进入生产领域,人与机器在生产领域的矛盾日益凸显,人工智能的“物化”和“异化”就在所难免。

人工智能:积极的异化?

我们赞同一些西方学者将科学技术作为一种意识形态新范式,其理论旨趣在于揭露和批判科学技术在晚期资本主义社会也已成为资产阶级为现实统治辩护的实质。然而,在资本逻辑中,科学技术具备意识形态性并非抽象地将科技“意识形态化”,而是要看到使科学技术衍生意识形态属性背后的社会制度等因素。如果对科技异化导致的意识形态属性的批判走向对科技本身的否弃,无疑背离了批判初衷,本末倒置。即将马克思的资本主义批判“转换成工具理性批判;工具理性批判取代了政治经济学批判;而政治经济学批判又成了对技术文明的批判”。在批判者眼里,正是科学技术的不断进步使其自身披上意识形态的外衣,但这并不等同于要把科学技术当成洪水猛兽,弃之如敝履。相反,我们要祛除附着在科学技术身上的幻象。不可否认,科学技术事实上不单纯是所谓中立的工具的集合和独立的变量,它更多的是推动人类的发展进步。任何在简单化思维主导下,将科学技术归为纯粹的意识形态,想当然地认为科学技术只是承担着意识形态的职能的观点并进而否认科技带给人类的进步,无异于“倒洗澡水连同婴儿一起倒掉了”,我们都要拒斥和进行批判。这才是对待科技的应有态度。

“随着自然科学领域中每一个划时代发现,唯物主义也必然要改变自己的形式。”一切哲学都必须随着自然科学的发展而发展。马克思主义哲学迄今为止永葆生机的奥秘就在于既要用马克思主义哲学的基本原理去解析新的科技成果,又要契合科学技术的最新发展来丰富、完善和发展马克思主义哲学。从马克思生活时代的机器大生产到科技信息时代的到来,直到今天人工智能的出现,贯穿这一进程始终的是科学技术的发展。马克思认为,“大工业把巨大的自然力和自然科学并入生产过程,必然大大提高劳动生产率,这一点是一目了然的”。科学技术成为第一生产力,提升人们驾驭社会资源和自然资源的能力,进而最大限度地满足人们的物质文化需求。但马克思同时指出,在资本主义生产关系中,“科学、巨大的自然力、社会的群众性劳动都体现在机器体系中,并同机器体系一道构成‘主人’的权力。”正如米切姆和尼森鲍姆所言:“按照马克思(1867年),‘现代技术科学’把工人置于大规模的、资本家拥有的工厂控制之下,使劳动功能变得均等划一且可以相互交换,破坏了传统技能和匠人满足于生产工艺产品的基础……在资本主义条件下,物质生产只是不平等地有利于上层阶级。这种不均衡只有在新技术的所有权上来一次社会革命才能得到纠正。”也就是说,马克思认为科学技术不仅解放人和推动着社会发展,也是使人自身处于异化状态的一种作用力。资本主义生产关系决定技术走向异化,成为异己的力量。就目前而言,马克思所憧憬的人的“全面自由发展”当然得依赖于代表生产力发展趋势的人工智能带给大众的自由时间为条件,但更为重要和根本的是必须变革生产关系。

那么,在科技进步推动下产生的人工智能,又如何来审视呢?历史表明,科学技术的不断发展进步推动着人类社会不断向前发展。迄今为止,任何一次科学技术的变革并没有导致人类走向灭亡。因此,任何断言人工智能就是好的、善的,抑或就是坏的、恶的,都不是理性科学的行为。毕竟,人类是在科技发展中不断制造工具,并在工具的推动下不断前行。在人类思想对外界的探求活动中,任何认识论上的简单决定论都不值得肯定。以人工智能为例,我们不能轻言“人工智能是坏的,或者人工智能是好的”,须辩证审视。既要关注人工智能的技术维度本身,也要努力探究作为“社会事实”和“伦理事实”的人工智能。人类不能让舒适的假象迷惑主体性意识,人不能放弃自己而沦落成为某种决定论的服从者。成为决定论的服从者会导致被奴役,被技术所奴役;人在获得“表面上的自由”的同时,不能放弃“真正的自由”。马克思告诫我们,人与物的关系本质上是人与人之间的关系。人工智能不是物,而是人的物化。技术起源于机器,但是技术不等于机器;机器与人工智能仅仅代表技术的一部分,关注人本身应当始终成为科技发展的目标和动力。客观分析,所谓社会裂痕并不是人工智能所固有的本性,导致这种现象发生的恰恰是人工智能的资本化操控,是资本逻辑作用的表现而已。面对人工智能的到来,一个高度复杂、极为精细、不断改变的技术系统和结构开始进入到人类生活各个领域,任何时候,科技的进步都不带有“全面原则”,外力的推动不可或缺,资本逻辑则是外力的主导因素。因此,人工智能也不可避免地成为经济、技术领域强者的跑马场。被资本逻辑支配的全球化体系,生活于其中的绝大部分人毫无悬念地成为智能机器系统构造中几乎可以忽略不计的“零部件”,直至沦为“智能机器的奴隶”。在《技术的追问》中,海德格尔就强调指出,现代科学技术已非“中性的”客观事物,它作为“座架”控制和支配着现代人的全部生活,俨然已是现代人的历史命运的缩影。

人工智能带给人类的“险境”及其在人类本质维度体现出来的“异化”面相必须引起重视。在美国学者埃鲁尔看来,技术已成为现代社会的统摄性力量,某种意义上,技术控制着科学、经济及文化的走势,技术成为建构人类生存新环境的主导力量,“技术社会”由此诞生。以人工智能和大数据为标志的新工业革命不仅是一场技术与产业革命,更是一场社会、文化、价值与思维等领域的全景式整体性革命,对经济、社会、就业、伦理、安全诸领域都提出了新的挑战。马克思早有警示:“在我们这个时代,每一种事物好像都包含有自己的反面。我们看到,机器具有减少人类劳动和使劳动更有成效的神奇力量,然而却引起了饥饿和过度的疲劳。”人工智能在带给人类生产方式、生活方式以及思维方式重大变革的同时,也给当代社会带来了哲学和伦理挑战,其中技术失控和责任主体模糊问题尤为迫切。技术一旦失控,就会走向人类文明发展的对立面。新兴科技在改变人类生存方式的同时,也在改变人与自然和人与人之间的关系。随着人工智能等新兴科技的发展,人与物的关系问题会转变成人与“人造物”的关系问题。以往认为技术是中性的、处于人类可控范围的传统观念与人工智能“自主性”基质存在矛盾。人工智能的“自主”意味着人工智能相对于人类的“失控”。人工智能创造的完成往往意味着技术自身的终结,被创造者与创造者之间的对抗就贯穿于技术发展的进程中。如刚逝世的著名物理学家霍金曾警告人类,人工智能日益强大的威力使机器人能够复制自己,并提高智能的速度,从而导致机器人可以学习智能,导致转折点或“技术奇点”,人类很可能被人工智能所控制甚至被消灭。在其他领域,人工智能同样制造诸多“异化”现象。政治学家史蒂芬·E.弗兰泽奇就指出,处在人工智能时代的政治“未来的挑战在于,在寻求一些方法来保证政党的政策动议基于广泛的支持的同时,要维持住政党在技术上的优越性。”这表明,一个政党要在思想文化上取得主导权,就必须获得并维持技术上的优势地位。美国伊隆大学数据科学家奥尔布赖特发布的人工智能技术操纵美国大选的系列研究报告就显示,人工智能技术在有政治目的和倾向地塑造舆论、干预舆情方面发挥了关键作用,并在一定程度上影响了美国总统大选的结果。

著名社会心理学家马斯洛曾经指出:“科学是人类的创造,而不是自主的、非人类的东西;科学产生于人类的动机,它的目标也就是人类的目标。”人工智能是人生产出来的机器,它的目的是服务人类,在人的支配下活动,这是解读人工智能的基本前提。因此,人工智能的出现就是为推动人的解放,进一步向经典作家所憧憬的人的自由全面发展靠近。信息技术和人工智能不断改变和建构人类社会,这是一个技术的使用者与计算机相互磨合的生活世界。当前,人类生活的诸领域不断被人工智能所攻陷,如何把控人工智能朝着良好方向发展,建构一个好的人工智能社会(goodAIsociety)已经成为人类面临的共同问题。人工智能给予自然人物种的危害或智能人剥夺普通人劳动机会等反面因素正在向人类逼近,但是,作为科技进步成果的人工智能带给人类的肯定不仅仅是这些。人类发展的特殊性或社会发展的本质之一就在于其否定之否定的能力,正如尼采所说:“在何种意义上一种自由之牺牲、一种奴役化本身,为一个更高级类型的产生奠定了基础。以极其粗糙的形式来想:为了促成一种比现在的人更高的种类的此在,人们怎么能牺牲掉人类的发展呢?”信息化时代,国际竞争的前沿阵地日益呈现为人工智能领域的竞争,一个社会的智能化水平成为衡量一个国家、地区发展程度的重要尺度。生产方式越来越具有人性化特点,评价和选择中的人类理性地位日益凸显。在某些领域,人工智能系统充分展现出人类不可比拟的优势,拓展人的自由时间,促进人的自由、全面发展,发展前景不可估量。

与之前几次工业革命在西方发达国家主导下产生不同,人工智能革命不再是西方国家的专属物,许多发展中国家同样能占得一席之地。尤其是作为发展中国家的代表——中国大致与西方发达国家处在同一起跑线上,跟美国等超级大国的差距日益缩小。站在新的起点上,中国等发展中国家如何审视人工智能就成为一个基本前提性问题。是坚持法兰克福学派所提倡的科学技术即意识形态的论断即关注科学技术对人的控制和统治维度,还是秉持马克思有关技术批判的辩证观点,都应该看到资本逻辑在以往技术革命中起着至关重要的作用,乃至当下和未来,科技的发展可能依然被资本所定义。因此,怎样最大可能祛除资本逻辑的控制,破除资本对人工智能发展方向的设置,满足最广大民众利益,才是当前发展人工智能的初衷和目标。我们知道,马克思人的解放理论除了关乎生产关系、政治等基本视域,也内含技术合理发展的向度。人工智能技术理应朝着马克思所预设的人类历史发展与人的解放根源于技术发展和推动这一论断方向发展。而要保证这一预设成为现实,容纳生产关系的社会制度的变革就成为必然。作为优越于资本主义的社会主义解放和发展生产力,生产关系已发生根本性变革,为实现人的解放奠定了基础。最终经过发展,进入社会主义的高级阶段——共产主义社会,那时“机器的作用范围将和在资本主义社会完全不同”。因为共产主义是以扬弃包括资本主义私有制在内的一切所有制为己任,必然也意味着对技术异己力量的克服,“只有在共产主义关系下,工艺学上已经达到的真理方能在实践中实现”。

由是观之,马克思对生产力和科技的批判是基于资本主义生产关系及其社会制度的批判语境。这就启发我们不能忽视甚至放弃人工智能的发展,更不能放弃科技和生产力的发展,“要学会把机器和机器的资本主义应用区别开来”,因为资本主义社会的“矛盾和对抗不是从机器本身产生的,而是从机器的资本主义应用产生的!”显然,人工智能技术自身不负载价值,只有在资本主义社会中,它为资本所支配,才成为阶级剥削和压迫的工具。人工智能为人类提供了更多的自由时间,但人的“自由全面发展”除了自由时间,最重要的是生产关系的变革。如果只有生产力的发展,没有生产关系的配套发展,二者之间必然产生不可调和的矛盾而走向革命。这样看来,奠基于生产力的高度发展,生产力与生产关系之间的矛盾必然为马克思主义理论逻辑所消灭,这是不以人的意志为转移的客观趋势。

〔责任编辑:李欣〕

2019年第2期

我们严正声明:

我们严正声明:

”返回搜狐,查看更多

人工智能与国家政治安全

原标题:人工智能与国家政治安全

人工智能技术的蓬勃发展和广泛应用,给人类生产生活带来了极大便利,同时,也对国家主权、意识形态、执政环境、社会关系、治国理念等带来冲击,深度影响国家政治安全。充分认清人工智能对国家政治安全的挑战,研究应对之策,对于有效维护国家政治安全,意义重大。

人工智能影响政治安全的机理

作为一种颠覆性技术,人工智能进入政治领域后,既具有技术影响政治安全的一般规律,又体现出其不同于以往技术的鲜明特点。

从技术影响政治安全的一般机理来看,主要体现在三个方面。第一,技术进步不可避免地直接或间接服务于政治安全。政治安全是国家安全的根本,经济、社会、网络、军事等领域安全的维系,最终都需要以政治安全为前提条件。因此,包括技术在内的一切社会条件,首要的任务是为政治安全提供服务和保证。综观人类历史上的技术进步,往往被首先考虑用于维护国家安全特别是政治安全,尽管这些技术研发的初衷并非如此。人工智能亦然。第二,政治安全与技术进步相生相克、相生相长。马克思认为,先进技术进入政治领域后,有效提高了“社会控制和权力再生产”。同时,政治安全对技术进步的需求,反过来成为技术不断进步的推动力。但技术并非完美的政治工具。一旦技术利用不当、发生技术失控,或者技术自身缺陷所蕴含的风险爆发,政治安全可能被技术进步反噬。第三,技术进步倒逼政治发展转型,给政治安全带来新课题新挑战。从历史上看,技术进步对社会结构、社会关系、社会文化等带来的变化和冲击,从来不以人的意志为转移。当火枪火炮成为主战兵器时,继续用木盾藤牌来保卫政权的行为无疑是愚蠢的,迫切需要当政者转变思想观念,寻求能够有效维护政治安全的新模式新方法。当计算机网络技术逐渐普及时,西方国家政党纷纷利用互联网进行政治宣传和选举拉票。人工智能较之以往的技术,拥有前所未有的机器“主观能动性”优势,必将对政治安全理念、安全机制、安全路径等带来更大的改变。

从人工智能影响政治安全的独特机理来看,主要体现在两个方面。第一,算法和大数据将左右智能机器“认知”“判断”,继而影响政治行为体的抉择。人工智能的核心“三大件”是算法、算力和大数据。一方面,算法是否公正不偏袒、大数据是否真实完整未被删减篡改伪造污染,直接决定机器的研判结果,并影响人的判断和行为。另一方面,与传统的人口学变量的定量分析不同,大数据、云计算、机器学习等可以将数以亿计的政治行为体抽象成社会的“节点”,人工智能通过分析信息中节点的度数、介数和接近度,来揭示权力集聚规律、赢得政治威望的秘诀,这为执政安全提供了新的技术支撑和智慧渠道。第二,人工智能技术对经济、军事、社会、网络、信息等领域的影响向政治领域传导,间接冲击政治安全。作为一项赋能性技术,人工智能正在逐渐“改写”各领域的秩序规则,给各领域带来机遇和挑战。尽管以往的技术进步也是如此,但其影响的深度和广度远远不及人工智能。而且,以往各领域安全问题“错综复杂、交织并存”的程度,也远远不及人工智能时代高。其他领域的安全问题一旦发酵,极有可能冲击政治安全。

人工智能给政治安全带来新挑战

技术变革具有两面性,人工智能既是维护政治安全的新机遇,也是新挑战。

挑战之一:人工智能技术的普及应用,导致政治权力呈现出“去中心化”趋势。在人工智能时代,数据即代表着权力。掌握数据的主体既有国家权力机构,也有个人、企业团体、社会组织等非国家行为体。“互联网数据”结构的“多节点、无中心”设计,决定着处于线上社会任何位置的主体,均不可能比其他位置的主体位势高。人人都有“麦克风”“摄像机”,处处都是“舆论中心”“事发现场”,这一显著特征,弱化了传统的线下科层制国家管理结构和单向治理模式,政治话语权由政府这个传统的权力中心逐渐向社会层面弥散,国家治理难度大大增加,政治安全风险也大大增加。目前,这种风险已初露端倪。2019年9月,因有人线上传播“老师辱骂原住民学生是‘猴子’”的种族歧视谣言,印尼巴布亚省爆发严重骚乱,导致26人死亡、70余人受伤。

挑战之二:随着人工智能技术和数据垄断持续扩张,资本权力的扩张将危及国家权力边界。生产力的发展变化必将带来生产关系包括政治权力结构的调整。作为“第一生产力”的科学技术,其发展进步势必引起国家权力结构的调整。当人工智能技术广泛应用于经济社会各领域并引起变革时,将会推动国家治理结构与权力分配模式做出相应调整。从当前种种迹象来看,资本的权力依托技术和数据垄断持续扩张,将成为新时代国家治理结构调整的重大课题。一方面,人工智能技术研发门槛很高,依赖于大量的、长期的资本投入和技术积累,这导致社会各产业、各阶层、各人才群体间的技术研发能力、资源占有程度、社会影响力等方面极不平衡,以互联网商业巨头为代表的技术资本将占据明显优势。另一方面,人工智能技术强大的赋能作用,以及良好的经济社会应用前景,导致资本趋之若鹜。商业巨头实际上掌握了目前人工智能领域的大部分话语权,并正在逐步形成行业垄断。人工智能时代,巨头企业以强大资本为后盾,逐步垄断技术、控制数据,或将不可避免地在一定程度上逐渐分享传统意义上由国家所掌控的金融、信息等重要权力,进而可能插手政治事务。因此,国家是否有能力为资本权力的扩张设定合理的边界,是未来政治安全面临的重大挑战。

挑战之三:人工智能技术及其背后的数据和算法潜移默化引导公众舆论,进而影响人的政治判断和政治选择,间接把控政治走向。在人工智能时代,数据和算法就是新的权力。近年来围绕国家大选而展开的种种政治运作显示:拥有数据和技术能够从一定程度上影响政治议程。据有关媒体报道,2020年美国总统大选期间,有人利用网络社交平台的大量机器人账号,发布海量虚假信息,力图影响选民的认知、判断与选择。类似的情况,也曾出现在2016年的美国大选、2017年的英国大选和法国大选中。这些案例非常清晰地显示:只要拥有足够丰富的数据和准确的算法,技术企业就能够为竞争性选举施加针对性影响。当某种特定政治结果发生时,人们很难判断这是民众正常的利益诉求,还是被有目的地引导的结果。

挑战之四:人工智能技术可能被政治敌对势力用于实施渗透、颠覆、破坏、分裂活动。利用先进技术威胁他国政治安全,这样的例子屡见不鲜。计算机网络技术出现后,被西方国家用来进行网络窃密、网络攻击、网络勾联、传播政治谣言、意识形态渗透和进攻。人工智能时代,攻击一国人工智能系统或利用人工智能实施渗透、颠覆、破坏、分裂活动,带来的后果将比以往更为严重。

挑战之五:人工智能技术进步对主权国家参与国际竞争带来严峻挑战。人工智能是当前最尖端最前沿的技术之一,其核心技术多被美欧等发达国家所掌握。这些国家利用它提升生产自动化水平,提高劳动生产率,加快制造业回迁,将冲击发展中国家的传统比较优势,使后者在国际政治经济竞争格局和全球分工中处于更加不利的地位。通过发展军事智能化,进一步扩大对发展中国家的军事优势。国家之间一旦形成技术“代差”,综合实力差距将被进一步拉大。在这种情况下,技术强国对发展中国家实施政治讹诈和技术突袭的可能性增大。

多措并举,维护我国政治安全

政治安全事关我党生死存亡和国家长治久安,我们必须高度重视人工智能带来的政治安全挑战,多措并举,综合施策。

人工智能技术具有高度专业性和复杂性,企业、科研机构常常处于技术创新前沿,而国家政府则往往远离技术前沿,对技术的感知相对滞后,对技术的安全风险准备不足。为此,要强化风险意识,密切跟踪人工智能技术和应用的发展,运用系统思维,定期研判人工智能可能带来的政治风险,提高风险识别、防范和处置能力。要创新技术治理模式,构建政府主导,企业、研究机构、技术专家、公众等多方参与的人工智能治理体系。“治理”不同于“管理”,管理是政府单向的行为过程,治理则是一种开放的、多个利益攸关方参与的互动过程。通过多方互动,政府既可以跟踪掌握技术和应用的前沿动态、发展趋势,掌控治理主动权,又有助于企业、研究机构、专家、民众更好地了解政府关切,共商制定风险管控机制,推进治理工作的科学化民主化。

当前,我国在人工智能技术领域面临的最重大的安全威胁,是关键核心技术受制于人。从现在起到2030年,是我国抢抓机遇的关键期。要举全国之力,集全民之智,打造一批国家级人工智能研发平台,加强基础性、原创性、前瞻性技术研发,从智能芯片、基础算法、关键部件、高精度传感器等入手,加快核心技术突破。

没有规矩,不成方圆。针对技术应用风险,严格人工智能标准制定和行业监管,确保人工智能良性发展。紧跟技术发展变化,动态修订完善相关技术标准。加紧完善人工智能相关法律法规和伦理道德框架,对相关的民事与刑事责任确认、隐私和产权保护、机器伦理等问题予以明确,理顺设计者、使用者、监管者之间的权责关系。要建立健全人工智能监管体系,形成设计问责和应用监督并重的双层监管结构,实现对算法设计、产品开发、成果应用的全过程监管。积极促进行业自律,加大对数据滥用、算法陷阱、侵犯隐私、违背道德伦理、擅越权力边界等不良行为的惩戒力度。要积极主动参与人工智能国际议题设置,共同应对安全、伦理、法律等诸多挑战。抓住人工智能国际准则和配套法规刚刚起步之机,积极参与规则制定,及时宣示我国主张,努力掌握规则制定话语权和国际交往主动权。

针对外部安全风险,加强军事能力建设,为维护国家政治安全提供力量保证。要积极研究探索智能化战争理论,加快推进现代武器装备体系和人才队伍建设,强化智能化条件下部队训练演练,不断提升我军新时代军事斗争准备水平。

(作者:许春雷,系军事科学院博士研究生,现任河北省石家庄市鹿泉区人武部副部长)

(责编:杨虞波罗、初梓瑞)

分享让更多人看到

人工智能的四大哲学问题(转载)

20世纪西方科学哲学的发展,经历了向“语言研究”和“认知研究”的两大转向,认识论的研究在不断去形而上学化的同时,正在走向与科学研究协同发展的道路。作为当代人工智能科学的基础性研究,认知研究的目的是为了清楚地了解人脑意识活动的结构与过程,对人类意识的智、情、意三者的结合作出符合逻辑的说明,以使人工智能专家们便于对这些意识的过程进行形式的表达。人工智能要模拟人的意识,首先就必须研究意识的结构与活动。意识究竟是如何可能的呢?塞尔说道:“说明某物是如何可能的最好方式,就是去揭示它如何实际地存在。”[1]这就使认知科学获得了推进人工智能发展的关键性意义,这就是认知转向为什么会发生的最重要原因。

    由于哲学与认知心理学、认知的神经科学、脑科学、人工智能等学科之间的协同关系,无论计算机科学与技术如何发展,从物理符号系统、专家系统、知识工程,到生物计算机与量子计算机的发展,都离不开哲学对人类意识活动的整个过程及其各种因素的认识与理解。人工智能的发展一刻也离不开哲学对人类心灵的探讨。无论是强AI派抑或弱AI派,从认识论上看,人工智能依赖于物理符号系统模拟了人类思维的部分功能,但是,其真正对人类意识的模拟,不仅有赖于机器人本身技术上的革新,而且也有赖于哲学对意识活动的过程及其影响因素的了解。

    从今天来看,人工智能的哲学问题已不是人工智能的本质是什么,而是要解决一些较为具体的智能模拟方面的问题。这些问题包括:

1.关于意向性问题

    人脑的最大特点是具有意向性与主观性,并且人的心理活动能够引起物理活动,心身是相互作用的。大脑的活动通过生理过程引起身体的运动,心理状态是脑的特征。“确实存在着心理状态;其中一部分是有意识的;大部分是具有意向性的;全部心理状态都是具有主观性的;大部分心理状态在决定世界中的物理事件时起着因果作用。”[2]在这样的前提下,塞尔认为,计算机或人工智能是无法像人的大脑一样,既具有意向性又具有主观性的。他对一些强AI观点提出了批评,认为坚持这种观点的人,把人的思维与智能纯形式化了。而计算机程序的那种形式化、语法化的特征,对于那种把心理过程与程序过程视为同样过程的观点是致命的。因为人心不仅仅是形式的或语法的过程,人的思想所包含的决不只是一些形式化的符号。实际上,形式化的符号是不具有任何语义的。“计算机程序永不可能代替人心,其理由很简单:计算机程序只是语法的,而心不仅仅是语法的。心是语义的,就是说,人心不仅仅是一个形式结构,它是有内容的。”[3]塞尔认为,机器究竟能否进行思维的关键在于:它是否能够给对象赋予意义。“意识、思想、感情、情绪以及心理的所有其他特征远非语法所能包容。不管计算机的模拟能力有多强,按照定义,它也不能复制那些特征。”[4]在塞尔看来,计算机模拟毕竟不是现实,例如,我们可以用计算机模拟风暴来临时城市周边防洪的形势,用计算机模拟仓库的火灾,用计算机模拟车祸发生的场景,等等。但是,谁会认为这种模拟就是事实呢?心毕竟是种生物学现象,其复杂性绝非是计算机所能模拟与复制的。

    计算机有没有意向性,这个问题的争论可以归结如下:1)究竟什么叫做意向性?机器人按照指令从事特定的行为是不是意向性?2)人类在行动之先就已经知道自己究竟是在做什么,具有自我意识,知道其行动将会产生什么样的结果,这是人类意识的重要特征。那么我们应该如何理解机器人按照指令从事某种行为呢?3)意向性能否被程序化?塞尔认为,“脑功能产生心的方式不能是一种单纯操作计算机程序的方式。”[5]相反,人们要问的是:意向性是不是一种可以理解的精神,如果可以理解,那么为什么就不能程序化?塞尔认为,计算机具有语法,但不具有语义。但实质上,语法与语义本身就是二而一的问题,两者是从来也不会相分离的。如果两个机器人之间可以互相交流,那么我们难道能说它们之间只有语法而没有语义吗?如果程序能把语法与语义包含在一起,那么我们还有必要分清楚语法与语义吗?塞尔的观点是,哪怕计算机复制了意向性,但复制不是原本。其实,当我们对人类的认知及其与其行为的关系弄得一清二楚时,我们肯定能够把我们对人类大脑的心理过程与行为的关系编成程序,输入各种我们所了解的有关人类的信息,使计算机“无所不知”。然而,到了那个时候,我们是否还能像塞尔所说的,人工智能不是智能,人工智能中没有意向性和心理过程,因为它缺乏人类的蛋白质与神经细胞吗?意向性的复制是不是“意向性”?对理解的复制是不是“理解”?对于思想的复制是不是“思想”?对于思维的复制是不是“思维”?我们的回答则是:基础是有别的,功能是相同的。依赖于不同的基础形成同样的功能,人工智能只不过是我们人类智能的特殊的实现方式。塞尔用意向性来否定人工智能的深度,虽然有一定的根据,然而,当人工智能能够模拟出类似于人一样的思想时,即使人们都认为人工智能和人的智能是有着本质区别的,那么我们也会感到这种区别已经不具有什么重要意义了。塞尔的观点只能将人的心灵再度神秘化!

2.人工智能中的概念框架问题

    任何科学都是建立在它所已知的知识之上的,甚至科学观察的能力也无不与已知的东西相关,我们只能依赖于已知的知识,才能理解未知的对象。知与未知永远都是一对矛盾,两者总是相互并存又相互依赖的。离开了已知,就无法认识未知;离开了未知,我们就不能使科学认识有所发展和进化。“科学学习如何观察自然,而且它的观察能力随着知识的增长而增长。”[6]有大量的证据可以证明,当人们观察物体时,观察者得到的经验并非决定于以光线进入他眼球的信号,也不仅仅决定于观察者视网膜上的映像。两个正常的观察者从同一地方观看同一个物体,并不一定得到同样的视觉经验,即使在他们的视网膜上的映像实际上是一样的。正如汉森所说的那样,观察者在观看物体时,看见的比眼球接触到的多得多。所以,夏佩尔说,“观察者在观看物体时得到的视觉经验,部分地依赖于他过去的经验、他的知识和他的期望。”观察对于科学是十分重要的了,但是,“观察陈述必须用某种理论的语言构成”,“观察陈述是公共实体,用公共的语言加以阐述,包含着具有不同程度的普遍性和复杂性的理论。”[7]这就表明了观察需要理论,科学需要理论为先导,科学认识不是建立在未知的基础上,而是建立在已知的知识基础上的。

    概念框架也称背景知识、背景信念。之所以将人们认知的概念框架称作信念,是因为概念框架是在不断地学习与实践中形成的,得到确证的那些可资利用的可靠的信息;这些信息在过去已被证明是非常成功的,我们对它没有理由怀疑。如果说背景信念有什么不确定性,那么我们可以说背景信念是不断在增长的、变化的,它处在不断的更新中。

    人们认知结构中的概念框架究竟是由哪些元素构成的?对于这个问题,科学哲学家们仅仅将其理解为已知的知识。例如,“世界图景”(图尔敏)、“研究传统”(劳丹)、“研究范式”(库恩)、“背景信念”(夏佩尔)等等。为了理解概念框架,我们首先要将认知主体看作是一个处在复杂环境中的人,他不仅是一个科学的观察者,而且是一个社会的观察者、生活的理解者、情感的关系者,总之是一个社会的有着七情六欲的人。

    我们根据一个人所处的社会环境与现实社会背景,便可以具体地归纳这个认知者所具有的概念框架是由哪些因素构成的。但是,由于概念框架是一个变量,如果我们不对智能模拟的目标加以限定,那么计算机编程就会面临指数爆炸的问题。因此,对人类智能的模拟就必须把机器人的目的加以限定,让机器人做特定的、有限的工作。人脑的活动是分区域的,那么对人脑意识的模拟首先应当分功能地进行。

    概念框架问题是人工智能研究过程中最为棘手的核心问题,它所带来或引发的相关问题的研究是十分困难的。在这个问题上,基础性的研究是哲学的任务,即概念框架应当包含哪些因素,日常知识如何表达为确定的语句,人类智能中动机、情感的影响其状况是如何的,如何解决某些心理因素对智能的不确定性影响。而人工智能的设计者们则要研究这些已知知识应当如何表达,机器人如何根据概念框架完成模式识别,概念框架与智能机行为之间如何联系,概念框架如何生成、补充、完善,以及在运用这个概念框架某部分知识的语境问题,等等。而至于智、情、意的形式表达方面,则是人工智能研究者的任务。

3.机器人行为中的语境问题

    人工智能要能学习和运用知识,必须具备识别语言句子的语义的能力,在固定的系统中,语义是确定的。正因为这样,物理符号系统可以形式化。但是,在语言的运用中则不然,语言的意义是随语境的不同而有差别的。

    实际上,AI也就是首先要找到我们思想中的这些命题或者其他因素的本原关系、逻辑关系,以及由此而映射出构成世界的本原关系、客体与客体之间的关系。最初的物理符号系统便是以此为基础的。但是,由于人们的思想受到了来自各方面的因素的影响,甚至语言命题的意义也不是绝对确定的单个句子或原子命题的意义更是如此。因此,最初,简单的一些文字处理与符号演算完全可以采取这种方式,但进一步的发展,例如机器人之间的对话、感知外界事物、学习机等等,就必须在设计时考虑语句所使用的场合及各种可能的意义。

    我们再回到维特根斯坦思想的发展。维特根斯坦的早期思想在哲学研究中遭到了来自各个方面的批评,主要的问题是语言的日常用法,是不可能按照维特根斯坦规定的那样来使用的。在日常的使用中,语言的实际用法即语境决定了语言命题的意义。“哲学不可用任何方式干涉语言的实际用法;因而它最终只能描述语言的用法。”[8]任何语言总是有确定的意义的,关键在于它是处在什么样的场合中,如何使用,即用于一个特定场合的句子其意义是确定的,否则这个句子就无法为人们所理解,就无所谓意义,所以“我们无疑懂得这个词,而另一方面,它的含义就在于它的用法”[9]。

    约翰·奥斯汀则把语言划分为两类:一类是记述式的,或者说是陈述,具有真或假的特性;另一类是完成行为式的话语,“它要完成它所特有的任务,这就是被用于完成某种行为。说出那样一种话语,就是完成某种行为。”[10]“完成行为式话语必须是在特定的环境中说出,这种环境与有关的行为在各个方面都是合适的。”[11]完成行为式的话语在我们日常生活中往往体现为一定的效果,即如果这件事是如此这般地发生了,那它便是正常的,如果相反,那它便是不正常的。在奥斯汀看,我们没有纯粹的语言标准,把陈述式或完成行为式分离开来,例如火车站广播员说,“请各位旅客在越过铁轨时通过天桥行走”,它既是直陈式的,又是完成行为式的句子。不管奥斯汀对句子的划分存在什么样的问题,但是,我们从维特根斯坦后期思想、奥斯汀的语言哲学来看,语境问题是确定语言意义的极为重要的方面。

    由此看来,由于语境问题的存在,人工智能的语言编码就不是一种纯粹逻辑的技术,也不是一个纯粹认知心理学的问题。功能模拟在产生特定思维过程中已经显现出超人的有效性,记忆、知觉、意象、概念形成、问题解决、言语理解等等,都被看作可用实验来检验理论的研究领域,有关这些领域,提出了迭代、递归、组块、后进先出存储、水平搜索、垂直搜索、几何图形编码或其他信息加工的组合。但是,人的精神状态以及语言在实际中的运用,则是一个更为复杂的领域。如果要模拟人的行为,那么就必然会涉及到语言及其运用,涉及到语境的问题。

    福多和拉普提出了“内容整体论”概念,认为一个表达式只有作为整个语言的部分时才能够有内容。如果我相信命题P,那么,我就得相信与P处于语境关系中的各种命题。内容整体论是与语言原子论相对而言的,这种原子论相信,表达式可以通过自身与语言之外的实体的关系而具有意义。“我们所说的内容整体论是认为,具有内容这种属性是整体性的,在这种意义上,只有当语言中的许多其他(不同义的)表达式具有内容时,某个表达式才能够具有内容。”[12]当然,持内容整体论观点的最早也许是“奎因—迪昂”原理,主张句子命题的意义必须是句子处在一个整体的科学理论语境中才能确定。

    而自弗雷格对词义的分析时提出语境原则以来,语境论现已普遍成为语言哲学所探讨的重要方面。弗雷格认为,一个词的意义只有在句子的语境中才有意义,例如“暮星”与“晨星”虽然是相同的对象,但其语境不同,意义也是不同的。达米特在语境论基础上,提出了“从属原则”,即如果一个词独立于它出现时的句子,那么我们就无法确定它的意义。同样,没有领会整个思想,我们也就不能掌握构成这个思想的组成部分。

    在哲学上,语境论是在“概念的相对性”提出之后形成的,它作为反对形式化的一种观点,即反对人们认为可以建立一套能被普遍应用而无须考虑特殊情况的抽象形式,或者我们可以通过研究一个陈述的逻辑结构来确定它的含义的观点。语境论者包括道德语境论(伦理情景主义)与哲学的语境论。“在语言哲学中,语境主义提出,一个词的意思是通过它在一个句子中的用法或出现来确定的,也就是说,通过它对句子内容的作用来确定的。因此,句子或命题在对意思的解释上比词或概念更重要。理解一个词就是理解它如何被用在一个句子中。语境定义是以语境主义为基础的,它指的是:解释一个词,要求助于它出现于其中的句子。根据对语境主义的类比,奎因和戴维森创立了人们所说的语义和整体论,这一观点认为,一个句子的意思是由它在整个语言中的用法确定的。”[13]奎因说道:“即使假定终究可以给同义性的概念提供一个令人满意的标准,但是,这种做法仍然只是考虑了‘意义’这个词的一种语境,即‘意义相似’这个语境。语词是否也有语言学家们应予以注意的其他一些语境呢?是的,语词肯定还有另一种语境,即‘具有意义’这个语境。”[14]因此,我们说同义的问题时,就得确立情境的相似性,但是,“没有两种情景是完全相似的,即使在其中说出同一形式的情境也有无数的差别。”[15]

    鉴此,人工智能在设计语言编码时,就不得不考虑整个思想以及言语的各种情境条件对于句子意义的制约作用。然而,困难在于找出那些与语言情境有关联的主观成份,而对于后者,则几乎是不可能的。因为外部情境是一个极不确定的因素,每一个场景都是不相同的,这只能根据社会文化的类型大致确定几种不同情境类型,社会化的认识论则将在这方面提出它们自己的见解。

    显然,从事对语境问题研究的哲学家们推动了这个转向。实际上,把世界形式化,或者形式地理解智能行为,直至目前人们认为是极为困难的,这些困难用形式化的方法是无法逾越的。由此可见,西蒙和纽厄尔的符号程序已经走到了终点。致命的局限性是由于符号程序没有看到信息加工系统是动态的、相互作用的、自组织的系统。而罗森布拉特则清楚地看到了这一点。

4.日常化认识问题

    人工智能模拟不仅要解决心身关系,即人脑的生理与心理的关系问题,而且还必须解决人脑的心理意识与思维的各个层次间的关系,以及人的认识随环境的变化而变化、随语境的变化而变化的问题。根据智能系统的层次性分析,我们可以逐步做到对各个层次的模拟,但是,智能层次性分析也只是一种抽象化的分析或理想化的分析而已。实际的智能是多个层次之间不可分割的相互关联着的整体,各层次间究竟是如何发生关联的?在什么情况下发生什么样的关联?这便涉及到日常化的认识问题。

    因此,建立在符号系统基础上的人工智能无法解决人类认识的日常化问题,特别是无法解决人脑的情感、动机、意向性等心理活动功能,无法解决我们的日常认识因语境不同而意义不同的问题。

    现象学大师胡塞尔则认为,世界、思想的背景、日常语境等是一个非常复杂的系统,这个系统是与那些同个人复杂的信念体系等相联系的事实组成的。但是,原则上说,我们可以将自己在世界中的存在悬置起来,而完成对人类信念系统的独立描述,这样,我们智能行为的基础就可以得以确定。但是,海德格尔却反对其导师胡塞尔的观点。我们所生存的世界,我们说话的语境等等我们日常应付自如的方式,是我们社会活动的一部分,是我们的存在方式。这种存在方式是我们无法像胡塞尔那样将它抽取出一定的成分确定化的。明斯基指出:“仅是建构一个知识基础,就成为智能研究的重大问题……关于常识性知识的内容和结构,我们还是知道得太少了。‘极小’常识系统必须‘知道’有关因果、时间、目的、地点、过程和知识类型……某些情况。在这一领域中,我们需要花力气做严格的认识论研究。”[16]1970年后,在明斯基的倡导下,人们开始研究“微世界”领域,打算形成系统地处理知识的方法,并且人们希望这些限定的、孤立的微世界能够逐步变得更接近现实,并且能早日成为通往现实世界的理解手段。但是,最终人们发现这种研究在目前的情况下过于困难。因为,关键的问题是我们必须在面对常识的研究中形成一组抽象原理,以与常识理解相对称。“但是,人类很可能根本不是按照通常的方式使用常识性知识的。正如海德格尔和维特根斯坦所指出的,与常识性理解相当的,很可能是日常技能。所谓‘技能’,并不是指过程的规则,而是指在众多的特定场合知道该做什么。”[17]如果是这样的话,理解技巧就不是以某种确定的规则为基础的了,例如道德语境、审美情境等等。那么,基于符号的AI就无法对这样一种人们在特定的语境中所做出的特定行为做出模拟了。这就迫使AI的研究从符号操作理论转向神经网络模型的建构。

    由于物理符号系统是一个物理的过程,它与人的心理活动有着根本的区别。因此,要模拟人的心理与意识,在原则上是不可能的事。但是,模拟人的意识所要解决的问题主要是三个方面:

    首先,限定人工智能的目标。必须使单一的机器人对人的意识的模拟特定化,即不要让机器人做太多的过于复杂的事情,不要使编程陷入指数爆炸。根据西蒙的观点,人的认识就是解决问题,而人在解决问题时是先易后难、逐个逐个地解决,而不是一次解决无数个复杂问题。

    其次,必须把人的心理与意识分层次进行模拟。只要能够展示出人脑的功能,那么尽管物理的过程与人的生理、心理的过程是截然不同的,但从功能上来说则是等效的。但是,要分层次地进行模拟,心理学的实验则是必不可少的。即为了给观察到的人类行为建立模型而编制符号系统程序,心理学对参试者观察与实验的结果便可作为构造物理符号系统的假设。

    再次,必须建立理解意义的各种条件性假设。由于语句的意义在使用过程中是变化的,其意义随语境的不同而不同,这就需要我们在编程时设计出各种条件性假设,不同的语境有着不同的条件,只要我们设计出这些条件,那么其意义就得以确定。

 

【参考文献】[1][2][3][4][5]塞尔.心、脑和科学[M].杨音莱译.上海:上海译文出版社,1991.15、19、23、28、30-31.[6]夏佩尔.理由和求知[M].褚平,周文彰译.上海:上海译文出版社,1990.380.[7]查尔默斯.科学究竟是什么?[M].查汝强等译.北京:商务印书馆,1982.34.[8][9]维特根斯坦.哲学研究[M].陈嘉映译.上海:上海人民出版社,2001.75、121.[10][11]奥斯汀.记述式与完成行为式[A].载涂纪亮主编.语言哲学名著选辑[C].北京:三联书店,1988.202、203.[12][13]转引自布宁.西方哲学辞典[S].余纪元编著.北京:人民出版社,2001.194、196-197.[14][15]奎因.从逻辑的观点看[M].江天骥等译.上海:上海译文出版社,1987.45、56.[16]转引自博登.人工智能哲学[M].刘西瑞,王汉琦译.上海:上海译文出版社,2001.440.[17]德雷福斯.造就心灵还是建立模型:人工智能的分歧点[A].载博登.人工智能哲学[C].442-443.

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇