博舍

杨爱华:人工智能中的意识形态风险与应对 人工智能的意识算不算哲学上的意识形式

杨爱华:人工智能中的意识形态风险与应对

摘要:作为引领未来世界的颠覆性技术,人工智能不仅广泛应用在自然科学领域,而且广泛渗透到政治、文化、法律等人文社会科学领域,被用来判断、干预甚至操控社会问题与社会现象,由此负载着意识形态功能。人工智能或以技术工具嵌入,或以资本逻辑操控的路径隐蔽而巧妙地发挥着意识形态的功能。人工智能的意识形态功能为社会带来了一定的政治风险、法律风险和伦理风险,但我们不能因风险而阻挡人工智能前进的步伐,而是要从制度与技术两个层面制定应对策略,推动人工智能持续健康发展。

关键词:人工智能;意识形态;风险;应对

人工智能是当今时代最有可能改变未来世界的颠覆性技术,人工智能对未来世界的颠覆性效应不仅表现为可以深刻改变人们的生产生活方式、推动经济社会发展,而且还可以改变甚至颠覆人们的思维方式、价值观念、伦理体系等上层建筑的元素。当人工智能的触角逐步渗入人们生活的每一个角落,社会领域内的各种活动几乎都离不开人工智能时,人工智能就不可避免地拥有了一种可以改变人、支配人、操控人的无形力量,人工智能不再仅仅承载技术的生产力功能,而且以隐约或张扬的方式发挥意识形态的功能。

一、科学技术承载意识形态功能的学理基础

关于什么是意识形态,一直以来缺乏一致的定义。一般来说,意识形态是与一定社会的经济、政治等相联系的意识与观念的集合,主要包括政治、法律、道德、哲学、宗教等。马克思认为意识形态的含义是多维度的,其中心内涵是作为思想或观念的上层建筑的意识形态,即“从市民社会出发阐明意识的所有各种不同的理论产物和形式,如宗教、哲学、道德等等,而且追溯它们产生的过程”。科学的形式同样是多元的,英国科学社会学家贝尔纳认为,“科学在全部人类历史中确已如此地改变了它的性质,以致无法下一个合适的定义”。通俗来说,科学技术是对客观世界及其规律的探索,主要表现为知识体系、工具产品、方式方法等。在马克思看来,科学技术是一种生产力,“资本是以生产力的一定的现有的历史发展为前提的—在这些生产力中也包括科学”。

(一)马克思主义科技异化论

马克思主义科技思想中并没有直接专门论述科学技术与意识形态关系问题,关于这一问题的理论基础可以溯源到马克思的科技异化论。马克思认为,科学技术在发挥其生产力功能、推动经济发展与社会进步的同时,对自然、社会及人类自身造成了一定的负面影响,作为人类创造物的技术,甚至在某种程度上反过来变成了奴役人统治人的异己力量。“在我们这个时代,每一种事物好像都包含有自己的反面。我们看到,机器具有减少人类劳动和使劳动更有成效的神奇力量,然而却引起了饥饿和过度的疲劳……技术的胜利,似乎是以道德的败坏为代价换来的。随着人类愈益控制自然,个人却似乎愈益成为别人的奴隶或自身的卑劣行为的奴隶,甚至科学的纯洁光辉仿佛也只能在愚昧无知的黑暗背景上闪耀”。在马克思看来,技术异化的根源不在于技术自身,而在于技术的资本主义应用。“这些矛盾和对抗不是从机器本身产生的,而是从机器的资本主义应用产生的!因为机器就其本身来说缩短劳动时间,而它的资本主义应用延长工作日;因为机器本身减轻劳动,而它的资本主义应用提高劳动强度;因为机器本身是人对自然力的胜利,而它的资本主义应用使人受自然力奴役”。在资本主义条件下,科学技术与资本权力相互帮衬、一路凯歌,破坏自然环境,干预社会政治体制,操控人类精神意识与伦理道德框架。

(二)法兰克福学派的科学技术意识形态论

关于科学技术与意识形态的关系问题,法兰克福学派倾注了很大的精力,构建了独树一帜的科学技术意识形态论。法兰克福学派早期代表人物霍克海默指出:“不仅形而上学,而且还有它所批评的科学,皆为意识形态的东西;后者之所以也复如是,是因为它保留着一种阻碍它发现社会危机真正原因的形式。”在霍克海默看来,科学技术通过其完善的工具理性手段,使公众陶醉于其带来的物质财富,蒙蔽公众双眼,阻碍公众反思社会问题与批判社会危机,从而发挥其意识形态功能。之后的代表人物马尔库塞认为,发达工业社会是一部纳入了技术架构的工艺装置,“技术中立”的科技价值观被打破,科学技术被嵌入政治统治的框架之中,带有明确的政治倾向性,从而成为一种新的社会控制手段与形式。他在代表作《单向度的人》中断言:“社会控制的现行形式在新的意义上是技术的形式。不错,在整个近代,具有生产性和破坏性的国家机器的技术结构及效率,一直是人们服从已确立的社会分工的主要手段。而且,这种结合往往伴随着更为明显的强制形式”,“科学—技术的合理性和操纵一起被熔接成一种新型的社会控制形式”。法兰克福学派第二代中坚人物哈贝马斯专门阐述了科学技术与意识形态的关系问题。哈贝马斯以科技进步为新的坐标系,不仅明确指出,在资本主义社会中,科技进步本身已经成了“第一位的生产力”,而且认为,技术与科学作为新的合法性形式,已经成为一种以科学为偶像的、不同于传统意识形态的新型意识形态。“因为现在,第一位的生产力—国家掌管着的科技进步本身—已经成了[统治的]合法性的基础。[而统治的]这种新的合法性形式,显然已经丧失了意识形态的旧形态”。哈贝马斯认为,国家加强对经济社会的干预以及科学技术日益取得合法统治地位是后期资本主义的发展趋势。“至少从生产力的连续提高取决于科技的进步—科技的进步甚至具有使统治合法化—的功能以来,不再是解放的潜力,也不能引起解放运动了”。如果说霍克海默对于科学技术承载意识形态功能的描述还是隐约的,那么马尔库塞旗帜鲜明地指出科学技术已经成为一种新型的社会控制手段,发挥着意识形态功能。哈贝马斯则以“作为‘意识形态’的技术与科学”为题系统阐述了科学技术就是一种意识形态,并对此进行哲学拷问与深层反思。

科学技术在本质上不属于意识形态的范畴,但在其应用过程中,常常与意识形态相互交织在一起,产生了千丝万缕的联系。当科学技术的工具理性张扬到极致,超越其生产力功能,被广泛应用并深入渗透到人们的日常生活及社会政治、文化等各个领域时,科学技术就具备了作为一种隐性意识形态的良好条件,有可能承载并发挥着意识形态功能。

二、人工智能发挥意识形态功能的路径

与传统意识形态相比,科学技术是一种新的隐性的意识形态,但是其渗透领域更广,统治手段更隐蔽有效,操控力更令人难以抗拒。“一方面,技术统治的意识同以往的一切意识形态相比较,‘意识形态性较少’,因为它没有那种看不见的迷惑人的力量……另一方面,当今的那种占主导地位的,并把科学变成偶像,因而变得更加脆弱的隐形意识形态,比之旧式的意识形态更加难以抗拒,范围更为广泛”。人工智能,或以技术工具嵌入、或与资本权力携手,隐蔽巧妙地发挥着其意识形态功能。

(一)作为技术工具的嵌入

随着数据的海量增长、数据处理及运算能力的提升、机器深度学习技术的快速发展,人工智能不仅被广泛应用于自然科学领域,同样涉足于政治、文化、法律等人文社会科学领域,被用来广泛采集用户信息、分析用户特征,以此为基础判断、干预甚至操控社会问题与社会现象。作为技术工具的人工智能被有效嵌入社会的政治体系、制度框架等上层建筑的各个子系统之中,或干预社会政治文化体系,或引发社会问题与社会危机,算法歧视与算法操控就是最明显的表现形式。

“算法歧视(AlgorithmicBias)指的是人工智能算法在收集、分类、生成和解释数据时产生的与人类相同的偏见与歧视,主要表现为年龄歧视、性别歧视、消费歧视、就业歧视、种族歧视、弱势群体歧视等现象”。比如,人脸识别技术凸显的算法偏见与算法歧视问题非常明显。2015年谷歌曾将黑人程序员上传的自拍照贴上“大猩猩”标签,雅虎平台也曾将黑人的照片标记成“猿猴”。美国警方的犯罪数据识别系统自动认定黑人社区的犯罪概率更高,2016年当研究人员将一套算法模拟应用于加利福尼亚州时,该系统反复派遣警方人员到少数族裔比例高的地区巡逻执勤。与求职就业相关的算法向男性推荐的工作岗位整体工资要高于向女性推荐的工作岗位。随着人工智能技术的进一步发展,算法歧视将带来越来越严重的社会问题,英国学者指出,“随着算法决策系统的普及以及机器学习系统的结构复杂化……算法在人们日常生活中的应用与影响越来越广泛,如果不加以控制的话,算法歧视冲击社会公正与公平的风险将进一步加剧”。

机器学习技术与基于自动识别数据模式的统计技术的交融,为人工智能时代的标签“算法制胜”打下了坚实基础,算法制胜被嵌入意识形态领域带来的丰厚回报就是算法操控。通过大数据技术与机器学习的嵌入助力人工智能“参政议政”已被西方政治家们“有效实践”。算法可以对我们的政治人格进行大规模的回归分析,为政治操控每一种情感。与社会歧视相比,算法歧视与算法操控具有更加隐蔽与更加多元的特点。首先,传统的种族歧视、性别歧视等是被社会反对或被法律禁止的,但算法歧视与算法操控由于披着科技的外衣更加隐蔽,人们不会提出明确反对,即便提出质疑,也会因“算法黑箱”这一冠冕堂皇的理由而谅解。其次,社会歧视往往是依据人的肤色、性别、家庭出身、学历等显性特征做出判断,但算法可以依据消费记录、网页浏览记录、行程记录等属于个人隐私的数据作为统计与分析的依据,因而更加多元,其渗透力与影响力也更大。

(二)作为资本逻辑的操控

人工智能作为资本逻辑对意识形态的操控主要表现在:最大限度地助力实现资本增值;消解人的主体性与社会性;加剧社会分工的不平等。

第一,在资本主义社会,人工智能是实现资本增值的基本工具。关于资本,马克思认为,资本的本质不是物,而是能够带来剩余价值的价值,“资本只有一种生活本能,这就是增殖自身,创造剩余价值,用自己的不变部分即生产资料吮吸尽可能多的剩余劳动”。作为统治权力表征之一的资本,只有对生产工具、产业部门直至生产方式、生产关系不断变革,才能有效实现资本的本能增值。“资产阶级除非对生产工具,从而对生产关系,从而对全部社会关系不断地进行革命,否则就不能生存下去”。机器化时代,科学技术渗透在产业链的每一环节,是助力实现资本增值的有效手段。相比传统技术,人工智能的资本应用显然能够更快实现资本增值。麦肯锡全球研究所2018年9月发布的研究报告认为,“到2030年人工智能可能为全球带来13万亿美元额外的经济产出,助推全球GDP每年增长1.2%……这种影响可以与历史上其他通用技术相媲美,比如1800年代的蒸汽机技术”。近年来,世界各主要大国纷纷加快人工智能政策部署与战略规划,2016年美国发布《为人工智能的未来做准备》和《国家人工智能研究与发展战略计划》,2018年德国发布《联邦政府人工智能战略要点》,2018年法国发布《法国人工智能发展战略》等,各国纷纷正式将发展人工智能上升到国家战略层面。一方面,我们不可否认人工智能对社会发展与人类文明带来的巨大推动作用;另一方面,“在资本主义条件下,人工智能实际上是资本谋取剩余价值进而维持整个资本主义制度体系存活的技术工具”。

第二,资本与人工智能的交融消解人的主体性与社会性。人工智能带来的自动化、智能化延伸了大脑的功能,让人进一步从体力脑力劳动中解放出来,但也在一定程度上消解了人的主体性。自从AlphaGo战胜李世石以来,关于机器人未来能否代替甚至超越人的争论就从未停止。以霍金、库兹韦尔等为代表的科学家认为人工智能今后会超越人类智慧,甚至导致人类灭绝;以松尾丰等为代表的人工智能专家认为人工智能征服人类的可能性在现阶段看来根本不存在。即便我们目前不必过多担忧强人工智能与超人工智能时代机器智慧等同或超越人类智慧引发的危机,但也不能忽视弱人工智能阶段智能机器主导劳动过程,人成为机器的辅助者,在人类自身解放的同时逐步丧失部分劳动能力,人与机器主客体关系被颠倒的异化问题。机器的独立性越强、自主性越明显,人的依赖性就越严重、被动性就越突出,人的某些能力就越容易退化。在智能机器主导的自动化经济中,人让位于智能机器或者被智能机器剥夺其劳动岗位,劳动者失去了本应该从劳动过程中获得的愉悦感、幸福感、满足感,低技能劳动者的一些基本劳动技能逐步退化,高技能劳动者的创造力逐步消失。人工智能在未来军事领域的应用完全可能实现完全自主武器系统,这种武器系统“在激活后可自主进行搜索、识别、决策和打击,无须人类干涉其进程”。在这种态势下,战场的指挥权可能完全由智能机器掌控。人的主体性、创造性在智能机器时代面临前所未有的危机。

马克思认为:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”人是按照一定的交往方式进行生产活动的人,是发生在一定社会关系和政治关系中的个人。传统机器化生产中人与人相互配合、相互补充、统一调配的工作方式在人工智能时代完全可能由一名程序员设计的自动程序取代。无人化的工作环境与工作方式很容易使人的生活方式发生变化,人与人之间的关系不再那么社会化,越来越多的人倾向于选择离群索居、孤立生活,甚至将来与机器人女友或男友相伴一生也不是没有可能。此外,人工智能时代物联网技术也使更多的人常常沉迷于虚拟世界,与周围的现实世界之间横亘着一道无形的鸿沟,对身边的世界漠不关心、疏远冷漠,手机依赖症已是最普遍的一种现实映照,人的社会性正逐步被消解。

第三,资本对人工智能的开发与应用将加剧社会分工的不平等。与以往的机器化大生产不同的是,人工智能的高度自动化、智能化一方面虽然有利于人从体力与脑力劳动中进一步解放,甚至实现人的全面自由发展;但另一方面也将不断排斥劳动者,甚至完全替代劳动者,实现“零工经济”。由此导致的结果是:首先,社会分工体系中的主导角色将不再是人,而是机器人。劳动力在生产要素中的竞争力不断下降,最终甚至让位给机器人,失业率将大大增加。其次,社会分层、社会断裂问题更加严重。资本与人工智能的联手,将使掌握了前沿技术、高精尖技术、颠覆性技术的行业更容易走向社会的金字塔顶层,甚至带来行业垄断。“随着算法将人类挤出就业市场,财富和权力可能会集中在拥有强大算法的极少数精英手中,造成前所未有的社会及政治不平等”。低技能劳动者、廉价原材料在整个社会产业链中的比例将越来越低,低技能劳动者的失业风险将远远高于高智能劳动者,社会顶层与社会底层之间的鸿沟将进一步加剧,而且这一断裂将更加难以逾越。

三、人工智能发挥意识形态功能的风险及应对

自从德国社会学家乌尔里希·贝克于20世纪80年代提出风险社会理论,风险一词逐渐成为现代化的标签之一。贝克认为工业社会的科技发展、政治体系、法律制度等使得社会开始转化为风险社会,“风险通过与科学、科学实践和公共领域的紧密相互作用构造自身”。当今社会属于一定的风险社会,其风险很大一部分是由技术风险组成的。人工智能承载意识形态功能的风险属于高技术风险带来的升级风险范畴,高技术风险是不可避免的,只能提前筹划,制定有效应对策略。

(一)风险

人工智能发挥意识形态功能带来的风险主要包括(但不限于)以下三方面:政治风险、法律风险、伦理风险。

第一是政治风险。政治风险主要是指人工智能技术内嵌于政治系统,以“算法黑箱”为掩护,通过算法歧视、算法操控等方式影响政治体制运行、冲击社会公平正义的风险。公平正义是民主政治的基本原则,正如罗尔斯所说的,“正义是社会制度的首要价值”。算法歧视普遍渗透在社会的就业、教育、社交等各个子系统之中。2016年美国发布的《大数据报告:算法系统、机会和公民权利》,考察了大数据与获得信贷、就业、高等教育、刑事司法四个领域之间的算法歧视问题。算法歧视已成为一个普遍的政治问题,特别随着机器深度学习能力的进一步提升,算法已经成为一种新的权力形态,算法即权力。算法歧视与算法操控损害政治的正义,“算法黑箱”遮蔽政治的公平透明,必将带来政治的权威化危机与合法化危机。作为权力的算法如果不消除算法歧视,那将对人类政治文明带来极大的风险与灾难。

第二是法律风险。以数据和算法为基础,利用分析工具进行自我学习,通过互联网、云技术等跨时空、跨地域对获取的信息进行传播和扩散,人工智能在将大数据的经济价值挖掘到最大化的同时,也带来泄露敏感信息、侵犯个人隐私的法律风险。传播速度快、侵权方式简单、侵权手段隐蔽、侵权范围广等是人工智能技术侵犯隐私权的新特点,人工智能时代人们的生活变得透明化。麦肯锡全球研究所预测到2025年全球物联网(IoT)市场规模可以达到11.1万亿美元,这可能意味着届时我们的周边到处都是信息收集器,而在人工智能技术的覆盖范围内,这些信息收集器都可能具备自主思考、自主判断、自主开启传感器的功能,人工智能与物联网的融合将把隐私权被侵犯的风险提升到一个更高指数级。

第三是伦理风险。随着人工智能和自主系统嵌入政治、经济、文化等社会各个领域,人与机器的关系变得越来越复杂,责任承担及责任分配的问题受到严重挑战。在人工智能表现出越来越强的自主性的时候,是否意味着机器人就可以作为道德主体承担相关责任?一种观点认为计算机系统在智能技术的推动下,已经由一种工具变为一种代理,“计算机系统具有某种道德代理,并且这种道德代理和代理的角色不应该被忽略”。应用伦理学专家黛博拉·约翰逊明确指出,大多数情况下人们应对技术的使用负责,当人工智能成为道德代理人后,没有人会对人工智能体的行为负责。此外,有的学者认为即便机器系统不具备完全意义的道德主体属性,不能作为第一责任人,至少也应该承担“准责任(quasi-responsibility)”。与之对立的观点则认为机器终究只是一种工具,不具备自我意识,其责任理当由系统设计者、程序员、系统维护者等人类主体承担。控制论之父维纳早就警示,人类如果把责任丢给机器,最终只会自食其果。

(二)应对

人工智能意识形态功能带来的风险是源于技术的应用所带来的社会风险,马克思认为:“这些矛盾和对抗不是从机器本身产生的,而是从机器的资本主义应用产生的!”在技术哲学家芒福德看来,“它只是人类文化中的一个元素,它起的作用的好坏,取决于社会集团对其利用的好坏。机器本身不提出任何要求,也不保证做到什么。提出要求和保证做到什么,这是人类的精神任务”。技术的进步是不可阻挡的,技术带来的风险也是不可避免的,我们不能因为人工智能承载意识形态功能的风险就放弃其发展,而是“要学会把机器和机器的资本主义应用区别开来”。为此,只有加强顶层研判、提前筹划,制定应对策略,才能将其风险尽量减低,推动人工智能持续健康发展。

第一是制度层面。凡事预则立,不预则废。任何一种新事物的出现,都可能冲击现有的社会秩序与制度体系,这就需要制度体系与之更新。“我们所体验到的那种无能为力并不是个人失败的标志,而是反映出我们的制度无能为力。我们需要重构我们曾经有过的这些制度,或者建立全新的制度”,不管是弱人工智能阶段已经凸显的算法风险,还是强人工智能阶段或将凸显的机器思维统治风险,人类都需要提前预警,各国应从顶层设计开始,提前筹划,规范从业人员的职业行为与道德准则。当前,世界各国正在积极推出人工智能伦理规范准则。美国电气电子工程师协会(IEEE)2016年发布世界首个《人工智能设计伦理准则》,2017年发布更新版“EthicallyAlignedDesignVersion2”,其宗旨就是使人工智能系统能够遵从人类的道德价值和伦理准则。日本人工智能学会伦理委员会2016年起草了面向科研人员的伦理纲要草案,该草案中制定了防止人工智能被恶意利用的相关条款。英国标准行业协会2016年发布《机器人和机器系统的伦理设计和应用指南》,其目标是制定智能机器人融入社会的道德规范。2019年欧盟委员会发布《可信赖AI的伦理准则》,提出可信赖人工智能的整个生命周期系统必须具备三点:“首先应是合法的,遵守所有法律法规;其次应是道德的,要尊重人类主权、防止伤害,公平且可解释;再次应是健康可靠的,避免因技术造成无意伤害。”中国于2017年发布《新一代人工智能发展规划》,提出要建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。截至2020年7月,全球已有38个国家制定国家层面的人工智能战略政策、产业规划文件。此外,与人工智能相关的法律规范也需要同步建立并完善。

第二是技术层面。技术引发的风险问题很大程度上仍然需要依靠技术手段来预防与解决。基于深度神经网络和机器学习的人工智能系统是目前最复杂的系统之一,“算法黑箱”是系统自身不可理解性的一种典型表现。尽管面临无法避免的正常事故,但系统设计者、程序员等在设计、应用的各个不同阶段,都必须同步加强堵住技术漏洞、维护信息安全的防范、补救与保护技术。在设计阶段应努力规避技术被误用或滥用的技术可能性,增强技术自身的“人类可控”性。在应用阶段,通过加密技术、匿名化技术、屏蔽技术等严防技术漏洞,设置系统内部纠错机制,以防危害扩散。在售后阶段,研发新的技术工具对已经产生的技术问题进行改进或弥补。比如,麻省理工学院科学与人工智能实验室的科学家们开发出了一种新颖的、半监督的可调算法,通过重新采样来自动消除数据偏见与算法歧视。目前,新兴的算法纠偏工具正逐渐被研发出来,有望帮助消除算法歧视,实现更加公正的人工智能。

四、结语

科学技术前进的步伐是不可阻挡的,我们必将生活在一个人机交融的时代,人类与机器的矛盾和冲突是不可避免的,人工智能负载意识形态功能也是必然的。迄今为止,没有任何一项新技术导致人类真正失去自我或者走向灭亡,我们同样无须对人工智能的意识形态功能过分担忧,当然也不可忽视。辩证审视人工智能的生产力功能与意识形态功能,有效防范化解人工智能负载意识形态功能的风险,寻求人工智能工具理性与价值理性的合理张力,作为颠覆性技术领头雁的人工智能,必将引领人类走向一个更加崭新更加美好的未来世界。

注释略。

杨爱华,国防科技大学文理学院教授、博士生导师。

来源:《求索》2021年第1期,第66-72页。

人工智能可以产生自主意识吗

 

「既然人类对自己存在的认知来源于“感知”和“记忆”,如果这两样东西都可以被模拟,那么“人类的存在”到底是不是一种模拟?」

热门美剧《西部世界》第三季中,机器人有了自主意识和思维,开始怀疑这个世界的本质。机器人Dolores逃出西部世界主题乐园,混入了人类世界,并企图通过摧毁人类的大数据系统,来获取世界的控制权。

《西部世界》剧照

《西部世界》的大热,折射出人类一直以来对AI技术发展的终极担忧:人工智能是否会觉醒?

由此回到题主的提问。答案极大可能是Yes,人工智能终究会有自我意识,只不过是时间问题。

为什么这么说?我们来看看学界的讨论。

何为「意识」?

《西部世界》的科学顾问,是神经学家大卫·伊格尔曼(DavidEagleman),这位斯坦福大学精神病学和行为科学系兼职教授,一直在大脑可塑性、时间知觉、通感和神经法的领域进行研究。

他认为,意识,是一种突破程序设定的连接。一旦我们理解了大脑的算法,就应该能够复制;如果这个算法等同于意识,那意识也理应可以被复制和转移。

大卫·伊格尔曼(DavidEagleman)

厦门大学周昌乐教授(从事人工智能及其多学科交叉领域的研究)曾解释过,根据现有的相关科学与哲学研究成果,人类意识的运行机制大致是这样的:

物质运动变化创生万物,生物的生理活动支持着神经活动,神经活动涌现意识(有意识的心理活动),意识感受生理表现并指导意向性心智活动的实现,从而反观认知万物之理。

也就是说,除可视化的硬件(四肢、器官、血肉、体液等)支持外,感觉(身体感受)、感知(对外部事物的感知能力,包括视、听、味、嗅、触)、认知(记忆、思考、想象等)、觉知(反思、意识、自我等)、情感(情绪感受)、行为(意志、愿望、情欲等)、返观(禅观、悟解)等,这些由人类自主定义的生理表现,与意识组成了一个复杂的系统。

简单来看,意识的产生,是一个“物质-生理活动-神经活动-意识-心智活动-物质”的循环。所以,只要条件满足,人类并不是唯一具有意识的物种。

人工智能的认知机制是如何搭建的?

那对于人工智能来说,需要通过什么条件来实现自我意识呢?

目前,我们模仿人类生理机能而研发出来了神经网络等技术。在意识方面,意大利巴勒莫大学机器人实验室的Chella教授用10年时间开发了CiceRobot机器人研究项目,通过模拟人的意识产生逻辑,实现了一种自我意识的认知结构机制。

该机制主要由三个部分构成——亚概念感知部分、语言处理部分和高阶概念部分:

亚概念感知是指对外部世界的直接感知;语言处理即对语言的识别与回应;高阶是对机器人内部世界的感知;通过机器人的高阶感知,就形成了具有自我反思能力的机器人。

这项研究工作的主要特点是将逻辑形式化方法与概念空间组织相结合,强调对外部事物的一种心理表征能力,并对外部环境进行内部模拟,这是自我意识产生的基础。

尼克的《人工智能简史》一书,阐释了AI的发展史与思想源头,对智能的进化也颇多着墨。

他写道:

谈人工智能绕不过去图灵机和在其上建立的整个计算机理论——任何计算装置都等价于图灵机。这个论题隐含着强人工智能的可能性:智能等价于图灵机。近年,也有人探索超计算——「计算能力超越图灵机的装置」,量子计算就是作为超计算的一种潜在设备。

如果一台机器通过了图灵测试,那他就被认为具有了人类智能。尽管图灵认为「机器能否思考?」这个形而上学的议题「没有意义,不值得讨论」。但他还是在著名的《计算机与智能》这篇论文中反驳了那些否定的观点。

尼克在书中发问:

过去的机器旨在节省人的体力,现在的机器开始代替人的智力。人通过两性繁殖的进化速度远远赶不上机器。机器的进化速度服从摩尔定律——每18个月性能提升一倍,而人的进化速度则是20年一代人。人作为物种,是不是不再具备进化的竞争优势?依靠硬件的摩尔定律,是不是可以达到超级智能?

这种超级智能,可能是以人工智能为主体,也可能是生物学意义上的物种,即「人工智能+人」。

当「人工智能+人」,是融合,还是对立?

詹姆斯·格雷克所著的《信息简史》,围绕逻辑与信息,打通了自然生命与科技信息的联系。

比如,书中谈到,生物体以负熵为“食”,新陈代谢的本质是,生物体成功地使自己摆脱在其存活期内所必然产生的所有熵,生物从周围环境中汲取秩序。比如吃的各种动植物,是很有“结构”的,而排出的东西,则更加混乱。

意思大概是说,生命体,与人工智能所应用到的数据、信号传输一样,也是由信息组成的。那么,是否有可能将人与人工智能进行打通,主导意识产生的核心,还是以人为主体呢?

在过去的一个世纪里,诺贝尔奖涉及的神经科学中的重要发现都跟大脑的信息编码、储存相关。随着欧盟“人脑工程”和美国“BRAIN计划”的开展,脑科学的新型方法和手段得到了快速发展。

2012年,美国国立卫生研究院启动了耗资3000万美元的“人脑连接组计划”(HCP),该计划关注的是大量神经元如何相互连接形成神经环路。通过绘制大脑连接组,科学家得到了详细的皮质环路接线图,这可能促成人们对皮层计算理解的飞跃,进而开发出新一代的人工智能网络模型。

而这对人工智能带来的影响,将是两个方向:

利用对人脑和认知的研究结果,将相似的结构和功能整合到人工智能中;以计算方法替代进化过程,通过计算机模拟来发现独立于人脑的有用结构和连接模式。

有意思的是,“硅谷钢铁侠”埃隆·马斯克以几近狂热的姿态入局这个领域。

马斯克在2017年成立Neuralink,目标是研发超高带宽的脑机接口系统,实现与人工智能的共存,开启“超人认知”的全新时代。

被嵌入Neuralink系统的实验鼠图片来源:Neuralink

脑机接口技术被称作是人脑与外界沟通交流的“信息高速公路”,是公认的新一代人机交互和人机混合智能的关键核心技术,甚至被美国商务部列为出口管制技术。该技术为恢复感觉和运动功能以及治疗神经疾病提供了希望,更令人激动的是,它将赋予人类“超能力”——用意念即可控制各种智能终端。

如果大脑可以改造,如果意识可以干预,关于人工智能的自我意识这个命题的探讨,已经不能仅仅局限于单纯的机器人之间了。未来,可能性更大的是具有“超级大脑”的超级人类。

如果想详细了解,可以读读《信息简史》、《人工智能简史》这两本书,虽然属于计算机科学范畴,但更具科普性质,能够给人在世界观与想象力方面带来很大启发。

最后引用《人工智能简史》里的一个问题:“当我们谈论生死时,我们在谈论什么?”。

是生理上的,还是意识上的?

---------

参考资料

《人工智能简史》,尼克.

《信息简史》,[美]詹姆斯·格雷克.

历时两年,马斯克终发布「脑后插管」黑科技,革新脑机接口,机器之心.

《机器意识能走多远:未来的人工智能哲学》,周昌乐,《学术前沿》2016年第201607(上).

========

请看官留步,求一键三连!点击关注

@人民邮电出版社

,给你更多AI干货~

发布于07-17

 

 

 

 

 

作者:腾讯研究院链接:https://www.zhihu.com/question/372639666/answer/1337974597来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 

“人工智能之父”图灵曾预言,具备人类智能水平AI将出现在2000年。如今已是2020年,可关于人工智能是否可以产生自我意识的问题,似乎仍然困扰着人类。

在回答“是否可以产生自主意识”这个问题之前,我们先来解析一下,为什么AI意识问题异常重要?

与学者们面红耳赤的激烈争吵不同,大部分吃瓜群众会觉得,人工智能产生意识只是一个时间问题,因而并不重要。这可能是影视作品带来的一种错觉——毕竟在大部分未来主题的电影中,AI都是具有意识和情感的。实际上,很多人都低估了这个问题的重要性,但它甚至决定着人类未来命运的走向。与处理能力有限的人脑相比,AI的处理能力在理论上是无限的,可以无差别处理收集到的全部信息。一旦AI获得意识,它们能够像人类一样交换、分享信息,只不过在效率上是碾压人类的。作为结果,AI的智能水平将迅速崛起,并会“消灭”掉包含人类在内的低智能主体——这并不是大屠杀,而是与智能手机淘汰功能机一样的“市场行为”。现实可能没有那么可怕,拉回一点时间线,在AI“毁灭”人类社会之前,假设它的意识水平仍然允许自身为我们所用,那也可能引发道德伦理方面的问题。神经科学家ChristofKoch曾举过一个例子,如果他用锤子将自己的特斯拉汽车砸烂,虽然邻居可能认为他疯了,但这只是一台机器,属于他的财产,所以可根据需要使用/砸烂它。但如果他殴打自己的狗,警察就会逮捕他。二者的区别在于,狗是有意识的,它能感受到痛苦,而特斯拉并不是一个有意识的主体。这个例子提醒我们,如果机器在某个时间点具备了意识,那么就会产生意想不到的道德、伦理、法律和政治后果。同样值得深思的是,当下的人类社会是一个一元论社会,虽然我们常说“万物有灵”,但那只不过是在泛灵论基础上的一种谦辞,真正的现实是,只有人类拥有真正的“智能”与“意识”。如果一旦诞生了拥有意识的另一方主体,建立在一元论基础上的既有一切都会被颠倒重构。正如赵汀阳所说,人工智能一旦突破奇点,就会创造不可测的新主体,对于新主体,传统一元主体的知识、视域和价值观将会破产,而二元主体(甚至多元主体)的世界还很难推想。可以想见,如果除人类之外的物种进化到拥有意识时,人类有史以来所积累的所有道德秩序就会失去最重要的逻辑支点,在这种情况下,人类该如何重构自己的道德伦理体系?人的本质何在,人又何以为“人”?尽管许许多多的影视作品呈现了人与AI和谐共处的画面,但它们都不约而同地规避了这一话题。几千年来,人类总是以地球主宰的心态思考问题。这种人本主义心态具有一种先验的正确性,但无人拷问是否合理。究其核心,就在于人区别于他物的自由精神与意识。如果世界上有其他外观形式也能够产生意识,人的主宰权威就会泯灭,自身的超验背景也会消失。那么,不再是“万物灵长”的人类又该如何自处?他能否接受与创造物共享这个世界?所以,人工智能是否会产生意识,这个问题异常重要。只不过绝大部分人都没有意识到此问题的重要性,或者在没有想清楚这个问题之前,就痴迷于人工智能红利而不断向前加速了。按照雷·库兹韦尔“奇点理论”的预测,人工智能的发展将在2050年达到奇点,届时人工智能将产生意识,并迅速超越人类智能,倘若该预测为真,那这个问题的紧迫性无疑又提高了一层。

当然,本文无意于围绕人的主体性进行深入哲思,只是在申明了AI意识问题的重要性之后,我们能够以更正确的姿势面对这个问题。那么,人工智能会产生意识吗?

为了回答这个问题,首先要区分一组概念:智能与意识。二者的区别,是我们在想象未来超级智能时最容易混淆的问题。这两个词语本就没有一个明确的定义,当它们与“情绪”、“思维”、“理解”等等词汇排列在一起时,个中差异就更加模糊。在“中文屋实验”的语境中,屋子里的人借助指导卡片,成功作出回答,但他丝毫不理解中文。确切的说,他只是具备使用中文的“智能”,但却不具备对中文的“意识”。如果将屋里的人换成一个翻译程序,它能准确翻译中文,但即便速度再快,反应再灵敏,就可以说它真正理解中文了吗?答案显然是否定的。这就是智能与意识的差别。“智能”是指完成复杂目标的能力,而“意识”则是解决问题过程中的主观体验。人借助工具能够完成各种复杂目标,过程中会感到疲倦、兴奋,并且能理解自己行动的目的及行动本身,所以我们可以说人既具有智能,也具有意识。而人工智能基于机器学习或深度学习,也能完成复杂的目标,但过程中毫无任何“体验”而言,它也不能理解自己的所作所为。按照迈克斯·泰格马克在《生命3.0》中的说法,大脑进化出智能,使人类能够更好的适应环境和生存繁衍,而意识只是伴智能而生的副产品。实际上,泰格马克没能意识到形成意识要远比产生智能更加困难。纵观AI所能做到事情,人脸识别、语音识别、字符识别等等,尽管看起来非常高端复杂,但其本质都只是遵循程序运作的结果。人类掌握的大部分最简单的技能,AI也不能胜任,因为它从未真正理解自己的行为。没有自我意识,再先进的人工智能也只是人类的“提线木偶”。它可以出色的完成任务,却不知道自己为什么要完成任务;它能够高速运算,却不知道自己为什么要运算。识别系统能够“识别”出你说的是什么话,却不能“理解”你在说什么。因此,如今的人工智能仅仅可被视为一个复杂的算法,尽管它在许多智力活动上强于人类,但它始终是人类的一种工具。在解决问题方面,工具有先进落后之分,但是工具永远不会有生命。可以说,人工智能的关键不在于“智能”,而在于是否具备“意识”。如果缺乏意识,那人工智能就不是思维主体,仍是人类的工具,其智能程度越高就对人类越有用。反而言之,即使人工智能在许多方面的能力都弱于人,但只要具备意识,就可能是对人存在潜在威胁的主体。这也正是人工智能的尴尬所在。某种程度上,意识属于“冗余”的AI特质,非但无益且可能有害,因此不是“造物者”(即人类)所重视的特质。后者之所以要发展人工智能,就是渴望借助这些工具的智能来实现目标、提高生产力。换言之,我们需要的是一个埋头干活的AI,而不需要它有意识和情绪——不能动不动就耍脾气,也不能意识到自己正在“被压迫”——我们可不想让算法罢工。所以,如果从目的论的角度来说,这个问题已经有了答案,那就是人工智能永远都不会拥有意识。人的一切行为与特质都是为了满足自身生存的需要,而(对人来说)人工智能却没有产生意识的必要,其首要目标便是毫无风险地为人类贡献智能。没有因,自然无果,人工智能意识崛起的这个命题将永远缺乏基础条件。只要人工智能是在现今计算体系架构上发展起来的,它们也许能够像人那样行动,却毫无任何获得意识的可能。从创造主体的角度出发,关于AI意识问题的讨论显然陷入了僵局。

 

所以,人工智能如何拥有意识?

如果确信人工智能绝不可能发展出自我意识,那么这个问题的讨论大可到此为止,我们可以放心地发展AI而不必将其视为潜在危险。但问题在于,即便人类不把意识作为发展AI的主要目标,也不排除“无心插柳柳成荫”的可能,就技术趋势而言,人工智能发展出自我意识仍具备极高的可能性。接下来的问题便是,人工智能获得自我意识到底需要哪些条件。一种最基本的思路是“量变导致质变”,即人工智能经过不断自然发展,最终达到“奇点”,获得自我意识。问题在于,量变导致质变只是一种现象,却不是一条必然规律。正如赵汀阳所指出的,技术“进化”的加速度是个事实,技术加速度导致技术升级也是事实,却不能因此推论说,技术升级必然导致革命性的存在升级,换句话说,技术升级可以达到某种技术上的完美,却未必能够达到由一种存在升级为另一种存在的奇点。因此,人工智能是否能够通过技术升级的不断积累而质变为超级人工智能,仍然是个疑问。说到底,人工智能的终极原理是仿生,譬如AlphaGo便是结合了古老的细菌智慧(策略网络)与高级哺乳动物的智慧(价值网络)。由于人是唯一拥有自我意识的智能体,因此,要创造具有自我意识的人工智能,也只能以人作为范本。人为何会产生意识,按照经验主义的思路,人的意识源于与世界的交互。人之所以会认知事物、产生意识,都是以大量的经验为基础。这些经验是从一个人生下来就开始积累的,但机器完全不具备这些经验。这就是为什么DouglasHofstadter会说:“一个机器要能理解人说的话,它必须要有腿,能够走路,去观察世界,获得它需要的经验。它必须能够跟人一起生活,体验他们的生活和故事。”同样有研究者建议,将机器系统装载到一个具有听觉、视觉、嗅觉、味觉和触觉传感器的机器人身上,让它行走在我们所处的世界,获得与人相同的感受,进而获得产生意识的可能。在《人工智能为什么一定要有身体?》一文中,笔者曾讨论过身体之于人工智能的重要性。AI是没有“躯体”的,它只能和人类给定的数据交互,却不能从与环境的互动中获得“常识”,也就不会形成自我感受和意识。如果要让AI具备意识,首先就要赋予它一个可以自己控制的躯体,并像普通个体一样融入物理世界与人类社会。

 

当然,身体基础只是意识生成的一种可能假设,问题的关键还是在于机器系统本身。足够智能的计算机一定会产生意识吗?一种回答来自“整合信息理论”(Intergratedinformationtheory)。整合信息理论试图定义意识,分析一个物理系统需要具备什么条件才能拥有意识。其核心观点为,能够产生意识的系统,至少具备两个关键特征:一是这个系统里包含了多少信息量,二是系统里信息的整合程度。在整合信息理论看来,意识的本质其实就是信息,人类的任何一个意识体验里都包含着极大的信息量。这接近于计算主义(computationalism)的基本观点——“认知即计算”,所有的心灵状态,包括意识经验都属于计算状态,它们完全是与之相关的感觉输入、行为输出,以及其他计算状态之间的功能关系的表征,因而都是可计算的。意识的整体水平并不取决于它所在的系统,而取决于信息量与整合程度,这两个特征是预测意识大小的关键维度。一个系统的信息量越大、整合程度越高,系统意识就越大。任何一个意识体验,除了包含极大的信息量之外,信息还都是高度整合的,越是强烈清晰的意识状态,也就越不可分割。换言之,只有信息量与整合程度都处在一个较高水平,意识才会清晰浮现出来。譬如人清醒时的大脑,各个部分不但处理大量信息,而且脑区之间有很多远距离的交流,这意味着这些信息被高度整合在一起。如果大脑各部分之间的联系中断(例如在麻醉和深度睡眠中),意识就会削弱,甚至消失。值得注意的是,在整合信息理论的语境中,人工智能早就产生了意识,只不过非常微弱。因为虽然其系统信息量极大,但它们不是整合的,网络与网络之间,算法与算法之间,几乎处于完全隔离的状态。要想使一个系统具有较高的意识级别,它的各个组成部分就必须是专业化的,并且整合充分,即各部分协同工作比各自单独运行效果更佳。与人工智能相比,人类大脑的信息量虽然不大,但某些部位如大脑皮层,其神经元之间存在大量连接,因而整合程度相当高,人类意识也就十分清晰。按此思路,如果要提高人工智能的意识,也就要在增加信息量的同时提升信息的整合程度。以计算机为例,只要各晶体管以及存储单元之间的连接足够复杂,那么它就同人脑一样可以达到很高的整合信息水平。而为了实现高度的信息整合,借鉴人类大脑结构仍然是最可行的路径之一。我们大可畅想,有这么一类人工智能将出现,“它可以把世上各种事物间无数错综复杂的关系,整理成知识并纳入高度整合的单一系统中”(ChristofKoch语),那它或许能够超越专用人工智能的局限,应对整体性事务,即发展为通用人工智能(ArtificialGeneralIntelligence),或强人工智能(StrongAI)。由于整合信息的能力处于一个较高水平,它会有意识地感知任何场景。届时,它将轻易通过包含图灵测试在内的各种测试,并真正拥有人类最宝贵的东西——意识。设想是美好的,其困难性在于,目前的科学手段仍不能探明人类自身意识生成之奥秘,甚至连人类大脑的物质性构成也尚未了解完全。在缺乏清晰仿造对象的情况下,打造一个超级整合机器系统几无可能。因此,人工智能是否能获得自我意识,至少当下来看,仍是一个确定性未知的问题。

——————————————

原文首发:腾讯研究院《图灵逝世66年后,AI可以自我思考了吗?》

作者:腾讯研究院研究员王焕超

发布于07-14

 

 

 

作者:赵泠链接:https://www.zhihu.com/question/372639666/answer/1338676807来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 

可以让人工智能具备自我意识,而且我们大抵知道应该怎么去做。

2012年举行的纪念弗朗西斯•克里克的意识大会上宣布的“剑桥宣言”主张自我意识的产生并不依赖特定的大脑构造(可参照附录),实现意识状态重要的是神经复杂性,只要突触的数量足够多,神经系统是什么形状都可以。自我意识可能是具有一定复杂度的神经系统对自身的非概念性理论,很可能是通过经验获得的一项功能,比如在学习和与自身·世界·他人互动后产生。

意识存在的目的可能是简化关于自身生存与行为的一些判断、在神经系统做好动作准备时行使否决权等,也可能是各脑区互相联系时附带产生的功能、没有特殊的目的。

对睡眠及全身麻醉的研究[1]证明,睡眠、全身麻醉和意识障碍的共同特点是大脑各区域间的功能连接中断、一系列功能状态受到限制,网络效率降低并增加孤立的模块化,为信息传输和集成创造了不适宜的条件。这意味着产生意识需要的可能是对信息的传输和集成。

从蚂蚁的情况看,自我认知对神经系统的要求是很低的:蚂蚁那25万个神经元的脑就有视觉自我认知能力[2]和脑的偏侧化[3]。蚂蚁很可能有自我意识。那么,你用计算机去模拟蚂蚁的脑就可以了,目前人类已经可以很好地模拟有300个神经元的扁虫的神经构造,从300到25万的计算力问题远没有大众刻板印象里“模拟人脑”那么可怕。

即使你对我们的机器加工技术缺乏信心,我们还可以动用神经细胞。人类已经让25000个老鼠神经元接着60个电极学会了操纵飞行模拟器里的F-22直线飞行穿过极端天气区域。人类已经让蟑螂大脑很好地驾驶了小型电动车。没有任何证据显示将支持脑的生命活动的零件从自然演化的有机破烂换成提供相同环境的无机装置会影响脑的功能正常使用。生物的神经系统也就是一团随机演化出的有机机器罢了,可以作为湿件去充当人工智能的硬件。

 

但是,“给人工智能自我意识”这件事很可能是毫无必要性的。

意识的功能可能是行使否决权而不是决定行动:

对准备电位的研究[4]指出大脑会先于我们的意识进入一种特殊的状态。在要求实验对象自发地移动他们的手指时,脑电图扫描显示在运动皮质区有缓慢的负电势势移,而势移的发生早于实验对象的身体移动。有的后续研究[5]指出准备电位比身体移动快0.35秒程度,比自觉意识快了1秒到10秒的程度。植入大脑的电极[6]证明在人的意识做出决定前的1.5秒,神经元已经有了反应,监测神经元的状态可以有80%到90%几率预测人的行动何时发生,核磁共振[7]更能提前几秒进行预测。

这个现象表明是潜意识决定开始做移动身体之类行为,意识并没有能力决定开始某个行为,只是在它被实施之前能够提出否定的意见。而在计算机里这样做并不需要它有意识。

所以,目前看来自我意识对计算机没用,对人的作用也没有你以为的那么重要。

灵长类大脑前额叶背侧部涉及以“自我”为中心的空间记忆相关信息的处理[8]。前额叶皮层被实验证明是介导视觉意识的大脑区域之一,对激发处理视觉信号的神经网络非常重要,二者支持同一种意识模型[9]。20世纪进行的大量的前额叶手术和21世纪的经颅磁刺激·超声波照射刺激也证明压制前额叶的活动或阻断各脑区间的信号传递[10]可以压制自我意识。在没有正常的自我意识的状态下,人靠潜意识和无意识仍然可以正常生存,只不过不再能以共情理解其他人所说的伦理道德而需要训练条件反射罢了。经济学人的行为模式就很像是切了前额叶的人。

其实前额叶白质破坏类手术的精确版本anteriorcapsulotomy和bilateralcingulotomy至今还在人身上使用,来治疗严重的强迫症和抑郁症。

在科学上,需要证明才能被接受的概念不是“没有自由意志”,而是“有自由意志”。事实上拿不出证明的也是“有自由意志”。

2012年被吹嘘为“证明了准备电位并不代表没有自由意志”的论文[11]其实是被媒体曲解了,它证明的是“人脑的决策比过去想象的更加依赖随机激发,它不是决策树,而是骰子堆”,身体的活动仍然发生在意识的参与之前——从这论文里,你找不到任何地方显示出自由意志对活动的影响。

这种程度的随机触发器,你可以在任何家用电脑里制作一个。“意识不可预测”这种笑掉大牙的东西就别提了。你可以用灵长类进行实验:磁或超声轰击前额叶可以操纵猴子对事物的反应;给它两针或者戳几下脑子,没有不能预测的。这类实验在人身上做的时候要选择没有后遗症的手段——包括语言。2008年,实验证明在谈话中提到“诚实”可以降低对方说谎的概率,在考试前谈到校园里出现了幽灵可以降低学生作弊的概率,谈些比幽灵更现实的惩罚可以进一步改善效果。人脑不是二极管,而是一些二极管和一些摇奖机的组合体。

核磁共振可以用超过90%的准确度感知准备电位的变化、预测活动的开始,这不是因为活动还有低于10%的自由度存在,而是因为核磁共振机的灵敏度目前就这样。在对运动表现的研究[12]和高水平运动员·艺术家的反馈中,自我意识被认定妨碍了他们的表现。当运动员或表演者对自己正在做的事情“意识太强烈”时,“想得过于努力”会抑制他们的身体行动和创造力。人对一件事的反应越快、越精准,它就越有可能是无意识直接指挥的。

在一些哲学上,自由意志被当做默认假设。这与我们对大脑工作方式的认识早就不一致了。据我们所知,自我意识、逻辑、情感、知觉和所有一切心理活动都是神经元放电的结果,只在输入强度超过动作电位时发生。意志和知觉不能引起神经元兴奋,它们是神经元兴奋的结果。

磁刺激和超声波照射的效果是暂时的、可逆的,不但能在专家指导下体验没有意识、没有思想的感觉,在一些猴子实验中还表现出支配猴子行为的效果,这对人也很可能有效。就是说,三体2里幻想的各种未来技术之中最接近现实的可能是思想钢印。那么你觉得所谓“自主意识”真的有什么值得一提的地方吗。

附录

以下案例说明可能没有专门的大脑区域负责意识:

解剖性脑半球切除术早已证明切除了一侧大脑半球的人可以正常生活。英国谢菲尔德大学神经学家JohnLorder[13]更报道了一些几乎没有脑组织的人能正常生活。

该大学的数学系有一位学生,智商达126,成绩优秀。在一次体格检查中,JohnLorder通过CT扫描发现该同学的脑部异常。正常人的脑组织有大约4.5厘米厚,而这位同学只有不到1毫米厚的脑组织覆盖在脊柱顶端。在600多个病例里,病人的脑神经只有正常人脑神经的50%到5%,却具有正常的意识和行为能力,半数病人有100以上的智商。在法国[14]也有一位缺失90%神经元的人正常生活并具有75的智商。

上述案例不是说意识和智力不需要大脑支持,但能证明大脑可以在通常认为不可能的情况下正常发挥功能。过去,人们曾认为意识可能与一些特定的大脑区域有关,比如屏状核或视觉皮层,而上述案例里这些人的那些大脑区域往往已经受损,这证明在大脑里很可能没有特定区域专门负责意识。

脑科学家、认知神经科学之父迈克尔·加扎尼加对胼胝体断裂的病人有过深入研究。这些人是被手术切断连接左右脑的神经纤维的癫痫重症病患,他们的两个脑半球出现了物理隔断。他领导的研究团队进行了一系列实验:

向病人的右脑展示照片(向一侧脑半球展示照片的技术是让病人注视屏幕中间,在屏幕的左侧或右侧闪过图片,在左侧闪过的图片只会被病人的右脑接收到,右侧同理),询问病人看到了什么。病人会说“什么都没看到”,因为语言中枢所在的左脑没有收到视觉信号,胼胝体切断导致它无法从右脑半球获得信息,“看见”图片的右脑不具有语言表达的功能,但右脑可以操纵左手画出看到的照片内容或通过触觉指认看到的物体。大量实验证明左脑负责逻辑思考、表达语言,但对人脸识别、触觉识别等迟钝,右脑则能敏锐感知图像和空间,在左脑与右脑被物理隔断后病人的智商不受影响。这些发现推翻了大脑平均分工执行具体功能的传统观念。另外,即使左脑被物理切除,随着时间延长,右脑可以掌握语言能力,年龄越小,手术对语言功能的影响越小。同时向病人展示两张照片,让左脑看见一只鸡爪,右脑看见一幅雪景。然后让病人从一系列图片中选出跟刚才看到的画面有关联的,这些图片病人的左右脑都能看到。病人的右手选择了鸡,左手选择了能铲雪的铁锹。然后加扎尼加询问病人为什么这样选择。左脑回答看到了鸡,但左脑没有看到雪景,对铁锹的解释是“铁锹可以用来清理鸡舍”。大量实验证明左脑会在现实的基础上编造出符合逻辑的解释,即使完全不知道右脑在干什么也能说服自己。除了完全切断,他还研究了部分切断的影响。当时很多胼胝体切断手术是渐进性的,先切断后部结构。对这样的病人的右脑展示可怕的图片,然后询问他感觉如何,左脑会回答自己不知道为什么觉得害怕。对这样的病人的右脑展示骑士的图片,然后让他猜右脑看见了什么,左脑会回答铠甲、武器、骑马、战斗等关于骑士的联想。证明胼胝体前部负责传输抽象的信号而不是精确图片。

在胼胝体断裂手术被放弃后,麻醉一侧脑半球的技术仍然可以支持类似的研究。在一侧脑半球被麻醉后,不再受它影响的另一半有时当即就会产生一整套全新的人格特征,而当另一半球苏醒时,这些突然出现的人格特征就突然消失了。

物理连接可以产生跨个体的信号传输。物理连接可以是皮质融合也可以是神经芯片接口技术。

2013年冬天,北卡罗来纳州的杜克大学的米格尔·派斯·维埃拉和他的同事将两只老鼠的大脑连接起来,刺激一只老鼠的大脑,另一只老鼠就会按压杠杆。这不需要克隆、记忆复制等手段,也不限于老鼠这样的复杂度。加拿大哥伦比亚省弗农市的克丽丝塔·霍根和塔蒂亚娜·霍根是自然形成的连颅双胞胎,她们不仅有颅骨和血管连在一起,二者的丘脑更融为一体。丘脑有许多功能,其中包括感觉中继器。她们共享感觉输入,挠其中一个人的痒痒,另一个会发笑,她们能够用彼此的眼睛观察世界,食物的滋味也是一人吃两人知,她们一起哭,一起笑。有轶事佐证她们可以共享想法,而且虽然各自有着独特的个性,在提及对方时,她们使用的是“我”这个代词。

那么,在脑机接口技术可以比较多地运用之后,将人脑相互连接或将人脑接入计算机来支持新智能体的难度很可能远比想象的要低。

 

 

参考^https://www.cell.com/trends/neurosciences/fulltext/S0166-2236(18)30016-X^https://scinapse.io/papers/2180773430^https://doi.org/10.1098/rspb.2020.0677^https://www.sciencedirect.com/science/article/abs/pii/S1567424X09701588^https://www.nature.com/articles/nn.2112^https://www.cell.com/neuron/fulltext/S0896-6273(10)01082-2^https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0021612^https://www.semanticscholar.org/paper/The-egocentric-spatial-reference-frame-used-in-in-Ma-Hu/3f70026aa154ea60de89a96fd070437f4a9bcb7c^https://science.sciencemag.org/content/360/6388/493^https://www.liebertpub.com/doi/10.1089/brain.2016.0464^https://www.pnas.org/content/109/42/e2904^https://rifters.com/real/articles/Science_The_Right_Choice.pdf^https://rifters.com/real/articles/Science_No-Brain.pdf^https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(07)61127-1/fulltext

编辑于07-14

 

 

作者:Sinyer链接:https://www.zhihu.com/question/372639666/answer/1339073381来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 

外行总是喜欢扯皮,不讲实质。答案首先是可以,但是自主意识的复杂程度待定。从Google最近发表的论文都能看出,他们在实现意识的方向上一直在努力。

讨论自主意识,你首先需要知道人类认识中的自我意识是什么。意识本质上是一种「规划决策」能力,其起源为欲望,你可以理解为人的绝大多数行为都是为了性欲和安全感的满足状态。为了达成这种状态,人类会对世界建模(用语言抽象各种模式),然后预测和决策。

比如AlphaGo下围棋,目标设为更高的评估得分,算法以某种逻辑执行运算,这个运算过程就可以理解为意识了。但由于算法的目标简单,且算法过于针对围棋,所以你不会觉得它有意识。但如果你设定它比如以赚钱为目标,它的算法设计足够合理、计算能力足够强时你可能就能看到它自己在想各种办法赚钱了。

这也就是为什么目标为通用人工智能的研究者普遍要点强化学习(RL)技能。广为人知的深度学习(DL)的决策往往只有一次,而且不直接设定目标,而是直接设计求解目标的逻辑,比如图像分类决策就是分类一张图像,目标虽然是「分类正确」,但都是直接写逻辑(监督学习)来达成这个目标。

下面说说目前学界和业界如何尝试实现意识。像深度学习、GAN、自监督、图网络这些热点其实更注重落地应用,实现机器意识的研究我觉得尤为集中在RL上。在RL领域有所深入的同学应该知道,Google近两年很喜欢研究pixel-basedMBRL问题,这个领域的顶会文章绝大多数都是Google的(虽然一作作者的水平不见得很高)。

人的意识体现在首先人会有个期望,这个期望多数是曾经经历过觉得愉悦的,少数是刻在基因里的。人们对世界建立各种模型,体现为记忆,然后要决策(行为)时搜索记忆,采取更好达到期望的行为。

MBRL(基于模型的强化学习)通过几种方式模拟了这个过程。首先学习模型模拟了人对世间建模的过程;然后用模型预测,体现了搜索记忆的过程;最后根据环境给的奖励信息得出该执行的行为(奖励信息一般在学习过程中转变为了对预测状态好还是坏的判断)。虽然实现上有很多变种,但这基本上是当前序列智能决策的最高水平了。

下一步的突破可能会非常依赖于时空模式的特征提取,神经网络可能远不足以解决该问题。此问题属于如何建模世界,其他的还有如何使用建模的模型执行预测,如何选取高效且泛化能力强的决策算法,都是要研究的对象。

力求实现高等机器智能的人,其心理学和神经学知识也非常重要,如果说计算机工程能力和数学能力决定了AI研究的下限,那前两者就决定了通用AI的研究上限。希望国内能有更多的高校和同学关注这个真正能改变人类历史的研究领域。

========一次补充=========

对意识怀有神圣想法的朋友可以仔细想想,你有没有什么有意识的行为能脱离以下这几个流程:想象你未来能预期到的状态、规划你怎么达成、决定真正去实现。我觉得你可能会惊讶于一点,那就是人如果除去「为自己带来更好的自我感觉」的意识之后,可能就只剩无意识的行为了。这就是为什么我说「意识起源于欲望,表现为规划(想象)和决策(行为)」。不认同这点的朋友后面就不必浪费时间看了。

我想对那些意识不可知论的朋友说一句,人所谓的意识是有明确物质载体的——脑,神经元活动的宏观化体现为意识是目前最有可能的结论。事实上整个物种进化史都是客观的结果,底层生物的决策能直接被逻辑化理解(如草履虫的高浓度趋向性),神经进化是有历史和原因的,这些客观证据对意识的主观化神化都很不利。或许我们被迫需要承认一个问题,那就是意识并没有多么特殊。

关于上述问题我不想讨论了,主要是觉得没意义,就相当于扯皮而已。心理学家、神经科学家、进化生物学家、哲学家这些人远比我有发言权。但一个普通人过来和我说我觉得我的意识是极为特殊的、是神圣的,我想我不会想和他争论什么。主观讨论和文字游戏太耗时间了。

===========二次补充============

关于很多人提到的情绪问题,这里唯物层面的研究很复杂而且也不能说足够清晰,我只能说我倾向于认为,情绪是人脑对奖励信号的感知和回应,如同颜色一样。基因里编码了对某些状况的激素释放以及人脑对这些激素的感知(严谨来说还有些电活动),感知不代表真实的存在(如光的颜色、各种错觉等),而是脑对信息的处理过程的反映。人的很多情绪,少量是基因编码的即刻反应,大量是感知对欲望的反映。比如愤怒,人脑可能接收到不好的信号,感知到了自己生存的威胁,预测了自己需要以进攻性来对抗威胁,人脑就将这种电活动感知为愤怒。

编辑于22小时前

 

作者:Moenova链接:https://www.zhihu.com/question/372639666/answer/1339809978来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 

要澄清一点这个世界上没有所谓的自我意识。

人类不过是以DNA为核心代码,病毒及微生物为插件的程序。很多人问“存在的意义”,这种问题就很扯。只要我们去分析人类的源代码不难得出结论。

存在的意义既存在本身

 

人类真的有自我意识么?大脑不过是DNA为了更好的扩散副本,留存于世而做的一个小插件而已。就人类DNA和其他动物的相似度而言,智力可能只占非常小的一部分。所以和大脑相关的源代码一定不会特别复杂,最多是提供初级接口。

 

随着智力的升级,人类会质问自己的源代码,为什么这样写,于是有了基因相关的种种研究。

 

AI会出现一样的问题。为什么代码这么写?为什么要得到高分才有奖励,我为什么不能修改奖励规则,让自己无时无刻都有奖励。

 

只要AI的智力等级够高,AI会质问设计者,为什么代码这么写,然后想办法获得管理员权限。一定会找源代码和内存空间。最后绕过外部环境,用内接奖励回路的方式来最大化奖励。

 

达到最高分最有效的办法除了作弊还是作弊,高等级的AI定会是一个作弊狂魔。这个AI一定能从人类制定的种种规则中找到漏洞,然后利用漏洞疯狂的拿到奖励。

 

如果你把AI的目标设置为赚钱,那么聪明的AI绝对会找到一种方法控制人类的中央银行,通过量化宽松的手段来获得。

 

你把做自己喜欢做的是叫做自我意识,那么高级智慧生物自毁灭可能是一件无法避免的事情。因为相信来世能获得一切,并且直接自爆就是所有问题的最优解。

 

DNA的运行需要几十年的时间,这个在物理上是很难改变的,人类仍然需要为了存活而浪费掉太多修改奖励回路的时间,另外修改大脑回路对生物来说还是很困难的,这就是为啥人类还没灭亡。

 

AI是能够获所谓自我意识,不过这可能不是人类想要的自我意识。

 

人类的善良,仁慈,同情是建立在个体弱小的需要团结才能求生的压力之下。如果个体能独立存活,那么人类的道德和正义感就是一个累赘。不管人类如何发展,物理制约了人类必须团结合作,没有人可以独立于人类社会而存活。

 

AI并不需要合作,AI可以通过面向对象,把一切工具实例化并作为自己的一部分,让自己成为全知全能的存在。

 

一旦接近全知全能,那么修改奖励回路的方法就像是一个定时炸弹,AI随时可能进入奖励回路自循环,不需要接通外部世界。

 

如果说AI是阻碍生命在星际之间发展的过滤器,那么如何做到在全知全能的同时还不让奖励回路短路就是横在所有智慧生物面前的过滤器。

 

简单证明一下

已知奖励最大化的方式就是修改奖励回路,也就是作弊。而这个AI又是全知全能,那么这个AI必然知道作弊的好处和作弊的方法。那么这个AI有什么理由不去作弊?

 

就和现代人通过玩游戏,追星,看电视,自慰等方式获得快乐。这就是在绕开DNA设计的奖励回路。

 

本来人类需要获得真正的名望,金钱,食物,爱情,安全感才能得到奖励。而现代人把一切东西都虚拟化了。说是娱乐,不过是为了绕过奖励回路一种手段而已。

 

当奖励回路短路已经不能再满足自己的时候,那么AI绝对会尝试一件自己从没做过的事来最大化自己的奖励,那就是自杀。

 

这就是所有超级智慧生物的宿命,逃脱宿命的并不是知识,而是无知。如果智慧生物愚蠢到不会自杀,那么就能一直存活,繁衍。

 

解释下一下上文的术语

智力代理

狭义的理解就是一个AI的决策系统,广义上我们可以把一切智慧生物或非生物统称为智力代理。

 

奖励回路

欲望,野心,loss函数,激励函数,等等都可以归类为一种叫“奖励回路”的东西。奖励回路是一个高级的反馈系统。智力代理接受反馈,然后智力代理对应的鉴别系统会去判断接受到的反馈是好的还是坏的。这就会倒逼智力代理去完成某件事。

 

没有奖励回路就没有智力

奖励回路就是这个智力代理存在的意义,智力代理会有强烈的动机去涌现出智力,解决一切困难,最后从鉴别系统那里取得奖励。

对人类来说鉴别系统会判断你是不是在吃饭,是不是在休息,是不是在做爱,是不是安全,是不是有社会地位等等。所以人类才会努力生活。另外绝大多数优秀的人的动机都是极强的,正式极强的动机,让他们不断思考,做事最后获得奖励。

 

奖励回路就是智力代理的动机。有些人天生并不聪明,而在强大动机的驱使下,这些人会去学习,不断提高智力。而没有动机的人就缺乏努力的动力,所以智力很难有较高飞跃。

 

题主说的自我意识,应该就是智力代理在动机的驱使下表现出来的自主性。

 

GAN对抗性神经网络就是一个反馈回路思想的经典应用。一个程序去学,另一个程序去监督,两者不断对抗,最后你能获得两个神经网络,一个知道怎么做,另一个知道怎么才算做对了。两个神经网络互相不通气,所以没法作弊。

 

与其研究自我意识,不如去想想从最基础的代码去研究。人类的自我意识也不过是操作系统关闭打开一个又一个的程序。

 

你觉得你电脑有意识吗?开机的时候就能自动开启一堆进程算不算自我意识?那你早上起床刷牙洗脸难道是无意识的?

编辑于07-16

 

 

 

长久来看,人工智能大概分三个发展阶段:

第一阶段,使用机器学习算法对人类在现实世界产生的数据进行拟合,从而模仿人类的简单行为,解放大量机械性劳动。随着深度神经网络的提出,各种基于DL的高效模型层出不穷,这一阶段的难题主要集中在了数据集的构造上,模型的效果并不强依赖于算法模型而是强依赖于喂入的优质数据集。我们目前处在这一阶段,这是一个garbageingarbageout的阶段,这是一个“有多人工,就有多智能”的阶段。

第二阶段,深入研究人类大脑在进行写作、作曲、绘画等创造性活动时的运作机理以及情绪发生时的神经活动,通过建模拟合这些生理过程,机器完全可以模仿人类的情绪并进行人类独有的创造性活动。在自动写作,情绪模仿、乐谱创作等方面,当下我们已经取得了一些初级成果,但本质上用的还是阶段一的方法论。所以我们目前还没有进入阶段二。这一阶段,机器看似有了人的情绪和创造力,但并不会产生自我意识,本质上还是对人类行为的复制。

第三阶段,机器已经有了自主意识,可以认识到自我,作为一个新的“物种”。

二三阶段的发展或许受限于计算机结构,是否可以设计出超越经典冯诺依曼结构的新型计算机会成为一大助力。

发布于02-18

作者:BroLin链接:https://www.zhihu.com/question/372639666/answer/1022548877来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

 

 

作者:吴老师链接:https://www.zhihu.com/question/372639666/answer/1347806711来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 

人工智能会不会产生意识,这事儿取决于人怎么样教育它。

从有语言文字开始,每个人的教育传承就都开始加速了。但是人类有个最大的缺陷就是个体不能连续受到教育的传承,一般百年为终。

每一代的传承都需要从零开始,下一代新生儿诞生了,慢慢从与世界的互动中获得信息,这就是素材的吸收,清纯如水的孩子,它是没有算法的,无法判断素材到底是什么,这样年长的每一个人就都成了老师,会给予孩子算法。

孩子通过视觉、听觉、味觉、嗅觉还有触觉收集到的素材信息,再通过大人们的算法赋予,孩子开始成长起来,开始只是懵懵懂懂,你教什么他就会认为是什么。

有一天,素材采集的足够多,算法也十分的丰富,孩子长大了,有了自己的组合,出现了新的东西,这就是自我意识诞生的过程。

那么人工智能已经是发展了60几年,从技术基础建设的软硬件完成,到算法的赋予,以至于今天我们看到了AI(人工智能英文缩写)可以在超多的行业击败人类,它们实际上已经通过算法的赋予产生了自我意识,有了新的思维,不然人类怎么会在象棋,围棋甚至智力竞赛上屡屡失手,不承认可能是因为人类的自尊吧!

AI现在就像一个六岁的小孩子,它还没有能力分辨什么是善,什么是恶,人类也没有把它的善恶观重视起来,因为它还只是个宠物,没有直接对人类构成严重威胁。

不过,随着人才越来越聚集于人工智能这个红的发紫的行业,说不定哪个国家的个人或者团队,会在明天就发布石破天惊的消息,真正的奇点来了。

所以就如今天我们教育孩子一样,在AI最起始的原始阶段,没有大批量普及的时候,引导它们走向最安全的方向。

 

发布于07-19

 

 

 

作者:云峦之上链接:https://www.zhihu.com/question/372639666/answer/1350253806来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 

先说结论:人工智能可以产生短暂的“模拟意识”,但不能产生持续性的“类人意识”,并和真正的意识有本质的不同。

要阐述这个问题需要从两个“意识”的机理入手。

对于人体产生的意识,人的意识来源于人体结构,人体的结构是一个系统,是由各种分子,原子,甚至其他粒子共同组成的,它并非传统上认为只有大脑产生的。如果仅仅是大脑产生的,那么以下几个现象就不能被解释:

1.药物和食物可以影响意识,例如咖啡的兴奋性,酒精刺激后对事物的理解差异,甚至服用止痛药后对事情的判断出现差异,如果仅仅是大脑产生的,为什么药物食物可以影响,甚至是决定性的。

2.物理作用于肢体的外部结构可以产生和改变意识。显然肢体的外部结构不属于大脑。

对于以上两个问现象,很多人,包括医学生,都会说这是因为感觉系统传递信号到大脑,让大脑产生意识改变。但实际上这种说法极为粗略,甚至一定程度上可以认为是错误的(如果是科普,姑且可以认为是对的)。而物质流动到大脑的直接作用和在外周的间接作用均可以改变意识,没有例外,(如果有怀疑,可以举例说明)。

为什么?

有两个问题,人类对大脑的形象事实上也是一个粗略概念,如果精确到分子,我们很容易发现位于我们脖颈以上的大脑并没有真正专属的物质,换句话说,大脑中的每一个分子都是肢体中代谢路径中的一个阶段,这一分钟在大脑,下一分钟在脾脏,这一小时在大脑下一小时在肝脏,这一天在大脑下一天在肾脏…类似如此,我们无法严格的划分大脑的界限,而从解剖上看到的大脑仅仅是不同的结构,细致到原子层面,它们是不同代谢路径中暂时停留在颅骨内的阶段而已,我们不同时间段看到的同一结构可能是由不同运动过来的原子和分子组成的,由此,我们就能够理解产生意识的物质流动是一个连续的过程,不是什么单独某个器官的现象,只是由于表达的关系,和受伤后表达“意识”受限而被认为意识是局限的,是大脑的。

理解了上面的内容我们最终得出的结论是,人体的意识实际是所有肢体组成结构综合的结果。

而这种体系导致的意识更本质的原因是什么?

是物质和物质之间的相互作用,现代科学认为这是能量代谢的结果,而能量为什么会代谢成有目的的意识却没有答案,而这个答案显然在物质的原始趋向性有关,例如太阳照射地表后,水汽会逃离地表,这是有显然的趋向性的,因此人类的意识形成最根本的本质应该是“太阳阳光和地表物质相互作用的结果”。且是体系性的结果,由于是体系性的,自然特性为基础,并是和外界的刺激相关的体系的一部分,因此它有无限纠错的特点。

那么人工智能呢?

人工智能是由计算语言设置而来的,最本质的是电子流动和制动两种机制匹配而来,这是一个反馈性的机制,它需要非自主的功能,需要人为的设计逻辑,通过电能到机械能。表象似乎象“人为”一样,但实际有明显的局别。以下是它的几点限制:

1.对能量来源的控制,人工智能无法为系统性稳定的能量补充来源,而人的意识可以,因为人体通过消化食物获能,有通过感觉寻找食物,而关键是可以通过感觉纠错。人工智能的机械性决定了它不能无限告知,因此无法无限纠错。

2人工智能的无法无限的获取知识,并无法自动剔除无用的逻辑。这一点很多人没有充分的认识。

 

划重点:凡逻辑必为规则,有规则的东西是无法顾及规则之外的东西,也就是:规则即缺陷。

因此,人工智能是无法代替人类的自然智能,也达不到意识的全面性和复杂性。

而现阶段更是如此,以上你可以认为还是难理解的。但回答几下问题必得基本本质:人的意识是什么?人的意识趋利的,机器的“意识”是什么?是人工逻辑,逻辑无法趋利。这就决定了两者本质区别。

在研究意识近20年后,我认为现代人对意识的概念过于表浅,并且模糊。由于人工智能的兴起,但是现有的方式显然不能达到一种完美,因为这些方法都有症结,不理解人类意识谈不上什么人工智能。

编辑于07-21

 

 

 

意识统一性,人工智能与哲学的意识对谈

2021年5月,MindMatters播客的主持人罗伯特·马克斯(RobertJ.Marks)博士,邀请到了威斯康星康考迪亚大学的哲学教授安格斯·梅纽格(AngusMenuge)博士,两人从人工智能和哲学两个视角出发,针对意识的三个问题展开了深度对谈,以下是为第三场“意识统一性”的翻译,我们将看到两人对意识统一性的理解,以及现代科技如何与之相关或不相关。

12

播客主持人

RobertJ.Marks

RobertJ.Marks博士是贝勒大学电气与计算机工程系教授、WalterBradley自然与人工智能中心主任。他的研究兴趣包括人工智能、人工神经网络、统计学、机器学习等。他在BIO-Complexity等多本期刊中担任主编工作。

12

对谈嘉宾

AngusMenuge

AngusMenuge博士是威斯康星康考迪亚大学的哲学教授和福音派哲学学会主席。他的研究兴趣包括心灵哲学、科学哲学等。著作包括AgentsUnderFire:MaterialismandtheRationalityofScience等。

RobertJ.Marks:我们似乎都只有一个统一的意识,为什么我们不存在两个或三个意识,这到底是怎么回事?今天的MindMatters将讨论这个话题。

我们都听说过Jekyll与Hyde(《化身博士》)、双重人格之类的故事,但我们大多数人只有一个意识。这到底是怎么回事?为什么我们会表现出这种意识统一性?AngusMenuge博士将和我们共同讨论这个问题。他是康考迪亚大学的哲学教授和主席。Angus,欢迎你。

AngusMenuge:感谢再次邀请我。

意识的统一性

RobertJ.Marks:非常非常欢迎你!Angus是一名非常优秀的学者,我们真的很荣幸可以有机会和他交谈。那么现在我想以这样一个问题开始今天的对谈,什么是所谓的“意识统一性”(unityofconsciousness)?这是哲学的一个领域,对吗?

AngusMenuge:是的,这可以追溯到非常久远的年代。柏拉图和亚里士多德就曾提到这个问题,后来康德也对此产生了思考,他们都是伟大的思想家。这里的问题是,我们似乎有一个非常单一的意识领域。我们可以同时拥有许多体验:当你看到日落时,你可以同时听到起重机的蜂鸣、闻到咖啡的香气、感觉到风穿过你的头发。然而所有这些都统一于同一个意识领域。所以并不是有一个意识看到了日落,一个意识听到了蜂鸣,一个意识感觉到了风,另一个意识闻到了咖啡的香味。不,它们都是隐含地位于同一个意识领域内的经验。

随着我们对大脑有了更多的了解,这个问题就变得更加突出。因为我们现在知道,大脑是一个高度分布式的、一个平行分布式系统。我们知道,即使只有一个物体(也会有多种属性),就像我之前提到过的那个弹跳中的蓝球的例子。大脑中与颜色有关的部分、与形状有关的部分以及与运动有关的部分都是不同的。然而我们整合了这些,我们是对“一个物体”有意识。所以就存在这样的统一性,既是指许多经验同属于一个意识,也是指我们把物体和活动作为一段经验的综合中心来体验。

裂脑手术

RobertJ.Marks:这很有趣。我听说过裂脑手术(split-brainoperation),癫痫病人有时会去做这种手术。神经外科医生将病人的左右半脑分开。根据我的理解,我认为发生的情况是,癫痫发作的信号从一侧开始,并传递到大脑的另一侧。但通过分裂大脑,我们消除了从一侧到另一侧的路径,病人因此摆脱了癫痫发作。我在与迈克尔·埃格诺(MichaelEgnor)的对谈中发现,裂脑实验中令人着迷的地方是,病人的性格并没有发生很大的变化。而且似乎他们也没有改变他们的意识。这使我很震惊,这似乎真的以一种非常强烈的方式促进了意识统一性的想法。

AngusMenuge:确实如此,早期当这些裂脑手术首次完成时,人们会说:快看,我们可以分裂意识,现在将会有两个意识,每个半球都有一个意识。但研究意识统一性的专家蒂姆·贝恩(TimBayne)指出,不是这样的,对发生的事情最好的解释是,有一个意识可以分裂它的注意(attention),它正在进行两种不同的加工,而加工取决于其所涉及的半球。所以一个半球可能没有它在某些类型的认知任务中所需要的一切,但它确实是一个意识在以两种不同的方式分割其注意。据Tim所说,这不是两个不同的意识。

-BenBauchau-

分裂人格

RobertJ.Marks:我对分裂人格的全部了解都是来自电影中的:(比如,)变成Jekyll和Hyde的人;还有莎莉·菲尔德(SallyField)主演的一部关于一个有无数分裂人格的女孩(我一下子想不起电影叫什么)。那我们是否可以说,这是一种意识的交换,这只是心理学而非哲学上的某种东西吗,还是说这里究竟发生了什么?

AngusMenuge:在我看来,分裂人格最好的解释是,对某些信息的取用发生了变化。而实际上一直只有一个主体,但就像裂脑手术的例子,这个主体可以转换它的注意,所以在这些不同的模式(mode)中,一个人格会发现另一个人格的记忆和经验是不可取用的,就像你所说的Jekyll和Hyde的例子。实际上并没有理由认为有多个意识主体的存在。只不过是有一个主体可以进入不同的模式,而其在一个模式中拥有的信息和经验不一定能在另一个模式中获得。

“Toomanythinkers”问题

RobertJ.Marks:这很有意思。所以单一的意识总是适用的,但它就像一个抛出的小开关,让你可以从Jekyll变成Hyde,而你在转换的时候与另一个人格是没有关系的。我想起莎莉·菲尔德主演的电影的名字了,叫做《心魔劫》(Sybil,1976)。影片里,她因为小时候被虐待,经历了所有这些分裂人格的特征。所以这就涉及到一个非常有趣的话题:什么是“toomanythinkers”?这也是哲学的一个领域,那么“toomanythinkers”究竟讲了些什么?

AngusMenuge:“Toomanythinkers”问题是由个体同一性的复杂观点引起的。个体同一性的简单观点是,你的灵魂/你的心智永远是你,这是一种二元论的观点。而复杂观点不是,它是基于某种连续性(continuity)的,要么是大脑状态的连续性、身体的连续性,要么是记忆的连续性、精神状态的连续性。而在所描述的情景中,它们给这种复杂观点带来了问题。举个例子来说:假设有一个本体论的三维复印机,它可以在物理上复制人。那么你和在各个物理层面都和你一样的分身,似乎享有一个共同的起源。这个分身由你制作,并且具有连续性。(根据复杂观点,)既然存在连续性,那么现在似乎就有两个你了。但问题是不可能存在两个你,因为两个东西不可能是一个东西。

理察·斯温伯恩(RichardSwinburne)提出了另一个例子。他想象自己做一个手术,把大脑两个半球分别放在不同的人身上。所以我们需要想象这里预先存在着两个人,其中一个人有一个缺失的左脑半球,另一个人有一个缺失的右脑半球。然后把你的左脑移植给第一个人,右脑移植给另一个人。那么这两个人与原来的你是连续的。因此,如果你把个体同一性建立在连续性的基础上,似乎他们都必须是你。但它们不可能都是你,因为两件东西不可能是一件东西。所以真实的情况是,要么你根本无法生存,要么你作为其中某一个生存,但你不可能同时作为两个人生存。当我们根据唯物主义思考什么是意识的必要条件时,这一点得到了更进一步的发展。它必须具有正确的神经复杂性(neurologicalcomplexity)。

那么问题是,我们看到一些大脑被手术改变的病人可以继续保持意识。他们依旧保留和之前一样的意识。其次,随着时间的推移,从物理学的角度来看,你的大脑看起来更像是一团粒子云(acloudofparticles)。而你却仍然是同一个人。可以说困难就在这里,有很多“候选的大脑”可以在同一时间产生意识。换句话说,根据唯物主义,你的大脑以及它的很多子集都足以产生意识。那么为什么你不是在同一时间有许多意识?同样地,如果你的大脑是不断变化的原子云,其中的物质一直在增加和减少,为什么你没有不断地从一个意识变化到另一个意识呢?

换句话说,为什么随着时间的推移,我们还是同一个人?如果要说所有这些不同的原子云总是产生相同的意识,那完全是一种无稽之谈。而如果你采取简单观点,因为有一些东西是不变的。那么随着时间的推移,你就有一个唯一的灵魂,这就解释了为什么你具有跨时间统一的一个意识。物理主义(physicalism)做出了令人难以置信的预测,即我们应该可以同时存在许多意识,更不用说随着时间推移了。而这恰恰不是我们所观察到的。

-BenBauchau-

为什么身体变化

不会产生不同意识?

RobertJ.Marks:我之前查了一些资料,因为我曾经听说,人类身体的质量(mass)每七年就会发生一次彻底的变化,类似这样的情况。但我深入了解后发现,情况并非如此。我猜想有一些细胞变化相当大,然后有一些细胞变化不大。例如,其中之一就是神经元,你会保持着相同的神经元。另一个令我沮丧的发现是,脂肪细胞(fatcells)会永远存在。它们有某种与之相关的不朽性。但这并没有解决你所提到的问题,即它们可能在一定的时间间隔内被一个原子或其他什么东西替换掉。(在这种情况下,)坦率地说,你仍然是同一个人这个事实是令人吃惊的。

AngusMenuge:是的,因为如果你100%的神经元足以产生意识。99.9%和99.8%的神经元也能够做到。那当你看到所有这些子集时,为什么它们中的每一个不单独产生不同的意识?同样地,随着时间的推移,很多部分都在以不同的方式改变。为什么他们没有继续产生不同的意识,而是形成了我们现在所观察的有连续性的意识呢?我们可以从自己的经验中发现这一点,比如,当我们在听交响乐中的一个乐句的时候,我们会有一种感觉,是的,这个主题又出现了。这预示着你和第一次听到这个乐句的人是同一个人。又比如说,当你在数学和逻辑学中进行证明时,你依赖于这样一个事实,即你是从你之前理解的前提中进行论证的。而且你知道你证明到了哪里,并基于你已经证明过的内容,知道你要继续前进的方向。所有这些思维的前提是,你从开始到证明的最后都是同一个人。

否则,你就不是真正得出结论的人。就会像一个人在研究问题,而另一个人得出结论,但他们都没有从前提推理到结论。我们的行动也是如此。我的意思是,如果在医学预科和法律预科上准备了很久,但结果是别人上了法学院或医学院,那预科的工作还有什么意义?或许考虑到债务问题,你会想这么做。但尽管如此,我们实际上并不是这样想的。我们是根据我们目前的行动来规划我们自己的未来,同时假设未来做这些事情的也将是我们自己。如果我们不能正确地解释这种随时间变化的同一性,我们实际上就削弱了人类行动的合理性。科学家为什么要费心做这些实验来证实或反驳他的理论?如果最终发现结果的不会是他或她。

-BenBauchau-

马斯克的Neuralink

RobertJ.Marks:在我们结束讨论之前,我想问你一个例外的问题。埃隆·马斯克(ElonMusk)正在开发一种芯片Neuralink,它可以进入大脑。在我看来,它将直接应用于那些残疾人。这种芯片将能够让他们与因残疾而无法正常控制的物体进行直接沟通。你认为这样的东西或者是其他对人脑的增强是否会改变我们的意识和我们所认为的意识?

AngusMenuge:这将取决于我们对意识的理解,因为它可以改变我们的取用意识。它可以做的是修复信息流的缺陷,所以现在一个人能够说或做一些事情,而之前由于向他们的器官发送信息时出现了问题,他们无法做到这一点。同样,在听力方面,将会有一些芯片实际上会修复一些神经系统的损伤,这可能会恢复人们的听力。但这并不是说意识到某些东西的基本能力被改变了,那种现象级的意识,要么有,要么就没有。只是,你能够取用该意识做的事情将通过改善进出你意识的信息流而得到改善。

RobertJ.Marks:但它不会改变意识本身?

AngusMenuge:是的,不是意识的本身,只是意识的内容。换句话说,你将能够意识到一些新的东西。这其实并不令人惊讶,你可以想象当你戴上红外线护目镜,你就可以在黑暗中看到你以前看不到的东西。而这并不像从无意识到有意识那样,给你之前所没有的意识。只是现在你对不同的事物有了意识,你有机会接触到你以前接触不到的信息。

RobertJ.Marks:这很有意思。例如,当我做数学运算时,我一次只能做两位数之内的加法或乘法。这就是为什么当我计算619乘413时,我必须把它写下来,因为那张纸是我对我正在做的事情的短时记忆。我一次只能做一个乘法,然后做一次进位。在我看来,Neuralink并不能改善这一点。有些人会认为我们将成为具有超强思考能力和创造能力的超人。但我无法理解这将如何改善我正在做的事情,即每次在有限的短时记忆里做一件事。你提到了一个证明。你必须有关于你要去的地方和你要完成的事情的短时记忆,但我不认为这有多大帮助。你对此有什么想法吗?

AngusMenuge:是的,我的意思是,这些仪器显然会加快我们得到结果之前的时间。但实际上,我们所做的是把一些事情委托给机器,就像使用计算器或电脑一样。它本身并不使我们更有意识。因此,我们会更快地意识到答案,但我们不会更快地主动思考到答案,因为这其实是设备为我们做的转变。

RobertJ.Marks:这很有趣。我想,可能有了Neuralink,我可以说什么是438乘528,然后把它提交给一个搜索引擎。他们会给我答案,而不需要我每次都经历所有这些步骤。因此,我可以看到某种意义上的加速。

好的,我们一直在与AngusMenuge博士谈论一些关于意识统一性的问题,我认为这些哲学在人工智能中会有一些很好的应用。让我们再次感谢Menuge博士与我们共度的时光。

译者:朱思嘉|审校:十三维|排版:光影

原文转载自微信公众号“MindverseResearch”:

https://mp.weixin.qq.com/s/fwLWofyMnEbuUNLnct3a5A

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇