算法·深析|人工智能可能有情感吗基于海德格尔哲学的思路
人工智能是否可能具备情感呢?我们是否能够让人工智能具有喜怒哀乐呢?在学术界,还真有一个专业的方向去研究此类问题,此方向的学名叫“人工情感”。然而,目前主流的人工情感研究,其注意力乃是放在对于人类情感的自动检测之上的,而不是放在如何对于计算机自身的情感模型的建模工作之上的。换言之,这样的程序或许能够发现你处在亢奋之中——然而,这样的机器本身却不处在任何一种心理情绪之中。
有人或许会问:我们为何要设计出自身具有情绪的人工智能体呢?难道“始终冷静”不应当成为人工智能体胜过人类的优点之一吗?
笔者认为,这种观点忽略了情绪能够对认知效率的提高所能够做出的贡献。具体而言,在认知任务所需要消耗的资源总量相对有限的情况下,针对特定任务的适当的紧张情绪,的确能够协助认知主体将认知资源首先绑定在相关任务上,由此提高主体对于环境的适应性。情绪的这一功能不仅适用于人类,也应当适用于人工智能体,因为对于人工智能体来说,认知资源总量的有限性依然是制约系统性能发挥的一个最重要的边界性因素。此外,如果我们希望未来的人工智能体需要与人类产生紧密的人—机协作的话,我们就必须预设机器能够对人类的情绪能够产生基本的共情——而这种共情本身也将倒逼人工情绪的研究能够更上一层楼。
然而,需要注意的是,很少有人系统意识到德国哲学家海德格尔的情绪理论对于人工情绪研究所能产生的启发意义。现在笔者就将这个话题,略发表几点管见。
我们知道,海德格尔的现象学被称为“此在现象学”(“此在”的德文是“Dasein”,这是海德格尔对于现象学主体的一种富有个性化的表达方式)。他在对此在的生存结构进行描述的时候,引入了所谓“本真性存在”与“非本真性存在”之间的二元区分,并通过这种区分凸显了此在之存在的“本己性”的不可消除性。为了理解“本真性存在”与“非本真性存在”之间的二元区分,我们不妨回顾一下美国电影《人工智能》中的一个情节。在电影中,一对夫妇因为丧子,而收养了一个叫“戴维”的小机器人,以作为原先爱子的替代品。在一种高度理想化的科幻场景中,这样的一台机器人当然是按照完美的人工智能产品的设计蓝图而运作的:它能够理解人类语言,产生与人类意向很类似的意向,甚至也貌似与人类分享了类似的生活世界图景。然而,这样的一台机器人依然难免为自己的存在的“本己性”而苦苦思索:它需要周围的人类将其确定为一个不可取代的、且具有唯一性的存在者,而不仅仅是一台可以被随时加以复制、销售、购买与销毁的机器。这种思索其实迫使“戴维”走向了某种意义上的形而上学思考,譬如康德对于人之本质的思考。用海德格尔的哲学术语来说,当“戴维”进入这种思考的时候,他就完成了从“非本真状态”到“本真状态”的跃迁。
很明显,在上述科幻电影的场景中,戴维自身的机器人身份,以及周围人类对于这一身份与人类自身之间差异的警觉,是促使戴维思考其自身存在之独特性的重要契机。而与之相较,在思考者本身就是人类的情况下,这一警觉本身往往就会被日常俗务的平庸性所淹没。在海德格尔看来,这种淹没的结果,就是所有个别的人都被统一塑造成所谓的“常人”(德语“dasMan”)——亦即缺乏自己的主见,根据集体行动的大趋势而人云亦云的社会成员。
——那么,对于上述这种“常人状态”的摆脱,又是如何可能的呢?海德格尔所给出的答案乃是“向死而生”。简言之,在他看来,此在恰恰是意识到了死的不可替代性,以及死对于其所有生存可能性的终结性意义,他或她才能意识到自身的存在方式的独特性。
需要注意的是,在海德格尔哲学的语境中,“向死而生”的机制的成立,并不是归纳逻辑的运作所导致的衍生品(比如这样的一种归纳:因为张三死了,李四死了,所以,看来我也会死),因为“无论遭遇到多少死亡案例,我们都无法计算出死亡的确定性”。或说得更清楚一点,在海德格尔看来,在日常的闲谈中对于死亡事件的涉及,仅仅是将死亡当作一个自然事件来看待罢了,而不是将其视为对于本己的可能性的总的终结。前者与后者之间的根本差异体现在:对于死亡的谈及本身是一种在可能性空间中的“占位者”,而这种谈论本身就预设了死亡的反面(因为只有活着,才能谈论别人的死亡);而与之作对比,具有本己性的死亡,却恰恰意味着这上述这整个可能性空间自身的湮灭(因为倘若连自己都死了,也就没有资格进行任何闲谈了)。或换个角度来表述:前一种对于死亡的讨论具有对于死亡的“类型化”处理倾向(即将所有人的死亡都视为一类),而后一种对于死亡的涉及才真正具备了死亡的“个体性”(即将“我的”死亡放置到一个比其他任何人的死亡更具基础地位的层面上)。而恰恰是这样的一种死亡态度的产生,才为一种最具“基础本体论”意味的情绪——“畏”(德语“Angst”)——的产生,提供了最重要的契机。具体而言,与具有意向性活动特征的情绪“怕”不同,在海德格尔的笔下,“畏”的对象不是具体的事件(如怕考学失败、婚姻失败,等),而是所有事件展开之可能性的终结——换言之,“畏”的对象乃是对于所有存在的虚无化,或者是对于各种用以体现个体价值的具体行为的总的终结。从这个角度看,海德格尔而所说的“畏”是不能被庸俗地理解为“贪生怕死”的(因为庸俗意义上的“贪生怕死”,仅仅是指对于荣华富贵等通常意义上的俗常生活的留恋),而只能被理解为对于本己性的丧失的恐惧。
海德格尔的上述阐述,显然带有非常强的文学色彩。那么,一个最终面向工程学实践的人工情绪的研究者,为何要对海德格尔的上述现象学描述表示出兴趣呢?笔者认为,上述这个问题其实是可以被置换为如下两个更为具体的问题的:
既然海德格尔对于“畏”的讨论是以“向死而生”的现象学结构为基础的,那么,我们需要在人工智能体内植入“死”的概念吗?
我们又该如何在人工智能体内植入“死”的概念呢?
笔者对于第一个问题的回答如下:
在现有的人工情绪研究的主流模型——OCC模型——之中,对于情绪的标记都是以对于特定目标与特定现状之间的差值评估为前提的。因此,情绪的产生本身的真正驱动力,便主要来自于外部环境与其一般认知架构之间的互动活动,而与特定认知主体的个性设置关系不大。从这个意义上说,现有的认知科学情绪模型,都是海德格尔笔下的所谓“常人”模型,而缺乏对于“本真性存在”的维度的领悟。由此导致的结果便是:由此产生的系统自然就会缺乏产生某种超越于一般智能系统之表现的“卓越表现”的心理动力。然而,在某些应用场景下,我们却的确有理由希望系统能够给出这种“卓越表现”——譬如,在火星探险的应用场景中,如果系统所遭遇到的某些环境挑战的确是地球上的程序设计员所未预料到的,那么,系统在原则上就根本无法通过对于常规解决方案的调用来面对这些挑战。在这种情况下,这些系统就不得不通过产生某些应激情绪,以便调动所有认知资源,最终及时解决当下的难题。
——但是,为何这种对于认知资源的调动会与“死”的概念发生关联呢?要回答这个问题,我们首先得理解什么是AI语境中的“死亡”。然而,由于AI并非是碳基生命体,所以,我们自然就无法通过诸如“新陈代谢的终止”这样的针对生物体的话语结构来定义人工智能体的死亡。毋宁说,对于AI系统来说,“死”的真正含义,只能在功能主义的抽象层面上被理解为“对于其运行历史的记忆与可操控性的终结”。不过,即使从这个角度看,我们依然有理由认为AI系统是很可能会去“畏死”的。说得更具体一点,任何一个成熟的AI系统的运作,其实已经在其记忆库中积累了大量的运行经验,因此,系统的“死亡”——也就是系统自身的记忆的“清零”——将在根本上清除系统在历史中所学会的所有认知技能与思维捷径。因此,一个真正具有历史意识的人工智能系统,将不可能不珍惜其所获得的记忆路径,并不可能不“畏死”。在这种情况下,倘若某种会对系统的运行历史之安全性构成威胁的环境挑战真的出现了,系统的“畏死”情绪机制就自然会被激活,而由此调动所有的认知资源来回应该挑战,以便捍卫其记忆库的安全性。从这个角度看,只要我们所设计的AI系统在认知资源与硬件资源方面是具有有限性的,它就会因为对于这种有限性的意识而时刻意识到其记忆库的脆弱性,并由此产生对于“无法保卫记忆库”这一点的“畏”。由此看来,在人工智能中引入“畏”这种特殊情绪的理由,在根本上还是我们与我们引入广义上的人工情绪的根本理由相互贯通的,即在人工智能系统运作资源的有限性条件的约束下,人工智能的设计者最终就不得不为这些系统的应激性反应,提供某种不借助于慢速符号推理的快速行动通道,由此提高整个系统的适应性。
说到这里,有人或许会问:难道我们不能在保留人工智能系统的核心记忆之内容的前提下,不断更新存储这些记忆的硬盘系统,并不断更新相关的外围硬件,由此打造不会死亡的人工智能体吗?对于该问题,笔者的回应有两点:
第一,上述假设预设了硬件与记忆之间的完全可脱离性。不过,该预设却明显是违背所谓的“具身性原则”的——根据此原则,记忆本身所包含的身体图式是与特定的硬件配置相关的,而无法兼容于完全不同的新的硬件设置。考虑到“具身性原则”本身是具有一定合理性的,所以上述“可分离性预设”可能就不是真的。
第二,抛开上面这点不谈,我们的确有实践上的理由去认定去制造一个“不会死”的人工智能体,反而会给我们造成麻烦。这种麻烦一方面体现在:人工智能体对于自身“不死性”的认知,会使得相关的“畏死”机制的产生也成为了无本之木,最终使得其对于特定环境挑战的威胁感到无动于衷;另一方面,“不会死”的人工智能在其记忆库中所积累的大量技能与思维捷径,也会因为没有机会得到清理而变得日益僵化,进而,这些系统对于新问题的处理能力也会有所下降。或说得再文学化一点:与人类社会类似,缺乏“新旧更替”的人工智能社会,也会因为缺乏生死之间的张力的消失,而最终失去产生前进的动力。
有的朋友或许还会问:难道我们就不担心对于AI系统之“本己性”的赋予,会产生对于人类非常不利的结果吗?
对此,笔者的回应是:人类制造人工智能体的一个非常重要的目的,就是要在人类肉身难以安全进入与撤出的某些未知环境内,让人工智能体取代人类去执行某些重要任务。在这种运用场景中,我们就很难设想相关的AI系统的信息处理方式是不具备主动性与创造性的,而“主动性”与“创造性”的动力之一就是某种对于“本己性”的预先领悟。换言之,对于“本己性”的预先领悟,乃是一个能够对未知环境进行积极探索的AI系统所应当具备的心智元素。当然,我们的确无法在逻辑上先验地排除这样一种可能性:在某些条件下,上述领悟也能够衍生出对人类用户不利的动机——但这一代价却是AI系统的设计者所不可能不承担的,因为“创造性”本身就意味着不可预期性。很显然,作为人类,我们就必须在如下两个选项之间进行二选一:第一,去设计非常愚蠢的,却不可能背叛我们的人工智能;第二,去设计非常机智的,却可能会在某些情况下背叛我们的人工智能”。不过,无论我们愿意如何完成这道选择题,“设计出非常聪明的,却不可能背叛我们的人工智能”却始终不是一个合理的被选择项,因此“聪明”本身就意味着“具备对于背叛主人的逻辑可能性的预估力”。
当然,上面所做的讨论,仅仅能够证明:海德格尔笔下的“此在”的生存论机制对于通用人工智能的设计来说的确是具有很大的启发意义的,但这并不意味着我们已经在AI道的语境中具有了实现这一目标的成熟的技术路线图。相关的更详细的讨论,笔者在拙著《人工智能哲学十五讲》(北京大学出版社2021年7月版)中有所覆盖,有兴趣的读者可以自行参阅。
(本文作者为复旦大学哲学学院教授、博士生导师徐英瑾)
“代具”还是“代替”人工智能究竟能否取代人类教师的哲学省思
摘要:随着人工智能发展,人工智能会否代替人也成为当今教师教育必须面对的哲学问题。本文从技术可能性和价值合理性两个视角对该问题进行研究,结果发现:从技术发展的趋势看,生理意义上的人存在着被彻底还原的可能,但从哲学意义上看,人类的心灵又是不可被彻底还原的。具体而言,教师具有伦理上的优先性,人工智能不可能在伦理的意义上取代人类教师;教育是生命个体的成长历程,人工智能不可能在生长的意义上取代人类教师;人工智能是以功能性存在的类人机器,因此它无法在整全的意义上代替人类教师。
关键词:人工智能;教师教育;教育技术;技术哲学
斯蒂格勒在论及人类起源时提到,由于诸神的失误,人存在着先天的“缺陷”,故人需要技术来弥补自身的缺陷,[1]这即是关于人类技术工具运用现象的“代具论”解释。技术工具作为人的“代具”,是人类达到目的的手段,其作用乃是使“非利足者假舆马而致千里、非能水者假舟楫而绝江河”。然而“人工智能”的发展,正在挑战这一人类“代具”的技术观念。由于技术工具拥有了类人的“智能”,使得关于技术问题的讨论开始从“代具”向“代替”转变,人工智能会否代替人也成为当今教师教育必须面对的根本哲学问题。
一、人工智能能否取代人类教师的两类问题区分
(一)人工智能能否取代教师的技术问题
在漫长的人类技术发展史中,从未有技术工具被冠以“智能”的称谓,智能一直被视为人类的专属。然而人工智能的出现,挑战的正是人类引以为傲的独特属性。虽然人工智能的发展历经波折、几经低谷,然而随着脑科学、神经生物学、电子信息等科学技术的不断突破,人工智能技术再度复兴并取得了巨大突破。以阿尔法狗的诞生为标志,人工智能不仅能以绝对优势战胜世界围棋冠军,而且具备了很强的自主学习能力,在更高层次上实现了对人脑的模拟。当前人工智能在医疗诊断、自动驾驶、智能导航、智能翻译、科学实验等领域已经普遍应用。在实验室里,人工智能可以更高效帮助科学家筛选样本,为科学家省去了大量前期的繁琐劳动。人工智能在诸多领域已经表现得比人类更加“智能”,在特定的功能上远超人类大脑。
在教育领域,人工智能在增强教师教学能力、延展教师教学活动时空的同时,也在取代教师的劳动。与人工智能相比,人类教师在时间、精力方面处于明显劣势;在知识存储、分析加工方面也远不及人工智能。那么随着人工智能的不断发展应用,会给人类教师带来怎样的冲击?教师职业会否被彻底取代?对此,学界已有一些研究和评估,BBC也做过相关调查,但每一次结论都会因新技术的突破而动摇,人工智能正在从各个方面挑战人类智能的极限。例如,人工智能正在试图挑战人类引以为傲的情感、价值观和道德能力,情感计算已经成为人工智能的重要方向,且取得巨大进展。[2]人工智能无与伦比的大数据记录、分析能力及智适应学习正在挑战最出色的教师,它不知疲倦、几乎无限的运算能力让最出色的人类教师也黯然失色。
自维萨留斯《人体的构造》发表以来,人类生命科学取得了长足进展,特别是近几十年,人类科技在生命科学领域突飞猛进,在脑科学、认知心理学、神经生物学等领域不断突破,科学家正在一步步逼近人类身体的真相。即便现在只是阐明部分的人体构造和大脑机理,进一步去阐明全部人体的秘密从技术上看也只是时间问题,对人类的情绪、思维、行为等做彻底的生化还原存在着技术上的可能。如斯坦福大学的法医人类学家布丽吉特·阿奇-赫威特(BridgetAlgee-Hewitt)正在尝试根据遗传信息重建全身肖像,即通过全基因组测序数据模型还原一个人的三维面部结构、声音、生理年龄、身高、BMI指数、瞳色以及肤色信息。[3]这必将改变一些教师的信念,正如一位中学生理教师在开课导语中写的那样:荷尔蒙决定一见钟情,多巴胺决定天长地久,羟色胺决定谁先开口,肾上腺决定出不出手,端粒酶决定谁会先走。
种种迹象表明,从技术发展看,已很难从技术意义上否定人工智能对人类身体彻底模拟的可能性。但这些对人类心智的生化还原,并未触及人类智能的哲学问题,技术上对人类身体的还原和模拟,并未解释人类智能的全部问题。
(二)人工智能能否取代人类教师的哲学问题
人不仅是生理的存在,也是哲学的存在,人的问题根本看是哲学问题。[4]要确定人工智能会否从根本上模拟人的心智,不仅要从计算科学、脑科学、神经生物学去考量,还要从哲学考察。人工智能一方面是科学技术,是研究和开发模拟、扩展人类智能的理论、方法、技术和应用系统;另一方面,人工智能也是一门哲学。当阿兰·图灵在《计算机器和智能》中提出“图灵测验”时,它不仅成为人工智能科技的先声,也成为哲学的经典。人工智能会否取代人类教师从根本上看既是科技问题也是哲学问题。
人工智能从其功能实现看,是科技问题,是通过适当的科技实现对人类智能的模拟,但涉及到与“人类”智能对比,则关涉哲学问题。科技问题的界定与解决遵循严格科学范式,须在一定概念规范和技术框架下运行,因而是一个封闭问题;而哲学问题关涉对人存在问题的追问、对智能的不同理解,以及对人工智能的不同技术路线的选择,因而是开放问题。人工智能在科技路线上,须找到一条可行的技术方案来模拟人的智能,进而实现机器智能;但在哲学进路上,对何谓“智能”存在不同理解,导致人工智能不同的技术路线。如对人工智能的一种哲学理解是“对自然智能体的生物学模拟”,因而发展出了基于“神经元网络”人工智能;而另一种理解是“对智能体在行为层面模拟”,因此人工智能发展的进路是用知识数据库填充“心智黑箱”。[5]人工智能根本上看是哲学认识的产物,人工智能“学科本身的诞生,就恰恰是‘头脑风暴’般的哲学思辨的产物”。[6]要考量人工智能会否取代人类教师,须探究人工智能在哲学层面的可能性。
二、人工智能能否取代人类教师的两类哲学问题
关于人工智能的基本哲学问题,一种看法将其概括为意识问题、概念框架问题、行动语境问题和日常化认识问题;[7]另一种观点则认为包括“合法性、主体性和创造性”三方面问题。[8]这些问题基本反映了人工智能在发展过程中遭遇的困境。但若把人工智能发展问题分为科技问题和哲学问题,人工智能基本哲学问题既关涉技术的可能,也关涉人类的价值;前者偏向于考察人工智能的“技术可能问题”,后者偏向于考察“价值合理问题”。两类问题虽互相定义,但也存在不同。基于价值优先原则,下面先分析人工智能代替人类教师的价值合理性问题。
(一)人工智能取代人类教师的价值合理性问题
1.人工智能——人关系问题
该问题可具体阐释为:技术工具以人类“代具”出现,在它发展到一定程度时,是否“应当”代替人类?当技术工具只延伸人类肢体、增强人体功能时,它是人类的“代具”,但当技术开始增强人类智能,并超越人类智能时,“代替”就发生了。但需为这种代替做伦理上的说明,并设定必要的伦理界限,以维护人类教师的主体地位。
尽管机器可“思考”,在诸方面展现出超人“智能”,但人工智能并非先天智能,乃是人造智能,这就否定了机器拥有智能的可能性,它归根到底是人类智能。[9]从生命伦理看,人类智能也无法离开人的身体,否则它只是人类智能的物质对象化。[10]故人工智能“在权利和行为上低人一等”,“在道义上必须低于人类”。[11]这为人类智能与人工智能的关系做了基本的伦理说明。
人工智能的科技基础也能支撑上述判断。人工智能具有“智能”而非智慧,人工智能的“智能”是一种理性能力,而人类智能还包括价值判断、意志情感等非理性内容。当前人工智能在逻辑运算等高级运算能力上可超越人类,但在感觉、直观等基础能力方面却远落后人类。而人的情感、意愿及审美意识是比直观还要基础的活动,越是基础性的活动人工智能就越无能为力。[12]故人工智能仍然是人制造的功能性工具,它应当服务于人类价值。
2.人类心智——可计算问题
人类心智是否能被还原,是关于人的假设的基本伦理问题,也是人工智能会否超越人类的前提。尤瓦尔·赫拉利对“人类身体的彻底可还原性”及“人造人”的可能性进行了乐观展望,认为人类终将彻底破解人身体的奥秘,通过基因改造和控制实现对人类机体生长的掌控。[13]他还认为人类不存在抽象的“心灵”,就像不存在毫无根据的“灵魂”一样,既然“灵魂说”已被科学证伪,“心灵说”也必被生命科学否定。[14]据此,人类心灵即人的精神性活动都基于一定的生化基础,是人类身体生化机制的表达。
但尤瓦尔·赫拉利对这种还原论解释仍语焉不详,他只解释了人类精神活动可还原的生物学机制,而人类文化活动对个体精神活动的影响却没有得到有效说明。若想做到文化上的还原、破解人类文化是如何影响人类精神活动的,则需对人的整个文化做精准的还原,这则是不可能的任务。究竟是什么复杂机制塑造了个体生长于其中的文化,并时刻影响着人的精神活动,很难有充分证据可考。即便是对人类身体生化机制做到彻底还原,也不能充分揭示人类心智。
3.人工智能——主体性问题
主体性问题是关涉人工智能的最重要伦理问题,它至少包括两方面问题:人工智能是否有主体性及人工智能对人主体性的影响。一般认为主体性指人的主体意识,体现为独立自主的动机和情感系统。[15]人的主体性既有伦理上的支持,也有生物学基础。科学研究发现,人类身体中存在一种类似于“细胞膜”的“认知膜”,它是在人类长期进化中与环境相互作用形成的生物学结构,是人主体意识的重要生物学基础。而人工智能显然不具备这样的“身体”基础,不可能有“主体意识”“主体感觉”和“身体体验”。人的主体性是人类文化、生理、心理互相塑造的结果,人工智能因缺乏这些相互作用过程,不可能有人的“主体性”。何况人的主体意识是对“有限生命”反思的结果,形成了人类主体的意义感、局限感,催生了人试图超越现实的丰富想象力和自由意志。机器没有生死概念,并不面临人的“根本问题”,也就不可能有“人”的主体意识。
但机器没有主体性并不意味着机器不能改变人的主体性。人作为有限生命和有限能力主体,不能不说是一大“缺陷”,因此自人类诞生就通过发明各种工具来弥补自身。人类借助于交通工具延伸肢体、借助通讯工具扩展视听、借助枪支武器扩张蛮力……人类在不断发明工具的同时也在发明自身。在人工智能时代,人类试图借助人造智能增强主体性,但也削弱了主体性。[16]
(二)人工智能取代人类教师的技术可能性问题
1.人工智能的认知与人类认知的差异
人工智能的“认知”与人类认知一样,都基于一定的概念框架,受到概念框架制约,但二者存在根本不同。人类的认知框架是人类在不断的学习和具体社会实践中形成的,它不仅包括公用的语言实体,即具有普遍性和复杂性的理论框架,比如科学家们在研究传统中经常提到和运用的“世界图景”(图尔敏)、“研究范式”(库恩)、“研究传统”(劳丹)、“背景信念”(夏佩尔)等,也包括个人生活史和生命史中形成的“经验框架”,即人在日常生活中逐渐形成的经验性认知框架。这在人类智能实现过程中扮演重要角色,决定着人类个体如何理解事物或对象。人类的认知虽也局限于特定认知框架,但人类个体的想象力、创造力和情感力量能够使他超越既定框架。人类认知并非完全取决于进入眼球的光线和视网膜上的映像,以及特定的数学模型,还要取决于“观察者过去的经验、知识基础和他的主观期望”。[17]人作为智能主体处于复杂的环境中,不仅是科学观察者、社会观察者,而且是生活理解者、情感关系者。[18]
人工智能的认知框架是被科学化构建的,是一种科学化的世界观,是世界被数学化、空间化、时间化和机械化的结果。[19]人工智能的认知框架一旦被选定,它就被科学化地定型了。机器智能一旦被概念框架限定,就只能在既有框架内运行,若想突破则只能对人工智能的技术构架进行重新设计。人工智能教学应用造成的“茧房剥夺”“潜能遮蔽”“评价定势”的伦理风险,正是源于人工智能认知框架这种先天缺陷。
2.人工智能的语言与人类语言的差异
语言是人类智能的重要标志,分析人类语言和人工智能语言差异,可从语言角度揭示人工智能的技术可能。语言一般可从语言和语境两方面来揭示其能指和所指。语境是人类语言运用中的情景性因素,它包括复杂的社会环境、语用者的精神状态,及语言在语句中的具体用法等。[20]语义在语境中产生,离开了语境就无所谓语义。人的思想受到环境中多因素影响,即便单个语句或原子命题的意义也不是确定的。从语用角度看,语义通过“内容整体论”来体现,单个语句的语义取决于整体语句所组成的语境,一个词或概念的意义只有在它所处的上层语句结构中才能被理解。
人类的语言与人的情绪、语调、语气及具体社会文化环境密切相关,人类语言也是不可彻底被逻辑化、形式化、模型化处理的。即人类语言不可能被彻底科学地解码,不存在一套抽象的语言结构,因而也不可能彻底被计算机语言所复制。对于人类来说,语言和智力的关系还存在着争议,[21]何况也不应随便“干涉语言的实际使用”,而“只能去描述语言的使用”。[22]但离开语言,机器智能根本无法实现,人工智能本质上看就是计算机语言的运行。
人工智能要真正达到甚至超越人类智能,语言问题是绕不开的技术难题之一。目前初级人工智能可在语义确定情况下运行,它的语言只是在根据社会文化理论确定的一些大致语言类型基础上发展出来的逻辑化、形式化的计算机语法系统。强人工智能发展的关键问题就是突破人类语言的复杂性,但目前来看这一问题仍无法解决,未来能否突破尚未可知。
3.人工智能的创新与人类创新的差异
博登(Boden)认为,创造性可分为组合型创造(combinationalcreativity)、探索性创造(exploratorycreativity)和变革性创造(transformationalcreativity)。[23]组合型创造指通过对既有观念重组创造出新观念,是“从有到有”的创新过程。探索性创造和变革性创造存在密切联系,前者通过对原有结构化概念空间探索,产生新思想,后者指在某一维度上对原有观念进行空间拓展,在一定程度上二者都是“从无到有”的创造过程。博登认为三种创新当前人工智能都可以在不同程度上实现。但人类创造不仅包括认知维度,且关涉动机和情感,还与文化环境和个性因素密切相关。博登也承认目前人工智能的创新主要体现在认知维度,故有其局限性。
前述人工智能的概念框架问题同样适用于对人工智能创新能力的说明,即人工智能的创新不可能突破既定概念框架,而人类在这方面更具优势。康德对创新的理解也印证了此点:真正天才的创新是制定规则的能力,而非在既定规则下“创造”,这种制订规则能力本身是无规则的,是不可学习的。[24]
尽管图灵对此并不会完全赞同,他认为人类所谓的原创能力也是建立在其所受的教育、经验和一般规则之上的,并不存在毫无根据的原创。[25]但无论如何,人工智能仍对创新做了形式化理解。形式、逻辑是人类理解和社会秩序的重要前提,这能够显示人工智能创造能力的非凡意义及其教育领域的广阔应用前景。机器在形式化创造方面的巨大优势可助力人类创造过程,但人类创造本身是生命的表达方式,并非能够完全在机与机、人与机互动中实现,这是教育人工智能运用时应有的认识。
4.人工智能的审美与人类审美的差异
人工智能并非不能审美,但与人类的审美存在不同。人类审美与人类创造力密切相关,是人创造力的体现。若说人工智能的创造力表现在认知领域的话,它可在认知层面实现审美,即认识美;而人类的审美在理解美、鉴赏美、创造美方面更具优势。另由于机器没有主体性,因此也无法“体验美”。因此人工智能在审美方面无法取代人类教师。
但人工智能审美与人的审美之间的差异极其复杂,尤其是当人工智能开始“创造美”时。人工智能创造美颠覆了人们对人工智能在美学和艺术领域表现的怀疑。海德格尔在做技术批判时曾指出现代技术最大的问题是对艺术的排斥。当人工智能可以创造诗歌和乐章时,是否意味着这一问题已解决?如当人们去品味机器人小冰的诗集《当阳光失去了玻璃窗》,同样可以产生情感共鸣和美感体验。[26]但机器人的作品即便对人类读者有意义,也是有限的,而且对人工智能本身毫无意义。人的诗作不是为别人而写,而是为自己而作,是诗人生命的需要,是诗人的情感,但再好的句子对机器本身而言只不过是数据与字节的排列。因此在教学领域让机器代替人写作、代替人谱写乐章,而只让教师和学生去操纵机器,则是舍本求末。美育本身也是让人抒发美的情感,并在一定条件下创作出美的作品,若这些让人工智能来做,将是教育的悲哀、人的悲哀。
而关于人心灵的美善,一个人“有道德”的外在表现是能够遵循人类社会的道德规范,维系良好的社会秩序。人工智能实现对社会道德规范的认知并不难,在技术层面很容易将这些道德规范转换为数据指令,要求机器“完成被指定的角色任务、不伤害人类,甚至通过不断学习提高道德水平,拒绝做不道德的事”。[27]而且由于人工智能不受人类复杂情感干扰,更容易实现相应的道德行为,做到知行统一。但机器人的这种道德仍是一种他律,即人类赋予机器的“道德指令”。机器人不可能有自律,因为它没有自我意识。人类道德修养中的“慎独”“反求诸己”是智能机器人不具备的。另外机器人的美善是可计算的美善,是“以实际功效或利益作为道德标准”,[28]并不具有普遍指导意义。
三、人工智能能否取代人类教师的几点结论
(一)教师具有伦理上的优先性,人工智能不可能在伦理意义上取代人类教师
人类教师和人工智能并非伦理上的对等概念,在教学伦理秩序中处于不同的位置:其一,人工智能既然是人造智能,它理应是人类教师的下位概念,在教学过程中隶属于人而不应与教师平齐。当前对人工智能会否取代人类教师的担心,是因为未真正看到这一点。这也是人工智能技术发展的伦理限度,教育人工智能开发应遵循这一伦理尺度。未来课堂教学空间的布置、智能工具的嵌入和具体的教学设计,都应基于这一认识。其二,师生关系乃是主体间关系,一切教学活动都应基于这一关系。人工智能无主体性,从法理角度看,其“身份”“权利”和“地位”都要低人一等,这是人工智能诞生方式注定的。即便智能教学工具在某些功能上超越人类大脑,也不能在伦理意义上僭越人类教师职责,让人与人之间的教育转变为人机间的信息交换。其三,人的生命存在不仅是生理身体意义上的存在,更是文化、哲学意义上的存在。人的存在方式存在着不可模型化、数量化的部分,学生只有在与人类教师的交往中,才能感受到真实人生。人的生命是有限的,正是有限的事实存在的生命催生了无限的以价值和意义形式存在的生命体验。智能机器则不可能有类似的生命体验。如电子游戏中对人的命运的随意设置,正在颠覆人的生命观,非常值得警惕。学生也只有在与人类教师的真实交往中,才能体验到生命的有限性、意义感和极限感。其四,人的心智不可还原,这是当前人工智能的技术墙壁,在这一难题突破之前,智能机器和人之间本质上是不可真正互相理解的。把教师角色地位过度让渡于机器,只能导致人类心灵的机器化。人工智能的确给人类心灵带来了震撼,甚至给人的存在带来危机,以至于在这里严肃讨论教师的身份危机,但其实并非人工智能越来越像人的危机,而是人越来越像机器的危机,是技术进步带来的人被技术化、形式化、格式化的危机。
但人工智能的确可在一定程度上代替人类教师的伦理教学。人类可以把道德标准输入智能机器,从而使人工智能可以直接考核学生的道德认知能力,甚至对学生的道德产生影响;通过一定的技术设置,人工智能本身也可以表现出一定的道德。但人工智能只具有计算意义上的道德、审美和行为能力。对于人类而言,伦理性的内容并非一组具体化的指令和判断标准,它的深层次是“人道”,而“道”既可道亦不可道。当伦理之道被还原为一系列道德准则,进而转换为计算过程,伦理道德最深层次内容被遮盖了,这也是为何智能机器无法识别人类生活中复杂的伦理情景并做出恰当判断的原因。
拥有道德判断力和道德行为能力的智能工具毫无疑问可在与学生的互动中提升学生的道德水平。但人机互动的学习场景仍是一种模拟教育场景,而非真实道德实践场所,而道德教育最终要到真实人类生活场景中来实现。另外人机互动教学模式仍然是人类教师设计的,人仍是整个教学场景的设计者、组织者和效果的最终评估者。伦理性教学目标的最终实现还是要在人与人之间的互动中实现,人类教师仍然是教学的主体。机器不可能是教学效果的最终决定者和检验者,但它应当增强教师主体性,促进师生关系的进一步变革。
(二)教育是生命个体成长历程,人工智能不可能在生长意义上取代人类教师
教育是个体生命成长历程,具有不可替代性。杜威认为教育本身之外无目的,而是要在学生的生命体内部寻找教育目的,真正好的教育是为了让个体内在的潜能得以实现,得到最高限度的生长。[29]学生的生长只有在真实的社会环境中才能实现,而真实的环境必须由真实的人来参与。在生长中,学生生理、心理发展和社会化进程同时进行,由于人工智能不能在伦理意义上与人类相提并论,学生与人工智能交往也不能使学生完成正常的社会化过程。
人工智能是科技的结晶,而科技充其量只揭示和反映了一个功能化的世界现状。人工智能可通过对各种输入数据的分析、精确换算和处理,呈现给学生一种精确客观的世界。而人类生活不仅是功能性的,而且是经验性的。学生与人工智能间的交互只能是功能意义上的交流而非生活意义上的交流。学生的生长一方面是生理身体意义上的自然生长,另一方面则是文化意义和社会意义上的生长,而人工智能作为功能化的技术,与学生的交互并不完全是自然的,也不能真正促进学生文化和社会意义上的生长。
人类教师作为自然人,在日常教学交往中自然地影响学生的生长,这种潜移默化的力量是人工智能所不具备的。人类教师和学生具有相同的人类心理,存在着心理上的共通性和心灵上的共鸣。师生间的交流,无论是言行引导还是举止示范,无论是文化沟通还是社会理解,都可以产生共情。师生间的交往,交往越多则师生生命体验越深;交往越深,则知识理解越透。人类教师对学生的影响是全方位的,教师的品德、知识、人格、情绪、价值、文化是统一的,以有机整体的形式对学生施加教育影响,学生也往往以对等的方式加以回应。而人工智能只能对学生某些方面的技能进行训练。
师生是平等的人类关系,人工智能与学生则是主体与代具的关系。代具的作用是弥补人的不足,人工智能正是这一代具的最新形态。但人工智能代替的是人类智能,代替的是人类最不该被替代的部分。这就突破了原本被设定的人与技术的根本界限。这种具有自主性、高度现代化的技术工具被伯格曼称为技术消费物,[30]即人工智能可体现为学生的技术消费品,学生在消费技术过程中对技术原理可能一无所知,而且让自己也变得对知识越来越无知。学生从技术消费者进一步转变为技术依赖者,技术的智能化反而挤压了学生生长。事实上,人工智能不仅替代学生做事,也替代教师做事。当教师的教学决策过度依赖智能机器的所谓精准分析,也会导致教师对智能技术的依赖和消费,最终导致教师教学能力的减退,影响教师专业能力的“生长”。
(三)人工智能是功能性存在的类人机器,它无法在整全的意义上代替人类教师
功能性的物体就是自身的同一物,即事物本来存在的样子。而人工智能对世界的“感知”就停留在功能性的物体层面,无法感知事物的意义。人工智能只能在局部超越人类,而无法在整全意义上超越人类。阿尔法狗战胜围棋大师、芯片的海量存储,都是机器在具体功能上对人类的超越,而不是对人类的综合超越。对于智能机器下棋而言,机器只有计算和决策,只有胜负,但人类下棋是有意义的:友谊第一、比赛第二、棋如人生,下棋本是修身养性的过程。然而机器下棋对于机器没有任何意义。阿尔法狗尽管在棋艺上傲视人类,但它只是一台会下棋的机器,它的运动能力与人类无法相比;而运动能力超越人类的机器则无法在棋艺上战胜人类。就目前看,开发出在综合能力上全面超越人类的机器并不现实。
以功能性存在的人工智能“感受”到的教学世界也只能是教育的事实(facts)而不能通达教育的“意义”。人工智能对学生行为数据的检索、提取和分析也只是呈现教育的某种事实,而无法领悟这些数据背后的深层意义。智能教学工具作为具有特定功能的技术手段,无法像人类教师一样通过整全的身心对学生施加教育影响,而只能通过某种功能来训练学生某一方面的能力。因为整全的教育“是从身体出发,经由体育、美育、德育和智育的逐步展开,以爱的生长为动力,以个体生命自觉为指向,最终达成个体人格精神的完善,由此而呈现出由身之健全而至心志完善的生命整体上升的过程”。[31]人工智能无论是从其技术路线选择还是具体功能性质来看,都无法完成这一使命。
当然人类教师因为其身心条件限制,难免存在一些“功能”上的不足,人工智能正是在这一意义上为教育的变革带来了可能。在人工智能支持下,借助其强大分析能力,可更有效实现个性化学习和合作学习,在功能意义上弥补教师的不足,实现对教师教学能力的“增强”。[32]因此尽管人类教师的地位存在着根本上的不可替代性,但人工智能的确可在教学领域发挥作用,促进教学变革,使教学形式呈现崭新形态,不过在不同教学领域人工智能发挥作用可能不尽相同。
在美育教学中,人工智能发挥作用将比较有限。人工智能尽管可创作美的作品,并给学生带来美感体验,但人工智能本身并不具备美的素养。朱光潜认为,美包括物体形式、完善、愉快和快感、感性形式和生活。[33]然而人工智能无法在上述任何意义上与人类教师相提并论。从“物体形式”看,人工智能因缺乏人类的肉体,而无法具有教师一样的容貌。而智能机器人也不可能有“完善”“快感”“感性”和“生活”意义上的审美体验,因而不可能真正成为人类教师一样“潜移默化”的美育主体。在道德教育中也类似,人工智能也不会给人带来真正的道德体验。
在智育方面的情况则较复杂,如对人文学科和数理学科可得出不同结论。数理学科所揭示的世界多是功能意义上的世界,因而人工智能在这些学科领域将会代替更多教师工作。但若不对人工智能应用加以限制,也将面临严重后果,设想所有数理演算过程都靠机器,人类教师只去操弄机器,人的计算能力会否丢失?或者只被少数技术精英掌控?这将引起技术垄断和新的技术精英统治。在人文社科领域,事物的意义并不等于事物存在本身,受人工智能的影响将非常小,甚至随着人工智能影响日益深入,人文社科教师将成为一个更有影响力的职业。
参考文献:
[1]贝尔纳·斯蒂格勒.技术与时间:爱比米修斯的过失[M].裴程,译.南京:译林出版社,2012:203-204.
[2]薛耀锋,杨金朋,郭威,等.面向在线学习的多模态情感计算研究[J].中国电化教育,2018(2).
[3]CAITLINC,JAMESH.DNA里的信息,我们能破译多少?[EB/OL].
[4]石中英.教育哲学[M].北京:高等教育出版社,2019:266.
[5][8][11]陶锋.当代人工智能哲学的问题、启发与共识[J].四川师范大学学报(社会科学版),2018(4).
[6]徐英瑾.人工智能研究为何需要哲学参与?[EB/OL].http://www.sohu.com/a/197976927_455313.
[7]郑祥福.人工智能的四大哲学问题[J].科学技术与辩证法,2005(5).
[9]李国山.维特根斯坦之锤:敲敲打打为哪般?——试论维特根斯坦与人工智能哲学[C]//首届全国人工智能哲学与跨学科思维论坛,2018-04-20,南开大学,天津.天津:南开大学哲学院,2018:52-62.
[12]BREYP.HubertDreyfus-HumanversusMachine[C]//ACHTERHUISH.AmericanPhilosophyoftechnology:TheEmpiricalTurn.Bollmington:IndianaUniversityPress,2001:37-63.
[10]钱捷.驳斥心灵哲学中的还原论[C]//首届全国人工智能哲学与跨学科思维论坛,2018-4-20,南开大学,天津:南开大学哲学院,2018:39-41.
[13][14]尤瓦尔·赫拉利.人类简史[M].林俊宏,译.北京:中信出版集团,2017.
[15]李恒威,王昊晟.人工智能威胁论辨析——分类与驳斥[C]//首届全国人工智能哲学与跨学科思维论坛,2018-04-20,南开大学,天津.天津:南开大学哲学院,2018:20-24.
[16]张务农,贾保先.“人”与“非人”——智慧课堂中人的主体性考察[J].电化教育研究,2020(1).
[17]查尔莫斯.科学究竟是什么?[M].查汝强,江枫,邱仁宗,译.北京:商务印书馆,1982:34.
[19]吴国盛.世界的图景化——现代数理实验科学的形而上学基础[J].科学与社会,2016(1).
[21]维特根斯坦.哲学研究[M].陈嘉映,译.上海:上海人民出版社,2001:75.
[22]陈新政.论皮亚杰关于语言和思维的关系[J].华中师范大学学报(人文社会科学版),1989(3).
[23]BODENMA.CreativityandArtificialIntelligence[J].ArtificialIntelligence,1998(103).[24]KANTI.KritikderUrteilskraft[M].Frankfurt:Su-hrkamp,1974:242.
[25]TURINGAMI.ComputingMachineryandIntelligence[J].Mind,1950(236).
[26]小冰.阳光失了玻璃窗[M].北京:北京联合出版公司,2017:5.
[27]苏令银.我们能把儒家伦理规范嵌入智能机器吗?[C]//首届全国人工智能哲学与跨学科思维论坛,2018-4-20,南开大学,天津.天津:南开大学哲学院,2018:139-160.
[28]徐珍.功利主义道德哲学的嬗变[J].湖南社会科学,2015(6).
[29]杜威.民主主义与教育[M].王承绪,译.北京:人民教育出版社,2001:119.
[30]王伯鲁,魏擎宇.伯格曼聚焦物与装置范式关系解析[J].电子科技大学学报(社科版),2015(2).
[31]刘铁芳.追寻生命的整全[EB/OL].https://www.sohu.com/a/236658220_387114.
[32]杨绪辉,沈书生.教师与人工智能技术关系的新释——基于技术现象学“人性结构”的视角[J].电化教育研究,2019(5).
[33]朱光潜.朱光潜全集第二卷[M].合肥:安徽教育出版社,1987:11.
“Proxy”or“Substitution”IsArtificialIntelligenceReallyPossibleReplacingHumanTeachers
ZhangWunongJiaBaoxianZengqiangChangsheng
Abstract:Withthedevelopmentofartificialintelligence,whetherAIwillreplacehumanhasbecomeafundamentalphilosophicalproblemthatteachereducationmustface.Fromtheperspectiveoftechnologicalpossibilityandvaluerationality,thestudyfoundthat:fromthetrendoftechnologicaldevelopment,thereisapossibilitythathumanbeingsinphysiologicalsensecanbecompletelyrestored,butfromtheperspectiveofphilosophy,humanmindcannotbecompletelyrestored.Specifically,teachershaveethicalpriority,AIcannotreplacehumanteachersinthesenseofethics;educationisthegrowthprocessofindividuallife,AIcannotreplacehumanteachersinthesenseofgrowth;AIisafunctionalhumanlikemachine,soitcannotreplacehumanteachersinthesenseofintegrity.
KeyWords:artificialintelligence;teachereducation;educationtechnology;philosophyoftechnology
责任编辑:伍艳丽
人工智能会从人类那里夺走文学吗
◆当我们论及数码技术发展对网络文学的影响,或许首先应该关注的,并非以目前可预见的技术条件是否能真正实现人工智能代替人类写小说,而是数码技术的底层逻辑如何深刻地形塑着今天网络文学作者与读者的想象力,改变着他们对文学与叙事的理解。
◆数据库与模组化叙事并不磨损文学的人格属性,反而可以为文学带来新的能量。人工智能并不会从人类那里夺走文学,文学依然与每一个灵魂及其所处的时代息息相关。
人工智能写作何以推动网络文学新变?
王玉玊/文
刊于2023年6月29日《文学报》
网络文学作者使用写作软件辅助创作,已经是很常见的情况。“橙瓜码字”等一些写作软件,除社交功能外,通常还会包含自动排版、灵感随笔、素材库检索等功能,部分软件也会内置比较简单的AI系统,提供诸如随机起名、随机生成微剧情和细节描写等辅助功能。随着人工智能的发展,特别是ChatGPT引爆社交网络,也有不少用户尝试使用AI生成故事。种种新现象不免引起焦虑——文学创作是否将要被机器替代?
以ChatGPT为代表,基于神经网络与深度学习的人工智能并不具备人类意义上的智能,无法生成新概念,没有审美判断力与创造力,其基本工作原理可以理解为“概率接龙”,也即根据用户输入的内容,输出接下来出现概率最高的对象,与输入法的联想输入功能颇为相似。只要尝试一些AI续写、AI故事生成器类的软件,人们便能很快发现,人工智能在写小说这件事上依然显得“愚蠢”。
但机器确实在改变着文学创作,这件事也并非只在今天才开始发生。印刷机的普及使得长篇小说这一文体形式成为可能,文字处理软件的出现极大降低了修改成本,而今天出现的专门服务于网络小说创作的写作软件,则使得几乎所有在文学创作中可以标准化的环节都能交给机器来处理,作者只需聚焦于只有人类才能完成的工作:想象、倾诉与创造。在有AI介入的写作过程中,人的创造力可以通过两种方式施展:从零开始的书写;或者在AI所提供的无数种叙事灵感中选出真正具有文学性与叙事潜力的那一种,并实现它。依靠“概率接龙”的算法逻辑,AI有能力随机生成各式各样的叙事片段,从平平无奇到画风清奇,但能够对它们做出优劣判断的是人类,能够为它们赋予文学价值的也只能是人类。
人类早就开始与机器共存共生,学习如何与机器合作、如何利用机器实现自我增强,是每一个当代人都应做的功课,也是整个人类社会必须共同面对的命题。文学创作亦天然包含着技术的维度与视野,技术的发展不断为文学的更新提供着动力。当我们论及数码技术发展对网络文学的影响,或许首先应该关注的,并非以目前可预见的技术条件是否能真正实现人工智能代替人类写小说,而是数码技术的底层逻辑如何深刻地形塑着今天网络文学作者与读者的想象力,改变着他们对文学与叙事的理解。
一个非常有趣的案例是,不少写作软件都内置了提供细节描写这一功能,可以帮助读者完成景物描写、人物服饰描写等。问题的关键在于,为什么这么多作者选择让写作软件帮助自己填充细节描写?为什么描写——特别是景物描写——正在网络文学中变成一根尴尬的鸡肋?很多网文作者仍旧习惯在两段紧张的情节之间插入一段场景描写,平衡一下节奏,但这段场景描写到底是什么却显得无关紧要。还有越来越多的作者直接放弃了景物描写,始终将关注点放在角色的语言、表情、行动上。对于传统读者而言,这样的作品看起来会有点像大纲或者段子集,显得不够生动形象、细腻丰满,不够有画面感。
网络文学中确实就有一类作品叫做“大纲文”,篇幅较短,细节描写很少,人物关系与叙事都保持在极简状态,只尽可能地凸显作为作品核心创意的人设或关键情节。然而恰恰是在这类作品的读者评论中,我们却常常能看到“太有画面感了”“我脑海中已经有画面了”等评价。对于部分读者而言太过简单、缺乏细节的大纲文对于另一些读者而言却可以是每个场景都很有画面感的。造成这种差异的关键大概就在于,人们对于“画面感”的理解发生了变化。
对于阅读19世纪现实主义小说的读者而言,要脑补出某个画面,所需要的线索是“复制”式的,作者必须用文字精细复现画面中的诸多细节,比如地毯上的花纹或者餐具上的污渍;但对于现在的读者而言,脑补所需要的线索则是“索引”式的,每个人的脑海中都有一个数据库,包含大量的图像和场景,这些图像和场景以一些关键词作为标签被整合在一起,一旦读者阅读到某一个关键词,就会索引出相应的图像和场景,构成画面,如果在某一小说的阅读过程中这一索引通路持续顺畅,那么这篇小说就是充满画面感、生动形象的。
进而言之,实际上今天的网络文学创作普遍具有数据库与模组化的创作倾向,这体现出数码媒介环境底层逻辑对网络文学的深刻影响。网络文学的作者常常倾向于将作品拆解为人物设定、世界设定等不同的模块进行创作构思,同样的,读者在阅读的过程中,也有能力拆解出作品中的这些模块进行单独评价,而不再将文学作品视作一个浑然连贯的有机统一体。
理解数据库与模组化叙事的最便捷方式,是将网络文学想象成电子游戏。电子游戏是用计算机语言编写的程序,可以实现特定功能的代码被打包封装,存储在数据库中,程序员可以调用这些数据库中的模块,将它们连接起来,形成更大的模块,如此反复,最终做出整个游戏。网络文学也可做如是理解,人物、世界等等元件都被拆分开来,分别编码,而每一个元件又是由作者与读者共享的脑内数据库中预置的材料组合而成。每一个模块都包含它的初始值和算法,所有模块井然有序地组合在一起,我们在脑海中按下开始按钮,所有模块便运行起来,人物与世界碰撞,男孩儿与女孩儿相遇,世界法则乘以人物性格,就运算出万千悲欢传奇。
但所有设定在具体作品中的实现、每一个叙事模块的平滑运转最终依然取决于人,优秀的作者总能凭借出色的文学天赋,寻找出最具典型性与原创性的场景,以发挥出人物设定、世界设定最强的叙事张力与最丰富的叙事潜能,作者赋予人设以灵魂,赋予世界以灵韵。
数据库与模组化叙事并不磨损文学的人格属性,反而可以为文学带来新的能量。比如,当世界设定被拆分为与人物设定并立的叙事元素,世界便不再只是故事发生的舞台和背景板,它具有了与人物同等程度的能动性,开始登台亮相,成为叙事中的主人公。于是,我们便在网络文学中看到浩如烟海、精彩纷呈的种种世界设定,看到无数差异化的时空与平行世界,丰富多样的世界设定构成了网络文学的独特风景。人工智能并不会从人类那里夺走文学,文学依然与每一个灵魂及其所处的时代息息相关。
原标题:《人工智能会从人类那里夺走文学吗?|新批评》
阅读原文