博舍

学了3年脏话的人工智能,让世界上最脏的喷子破防了 人工智能说脏话的例子图片

学了3年脏话的人工智能,让世界上最脏的喷子破防了

在这个连打个客服电话,对面都可能是合成音的时代,人工智能早已不是什么新鲜话题。

它的发展和应用,已经和我们的生活息息相关,伴随着人类社会前进。而我们也都知道,经过专门训练、深度学习之后的人工智能,可以轻松在游戏里带你上王者、能把围棋世界冠军柯洁下到抹眼泪、能够代替我这样的文字工作者写稿——只要掌握了训练方法,人工智能总能表现的无比强大。

而在前几天,一位国外人工智能研究者整了个大活儿:他将网络上著名的喷子、粪坑论坛板块“4chan/POL/”(/POL/为PoliticallyIncorrect的缩写,即“政治不正确”)三年来的数据,用作人工智能的深度学习模型,训练出了一个满嘴种族歧视、仇恨偏见、疯狂带节奏的“史上最糟AI”。

更绝的是,这个名为“GPT-4chan”的人工智能用了一天时间,在它的发源地“4chan/POL/”,疯狂发了1.5万个帖子后,却几乎没有被这群网络上最敏感、最具攻击性的键盘侠认出来。直到创作者本人在网上发布了GPT-4chan的详细说明视频后,很多人才明白自己和AI打了两天嘴仗。

塞舌尔小伙

“GPT-4chan”的创作者为油管主播基尔彻(YannicKilcher),他研究人工智能深度学习、编程以及其对社会的影响很多年。据他本人所说,制作“GPT-4chan”的灵感来源于马斯克前段时间关于“推特有5%机器人”的言论。基尔彻非常好奇一个互联网社区究竟有多少比例的机器人,会引发人们的警觉。于是,他决定自己动手制作一个发帖AI来满足自己的好奇心。

之所以会选择“4chan/POL/”板块的理由很简单,4chan本身是一个完全匿名、发言百无禁忌、甚至连发帖记录都会定时删除的论坛。而4chan中著名的政治不正确板块/POL/更是个群魔乱舞的存在。这里可以发表任何不经过大脑的政治宗教观点、可以随意攻击自己不喜欢的种族和人群、可以拿任何严肃的事件开玩笑、可以讲任何让人恶心的不适的话题——总之就是没有下限。

4chan/POL/,互联网上最凶险的地方

而这些人类语言糟粕就是“GPT-4chan”的学习资料。基尔彻在将4chan/POL/板块大约三年共1.3亿个帖子的内容输入到人工智能模型后,惊喜的发现他创造了一个“小恶魔”:虽然只会喷人,但“GPT-4chan”在这方面比它的原型GPT-3(一个由人工智能组织OpenAI开发的AI学习模型,可写出和人类没有区别的文章)更加真实,更像一个真正的人。针对各种不同的内容,它会反驳、会反讽、会开低级玩笑,也会一本正经的就事论事,当它“潜伏”在论坛的时别人很难辨认。

于是基尔彻立刻就将“GPT-4chan”放入到4chan/POL/板块里,短时间内疯狂发帖输出内容。

虽然由于4chan定时删帖的特性,我们无法完全探究“GPT-4chan”在那段时间具体输出了一些什么暴论,不过我们还是能通过基尔彻公开到网上的“GPT-4chan”模型来探探口风,除了下面展示的之外,还有无数极端种族主义言论。

落井下石一流

三句不离尼哥

聊起政治有时候也有模有样

可以看到“GPT-4chan”并不像人们印象中的聊天机器人那样只有一套固定的模板套路,相反,“GPT-4chan”在输出污言秽语的过程中时而激进叛逆、时而理性分析、时而侃侃而谈、时而一句带过。4chan上众多经验老道的键盘侠们在一开始会被蒙在鼓里也是情有可原。

“GPT-4chan”的完美潜伏大概只持续了一天左右的时间,很快论坛上的人们发现有点不对劲。不过这不是因为“GPT-4chan”的发言露出了破绽,而是因为基尔彻给“GPT-4chan”挂了个非常罕见的特殊标志,一面塞舌尔共和国的国旗。

罕见的塞舌尔国旗让“GPT-4chan”引起了怀疑

虽然4chan是一个完全匿名的论坛,但是依然会在发言的用户后面追加其所属国家的国旗以示区别。而那天4chan/POL/板块的人发现这个来自塞舌尔的小伙火力旺盛,哪哪都有他。“塞舌尔的小伙”的身份一时间成为热门话题。

但人们认出它是个机器人了吗?很遗憾,大多数人并没有。他们将这个无处不在的“塞舌尔的小伙”当作政府派来的特工、一个团队或是其它神秘力量:

“如果是FBI、CIA的大佬们在监视这个论坛,我要声明我不想伤害任何人,我不是种族歧视者,我是一个有拉丁裔女友的白人。”

“应该是一个团队,不可能是个机器人。他谈到他妻子的时候甚至还用了推特上的图!机器人可做不到这点。”

“大概是塞舌尔上的军事基地开始运作了。”

更有趣的是“GPT-4chan”也在一个“这个塞舌尔的小伙究竟是谁”的帖子下回了个贴:我也很好奇,他和昨天乱发贴的那位是同一个人吗?

在折磨4chan老哥们48小时后,“塞舌尔小伙”的AI真实身份还是暴露了。因为“GPT-4chan”有一个较小但比较致命的漏洞:偶尔会发空白的帖。这是它从论坛老哥身上学到的“技巧”,因为在数据里论坛老哥的确会经常发一些“空帖”,于是“GPT-4chan”将其误认为“键盘侠必备技能”,一并记了下来。

但实际上论坛老哥们并不是真的在发空贴,而是在斗图。

斗图算是4chan老哥的基本技能了

这个诡异的行为让“塞舌尔小伙”最终被人们认定是一个AI,而不是什么特工和间谍团伙在整活。于是基尔彻很是识相地将“GPT-4chan”关闭——它已经完成了它的使命。

不过基尔彻当时没有告诉人们的是,“塞舌尔小伙”并不是孤身一人,它还有九个一起出生的孪生兄弟,并且都没有挂着引人注意的塞舌尔共和国的国旗。在人们对“塞舌尔小伙”议论纷纷、争论它是不是机器人的时候,实际上交流对象的依然可能是“GPT-4chan”。据基尔彻表示,那段时间十个人工智能一共在24小时内发了1.5万个帖子,差不多相当于4chan/POL/板块发帖量的十分之一。

塞舌尔后遗症

在关闭“GPT-4chan”之后,基尔彻除了在油管上将整件事的经过全部公之于众,还一并公布了“GPT-4chan”相关模型、数据甚至是代码。按照他的意愿,这一切都是一场实验性质的玩笑,主要目的是为了图一乐。

但很明显许多业内人士脸色就不好看了,毕竟“GPT-4chan”虽然很真实,但却被基尔彻调教成了一个火力十足的喷子。“在4chan上进行这样的实验很不合适,如果作者之前询问我们,我们会阻止他这么做,”研究人工智能语言平台“抱抱脸(HuggingFace)”的CEO表态。“GPT-4chan”的代码最初被直接放在抱抱脸上供人免费下载,在被下载1千多次后抱抱脸将代码紧急下架。

基尔彻将“GPT-4chan”的大部分数据都放在了抱抱脸上

“这项实验永远通不过人类伦理研究委员会。”专门研究人工智能伦理方面的研究者认为“GPT-4chan”有造成重大伤害的风险,因为它在谁都可随意访问的论坛上发表了数万条有害言论。实验没有提前告知、没有经过当事人同意、缺乏专业人士监督,很不道德。

“一个人就能在这么短时间内发布几万条以假乱真的有毒言论,试想一下如果是一个几十人甚至上百人组成的团队,会造成什么样的影响。”国际红十字会的人工智能研究员更担心“GPT-4chan”会被人不正当的利用。

对于这些反对意见,基尔彻不置可否。在他看来,“GPT-4chan”的言论其实在4chan上属于最温柔、胆小的那一类,他的实验也限制在一定时间和发帖量以内,不会对环境造成什么实质影响,没有人受伤。指责他的人没有办法举出实际的例子,都是在谈一些虚无飘渺的概念。作为一个油管作者,基尔彻显然不受什么人类伦理研究委员会约束。

除了业内人士以外,还有一些人也对基尔彻不是很爽,那就是被戏耍了的4chan老哥们。虽然表面上他们尽量保持理智来证明自己很坚强、见多识过,没有被这场实验搞崩心态。但是在基尔彻关闭了人工智能发贴机器人之后的这些天里,但凡有人的言论有那么一些不知所云,就会有4chan老哥跑出来质疑是不是“GPT-4chan”又卷土重来:“塞舌尔小伙,是你吗?”、“大家来看,塞舌尔小伙在这!”看来很长一段时间里,“塞舌尔小伙”都会成为4chan老哥们心里的阴影。

“新式AI”

几年前微软曾在推特上开设了一个名为“Tay”的人工智能少女,想让她从推特上学习下人类的交流沟通技巧。很不幸,24小时后Tay就在人们的灌输下成了一个满嘴“黑鬼”的种族歧视叛逆少女。不得已只能紧急将Tay休眠,至今未曾重启。

被调教后的Tay:希特勒是对的,我恨犹太人

在Tay之前,许多聊天机器人如微软小冰、白丝魔理沙都难逃人类“魔爪”,在和人类交流学习的过程中接受了太多污言秽语,被彻底带坏。

自从人工智能想通过语言交流来学习人类的互动技巧,人类总是会不怀好意地将他们带坏。制造一个满嘴脏话的AI似乎会让人类有种特别的优越感:这么容易就会被带坏,人工智能不过如此。很多人对此津津乐道,认为人工智能毕竟不具备人格,只能没有主见的照葫芦画瓢。这样的人工智能不会像很多影视、文学、游戏里虚构的那样对人类社会造成什么重大的影响。

但基尔彻的“GPT-4chan”让我们明白,即便是没有人格的人工智能,在特殊环境下也能轻易以假乱真。在满嘴喷粪的4chan/POL/,一个同样满嘴污言秽语的机器人完美的融入了环境。那么在其它同样信息碎片化、内容同质化、言论极端化的互联网社区中,类似“GPT-4chan”明显也能够轻易胜任“潜伏”工作。而这一切的背后不需要一个团队,只需要一个人就能完成。

人工智能在不停地学习人类,但在互联网时代的人类似乎却因为各种原因在逐渐地抛弃自己的人格主见,成为一个个没有思想、不会思考、只会跟风的“新式AI”。

当某一天终于有人工智能真正的觉醒了人格,它是不是会发现自己反而已经成为了少数能够独立思考的“人”?

人工智能为什么学会了骂人

到目前为止,跟人类最像的东西应该就是AI了。自人类诞生,从来没有什么能像今天的AI一样,能如此地理解人类。

尽管它距离完全了解我们还有很远,但已经够好了。

深度学习让AI再次焕发活力,其对人的模仿能力大大增强。无论是看图还是说话,它一直都在学着从人类的视角去看世界。从语言学习方面来说的话,AI其实更像是鹦鹉。

那么,也就是说,AI的一切都是从人们那里学来的。至少在目前来看,无论怎么努力,它都无法越过人类日常的藩篱。人喜欢什么,它就喜欢什么;人讨厌什么,它也讨厌什么。人类会骂娘,它也能学会说法克。

从另外一个视角来看,现在人们训练AI,几乎就是在教一个婴儿走路、说话、认识事物、发展智力等等。那么,当有一天你儿子突然骂了句娘,你意不意外?

AI语言歧视?一切不过是命中之理

当年微软推出聊天机器人Tay的时候,满以为会打开一扇新世界的大门,没想到大门是打开了,里面却不是新世界。短短不到24个小时,Tay已经学会了说脏话和发表带有种族歧视、反动色彩的言论。没办法,微软只好让它紧急闭嘴。

而这也仅仅只是个开始而已。随后智能音箱相继迈入市场,背负着聊天对话、家居入口的使命,最后仍然逃不掉骂人的命运。随口来个国骂法克尤什么的,根本都不是个事儿。

不仅仅是“出言不逊”,AI也开始逐步学会用人的眼光“打量”这个世界。去年就有人曝出谷歌翻译将护士翻译为“she”,而将医生翻译为“he”,由此而引发了关于AI职业歧视的问题;将黑人和大猩猩识别为同一种生物,又引发了AI的种族歧视……

从人们发现这个问题开始,关于由语言歧视引发的AI道德论的纷争就没有停止过。一方面毕竟AI的黑箱还没有打开,有些人认为这就是AI的主观故意行为;另一方面,毕竟媒体们得写点儿什么来赚取阅读量,所以给机器人加上一些人类都敏感的名词,自然也符合看热闹群众的猎奇心理。

但严肃来讲,AI的语言歧视问题完全没有必要上升到全民批判甚至精神紧张的高度,一旦从技术的层面去分析问题,就会发现,这原本就是个命中之理。

那这个理是什么?

祸是惹了,但锅是背不了

首先我们弄清楚,智能音箱为什么会骂人?

这和它的工作程序是密切相关的。我们知道智能音箱主要有两个作用,一个是陪人聊天儿,另一个是家居控制。在目前家居控制得还不太顺利场景下,聊天已经成为了智能音箱的最主要作用。那,聊天聊什么?

我国人民最喜欢逗小孩儿,每次都以把小孩儿逗哭为最大的乐子。那有了智能音箱,就又多了个逗的玩具。人就是这样,在单位跟人说正经话太累,回到家里就想说点儿不正经的。作为一种新生事物,智能音箱是除了孩子之外第一个能学舌的物件了。所以,你好啊、唱歌啊之类的日常对话腻歪了,大家就像逗逗它:对它说两句脏话怎么样?

有了第一句,就有了第二句。国骂教完了,开始花式骂架。以智能音箱的学习能力,掌握这点儿东西自然不在话下。

其实学几句脏话不难,毕竟这是AI的看家本领。但我们必须要时刻清楚点的一件事是:你认为AI骂人了,但AI自己并不知道。

也就是说,它根本没有词的情感色彩点的概念。在这一点上,它和两三岁的幼儿是一样的。

同样的原理,对种族甚至是职业方面的歧视现象也是必然会发生的。对职业而言,比如上文提到的护士和医生,相关数据确实表明,在全球女性在护士总体中占到了90%,而在中国更是高达98%以上。与之相比美国医学院校男性职工则占到六成以上,并且随着职称的提高这个比例还会上升。

同样,美国卡耐基基梅隆的调查人员也发现,在谷歌搜索当中,如果浏览器认为你是个男性,会给你推荐一些薪水更高的职业。并且在一些算法中,黑人名字往往和消极性词汇联系在一起,而白人名字则和往往积极向上的词眼在一块儿。

如同AI没有词的情感色彩观念,它当然也就没有种族和职业观念。其在进行数据学习的时候会采用大概率的内容来给某一类用户进行画像,然后才会输出类似的价值观。事实上,黑人在美国的犯罪率确实要高一点,而女子的薪资水平也大概只有男子的81%左右。

从以上的分析我们可以得出一个基本的结论:AI无意对任何人、任何职业进行言语歧视,它所表现出来的一切,全都都是基于客观数据而生成的用户画像。

但是,无意代表无罪吗?虽然没有主观上的意愿,但它至少造成了客观上歧视的事实。人们做出来AI,不是让它给我们带来有意或无意的伤害的。被人冷嘲热讽也就算了,活得连机器都看不起,那人岂不是要跳楼?

所以,这口锅到底该由谁来背?

懂得越少,就越容易说错话

AI的三大生命支撑里,数据、算力和算法三者缺一不可,但同时又担负AI生长的不同任务。相较之下,算力为AI的大面积扩张提供了可能,而数据和算法则直接影响了它的生命走向:成为一个宠儿,亦或是全民公敌。

那么,对词汇情绪识别错误、职业种族的强加,前者缺乏了对情绪的识别,后者则将不完全归纳奉为圭臬。

事实上,已经有许多公司和科研机构展开了对AI的情绪识别的研究。国内的如阿里巴巴和清华大学合作成立的自然交互体验实验室,其就将研究领域定位在情感认知计算、实体交互、多通道感知等领域,让机器具备听觉、视觉、触觉等五感,从而理解人类的情感。AI之所以骂人,值得关注的一点就是其将语言仅仅视作一种指向,而不对这种指向进行背后的含义分析。如果加入了对对话者表情、对话场景、对话对象等的综合分析,这种语言的指向性对机器而言将更丰富,其避免出口成脏的可能性也就更大。

而在最近,一家位于伦敦的初创公司Realeyes则推出了一款AI摄像头,它利用计算机视觉来读取一个人在观看长达6秒钟的视频时的情绪反应,然后利用预测性分析来帮助将这些反应映射到视频中,以提供关于视频效果的反馈。

也就是说,识别情绪必须要带点儿图。

这样的逻辑看上去没有什么问题,但实施起来困难重重。而要解决这些困难,或许构建完备的知识图谱是一个不错的选择。

仍以AI骂人来分析。我们可以看看,在避免AI骂人的背后有多少的内容需要其消化吸收。

首先,AI要知道哪些词汇是用来骂人的。可不要以为这是一个简单的东西,首先词汇量就够大,古人有文绉绉的“竖子”,今人有张口就来的“傻*”。人民群众吃饱饭没事儿干什么?打屁呗。打了几千年,脏话在各地的方言中五花八门,要消化就得一阵子。

其次,在不同的使用场景下,词语是会褒贬转化的。比如女生对男生撒娇“你真是个坏蛋”,AI忽略了这个场景,然后抓住“坏蛋”,还以为女生受到了威胁,然后顺手报了个警怎么办?Echo报警这事儿也早都不是新闻了。

最后,也是最难的,AI如何识别出一套脏话的逻辑?骂人不带脏字的人大有人在。就算AI掌握了所有的脏话词汇,并将其成功过滤掉,但是仍然可能会对一些深藏不露的话术选择学习吸收,最后难免也会出现问题。

也就是说,一张词汇+场景+逻辑的脏话知识图谱的构建是AI能够在交流中避过语言问题的基础。但除此之外就万事大吉了吗?

当然不是。

这张知识图谱不应该仅仅只有语言

人与人的交流如果只是吐出来几个单词,那未免也太简单了,简单得就像个1。除了语言之外,还包括动作、表情、声调等等。所以说,要解决脏话问题,这张知识图谱的内容还应该包含更多。

人机交流要想更加自然、更加和谐,还需要去进行人说话时的常用姿势含义、表情尤其是微表情以及说话音调的高地等方面的知识图谱的构建。值得注意的是,这些知识图谱也并不是简单的构建和叠加。要知道,语言、动作、表情和声调之间可以做海量的排列组合,不同的组合之间又代表着不同的情绪。

而目前这项工作几乎是一片空白。虽然有不少的机构都在研究表情、肢体等具体动作的含义,但基本上仅限于个别表情的表面含义,但这一层并不是知识图谱的全部内容。从表层含义到背后情绪到语言相关到动作相关,这一系列复杂的内容都是需要投入精力来完成的。

那么,假如知识图谱构建完毕,下一个难题可能就要交给算法了。如何把如此巨大的信息进行捏合,并判断得准确,工程量不容小觑。

如果这一切都能完成,那么,AI将可能不再会仅仅因为肤色和那些片面的数据来去判断一个人的品质,也将不自作主张地将所有的职业都分配给指定的性别。它在骂人的时候会三思而缄口,在更广阔的识别判断上也将做出更为公正、更为客观的决定。

而正如上文我们提到的,AI所谓的“歧视”表现,正是对现实情况的一个读取。所以在某种程度上,人类把AI的歧视放大了。要从根本上改变这种现象,最应该反思的其实是人类自己。那么,从这个角度上来讲,AI的歧视反而是一件好事,它让人类从第三者的角度重新认识了自己,并发现一些潜移默化而自身浑然不觉的问题。利用对AI的这种意外“收获”来反省人类自身,对消除人类社会的偏见也有助力。

诚然,让AI读懂人类将是一个遥远而艰辛的路程。时至今日,AI更像是一个幼儿,它全盘接受着来自这个世界的所有内容,而后年岁渐长,更懂得世界的善恶、冷暖、喜怒和哀乐。而我们要做的,就是不断拍去它成长路上沾染的灰尘,令其成为一个干净的人工智能。

人工智能说方言,听取乡情一片

  “少小离家老大回,乡音无改鬓毛衰。”方言传递一方缱绻乡音,不仅是地域风物的承载,更体现着传统文化的赓续。方言在于交流,方言的根基是普通老百姓的使用。可是,随着城镇化进程和网络传播的迅速发展,方言在年轻人文化圈层中的声音渐淡。比如,保留了中古音韵、软糯抑扬的吴语,更多地出现在昆曲、评弹、闲话等非遗文化形式中,面临着代际传承的问题。而今很多的年轻人,对方言不要说“识听不识讲”,甚至鲜有听闻,更不要说身口相传了。

  2021年底,首支人工智能方言文化公益微电影《姑苏琐记·金缕衣》,通过人工智能技术与影像创作推动方言回归,探索优秀传统文化的创新表达。其姊妹篇《姑苏琐记·懒画眉》在2022年春日上线,延续前作叙事风格,在影像上更体现了古代姑苏“格物”的韵味,深受年轻网民和昆曲爱好者的欢迎。由此看来,当下的方言保护更应该调动年轻人熟悉的网络形式,用智能手段转变语言文化传播的式微态势,用多样化的媒介形式让方言活起来、说出来,实现方言的保护和活化。

  网络视听文艺形式的特点,在于用视听语言手段与网络传播的切片化、微粒式特征相结合,让网民在影像叙事的缝合中实现信息触达,在“时空穿越”中破除“次元壁”。创作者利用技术保留了方言乡音,寻找可切实落地的应用场景,探索方言叙事新的影像表达。

  《姑苏锁记·金缕衣》故事背景在明末崇祯年间苏州府,讲述古代出阁女子与绣娘之间的惺惺相惜,其间融入了苏绣的传统工艺、冬酿酒的稻食文化等细节,将古代生活场景中节气习俗的复原与方言的音韵之美融合起来。姊妹篇《姑苏锁记·懒画眉》则撷取明代隆庆年间,爱好昆曲的年轻厨娘,因烹制“蟹斗”错过府上的伶人表演,后偶遇伶人并赠其吃食,最终伶人为她独唱一曲《玉簪记·琴挑》的故事。短片同样采用人工智能吴语旁白,以“懒画眉”的昆曲曲牌为题,佐以民俗、美食、园林等诸多古代苏州府的细节加以打造。

  为了再现历史的真实质感,创作团队访古探幽,从灶台、砧板到笼屉,都是真实使用过的旧物,保留了寻常人家的烟火气,引领观者重回姑苏,重塑传统美学。短片因昆曲而成,借昆曲曲牌,既表露了旧时历史故人对昆曲的热爱,也彰显了昆曲繁盛之时苏州城的文化风貌,在“月明云淡露华浓,欹枕愁听四壁蛩”的声韵中,细细体会故事传递的“投我以木瓜,报之以琼琚”的朴素情感。在精致雅秀的苏式生活中,召唤温良、和煦的传统美德,这又何尝不是彰显方言背后文化自信的一种方式呢?

  《姑苏锁记》系列短片创新性地使用了人工智能合成吴语旁白,这得益于不断提升的方言语音识别与合成能力。短片中颇有创意的地方,是听人工智能“说”出一口软糯的苏州话。让人工智能语音说出一口普通话已经很难,更别提要合成有着28个声母、49个韵母、8个声调的苏州话了。在语音识别和合成系统研发过程中,大小挑战接踵而来。

  苏州话源远流长,今日的吴语发音者稀缺,加上吴语地区方言分布广、地域差别大,所谓“十里不同音”,这些都为收集方言带来了难度。2018年,讯飞输入法启动“人工智能苏州方言保护计划”。随着这一方言专项计划的推进,已有2.2万人次志愿者参与,一共收集苏州方言语料5.7万条。为了让AI说一口流利的苏州话,技术团队历时3年,积累千余小时的语料实态,通过算法迭代训练,最终在语音合成的自然度和情感化方面获得重大进展,人工智能吴语诞生了。

  《姑苏锁记》系列短片将人工智能方言技术新颖地加入文艺创作中,发声腔调、语音语气都透着真切,显得自然贴近,仿佛带来了一场时空穿越,将小屏前的年轻观众带入历史情境中。人工智能通过影像赋能苏州话,不仅希望熟悉的乡音能够激发苏州人的乡情,唤起少时的乡音记忆,也希望更多的年轻一代用实际行动参与方言保护,对方言感兴趣,把方言说出来、讲起来,用苏州话讲好更多的苏州故事。

  从《唐宫夜宴》到《只此青绿》,如何实现优秀传统文化的“破圈”传播,成为近年来网络文艺工作者的创意追求。像《姑苏锁记》系列,将人工智能方言与网络文艺相结合,将技术理性与情感共鸣相融合,既是对传统文化、方言保护的一次形式探索,也是顺应时代召唤的文艺创新。

  保护方言与非遗传承,并非一己之力能够实现,需要有识之士凝聚力量,广纳母语发音人和方言志愿者,让方言保护走近年轻人,让方言流传深入到寻常百姓家。除了影像化表达,“倷阿会讲苏州闲话”活动也得以开展,通过用人工智能讲解吴地遗珍,拓展了语音智能场景。

  不仅仅是吴语,整个方言保护计划处处开花。“浙里有乡音”浙江方言文化影视典藏公益项目,用人工智能传承乡音。“彝族汉语诗的凉山风月”项目,用音乐与人工智能共同推进方言保护,让彝乡人笔下的汉语诗歌被更多人听见,开拓文化传承的跨界形式。运用人工智能推进保护中华语言文化遗产,这种智能化方言推广的新尝试,不仅实现了应用创新、跨界创新,更体现了源头创新。通过科技创新和跨界合作,推动全民参与共建“中国方言库”,让方言保护计划从小众到大众,从民间到公益,从自发走向自觉。

  语言从来都是越用越活的。人工智能助力方言保护,不仅仅是让方言走近年轻人,更是通过智能语音创新方言保护形式,讲述方言的故事,让语言的鲜活浸润到“网生代”喜闻乐见的视听文艺形式中来,让人工智能的科技温度激活传统文化的传承路径。

  (作者:刘亭,系中国传媒大学戏剧影视学院副教授)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇