浅析人工智能的利与弊及发展前景
随着现代科学技术的飞速发展,先进的技术在各个领域都得到了广泛的应用,使得生产力获得了大幅度的提高,为改善人民生活水平作出了巨大贡献,人工智能领域也迅速发展,特别是在中国“2025智造”提出后,国内的人工智能领域也掀起一段热潮。
人工智能,英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能亦称智械、机器智能,指由人制造出来的机器所表现出来的智能。通常人工智能是指通过普通计算机程序来呈现人类智能的技术。通过医学、神经科学、机器人学及统计学等的进步,有些预测则认为人类的无数职业也逐渐被人工智能取代。
人工智能并不是局限于机器人这一个品种,它包含着各种形态的“机械生命体”智能体,可以是计算机程序、机器人、车载硬件、芯片、手机等,而人工智能就存在与这些硬件当中的软体内。人工智能的带给我们的利:机器智能化可以为我们节省很多精力,可以节省很多时间,可以辅助工业生产,降低生产成本,带来廉价的产品。
通过人工智能可以节约大量的人力成本,比如工厂这种单独没有技术含量的工作由人工智能替代就可以节约大量人力成本。人工智能可以方便人民的生活,比如手机、电脑、扫地机器人等的出现都大大便利着人们的日常生活。人工智能把外界输入的信息向概念逻辑信息转译,将动态和静态的图像、文字、声音等信息转为形式化的概念逻辑信息人工智能对接受的信息进行不断的自我学习、深度检索、逻辑判断,达到深度学习,下次遇到这种问题可以直接做出相对应的智能反应,加快处理速度和智能应对在人工智能的大环境下,势必会引领机器人从“呆板”向“智能”转变,将会赋予机器人语义、视觉、听觉等能力,将机器智能与人工智能结合,成为真正意义上的人工智能机器人,给机器人带来了无限可能。
但是人工智能也存在它的弊端,越来越多的工作被人工智能所代替,就会有大量的人面临失业会带来社会的动荡。人工智能毕竟是冰冷的,没有人情,没有温度的机器,而如果我们的社会到处都是这样的机器,社会将要变得很恐怖;
安装实施起来很昂贵,当将安装、维护和修理的成本结合起来时,人工智能是一个昂贵的提议,那些拥有巨额资金的人和企业可以实施。然而,没有资金的企业和行业会发现很难将人工智能技术应用到他们的流程或战略中。
人才争夺战导致垄断、贫富分化加剧,人工智能时代的到来,必将引发空前的人才争夺战。谁拥有的各类一流人才数量多质量高,谁就能赢得最后胜利。同时这会导致巨头的垄断、贫富分化加剧。
工作限制,人工智能机器被编程为根据它们所接受的训练和编程来完成某些任务。依靠机器来适应新环境,勇于创新,跳出框框思考将是一个巨大的错误。这是不可能的,因为它们的思维仅限于它们接受过训练的算法。
人类的精神生活退化,机器人是没有感情的。如果此刻你的身边,你的同学,你的朋友,都是人工智能机器人,你会受得了吗?当然不行!现在的社会,是一个物质的社会,但更是一个精神的社会,如果人工智能机器人越来越多,这个世界将没有感情,没有喜怒哀乐,到处都是冷冰冰的,没有艺术,没有精神食粮,到处都是机械化的。
目前人工智能已经为人类创造出了非常可观的经济效益,人工智能可以代替人类做大量人类不想做、不能做的工作,而且机器犯错误的概率比人低,并且能够持续工作,大大的提升工作效率,节约了大量的成本,未来的人工智能可能还会代替人类工作,代替人类做家务,帮助人类学习,甚至可以照顾老人和小孩,实时监护人类的健康,生病了直接给人来治疗,延长人类的寿命,让人类的生活变得越来越美好。
人工智能改变了人们的生活,我们对人工智能应加以好的利用,同时要避免带来的弊端,人工智能与人类、与社会、与自然和谐相处,这样才能长远的发展。
文章整合自:酷知网、csdn、简书
审核编辑:鄢孟繁
人工智能技术在文化产业中的应用与影响研究
摘要:人工智能技术的发展为文化产业提供了诸多应用性机遇;其中一些关键性技术点与文化产业相结合,可以实现文化内容产生、创意资讯传播以及文化市场管理方面的创新。本文拟从几种主要的人工智能技术出发,介绍在技术与产业相结合过程中形成的代表性应用,同时探讨分析目前的人工智能应用带来的“信息茧房”“机器歧视”等社会问题,从而为我国文化产业发展提供相应的经验。
关键词:人工智能;文化产业;算法公平;信息茧房
人工智能(ArtificialIntelligence,AI)本质上是对人的意识与思维的信息过程的模拟,是指使用机器代替人类完成认知、识别、分析和决策等功能。在《人工智能:一个现代路径》[STUARTJ.RUSSELL&PETERNORVIG,ARTIFICIALINTELLIGENCE:AMODERNAPPROACH1034(3ded.2010),supranote7,at4.]一书中,“人工智能”被定义为:行为是为了获得最好的结果,或者在不确定的情况下,获得期待的最好结果,这是一种“理性行为”选择。在过去的十余年中,人工智能技术在以深度学习为代表的机器学习、语音识别、自然语言生成与处理、计算机视觉等领域取得不少成果,引得全球广泛关注。
世界各国都在积极部署关于人工智能的战略规划,2016年10月,美国和英国双双出台国家人工智能战略。就我国而言,2017年,国务院印发《新一代人工智能发展规划》,其中提出到2030年,人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元[国务院:新一代人工智能发展规划[J].重庆与世界,2018(02):5-17.]。
基于此,本文重点关注人工智能技术在文化产业――即新闻出版、发行、广播电视、电影、文化艺术、文化信息传输、广告服务和文化休闲娱乐等领域中的应用现状、存在的问题及对策,从而为我国文化产业发展提供可借鉴思路。
一、人工智能的主要技术类型与文化产业中的典型性应用
在美联社于2017年发布的《人工智能工作手册》中,人工智能在新闻业应用最频繁的技术主要有5类,包括机器学习、自然语言技处理术、语音识别技术、机器视觉和机器人技术[余婷,陈实.人工智能在美国新闻业的应用及影响[J].新闻记者,2018(04):33-42.]。在整个文化产业当中,目前应用最为广泛的技术类型是以深度学习为代表的机器学习,其他4类技术类型也均有不少应用落地。
通过上表可知,人工智能中的虚拟代理、机器人自动化、机器学习、深度学习、生物与语音识别、自然语言生成与处理(NLP)、硬件优化与决策管理等技术可以与文化产业中的信息采集、内容生产、信息传播和受众管理等有效结合,提供诸如内容个性化算法、受众目标与偏好识别、自动新闻内容生产等方面的服务,也可以提供在客户管理与市场调研方面的有力手段。
目前,国外一些先进的文化媒体机构对于上述技术的应用已经形成一定的有益经验与有效做法。
首先,在内容生产中,人工智能可以实现自动写作与自动摘要、抽取式新闻写作,并试图使机器像人类一样阅读与思考。
美联社是最早运用AI技术进行自动化写作的媒体之一。2014年,美联社与美国AutomatedInsights公司合作,使用该公司开发的自动化写稿程序Wordsmith来自动编发企业财报新闻。该程序几分钟内可写出150-300字的快讯,每季度能生产4000篇财报新闻,是过去数量的10倍。2015年之后,国内腾讯新闻、新华社和今日头条等也陆续推出了写稿机器人。
其次,在信源数据收集中,人工智能可以基于传根器应用生成内容,实现信息传播的可视化追踪。
NewsTracer是路透社使用的新闻追踪系统,这一系统每天可以对5亿条Twitter信息进行分析,从假新闻、广告和杂音,以及众多的人名、机构和地点中找到真的新闻事件与线索,这让记者能够从社交媒体的众多信息中脱身,把更重要的时间用来挖掘故事。
第三,在文化创意视频类服务中,人工智能可以实现文本和视频之间的转换、高效寻找视频片段与资源以及优化视频内容搜索等。
Zorroa是美国的一家视觉资产管理公司,2017年,公司推出企业可视化智能平台(EVI),帮助用户对大型数据库中的可视资产进行搜索和运行分析。在与索尼影业的合作中,EVI通过面部识别、图像分类、机器学习等方式整理、分析了索尼多年来积累的数百万小时的视觉资产。使用该平台后,平时需要27小时才能搜索到的特定视频资源,仅需3分钟即可检索到,为索尼影业的视频资源开发带来极大的便利[https://zorroa.com/case-studies/]。
第四,在文化信息传播中,人工智能可以通过受众的好奇点与文化传媒内容进行匹配、通过信号源获取受众的兴趣点,并且精准分析受众,预测其内容消费需求,实现精准投放。
Netflix是在用户个性化分发业务上较为成熟的视频网站。2016年年报显示,Netflix拥有9300万全球会员,每天流媒体播放超过1.25亿小时的电视节目和电影。预测用户想要观看的内容是其公司业务模式的关键部分。2016年,Netflix开发名为Meson的应用程序,构建、培训和验证个性化算法,提供视频推荐建议。类似的企业还有IRIS.TV等,该公司曾在三个月的时间内运用个性化分发,将其客户所在公司的观众存留率提高了50%[https://www.techemergence.com/ai-in-movies-entertainment-visual-media/]。
最后,在市场调研与客户管理方面,人工智能可以获知受众对内容消费的使用特点、通过深度神经网络技术来感知受众对文化内容的情感参与和变化,从而进行有效的客户管理与市场营销。
2016年,日本广告公司MaCannEricksonJapan聘用了全球第一个使用人工智能开发的机器人创意总监AI-CD?。当年9月,机器人创意总监与人类创意总监以同一个广告主题各自开发了10分钟的广告片,并交由全国民意调查评判。尽管人类创意总监以8%的微弱优势险胜,AI在受众分析与市场营销方面的潜力不容小觑。
可见,人工智能已经显著改变了媒体格局――包括观众发现和参与内容的方式,以及内容创建和分发给观众的方式。目前,算法不仅会影响受众在不同平台上看到的内容,还会首先影响平台生产和创建的内容。人工智能从根本上改变了受众行为和创作过程。
二、人工智能应用对文化产业发展的影响与启示
尽管统计显示,就目前的全球文化产业而言,仅有8%的文化企业已经部署并使用了人工智能技术应用[https://www.ibc.org/tech-advances/the-future-is-artificial-ai-adoption-in-broadcast-and-media/2549.article],但人工智能技术对文化产业乃至整个社会的影响已经有所显露。
就其积极意义而言,人工智能技术在提高内容生产效率、提升用户留存率以及优化文化产业资产管理等方面存在重要意义、毋庸置疑的高效率和部分的不可替代性。而就其消极影响而言,内容分发的局限性开始受到社会关注;人工智能算法的公平化、透明化一度遭受质疑;算法带来的偏见与歧视又引发社会伦理问题;人工智能应用背后的商业力量或许是造成这一系列问题的原因之一……
不少科技界声名显赫的人物也因此表达了对人工智能未来发展的担忧,如特斯拉创始人埃隆・马斯克曾说:“我们应该十分小心地看待人工智能。我越来越倾向于认为,在国际或者国家层面上应当有相应的人工智能监管措施,以防人类做出不可挽回的事情来。”微软创始人比尔・盖茨、物理学家史蒂芬・霍金等也表达了类似的看法。未来人工智能应用将在何种程度上造福于人类,部分取决于今天我们在何种程度上理解并解决人工智能可能产生的问题与自有弊端。
具体而言,本文将从如下三方面阐述人工智能应用的问题、影响与对策:
(一)内容分发的局限性:“信息茧房”
如今的网络文化空间,从某种意义上说,是一个算法帮助公众做决定的环境。如果说曾经的传统媒体为公众搭建了一个“拟态环境”,不同的编辑部依托各自的编辑方针、新闻判断原则,以“议程设置”的方式决定着每日媒体内容的生产加工,那如今,在网络媒体中这一权力部分地转交给了算法。算法可以决定人们阅读哪些新闻,观看哪些视频,收到哪些广告,人们的数字存在(DigitalExistence)日益受到算法左右。
文化传媒企业使用算法决定内容推荐的初衷是在于解决信息过载的问题,提高用户获取信息的效率,更希望借此增加用户的沉浸时长,提高应用的用户忠诚度和留存率。因此,企业利用大数据主动搜集用户信息,根据用户自身兴趣,为用户定制个性化内容,形成一整套精确的内容分发模式。Facebook信息流产品Newsfeed、对话式新闻产品微软小冰和Quartz、今日头条以及Netflix、IRIS.TV等一系列人工智能应用均属于此类型。
这一初衷是好的,但问题出在“精确”上。信息越精确,代表着信息涉及的范围越狭窄。人工智能研究者已经发现,仅仅关注推荐系统的精确度远远不够,这会导致用户难以获取足够的信息增量,视野越来越狭隘。美国学者桑斯坦在其著作《信息乌托邦》[凯斯・R・桑斯坦.信息乌托邦:众人如何生产知识[M].法律出版社,2008:206-208.]中指出,人们借助网络平台和技术工具,在海量的信息中,完全根据自己的喜好定制报纸和杂志,进行一种完全个人化的阅读。在信息传播中,因公众自身的信息需求并非全方位的,公众只注意自己选择的东西和使自己愉悦的通讯领域,久而久之,会将自身桎梏于像蚕茧一般的“信息茧房”中。
学术界不少学者指出“信息茧房”问题的危害,将“信息茧房”与群体极化、证实性偏见等议题关联起来。学者陈昌凤认为,信息的个人化偏向容易产生詹姆斯・斯托纳(JamesStoner)1961年提出的群体极化现象,即团体成员从开始只是有某些偏向,通过协商、讨论,逐渐朝偏向的方向继续移动、形成极端的观点,甚至引发社会波动,如散播错误信息、形成极端性社会团体、公共理性批判缺失等[陈昌凤,张心蔚.信息个人化、信息偏向与技术性纠偏――新技术时代我们如何获取信息[J].新闻与写作,2017(08):42-45.]。与此同时,人们总是倾向于寻找、阅读自己认同的信息来佐证自己的认知,加深了信息的个人化偏向。对垂直细分领域内容的追逐,弱化了公共事务领域内容的传播,网络社会中传统媒体讲求的“社会公器”意义式微,一个对公共事务冷漠、毫无参与感与同理心的社会将会是“信息茧房”之下最极端也最为悲剧性的结局。
对此,文化传媒企业和公众这两个主体都需要采取一定的对策。对于文化企业而言,应当在推荐的精确度指标之外,加入新的算法推荐考量指标,如多样性、覆盖率、新颖性等;另外,有研究表明,基于关联规则的推荐方法要优于基于内容规则的推荐方法,更易为用户发掘新的兴趣点,现有的障碍在于关联规则难以抽取、耗时长[刘辉,郭梦梦,潘伟强.个性化推荐系统综述[J].常州大学学报(自然科学版),2017,29(03):51-59.]。
而对于公众而言,文化传媒企业设置算法推荐的初衷就有迎合用户喜好的意味,用户越是喜欢哪一类内容,平台就越是推荐哪一类内容。因此用户想要逃离“信息茧房”,第一个步骤就是反省自身,提升自身的媒介素养。平台可以帮助用户实现媒介素养提升,如每周发布用户阅读周报,告知用户在阅读中各类型信息的占比情况,提示用户哪一类信息了解匮乏等,起到一定的督促作用。
(二)从算法偏见到机器歧视――算法的公平与透明化困境
当我们在日常生活中的决策权部分地交给算法之后,我们本能地期待着一个更加公平、透明的环境。但是,一个不容忽视的问题是:算法或者机器真的能够做到公平、公正、不偏不倚吗?算法的规则是否本身就带有人类固有的偏见呢?
2015年5月,Google的照片应用加入自动标签功能,应用更新不久,一位黑人程序员发现自己的照片竟然被Google打上“大猩猩”的标签。Flickr类似的自动标签系统也犯过大错,曾把人标记为猿,把集中营标记为健身房。2016年3月,微软公司的人工智能聊天机器人Tay上线。可是上线不到一天,Tay就被网民“教育”成为一个集反犹太人、性别歧视、种族歧视等于一身的“坏孩子”,被强制下线。此外,有研究称谷歌广告服务会默认为女性用户推送比男性用户薪水更低的广告。这些事件一方面反映出现有的人工智能、机器学习技术的不成熟,另一方面,机器歧视(MachineBias)问题开始进入公众视野。
2017年,Pew研究中心曾在研究报告《算法时代》[LeeRainie,JannaAnderson:Code-Dependent:ProsandConsoftheAlgorithmAge,http://www.pewinternet.org/2017/02/08/code-dependent-pros-and-cons-of-the-algorithm-age/]中指出:“算法的客观中立仅仅是理想,创建算法的人即使尽量做到客观中立,也不可避免地受到自身成长环境、教育背景、知识结构和价值观的影响。此外,创建算法所依赖的底层数据的有限性也会导致算法偏见。”
那么,算法偏见的来源在哪里?首先,存在错误、不准确和无关的数据可能导致偏见。输入不完美、甚至有错误的数据,自然会得到错误、有偏见的结果。
其次,机器学习的过程可能是偏见的另一个重要来源。例如,一个用于纠错的机器学习模型在面对大量姓名的时候,如果某姓氏极为少见,那它在全部数据中出现的频率也极低,机器学习模型便有可能将包含这个姓氏的名字标注为错误,这对罕见姓氏拥有者和少数民族(姓氏与非少数民族不同)而言就会造成歧视[曹建峰.人工智能:机器歧视及应对之策[J].信息安全与通信保密,2016(12):15-19.]。这类歧视的来源并非程序人员有意识的选择,具有难以预料、无法估计的特点。
再者,正如Pew报告所指出的,算法可能先入为主地默认了算法创建者或者底层数据中带有的价值判断,从而产生了性别、宗教和种族方面的歧视。这类歧视主要是由于产品设计(DiscriminationbyDesign)的局限性。
种种算法偏见与机器歧视的案例让我们不禁怀疑,“公平”这一社会理念到底是否可以被操作化,成为被准确量化的算法规则。而与此同时,机器自动化决策的不透明性使得准确量化公平难上加难。机器决策是经由算法这一“黑箱”(Blackbox)完成的,也就是说,不论是普通人还是熟悉公平原则的社会学者,均无法了解算法的内在机制、原理,更无法监督机器的决策过程。因此,当算法的编程人员不清楚或者未能统一“公平”的内涵与规则时,他们自身的偏见就会在一定程度上影响算法,同时他们也可能会忽视算法可能产生的偏见,不公平的人工智能应用随之产生。
正如学者DanielleK.Citron在《技术正当程序》中所说,对于关乎个体权益的自动化决策系统、算法和人工智能,考虑到算法和代码,而非规则,日益决定各种决策工作的结果,人们需要提前构建技术公平规则,通过设计保障公平的实现,并且需要技术正当程序,来加强自动化决策系统中的透明性以及被写进代码中的规则的准确性。
日前,美国弗吉尼亚大学学者AhmedAbbasi等在《让“设计公平”成为机器学习的一部分》(Make“FairnessbyDesign”PartofMachineLearning)一文[https://hbr.org/2018/08/make-fairness-by-design-part-of-machine-learning]中指出,可以通过将数据科学家与社会科学家组队、谨慎打标签、将传统的机器学习指标与公平度量相结合、平衡代表性与群聚效应临界点(criticalmassconstraints)以及保持意识等方法减少算法形成歧视的可能性。其中,“平衡代表性与群聚效应临界点”是指在对数据进行采样时,应既考虑数据的整体特征,同时不忽略某个特定少数群体或者极端数据情况。只有这样,机器学习模型在预测一个普通人和一个特殊群体时,才能都给出更为准确的答案。
另外,谷歌也开始倡导“机会平等”,试图将反歧视纳入算法。还有学者引入“歧视指数”的概念,为设计“公平”的算法提供具体方法。我们必须清楚,人工智能总是通过一个快速且脱离人类社会与历史的学习来完成自我构建,因而一个未经完善的机器学习模型必然存在“道德缺陷”。在人工智能应用的构建中,人类与人类长久以来葆有的道德与社会规则不能缺席。
(三)人工智能应用背后的力量
“信息茧房”的形成不是由于信息广度不足,内容生产不够,而是由于信息推荐固定地集中在某一特定领域造成了信息的窄化;算法偏见的形成不是由于机器学习具有天生的弊端,而是由于人类未将公平公正的原则纳入算法考量之中。人工智能应用背后存在着的,是人的力量与符合经济社会的商业逻辑。
为了迎合消费者,信息推荐系统会将消费者的阅读“口味”作为依据。当搜索引擎通过机器学习意识到,搜索八卦新闻的人愿意在日后更多地看到八卦新闻,为了提升用户留存度,搜索引擎会相应地减少其他类型新闻推荐。
为了满足商家,人工智能产品会把更昂贵的产品卖给用户忠诚度高的用户,即“大数据杀熟”现象。同时,为了更加精准地进行广告投放,人工智能偶尔也会忽视公平原则,例如女性用户通常会收到比男性用户薪资低的推荐广告。这样的现象发人深省,未来是否有必要通过一定的法律手段,要求包括文化企业在内的商家作出“不作恶”的商业承诺。
整体而言,我们的社会正被人工智能推向一个新的发展节点。正如[金兼斌.人工智能将给传媒业带来什么?[J].中国传媒科技,2017(05):1.]学者指出,社会和传媒技术的发展,从来都不是线性和匀速的。从工业革命到信息技术革命,每一次社会巨变都伴随着这样一个临界时刻。今天,我们已经能够感受到,我们的日常生活――包括媒介生活中的许多基础性的东西,正在被人工智能应用所搅动。在这样的时刻,只有紧抓机遇、规避风险、解决弊病,才能真正实现行业和社会的跨越式发展。我国的文化产业走到了一个崭新的路口,新的机遇在等待着它。
(责编:尹峥、赵光霞)分享让更多人看到
人工智能法律服务的前景与挑战
曹建峰腾讯研究院研究员在刚刚过去的周末,想必大家都被腾讯AILab研发的围棋人工智能程序“绝艺”刷屏了,在第10届UEC杯计算机围棋大赛中,“绝艺”11战11胜,夺得冠军。这是围棋界自谷歌的阿尔法狗之后的又一爆炸性新闻。但AI的“洪荒之力”可绝不止于此,开始涉足高大上的法律服务市场。“绝艺”的研发者说,AI在推动人类对围棋的认知,这同样适用于法律服务。从法律检索、法律文件准备到合同审核、法律咨询再到案件结果预测、诉讼策略选择,以人工智能为标志的法律科技正在搅动法律服务市场。去年6月,IBM的认知计算机Watson支撑的史上首个人工智能律师ROSS“受雇于”一家美国律所,它可以用人类语言和律师交流,给人一种和准雇员共事的体验。在英国,一款名为DoNotPay的机器人律师可以帮助用户挑战交通罚单并准备所需的法律文件,现在已经扩大到了政府住房申请、难民申请等法律服务。在国内,人工智能成为今年两会一大热点,所谓的法律机器人“小梨”“法狗狗”等不断涌现,受到公众关注。有预测甚至认为,在15年内,机器人和人工智能将会主导法律实践,给律所带来“结构性坍塌”,法律服务市场的面貌将大为改观。难道真如电影《回到未来2》中所预测的,终有一天将不再需要律师?如果AI可以以更高效、更廉价的方式提供法律服务,提高正义和法律服务的可得性,对穷人难道不是一大福音吗?但如果诉讼双方在法律科技的获取上存在很大的不平衡,也可能造成新形式的不公正和滥用。虽然法律科技可能前景无限,但其中的一些挑战也需要人们思考并回应。一、AI来了,人类的工作还安全吗?1956年见证了“人工智能”(artificialintelligence)这一概念的问世。在随后的六十年间,人工智能历经两次发展浪潮、两次AI寒冬。这一次,AI真的来了。2010年以来,在大数据、机器学习、计算能力等因素的推动下,AI已然迎来第三次发展浪潮。机器学习推动AI进入发展新高度,学习型AI正在改变很多事物。无论是监督学习还是无监督学习,AI都在自主学习。比如,开发者并未按部就班地告诉自动驾驶系统如何开车,算法自己“学会了”如何在不同的道路环境下驾驶并不断提高驾驶水平。再比如,QQ音乐会向你推荐你可能感兴趣的歌曲,程序员并未告诉QQ音乐你的兴趣是什么,QQ音乐的算法自己“推断出了”你的兴趣并不断提高这一判断的准确性。类似的例子不胜枚举。在越来越多的情境下,AI在替代人类做出判断,或者说,这些判断本该由人类做出。AI在各行各业的应用将带来新一轮自动化,其结果要么是深刻改变人机协作的方式,要么是完全或者部分地替代人类。一些经济学家预测,人工智能系统的普及将显著地减少工作的供应量。在高频率、高容量的任务上,人类不可能和AI相匹敌。2016年的一项研究发现,2000年以来,数字产业并未带来很多新工作,美国仅0.5%的劳动力进入了新兴的科技行业。[1]2013年的一项研究发现,在未来二十年,美国47%的工作具有被自动化的风险。[2]市场调研公司Forrester去年的一项研究预测,到2021年,智能系统和机器人将接手美国6%的工作,意味着这些工作将被完全自动化。[3]McKinsey今年的一项研究发现,到2055年,当前工作任务的一半将被自动化,但仅有5%的工作岗位被完全自动化。[4]蓝领和白领都有可能被AI替代,医生、律师、会计师等所谓的高级职业不在除外之列。比如,今年1月,日本一家保险公司宣布将用IBM的Watson支撑的一个智能系统替代34名保险理赔人员,这将提高生产效率30%,节约工资支出165万美元。[5]尽管人们认为人工智能的发展、应用和普及将对人类社会产生深远影响,可能伴随着新的社会范式的产生、旧的社会范式的衰落;但是对于人工智能对未来工作究竟会有怎样的影响,人们还远未达成共识。美国前总统奥巴马呼吁“普遍收入制度”以应对AI对工作的潜在负面影响;微软CEO呼吁对机器人纳税以确保被机器置换下来的劳动者的基本生存。美国的国家人工智能战略和英国的数据战略呼吁重视这个问题,加强对工作结构变化的监测和劳动者的再培训。二、浪潮之下的AI法律服务会重塑法律服务市场吗?虽然法律服务一贯具有较强的技术免疫力,但是倚重信息检索、文件整理和逻辑推理的法律事务确实是AI发挥“聪明才智”的绝佳领域。1987年,关于法律与人工智能的第一次国际会议在波士顿举行,此时,万维网尚未发明,当然就更谈不上普及了。但是现在,AI的发展和进步已经开始对法律服务市场产生一定的影响。Jomati在一项研究《文明2030:不久将来的律所》中提出,经过长期的孵化和实验,“技术突然可以以惊人的速度向前行进了”;在15年内,机器人和人工智能将会主导法律实践,也许将给律所带来“结构性坍塌”(structuralcollapse),法律服务市场的面貌将大为改观。[6]过去,法律流程外包在一定程度上造成了法律服务市场的分裂,律所为了效率等目的,或者出于自身能力的不足,将某些特定法律服务外包给第三方,让人们意识到律所并非提供所有法律服务的最佳主体。现在,AI主导的法律科技(LawTech)正在对法律服务市场产生更为深远的影响,或许造成法律服务市场更进一步的分裂。AI支撑的专家系统(expertsystem)和知识机器人(knowledgebot)正在涉足法律服务市场,而且在几乎停滞的律所法律服务市场中(数据显示,律所的业务在过去三年几乎没怎么增长),法律科技领域的创业者和创业公司却获得资本市场青睐,在国内外蓬勃发展,推动整体法律服务市场稳健增长。在市场和技术的双重作用下,法律服务正在进入AI时代。01|律师的新助手和替代者:AI法律服务四大领域一是法律检索(legalresearch)。各种法律数据库已经在帮助律师更好地进行法律检索,但这很多时候是一件费时费力的事,往往由律师助理或者助理律师来承担。目前,国内外已经有一些可以进行法律检索的AI产品,如ROSS。作为世界上第一个人工智能律师,ROSS部分受到IBM的认知计算机Watson支撑,它可以理解自然语言,并提供特定的、分析性的回答,这接近于和人类律师一起工作的体验。截至目前,已经有超过10家主流律所“雇佣了”ROSS。类似ROSS的法律类“数字助理”(digitalassociate)越来越多,其在律所中的身份类似于准雇员。二是文件审阅(documentreview)。文件审阅可谓量大,价值低。在这方面,AI正好可以最大化其用。预测性编程(predictivecoding)和利用机器学习算法的软件可以帮助为相关法律文件检索电子信息。案件相关文件的整理、证据和法律发现等任务日益被交给了机器。AI律师在调查、法律风控、合规相关工作、文件整理甚至尽职调查等法律事务中,都可以扮演重要作用。也许10年前,律师在准备大型并购案件的时候,需要雇员上百个高薪律师来检索成千上万份文件。然而,硅谷的一家电子取证(e-discovery)公司BlackstoneDiscovery却可以以不超过10万美元的代价在几天之内分析150万份法律文件。此外,AI在合同审核上正在发挥作用。比如,类似Beagle的智能合同服务可以提供人工智能合同分析,帮助用户以更低的成本、更高的效率管理合同,防范法律风险。因此,对于类似文件审阅、合同管理等法律服务,技术可以提供更好、更快、更便宜的服务。在企业端的法律市场,对于创业公司,这可以削减风险,提高效率,同时极大减少时间、人力成本等投入。三是案件预测(caseprediction)。伦敦律所HodgeJones&Allen早已在利用一个“案件结果的预测模型”来评估人身伤害案件的胜诉可能性。这直接导致了2013年的Jackson民事诉讼改革,使得人身伤害案件的诉讼成本大大降低了。[7]理论上,AI能够预测法律纠纷和程序的结果。对过去案件的自动化分析,外加数据挖掘和预测性分析技术,可以得出一些有趣的结果。这种工具对律师而言意义重大。在这一方面,LexMachina公司提供的服务,通过对成千上万份法院判决进行自然语言处理,来预测案件结果。比如,其软件可以确定哪位法官倾向于支持原告,基于对方律师过去处理的案件来形成相应的诉讼策略,针对某个特定法院形成最有效的法律论证,等等。迈阿密一家名为Premonition的公司甚至宣称可以基于类似案件判决的统计性分析,在起诉前就预测案件的胜诉方。2016年,英国法院对预测性编程持支持态度。四是咨询服务(advisoryservice)。AI法律咨询以DoNotPay最为典型,它在线帮助用户挑战交通罚单。用户只需要访问其网站,同其发消息进行交流,它就可以利用用户提供的信息形成一份文件,用于挑战罚单。它在纽约、伦敦和西雅图,已经成功挑战了超过20万个罚单,成功率是60%。DoNotPay还在不断扩大其法律服务类型,已经涵盖到了航班延误补偿金请求、政府住房申请等。在国内,号称中国第一个机器人律师的“小梨”目前可以提供签证、离婚咨询等服务。咨询服务可谓是AI法律服务的一大热门。02|AI法律服务三大潜在影响:结构性变革、正义可得性和无讼社会(1)AI可能给既有的法律服务市场带来结构性变革。第一个需要回答的问题是,AI介入法律服务市场会使律师边缘化吗?虽然AI律师可能使部分法律从业者如实习律师、律师助理等失去价值,或者替代律师处理类似咨询、离婚等需要做大量检索工作的法律事务,但尚无证据表明AI律师可以大范围替代律师,如出庭、做辩护人等。因此,一个简单回答可能是,AI不会取代律师,而是会和律师并肩工作,就像医生和医疗器械之间的关系那样。AI增强法律服务(AI-augmentedlegalservice)可能成为未来的常态,不进行这方面布局的律所未来可能失去核心竞争力。在AI的协助下,律师可以更加专注于处理复杂的法律问题,而且效率更高,意味着成本可能降低,将扩大律师服务的可负担性。此外,AI的介入可能进一步分裂法律服务市场,让法律服务不再是律所的专属,可能重新定义律师的工作和功能,以及法律服务市场的商业模式。Legalzoom、Axiom等大量AI公司进入法律服务市场,有些甚至获得九位数的投资,其将改变法律服务的结果和工具。未来,以数据代替假设和道听途说,这对更好的服务提供、资源选择、案件管理、结果预测等都是至关重要的。(2)AI可以提高法律服务的可得性,解决法律援助不足的问题。法律服务市场最为人诟病的是高昂的成本。法律服务不能够触达大量的个人、中小企业等,产生正义可得性危机(accesstojusticecrisis)。事实上,可能大部分人在遇到法律问题时不会找律所,请律师。AI的介入正在改变这一现状。AI法律服务的廉价性、高效性可以帮助成千上万的个体和中小企业获得类似咨询、合同等法律服务,降低法律服务费用,提供多种选择。此外,AI律师甚至可以在案件中为无力负担诉讼费用的当事人提供法律援助服务。这对不能获取法律服务的穷人而言,不可谓不是一大福音。斯坦福大学的RolandVogl教授认为,机器人将成为法律系统的主要进入点。法律援助团队因为无暇顾及而拒绝提供援助,但未来人工智能计算机系统可以在案件中援助当事人,只有当需要律师介入时,律师才需要介入。(3)AI可能有助于实现无讼社会的目标。无讼、息讼自古以来是中国社会的一个追求。比如,在电子商务网站eBay上,大量争议被提交给软件,由其审理和裁决。利用一个APP或者聊天机器人,各方可以完成有关案件事实的问卷并提交电子证据。国内的淘宝上存在类似的在线争议解决机制。可以设想,未来包括遗嘱、合同、离婚等法律争议都可以通过类似的方式解决,而且由于智能裁判系统不受人类法官的各种主观因素影响,可以保证在大部分案件中实现结果的基本一致性。再比如,智能合同管理,可以通过随时监测双方的行为来确定违约与否,并做出相应的行为,避免在纠纷出现后诉诸法庭。类似的第三方裁判软件未来可以以数字化的方式快速解决争议。三、AI法律服务带来的三大挑战:监督、保密义务和未经授权执业对于诸如DoNotPay等可以提供法律咨询服务和协助准备法律文件的AI律师,一个有意思的问题是,用户和它们之间存在律师-当事人的委托关系吗?很显然,这一委托关系只存在于人类律师和自然人或者法人客户之间。当人工智能律师开始为用户提供法律服务,它们之间是否存在委托关系是一个有意思的问题。此外,基于算法的AI法律服务是否能够符合法律职业的价值、观念等,也是需要慎重考虑的。但在AI律师不是替代人类律师,而是成为其帮手的情况下,也存在一些挑战。第一,在法律上,类似法律检索、文件审阅、案件预测等AI律师并非真正的律师,那么与其一道工作的人类律师是否有义务监督其行为?按理,律师需要对参与法律服务提供的人类非律师进行监督,确保其行为符合律师的职业义务。那么,当AI律师履行的工作或者做出的决策在性质上就是提供法律服务时,比如准备法律文件、做出是否提交特定文件的决定,或者从事类似的行为,律师是否需要对其进行监督?当前的诸多AI系统都是一个“黑箱”,提供法律服务的AI系统也不例外,律师可能根本无从知晓其如何作出决策,将律师的监督义务延伸到AI系统是否必要或者可行?这值得探讨。第二,保密义务。很多法律类的AI应用都是由第三方提供的,而非律所本身,律所只是以服务的形式购买过来。基于机器学习,样本和数据越大,AI分析的质量就越高,而且会不断提高和优化。因此,AI技术提供者可能将各个客户的数据汇总到一个数据库供系统学习。因此,从保密义务的角度出发,律师必须考虑什么数据提供给了AI提供者,以及如何保护、存储这些数据。如果诉讼双方使用同一个AI法律服务,是不是有可能双方的数据都被用来训练这一AI系统?在这些情况下,律师的保密义务将值得关注。第三,未经授权的执业问题。对于较为成熟、能力更强的AI律师,当其向用户提供法律服务,是否需要具有职业资格?就市场中所谓的机器人律师而言,它们是否需要参加法律职业资格考试?抑或需要其他形式的考核以确定其具有职业能力?当然,随着AI法律服务市场的蓬勃发展,这也是一个值得思考的问题。四、需要对法律科技进行必要的职业监管吗?在莎士比亚的《亨利六世》中,屠夫迪克说,“我们所为最要紧之事,乃是干掉所有律师。”电影《回到未来2》中预言的2015年的法律系统是如此完美,以至于根本不需要律师,所以当马蒂穿越到2015年后才发现那里根本没有律师。当然,这些预言还远没有实现,而AI法律服务却在逐渐成为现实。基于人工智能、大数据的法律科技正在改变着法律服务市场,正如精准医疗和个性化医疗那样,精准诉讼和个性化诉讼也正在成为可能。法律科技对法律行业的影响或许才刚刚揭幕而已。
在论文《机器人可以成为律师吗?计算机、律师和法律实践》(CanRobotsBeLawyers?Computers,Lawyers,andthePracticeofLaw)中,作者呼吁对法律科技进行有效的职业监管,以便保护客户和法律系统的价值,最大化其好处,并防范风险。作者认为,自动化预测正在影响法律实践,而且这一技术已经对当事人的行为产生了扭曲并且影响到了法律自身。如果在法律行业中,法律技术不能普遍获取,意味着在一项争议或者交易中,一方可以获取特定法律科技,而另一方面则不能。各方的资源不平衡并非新鲜事,但是不能平等获取法律科技可能带来新类型的不公平甚至滥用。[8]随着人工智能介入法律服务的程度的加深,一方面它虽然可以提高法律服务的可得性,但另一方却也需要确保它不会扭曲人们所信奉的正义的法律系统的一些价值,不会带来新的偏见和滥用,不要让正义成为一场科技秀。
[1]http://www.oxfordmartin.ox.ac.uk/news/201601_Technology_at_Work_2[2]http://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf[3]http://blogs.forrester.com/brian_hopkins/16-09-14-forresters_top_emerging_technologies_to_watch_2017_2021[4]http://www.mckinsey.com/global-themes/digital-disruption/harnessing-automation-for-a-future-that-works[5]http://www.computerworld.com/article/3155374/artificial-intelligence/us-workers-beware-japanese-insurer-to-replace-humans-with-ai.html[6]https://www.raconteur.net/business/time-for-technology-to-take-over[7]https://www.raconteur.net/business/humans-needs-not-apply[8]https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2701092
人工智能技术发展对英语专业学生就业的影响及其对策
本文以英语专业的学生作为研究对象,从当前人工智能技术高速发展的情况下,理清其对英专学生的未来就业可能产生的问题及影响,并尝试提出可行的建议和对策,给英专学生未来就业提供一些参考,帮助其在“互联网+”的新时代下得到更好的发展。
1 英语专业本身局限性
在国际化,全球化时代背景下,我国高等教育正逐步以规模扩张为特征的外延式发展转向以质量提升为核心的内涵式发展。《国家中长期教育改革和发展规划纲要(2010-2020年)》提出“高等教育承担着培养高级专门人才、发展科学技术文化、促进现代化建设的重大任务。提高质量是高等教育发展的核心任务,是建设高等教育强国的基本要求。”由此可见,高等教育内涵式发展已经成为国家战略,这一战略也要求我国英语专业在分析所面临的问题的基础上,整体规划,创新改革,推动英语专业新的发展。
(1)英语专业的社会地位。在英语专业自从设立到一直不断发展的过程中,始终面临着很多问题。20世纪50年代前半期“一边倒”的学习俄语,导致全国高校英语教学点被削减;后来随着外交关系的变化,英语地位提;改革开放以来,英语专业在高校中逐步恢复发展,扩大规模;随着英语相关学习课程的迅速发展,致使英语过热会影响国民母语能力等社会舆论不断升温,英语专业又开始备受争议。
(2)英语专业的定位方向。20世纪80年代复合型外语人才培养的理论探讨和实践,21世纪以来人文通识型外语人才或思辨型外语人才培养的探索都体现了对英语专业的多元阐释。事实上,英语专业地位的下降从近年来翻译专业点和商务英语点的迅猛发展可见一斑,若不明确英语专业的专业内涵,社会各界都会对英语专业以及英语教学的认识误区不断增多,从而影响英语专业的可持续性发展。
(3)教学方法。目前国内大部分院校对于英语专业学生的教学仍然采用较为陈旧的方法,选择就学生对于单词语法之类的死记硬背的方法,这样的方法只是短暂时间的奏效,但更多的需要的是学生对于知识更加深入的了解才能掌握得更好。另外既然作为英语专业的学生,更多的了解与之相关的各类知识也尤为重要,英语就像汉语是一门语言,我们需要更多的去了解他,才能更好的运用与其融合。另外,英语毕竟作为一门外语,许多高校并没有配备相关的专业外国人士进行教学,而是选择本国受过相关教育的教育人士,在这方面是有所欠缺的。作为在以中国为母语的国家生活,耳濡目染的即为中国的语言环境以及生活习性,这对并不有利于英语专业的学生了解英语国家的语言习惯以及生活方面的习惯。
(4)专业内涵。目前我国英语专业的学生主要就业方向即为翻译以及与商务英语方向,较为局限性,应届毕业生人数较多,并且高精尖性人才所占比例较少,这就会导致英语专业的毕业生在毕业之后的就业问题上相对局限性。同时两方都为英语专业,即使各有所长,但更多的在未来就业方面,仍会存在相互竞争的地方。有些岗位两者皆可,这样在毕业就业本身情况就严峻的情况下,使得毕业生在就业面更加狭窄。
(5)通识教育。英语专业的学生专业只学习英语,而英语是一门大部分学生都不陌生的语言,从中小学教育到大学教育,学生都会进行学习。并且,大学学习过程中,其他专业的学生同时学习自己专业的相关知识,学习了解的方面更多。而英语专业的学生大学学习过程中只是系统的学习英语,也并没有了解其他方面的知识。这就会导致,英专毕业生毕业后与其他专业的学生有所差距,不能有比同期毕业生更强的竞争力。
2 人工智能的现状
技术进步是推动经济发展的主要动力。目前随着计算机的快速发展,信息技术渗透经济生活的各个先导领域,形成了以信息产业为主导的新经济时代,而未来信息技术的发展方向也必定趋向于网络化,这些必然也会促使未来经济模式的转变。目前人工智能的发展也受益于移动网络的发展和多样化智能终端的普及,以及物联网的发展和传感器的大量使用。大数据,云计算,深度学习是目前人工智能的驱动力。这无疑会推动数据运算规模和速度的大幅度增长,也极大提高了其准确度,并能提供一种更优化,更智能的结果。同时技术进步也会对劳动力市场产生重要的影响。人工智能对社会就业结构类型结构改变存在一定的影响。目前人工智能正在被广泛应用在各个范畴,从劳动繁琐、单一技能职业等低端职业转变成数据处理,智能车驾驭等高新技术产业。这样逐步发展无疑会对当前就业形势造成一定的威胁性。对于英语专业毕业生的未来就业更是如此。
(1)人工智能具有五大典型特征。智能化、自动化、个性化、多元化以及协同化是人工智能的特征。对于一些较为常规,程序性较强的工作,人工智能在这方面可以完成得更好,更加智能化的处理方法,就像有多个大脑在共同运作,所完成工作更好;机器人的使用实现了人工智能技术的自动化,像可能最先的机械臂,再输入一定程序后,能准确快速的有机械臂独立完成作业,再到现在智能机器人的出现,智能程序的输入,可是机器人本身完成很多作业;人工智能的发展以及使用现在正在发展到各个领域,领域更加多元化,是的在各个领域中,由智能科技之间,相互配合,协同作业,这样的工作完成更加全面,也更加好。
(2)人工智能创造就业。尽管人工智能带来较大规模的替代效应,但就其衍生出的新型工作岗位远超过他所取代的数目。就像人工智能的高度应用会提升人们的生活质量,改变人们的生活模式。这样也就会出现相应的职业需求,满足人们对于生活上的需要。
(3)机器翻译。有些学者提出“5秒钟法则”,即如果人可以在5秒钟内对一项工作需要思考和决策的问题作出决定,那么这项工作就极有可能被人工智能代替。翻译、新闻报道等被替代的可能性较大。机器翻译即为计算机翻译,近年来,一系列翻译系统相机研发出来并且得到广泛应用,翻译的质量也越来越高,甚至一些专业知识的翻译也可以与人工相媲美。机器翻译具有自身的自动化特点,计算机依据关于源语和目的语及其相互之间的转换规则以及相互的匹配关系自动转换成文本。这样既可以不受翻译工作者工作时间的限制又可以提高翻译的速度以及准确度。
(4)机器翻译的缺陷。语言一般表达概念意义、语篇意义和人际意义。而翻译恰恰就是将两种说不同语言的人之间语言差异弥补的程序,而人与人之间的交流,一个不同的语调,一个相同字眼间不一样的涵义,这就需要人工翻译所能理解明白。
3 解决方案
英语专业自身改变:如果不明确英语专业内涵,不确立英语专业人才培养目标,不规范英语专业,不规范英语专业教学质量标准,社会各界对英语专业和英语教育的认识误区会不断增多,从而影响英语乃至外语专业的可持续发展,所以这就需要我们做出以下相应改变。
3.1 教学模式改革与师资建设
学校在选择教师方面可以多多加入外教或者在外生活较久的教师,这样在向学生讲解时用英文的注意事项或者英语国家使用习惯等更加得心应手。毕竟英语的学习最终的目的是与外国人士进行交流。另外,在与这样的教师接触过程中也更方便学生对于英语国家各个方面细枝末节的了解。在教学方法上也可以有所改变,在要求学生熟记单词语法的同时,不仅仅是要求他们死记硬背,而是讲解清楚其中更加详细的渊源以及内涵。这样更方便学生记忆,也懂得其中奥妙,不至于很快忘记。另外就是学校和学生两方面同时需要做的努力。就是除了英语专业单纯的知识之外,其他专业知识适当的摄入。学校可以在这方面加设课程供学生们选择,学生自己也可以去就自己感兴趣的内容进行学习,即拓宽知识面,在今后翻译过程中能有所用,又可以将自己感兴趣某些内容进行系统深入的学习,也是一技之长傍身。
3.2 机器翻译与人工翻译
机器翻译是两种语言相互对照并且快速得出结果的方式,其一次的翻译速度和文本规模都非人工所能做到,而人工翻译的个性化也非机器翻译的机械化所能企及的。所以这就需要二者有分工,有合作,互补互助,互惠互利。首先二者可以进行分工,一些专业化的文本可以由机器翻译来完成,一些较为情感化,较为细腻的部分可由人工来完成,这样两者进行分工,各有所长;其次,可以由人工对机器翻译的而较为机械化的部分进行润色,机器也可以辅助人工在翻译过程中出现的难题,这样就可以提高翻译速度,减轻人工翻译强度,也可以大幅度提高翻译的质量。这样一来,未来的翻译职业也可以是人机互补,人机共存的。
本文来源:《企业科技与发展》:http://www.zzqklm.com/w/qk/21223.html
人工智能给人们带来的利弊
原标题:人工智能给人们带来的利弊随着人工智能科技技术的飞速发展,人们生活中的智能化机器越来越多,从居家到出行与人们息息相关,为改善人们生活水平做出了巨大贡献。然而,万事都有利弊。今天就为大家解读一下人工智能为人们带来的利益与弊端。
利商业价值很高:它可以通过收集用户大数据,然后更好的了解用户,为用户创造优质的个性体验。
带来更多新的工作机遇:当大量的人工智能机器的产生,就会有很多的智能机器需要学习和计算所以就会衍生出很多领取,带来更多的工作岗位,比如用来人工智能设备学习的图片语音等数据的标注采集工作。
给人们生活上带来的便利:当扫地机器人、AI智能影响、做饭机器人、人脸识别等等出现在我们生活中,给我们带来了很大的便利。
虽然人工智能给人们来来的好处很多但是也有弊端大规模失业:据人力资源和社会保障部2016年新闻发布会介绍,2016年末中国失业率达4.05%机器人不会犯错,不会累,不需要休息,不需要工资。这完全可以代替很多职业,例如工人,司机等等不需要思想的工作。如此便会导致大批大批的人失业,大批大批的人整日无所事事。
人类的精神生活退化:人工智能机器是没有感情的。如果此刻你的身边,你的同学,你的朋友,都是人工智能机器人,你会受得了吗?现在的社会,是一个物质的社会,但更是一个精神的社会,如果人工智能机器人越来越多,这个世界将没有感情,没有喜怒哀乐,到处都是冷冰冰的,没有艺术,没有精神食粮,到处都是机械化的。
机器人具有很大危险性:比如电影《我与机器人》便描述了一个机器反而要消灭人类的悲剧。同时,大量人工智能的产生会造成大量的失业。由此而见,我们需要做的还有很多。但有一点事确定的,只要正确运用人工智能,它将极大程度上推动人类文明的进步。
返回搜狐,查看更多
责任编辑:中国社会科学杂志社
当前,人工智能被深度应用于社会的各个领域,推动了社会生产效率的整体提升。然而,作为一种具有开放性、颠覆性但又远未成熟的技术,人工智能在带来高效生产与便利生活的同时,不可避免地对现有伦理关系与社会结构造成冲击,且已引发不少伦理冲突与法律问题。在技术快速更新的时代,如何准确把握时代变迁的特质,深刻反思人工智能引发的伦理风险,提出具有针对性、前瞻性的应对策略,是摆在我们面前的重大时代课题。
技术伦理风险
技术是一把双刃剑,其在推动社会进步的同时,也在很大程度上带来了技术风险。人工智能技术也是如此。现阶段,人工智能的技术伦理风险主要体现在以下三个方面。
人工智能的设计风险。设计是人工智能的逻辑起点,设计者的主体价值通过设计被嵌入人工智能的底层逻辑之中。倘若人工智能设计者在设计之初,秉持错误的价值观或将相互冲突的道德准则嵌入人工智能之中,那么在实际运行的过程中便很有可能对使用者生命、财产安全等带来威胁。
人工智能的算法风险。算法是人工智能的核心要素,具备深度学习特性的人工智能算法能够在运行过程中自主调整操作参数和规则,形成“算法黑箱”,使决策过程不透明或难以解释,从而影响公民的知情权及监督权,造成传统监管的失效。人工智能算法可能在不易察觉或证明的情况下,利用算法歧视或算法合谋侵害消费者的正当权益,进而扰乱市场经济秩序和造成不公平竞争。近年来被广泛曝光的“大数据杀熟”,正是这一风险的具体体现。
人工智能的数据安全风险。隐私权是人的一项基本权利,隐私的保护是现代文明的重要体现。但在众多的人工智能应用中,海量的个人数据被采集、挖掘、利用,尤其是涉及个人生物体征、健康、家庭、出行等的敏感信息。公民的隐私保护面临巨大挑战,人工智能所引发的隐私泄露风险已被推到风口浪尖。而不少隐私泄露事件的发生,也在一定程度上加深了公众对人工智能广泛应用的担忧。隐私保护与人工智能的协调发展,已成为当前亟待解决的问题。
社会伦理挑战
人工智能不仅有着潜在的、不可忽视的技术伦理风险,伴随数字化的飞速发展,人工智能对现有社会结构及价值观念的冲击亦愈发明显。人类社会的基本价值,如尊严、公平、正义等,也正因此面临挑战。
人工智能的发展对人类道德主体性的挑战。2017年智能机器人索菲亚被授予沙特阿拉伯王国公民身份,这引发了许多人对人工智能挑战人类主体性的担忧。通常人被认为是唯一的道德主体,人的道德主体性的依据在于人的某些精神特点(如意识、思维)。当前,人工智能虽仍处于弱人工智能阶段,还无法形成自我意识,但是,智能机器人不仅在储存、传输、计算等多方面的能力超越了人脑,而且借助材料学等现代技术,智能机器人可能在外形上“比人更像人”,甚至拥有更丰富的情感(比如索菲亚能够模拟62种面部表情)。这样的智能机器人究竟是否是“人”?是否应确立为道德主体?如果赋予人工智能主体资格,那么其究竟是一种与人类对等的主体,还是一种被限制的主体?这些问题表明:人工智能对人类道德主体性的挑战,不只是电影小说中的浪漫想象,而是已日益成为一种现实风险。
人工智能的发展对社会整体公平正义的挑战。首先,人工智能的发展可能加剧社会的贫富差距。由于年龄、所在地区、从事行业、教育水平等的差异,人们接触人工智能的机会并不均等,实际使用人工智能的能力并不相同,这就造成了“数字鸿沟”现象。“数字鸿沟”与既有的城乡差别、工农差别、脑体差别等叠加在一起,进一步扩大了贫富差距,影响了社会发展的公平性。其次,人工智能的发展可能引发结构性失业大潮。由于智能机器相较于人类工人有着稳定、高效等优势,越来越多的人类工人正在被智能机器所取代,成为赫拉利(YuvalNoahHarari)在《未来简史》中所谓的“无用阶级”。麦肯锡全球研究所的研究数据显示,到2030年,全球将有8亿人因工作流程的智能化、自动化而失去工作。虽然人工智能的发展也会带来新的工作岗位,但是由于“数字鸿沟”的存在,不少人并不能找到新的工作,结构性失业大潮可能汹涌而至。这将成为激化社会矛盾、破坏社会稳定、挑战社会公平正义的又一重大潜在风险。
应对防范策略
技术伦理风险与社会伦理挑战的图景展示表明,人工智能“安全、可靠、可控”的良性发展依然任重道远。对于人工智能风险、挑战的应对防范,事关未来社会的发展方向与人类整体的前途命运,需要我们运用哲学的反思、批判,作出审慎恰当的抉择。
确立人工智能发展的基本价值原则。面对风险、挑战,我们应当避免马尔库塞(HerbertMarcuse)所说的“技术拜物教”倾向,要将伦理、道德等价值要素纳入到人工智能发展的内在考量之中,尽快构建起具有广泛共识的人工智能伦理体系。应确立如下基本价值原则,作为建构人工智能伦理体系的“阿基米德支点”。一是人本原则。人工智能始终是“属人”的造物,是为增进人类的福祉和利益而被创造出来的。无论人工智能有多么接近“图灵奇点”,也不应改变其属人性。人本原则是人工智能研发、应用的最高价值原则。二是公正原则。人工智能的发展要以绝大多数人的根本利益为归趋,不能片面地遵循“资本的逻辑”与“技术的逻辑”,坐视“数字鸿沟”的扩大,而应当让每一个人都拥有平等接触、使用人工智能的机会,从而使绝大多数人都能从人工智能的发展与应用中受益。三是责任原则。明晰道德责任,对于防范和治理人工智能伦理风险具有重要意义。要加强人工智能设计、研发、应用和维护等各个环节的责任伦理建设,尤其要注意设计者、开发者的道义责任感培养,明确各方主体的权利、义务和责任,建立健全完备、有效的人工智能事故追究问责机制。
建立人工智能发展的具体伦理规范。在确立人工智能伦理基本原则的同时,还需要制定人工智能产品设计者、开发者及使用者的具体伦理规范与行为守则,从源头到下游进行规范与引导。针对人工智能的重点领域,要研究具体细化的伦理准则,形成具有可操作性的规范和建议。应当加强教育宣传,推动人工智能伦理规范共识的形成。进一步,可以将取得广泛共识的伦理规范嵌入于算法之中,避免人工智能运行过程中的“算法歧视”与“算法欺诈”问题。此外,要充分发挥伦理审查委员会及其相关组织的作用,持续修订完善《新一代人工智能伦理规范》,定期针对新业态、新应用评估伦理风险,促进人工智能伦理规范的与时俱进。
健全人工智能发展的制度保障体系。在社会层面,应加大对“数字弱势群体”的政策帮扶,如税收减免、财政补贴等,确保人工智能发展的共同富裕方向。面对可能到来的结构性失业问题,可以为劳动者提供持续的终身教育和职业培训。在法律层面,应积极推动《个人信息保护法》《数据安全法》的有效实施,建立对人工智能技术滥用与欺诈的处罚细则,逐步加快《人工智能法》的立法进程。在行业层面,应加强人工智能行业自律体系建设。建立并充分发挥伦理委员会的审议、监督作用,加强国际合作,推动人工智能行业发展朝着“安全、可靠、可控”的方向健康发展。
(作者单位:南京大学哲学系)