博舍

53 人工智能对社会的影响课件ppt/教案/教学设计资料优选 人工智能对社会的贡献影响课件

53 人工智能对社会的影响课件ppt/教案/教学设计资料优选

普通:可用储值下载的资源,由学科网用户创作、加工或整理改编后的教学资源。

特供:可用储值下载的特供资源,由学科网合作校独家提供的学校专属特供资源。

精品:可用储值下载的精品资源,由学科网精品教研团队教师自主研发、原创的教育资源。

教辅:由学科网合作版权单位(出版社、教辅公司及教育机构)官方发布的教辅、成套资源。

人工智能技术在文化产业中的应用与影响研究

摘要:人工智能技术的发展为文化产业提供了诸多应用性机遇;其中一些关键性技术点与文化产业相结合,可以实现文化内容产生、创意资讯传播以及文化市场管理方面的创新。本文拟从几种主要的人工智能技术出发,介绍在技术与产业相结合过程中形成的代表性应用,同时探讨分析目前的人工智能应用带来的“信息茧房”“机器歧视”等社会问题,从而为我国文化产业发展提供相应的经验。

关键词:人工智能;文化产业;算法公平;信息茧房

人工智能(ArtificialIntelligence,AI)本质上是对人的意识与思维的信息过程的模拟,是指使用机器代替人类完成认知、识别、分析和决策等功能。在《人工智能:一个现代路径》[STUARTJ.RUSSELL&PETERNORVIG,ARTIFICIALINTELLIGENCE:AMODERNAPPROACH1034(3ded.2010),supranote7,at4.]一书中,“人工智能”被定义为:行为是为了获得最好的结果,或者在不确定的情况下,获得期待的最好结果,这是一种“理性行为”选择。在过去的十余年中,人工智能技术在以深度学习为代表的机器学习、语音识别、自然语言生成与处理、计算机视觉等领域取得不少成果,引得全球广泛关注。

世界各国都在积极部署关于人工智能的战略规划,2016年10月,美国和英国双双出台国家人工智能战略。就我国而言,2017年,国务院印发《新一代人工智能发展规划》,其中提出到2030年,人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元[国务院:新一代人工智能发展规划[J].重庆与世界,2018(02):5-17.]。

基于此,本文重点关注人工智能技术在文化产业――即新闻出版、发行、广播电视、电影、文化艺术、文化信息传输、广告服务和文化休闲娱乐等领域中的应用现状、存在的问题及对策,从而为我国文化产业发展提供可借鉴思路。

一、人工智能的主要技术类型与文化产业中的典型性应用

在美联社于2017年发布的《人工智能工作手册》中,人工智能在新闻业应用最频繁的技术主要有5类,包括机器学习、自然语言技处理术、语音识别技术、机器视觉和机器人技术[余婷,陈实.人工智能在美国新闻业的应用及影响[J].新闻记者,2018(04):33-42.]。在整个文化产业当中,目前应用最为广泛的技术类型是以深度学习为代表的机器学习,其他4类技术类型也均有不少应用落地。

通过上表可知,人工智能中的虚拟代理、机器人自动化、机器学习、深度学习、生物与语音识别、自然语言生成与处理(NLP)、硬件优化与决策管理等技术可以与文化产业中的信息采集、内容生产、信息传播和受众管理等有效结合,提供诸如内容个性化算法、受众目标与偏好识别、自动新闻内容生产等方面的服务,也可以提供在客户管理与市场调研方面的有力手段。

目前,国外一些先进的文化媒体机构对于上述技术的应用已经形成一定的有益经验与有效做法。

首先,在内容生产中,人工智能可以实现自动写作与自动摘要、抽取式新闻写作,并试图使机器像人类一样阅读与思考。

美联社是最早运用AI技术进行自动化写作的媒体之一。2014年,美联社与美国AutomatedInsights公司合作,使用该公司开发的自动化写稿程序Wordsmith来自动编发企业财报新闻。该程序几分钟内可写出150-300字的快讯,每季度能生产4000篇财报新闻,是过去数量的10倍。2015年之后,国内腾讯新闻、新华社和今日头条等也陆续推出了写稿机器人。

其次,在信源数据收集中,人工智能可以基于传根器应用生成内容,实现信息传播的可视化追踪。

NewsTracer是路透社使用的新闻追踪系统,这一系统每天可以对5亿条Twitter信息进行分析,从假新闻、广告和杂音,以及众多的人名、机构和地点中找到真的新闻事件与线索,这让记者能够从社交媒体的众多信息中脱身,把更重要的时间用来挖掘故事。

第三,在文化创意视频类服务中,人工智能可以实现文本和视频之间的转换、高效寻找视频片段与资源以及优化视频内容搜索等。

Zorroa是美国的一家视觉资产管理公司,2017年,公司推出企业可视化智能平台(EVI),帮助用户对大型数据库中的可视资产进行搜索和运行分析。在与索尼影业的合作中,EVI通过面部识别、图像分类、机器学习等方式整理、分析了索尼多年来积累的数百万小时的视觉资产。使用该平台后,平时需要27小时才能搜索到的特定视频资源,仅需3分钟即可检索到,为索尼影业的视频资源开发带来极大的便利[https://zorroa.com/case-studies/]。

第四,在文化信息传播中,人工智能可以通过受众的好奇点与文化传媒内容进行匹配、通过信号源获取受众的兴趣点,并且精准分析受众,预测其内容消费需求,实现精准投放。

Netflix是在用户个性化分发业务上较为成熟的视频网站。2016年年报显示,Netflix拥有9300万全球会员,每天流媒体播放超过1.25亿小时的电视节目和电影。预测用户想要观看的内容是其公司业务模式的关键部分。2016年,Netflix开发名为Meson的应用程序,构建、培训和验证个性化算法,提供视频推荐建议。类似的企业还有IRIS.TV等,该公司曾在三个月的时间内运用个性化分发,将其客户所在公司的观众存留率提高了50%[https://www.techemergence.com/ai-in-movies-entertainment-visual-media/]。

最后,在市场调研与客户管理方面,人工智能可以获知受众对内容消费的使用特点、通过深度神经网络技术来感知受众对文化内容的情感参与和变化,从而进行有效的客户管理与市场营销。

2016年,日本广告公司MaCannEricksonJapan聘用了全球第一个使用人工智能开发的机器人创意总监AI-CD?。当年9月,机器人创意总监与人类创意总监以同一个广告主题各自开发了10分钟的广告片,并交由全国民意调查评判。尽管人类创意总监以8%的微弱优势险胜,AI在受众分析与市场营销方面的潜力不容小觑。

可见,人工智能已经显著改变了媒体格局――包括观众发现和参与内容的方式,以及内容创建和分发给观众的方式。目前,算法不仅会影响受众在不同平台上看到的内容,还会首先影响平台生产和创建的内容。人工智能从根本上改变了受众行为和创作过程。

二、人工智能应用对文化产业发展的影响与启示

尽管统计显示,就目前的全球文化产业而言,仅有8%的文化企业已经部署并使用了人工智能技术应用[https://www.ibc.org/tech-advances/the-future-is-artificial-ai-adoption-in-broadcast-and-media/2549.article],但人工智能技术对文化产业乃至整个社会的影响已经有所显露。

就其积极意义而言,人工智能技术在提高内容生产效率、提升用户留存率以及优化文化产业资产管理等方面存在重要意义、毋庸置疑的高效率和部分的不可替代性。而就其消极影响而言,内容分发的局限性开始受到社会关注;人工智能算法的公平化、透明化一度遭受质疑;算法带来的偏见与歧视又引发社会伦理问题;人工智能应用背后的商业力量或许是造成这一系列问题的原因之一……

不少科技界声名显赫的人物也因此表达了对人工智能未来发展的担忧,如特斯拉创始人埃隆・马斯克曾说:“我们应该十分小心地看待人工智能。我越来越倾向于认为,在国际或者国家层面上应当有相应的人工智能监管措施,以防人类做出不可挽回的事情来。”微软创始人比尔・盖茨、物理学家史蒂芬・霍金等也表达了类似的看法。未来人工智能应用将在何种程度上造福于人类,部分取决于今天我们在何种程度上理解并解决人工智能可能产生的问题与自有弊端。

具体而言,本文将从如下三方面阐述人工智能应用的问题、影响与对策:

(一)内容分发的局限性:“信息茧房”

如今的网络文化空间,从某种意义上说,是一个算法帮助公众做决定的环境。如果说曾经的传统媒体为公众搭建了一个“拟态环境”,不同的编辑部依托各自的编辑方针、新闻判断原则,以“议程设置”的方式决定着每日媒体内容的生产加工,那如今,在网络媒体中这一权力部分地转交给了算法。算法可以决定人们阅读哪些新闻,观看哪些视频,收到哪些广告,人们的数字存在(DigitalExistence)日益受到算法左右。

文化传媒企业使用算法决定内容推荐的初衷是在于解决信息过载的问题,提高用户获取信息的效率,更希望借此增加用户的沉浸时长,提高应用的用户忠诚度和留存率。因此,企业利用大数据主动搜集用户信息,根据用户自身兴趣,为用户定制个性化内容,形成一整套精确的内容分发模式。Facebook信息流产品Newsfeed、对话式新闻产品微软小冰和Quartz、今日头条以及Netflix、IRIS.TV等一系列人工智能应用均属于此类型。

这一初衷是好的,但问题出在“精确”上。信息越精确,代表着信息涉及的范围越狭窄。人工智能研究者已经发现,仅仅关注推荐系统的精确度远远不够,这会导致用户难以获取足够的信息增量,视野越来越狭隘。美国学者桑斯坦在其著作《信息乌托邦》[凯斯・R・桑斯坦.信息乌托邦:众人如何生产知识[M].法律出版社,2008:206-208.]中指出,人们借助网络平台和技术工具,在海量的信息中,完全根据自己的喜好定制报纸和杂志,进行一种完全个人化的阅读。在信息传播中,因公众自身的信息需求并非全方位的,公众只注意自己选择的东西和使自己愉悦的通讯领域,久而久之,会将自身桎梏于像蚕茧一般的“信息茧房”中。

学术界不少学者指出“信息茧房”问题的危害,将“信息茧房”与群体极化、证实性偏见等议题关联起来。学者陈昌凤认为,信息的个人化偏向容易产生詹姆斯・斯托纳(JamesStoner)1961年提出的群体极化现象,即团体成员从开始只是有某些偏向,通过协商、讨论,逐渐朝偏向的方向继续移动、形成极端的观点,甚至引发社会波动,如散播错误信息、形成极端性社会团体、公共理性批判缺失等[陈昌凤,张心蔚.信息个人化、信息偏向与技术性纠偏――新技术时代我们如何获取信息[J].新闻与写作,2017(08):42-45.]。与此同时,人们总是倾向于寻找、阅读自己认同的信息来佐证自己的认知,加深了信息的个人化偏向。对垂直细分领域内容的追逐,弱化了公共事务领域内容的传播,网络社会中传统媒体讲求的“社会公器”意义式微,一个对公共事务冷漠、毫无参与感与同理心的社会将会是“信息茧房”之下最极端也最为悲剧性的结局。

对此,文化传媒企业和公众这两个主体都需要采取一定的对策。对于文化企业而言,应当在推荐的精确度指标之外,加入新的算法推荐考量指标,如多样性、覆盖率、新颖性等;另外,有研究表明,基于关联规则的推荐方法要优于基于内容规则的推荐方法,更易为用户发掘新的兴趣点,现有的障碍在于关联规则难以抽取、耗时长[刘辉,郭梦梦,潘伟强.个性化推荐系统综述[J].常州大学学报(自然科学版),2017,29(03):51-59.]。

而对于公众而言,文化传媒企业设置算法推荐的初衷就有迎合用户喜好的意味,用户越是喜欢哪一类内容,平台就越是推荐哪一类内容。因此用户想要逃离“信息茧房”,第一个步骤就是反省自身,提升自身的媒介素养。平台可以帮助用户实现媒介素养提升,如每周发布用户阅读周报,告知用户在阅读中各类型信息的占比情况,提示用户哪一类信息了解匮乏等,起到一定的督促作用。

(二)从算法偏见到机器歧视――算法的公平与透明化困境

当我们在日常生活中的决策权部分地交给算法之后,我们本能地期待着一个更加公平、透明的环境。但是,一个不容忽视的问题是:算法或者机器真的能够做到公平、公正、不偏不倚吗?算法的规则是否本身就带有人类固有的偏见呢?

2015年5月,Google的照片应用加入自动标签功能,应用更新不久,一位黑人程序员发现自己的照片竟然被Google打上“大猩猩”的标签。Flickr类似的自动标签系统也犯过大错,曾把人标记为猿,把集中营标记为健身房。2016年3月,微软公司的人工智能聊天机器人Tay上线。可是上线不到一天,Tay就被网民“教育”成为一个集反犹太人、性别歧视、种族歧视等于一身的“坏孩子”,被强制下线。此外,有研究称谷歌广告服务会默认为女性用户推送比男性用户薪水更低的广告。这些事件一方面反映出现有的人工智能、机器学习技术的不成熟,另一方面,机器歧视(MachineBias)问题开始进入公众视野。

2017年,Pew研究中心曾在研究报告《算法时代》[LeeRainie,JannaAnderson:Code-Dependent:ProsandConsoftheAlgorithmAge,http://www.pewinternet.org/2017/02/08/code-dependent-pros-and-cons-of-the-algorithm-age/]中指出:“算法的客观中立仅仅是理想,创建算法的人即使尽量做到客观中立,也不可避免地受到自身成长环境、教育背景、知识结构和价值观的影响。此外,创建算法所依赖的底层数据的有限性也会导致算法偏见。”

那么,算法偏见的来源在哪里?首先,存在错误、不准确和无关的数据可能导致偏见。输入不完美、甚至有错误的数据,自然会得到错误、有偏见的结果。

其次,机器学习的过程可能是偏见的另一个重要来源。例如,一个用于纠错的机器学习模型在面对大量姓名的时候,如果某姓氏极为少见,那它在全部数据中出现的频率也极低,机器学习模型便有可能将包含这个姓氏的名字标注为错误,这对罕见姓氏拥有者和少数民族(姓氏与非少数民族不同)而言就会造成歧视[曹建峰.人工智能:机器歧视及应对之策[J].信息安全与通信保密,2016(12):15-19.]。这类歧视的来源并非程序人员有意识的选择,具有难以预料、无法估计的特点。

再者,正如Pew报告所指出的,算法可能先入为主地默认了算法创建者或者底层数据中带有的价值判断,从而产生了性别、宗教和种族方面的歧视。这类歧视主要是由于产品设计(DiscriminationbyDesign)的局限性。

种种算法偏见与机器歧视的案例让我们不禁怀疑,“公平”这一社会理念到底是否可以被操作化,成为被准确量化的算法规则。而与此同时,机器自动化决策的不透明性使得准确量化公平难上加难。机器决策是经由算法这一“黑箱”(Blackbox)完成的,也就是说,不论是普通人还是熟悉公平原则的社会学者,均无法了解算法的内在机制、原理,更无法监督机器的决策过程。因此,当算法的编程人员不清楚或者未能统一“公平”的内涵与规则时,他们自身的偏见就会在一定程度上影响算法,同时他们也可能会忽视算法可能产生的偏见,不公平的人工智能应用随之产生。

正如学者DanielleK.Citron在《技术正当程序》中所说,对于关乎个体权益的自动化决策系统、算法和人工智能,考虑到算法和代码,而非规则,日益决定各种决策工作的结果,人们需要提前构建技术公平规则,通过设计保障公平的实现,并且需要技术正当程序,来加强自动化决策系统中的透明性以及被写进代码中的规则的准确性。

日前,美国弗吉尼亚大学学者AhmedAbbasi等在《让“设计公平”成为机器学习的一部分》(Make“FairnessbyDesign”PartofMachineLearning)一文[https://hbr.org/2018/08/make-fairness-by-design-part-of-machine-learning]中指出,可以通过将数据科学家与社会科学家组队、谨慎打标签、将传统的机器学习指标与公平度量相结合、平衡代表性与群聚效应临界点(criticalmassconstraints)以及保持意识等方法减少算法形成歧视的可能性。其中,“平衡代表性与群聚效应临界点”是指在对数据进行采样时,应既考虑数据的整体特征,同时不忽略某个特定少数群体或者极端数据情况。只有这样,机器学习模型在预测一个普通人和一个特殊群体时,才能都给出更为准确的答案。

另外,谷歌也开始倡导“机会平等”,试图将反歧视纳入算法。还有学者引入“歧视指数”的概念,为设计“公平”的算法提供具体方法。我们必须清楚,人工智能总是通过一个快速且脱离人类社会与历史的学习来完成自我构建,因而一个未经完善的机器学习模型必然存在“道德缺陷”。在人工智能应用的构建中,人类与人类长久以来葆有的道德与社会规则不能缺席。

(三)人工智能应用背后的力量

“信息茧房”的形成不是由于信息广度不足,内容生产不够,而是由于信息推荐固定地集中在某一特定领域造成了信息的窄化;算法偏见的形成不是由于机器学习具有天生的弊端,而是由于人类未将公平公正的原则纳入算法考量之中。人工智能应用背后存在着的,是人的力量与符合经济社会的商业逻辑。

为了迎合消费者,信息推荐系统会将消费者的阅读“口味”作为依据。当搜索引擎通过机器学习意识到,搜索八卦新闻的人愿意在日后更多地看到八卦新闻,为了提升用户留存度,搜索引擎会相应地减少其他类型新闻推荐。

为了满足商家,人工智能产品会把更昂贵的产品卖给用户忠诚度高的用户,即“大数据杀熟”现象。同时,为了更加精准地进行广告投放,人工智能偶尔也会忽视公平原则,例如女性用户通常会收到比男性用户薪资低的推荐广告。这样的现象发人深省,未来是否有必要通过一定的法律手段,要求包括文化企业在内的商家作出“不作恶”的商业承诺。

整体而言,我们的社会正被人工智能推向一个新的发展节点。正如[金兼斌.人工智能将给传媒业带来什么?[J].中国传媒科技,2017(05):1.]学者指出,社会和传媒技术的发展,从来都不是线性和匀速的。从工业革命到信息技术革命,每一次社会巨变都伴随着这样一个临界时刻。今天,我们已经能够感受到,我们的日常生活――包括媒介生活中的许多基础性的东西,正在被人工智能应用所搅动。在这样的时刻,只有紧抓机遇、规避风险、解决弊病,才能真正实现行业和社会的跨越式发展。我国的文化产业走到了一个崭新的路口,新的机遇在等待着它。

(责编:尹峥、赵光霞)

分享让更多人看到

《人工智能伦理与治理报告》内容解读

2021年8月15日,由清华大学数据治理研究中心主办的“人工智能伦理与治理”专题研讨会于云端举行,来自中央党校、中国社科院、清华大学、复旦大学、浙江大学、中国政法大学、电子科技大学、山东大学、北京化工大学、中国农业大学、对外经济贸易大学、山东师范大学等高校的多位专家学者共聚一堂,围绕人工智能伦理的核心关切和治理方式等问题展开深入研讨。会议由清华大学社会科学学院副院长、计算社会科学平台执行主任孟天广副教授主持。

会上,清华大学数据治理研究中心项目研究员严宇、戴思源和李珍珍共同汇报了《人工智能伦理与治理报告》。报告将人工智能伦理分为安全、透明、公平、个人数据保护、责任等八个维度,通过问卷调查的方式收集了公众针对这些伦理维度的关切情况及治理方式。报告特别关注了算法伦理问题,专门就算法透明、算法公开及数据保护三个方面展开讨论。最后,报告还提出了人工智能伦理治理的“中国方案”。以下为汇报内容:

严宇:美国人工智能监管以发展和创新为先

清华大学数据治理研究中心项目研究员严宇表示,从伦理治国的跨国比较来看,美国的人工智能监管是以发展和创新优先为导向的。

严宇指出,在全球范围内,各国都已经看到人工智能技术对社会的影响,总体可以分为乐观派和悲观派两大派系。乐观派认为人工智能技术极大地促进了经济社会发展;相对来说,悲观派会更多地关注潜在的伦理风险。“由此会产生两种不同的措施,比如乐观派会积极采用战略规划和政策文件来推动人工智能技术的发展与应用;悲观派则会对人工智能伦理开展专项调查,甚至出台具体措施,对伦理风险进行规制。”

严宇在对人工智能伦理治理体系进行跨国比较后表示,美国为了保持其在人工智能领域的全球领先地位,既看重发展,又会考虑伦理风险。“但总体来说美国仍然是以发展和创新优先。”美国非常强调政府和企业、学校、研究机构等社会组织的合作。从顶层设计上来看,联邦政府曾发布行政命令和战略规划,推动人工智能的发展。这些战略规划也提出要对人工智能的伦理问题进行规制,但是其监管仍然是将发展和创新放在更优先的地位。

在严宇看来,不同于美国以发展和创新为先的监管体系,欧盟的监管体系更加严格。“欧盟人工智能企业的数量、规模和影响力虽然排在美国和中国之后,但是它的人工智能监管和治理却在全球有相当的影响力,形成了以强监管为核心特征的治理体系。”

对于邻国日本的人工智能技术发展,严宇表示,日本在试图从中寻找平衡,一方面肯定人工智能的重要作用,另外一方面又要强调重视它的负面影响。日本为此建立了一系列伦理的准则。

严宇介绍道,过去十年,中国的人工智能技术发展速度非常迅猛,近几年中国也越来越关注人工智能的伦理及治理问题。组织和制度方面,中国建立了新一代人工智能治理专业委员会,发布了《新一代人工智能发展规划》,提出要建立规范的伦理体系和法律法规;治理原则方面,形成了《网络安全标准实践指南》,专门提出对人工智能的伦理安全风险开展防范和治理。监管体系方面,中国正在大力推动国家人工智能安全和评估体系。

戴思源:网民关心反垄断时代人工智能相关的数据权利

研究发现,网民关心反垄断时代人工智能相关的数据权利。戴思源的团队从安全、透明、公平、个人数据保护、责任、真实、人类自主、人类尊严八个维度对人工智能伦理进行梳理,并结合小数据和大数据展开实证分析。小数据主要来自清华大学数据治理研究中心在2021年7月份展开的有关人工智能应用与公众认知的网络问卷调查,共收集2654份,有效数2041份;大数据来自新浪微博的网民讨论数据,提取人工智能相关关键词条共4496万条,另外一个大数据来源是今日头条有关人工智能的1.9万篇文章和相关评论2.5万条。

戴思源表示,网民对各个维度都有所关注,其中在安全、公平、个人数据保护、责任方面,表示关切的人数最多。对比之下,对透明、人类自主和人类尊严这几个维度较少关注。

在人工智能应用的生活场景中,戴思源的团队将其划分为智能门禁、智能家居和信息类APP等几个类别,让受访者对人工智能技术选择各个层面因素进行排序。“总的来看,在所有场景当中,有用性和伦理因素都是最重要的因素,影响受访者是否使用该类人工智能产品。”戴思源说。

同时,戴思源的团队也对社交媒体与资讯大数据展开分析。他们在对新浪微博的数据按上述八个伦理维度进行细分之后发现,微博网民主要关注安全、透明、隐私保护和责任等方面。通过词云图进一步分析,发现在安全维度上,公众主要对人工智能技术的安全性表示关切;透明维度上,公众主要对物联网金融信息公开、特斯拉自动驾驶的数据公开、人工智能技术细节的公开展开讨论;隐私保护方面,公众主要集中于人脸识别等技术的滥用、互联网企业利用大数据杀熟等现象展开讨论;可靠性维度上,公众主要讨论人工智能产品是否能够为用户提供可靠的服务。

戴思源指出,针对不同的企业,新浪微博的网民对于特斯拉的讨论度最高。“这可能与特斯拉在行业的技术领先优势及社会舆情事件密切相关。”另外,阿里、华为等企业的讨论热度也紧随其后。微博网民更倾向于从人工智能所取得的技术进展和革新来讨论企业。

戴思源表示,阿里巴巴反垄断案、抖音诉腾讯不正当竞争案等高点赞文章的主题都同平台垄断等新型市场垄断形式密切相关。“这反映出网民关心新型垄断形式所主导下的人工智能发展以及与此相关联的数据权利。”

李珍珍:较多受访者认为不应公开算法源代码

研究发现,公众对算法公开的支持态度主要集中在算法应用和推广阶段,但较多受访者认为不应公开算法源代码。

李珍珍针对算法的伦理问题提出三个关切点:算法的透明、公平和数据保护。她的团队通过问卷调查收集公众对于算法透明、算法公开的态度,总结公众对算法透明和公开的五个维度:一是人工智能企业应该向社会披露算法的目的、范围和用途;二是企业应该向社会解释算法的步骤、原理和细节;三是企业应该向社会公开算法的源代码;四是企业应该向社会披露算法使用的风险;五是企业应该接受社会对算法开发和应用的监督。

调研结果显示,从整体上看,公众对算法透明和公开持普遍支持态度,绝大部分受访者对于算法的目的、范围、用途、算法风险、算法开发应用这些方面选择比较同意或者非常同意。然而,对于公开算法的步骤、原理、细节以及公开算法的源代码,持同意态度受访者比例会显著降低,特别是较多受访者都认为不应该公开算法源代码。

李珍珍表示,公众对算法公开的支持态度主要集中在算法应用和推广阶段,即在使用人工智能产品过程中直接受算法影响的那个阶段。而对算法的设计过程,尤其是源代码,大多数人并不认为应该公开。

在当前算法社会中,用户成为被算法评估的对象。李珍珍指出,我们应该选择适当的措施来保障算法的公平,规避算法歧视。“我们对于算法公平的调查,将有助于科技工作者研发出更具公平原则的算法,这种公平原则需要符合公众对公平概念的普遍理解。”

另外,李珍珍还提到算法伦理问题很大程度上是关注个人数据和隐私保护。团队在调查中发现,公众认为最重要的个人信息包括自己的基本信息、人际关系信息、经济情况信息等。另外,在隐私泄露、信息盗用、信息删除、信息查阅等个人信息和隐私潜在风险的四个方面,网民对于个人隐私泄露和信息盗用最为担心。

“算法社会的内生风险和伦理问题需要我们在未来进一步规范算法的研发和应用,系统讨论算法伦理及其风险治理,让算法更好地服务人类社会。”李珍珍说。

回顾“人工智能伦理与治理”专题研讨会:

人工智能伦理与治理研讨会成功举办

孟天广:人工智能伦理及其治理要打通科技社群与社会大众

吕鹏:人工智能伦理问题需实证证实或证伪

陈水生:人工智能伦理和治理需要“发展”和“监管”双轮驱动

李锋:人工智能伦理不能脱离社会经济状况和历史视角

孙宗锋:需研究公众对人工智能伦理关注重心的背后原因

赵娟:人工智能治理框架应处理四对关系

熊易寒:把算法还原成普通人能理解的逻辑

吴超:算法技术问题最根本的解决方法是发展技术本身

贾开:应从技术与社会互嵌角度重视人工智能治理框架

曲甜:从技术与组织关系分析人工智能的治理模式

宁晶:网络用户使用技能和心理效能影响算法接受度

张小劲:算法治理应致力于促发展、防滥用并消除污名化现象

更多与会专家发言内容,欢迎查看专题报道,或关注清华大学数据与治理研究中心官方微信公众号“数据与治理”。

(来源:中新经纬APP,未经授权禁止转载)

让人工智能充分赋能经济社会发展

科技部等六部门发文统筹推进场景创新

让人工智能充分赋能经济社会发展

继2017年国务院印发《新一代人工智能发展规划》(以下简称《发展规划》)之后,科技部、教育部、工信部等六部门近日联合发布《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》(以下简称《指导意见》),在业界引发广泛关注。

作为深刻改变人类社会生活的革命性、战略性技术,人工智能在我国发展如何?怎样推动人工智能快速迭代升级?记者进行了采访。

从实验室走向生产生活,人工智能驶入发展快车道

如今,放眼大江南北,“人工智能”不再是一个学术名词,而是人们生产生活中的“常客”。

在旷视科技改造升级后的国药控股广州有限公司物流中心,随处可见人工智能的“身影”:智能移动机器人、智能堆垛机往来穿梭,成为搬运的主力军,智能五面扫描装置可实时读取运动中的药箱上的电子监管码,实现药品流通可追溯……智慧仓储物流不仅为该中心每年节约人力成本上百万元,更显著提高了工作效率,在疫情防控期间实现了医药物资配送的快速响应。

在位于浙江杭州滨江区的计算机视觉公司易思维的实验室,装配了高性能视觉传感器的工业机器人正在模拟汽车流水线的工位上忙碌。明察秋毫的“眼睛”和自主决策的“大脑”,助力冲压、焊接、涂装、总装四大汽车制造环节的智能化升级,既省工省时又提质增效。易思维研发的工业视觉检测成套装备体系,已在上汽大众、一汽大众、特斯拉等数十家国内外厂商的200多个整车厂落地开花,在“冲、焊、涂、总”四大环节上实现系统化应用。

在华为打造的5G智慧煤矿——晋能控股集团塔山煤矿,地下500米的矿井实现了智能互联:智能巡检机器人往来探视,工人可一键呼叫“网约车”、实时手机视频通话。依托“会说话”“能决策”的智能化综放开采设备,塔山煤矿采煤工效提升40%以上。

在日常生活中,人工智能也无处不在:对着手机眨眨眼,几秒内就可以完成身份认证;手环、手表等智能终端,及时提醒用户健康状况……

“《发展规划》实施至今,我国的人工智能已由实验室走向生产生活的方方面面,驶上了发展快车道。”科技部新一代人工智能发展研究中心主任、中国科学技术信息研究所所长赵志耘认为,“生产更高效、生活更精彩”的背后,是人工智能科技的显著进步。“我国在机器学习、计算机视觉、自然语言处理、类脑计算等领域涌现出一批重要理论成果,大规模预训练模型等前沿研究达到国际先进水平,人工智能基础软硬件快速发展,基于自主技术的人工智能产业生态已初步形成。”

科技部新一代人工智能发展研究中心提供的数据显示,5年来我国智能产业规模持续壮大,企业数量以及风险投资额居世界前列:2021年人工智能核心产业规模超过4000亿元,企业超过3000家;人工智能领域风险投资额占全球比重从2013年的不到5%增长到2021年的20%左右,跃居世界第二。

把新技术应用到实践中,通过迭代不断成熟提升

《指导意见》从打造人工智能重大场景、提升人工智能场景创新能力、加快推动人工智能场景开放等方面,统筹推进人工智能场景创新。

“这不仅是稳经济、培育新增长点的权宜之计,更是促进人工智能更高水平应用、更好支撑高质量发展的长远之策。”科技部战略规划司副司长邢怀滨说,“从全国来看,目前仍存在对场景创新认识不到位、重大场景系统设计不足、场景机会开放程度不够、场景创新生态不完善等问题,急需加强人工智能场景创新。”

邢怀滨告诉记者,场景创新是以新技术的创造性应用为导向,以供需联动为路径,实现新技术迭代升级和产业快速增长的过程。“这个‘牛鼻子’有多方面的牵引效应:直接推动人工智能技术的推广应用,加快传统产业的提质升级;在应用中发现新需求、凝练新课题,从需求侧反推人工智能技术体系的提升完善;促进人工智能相关软硬件技术及其标准的对接、贯通,进而形成全国统一的技术生态、产业生态。”

“目前人工智能正处在新的发展阶段,技术日趋成熟可用,各行业对人工智能技术需求迫切。”赵志耘说,在这个阶段,最重要的是把新技术应用到实践中,通过迭代不断成熟提升。“场景创新作为一种目标导向、应用导向的研发新机制,既有利于引导学术界更好地聚焦行业问题、优化研发方向,也有利于引导企业尽快把理论成果、技术成果快速转化为行业效果。”

易思维创始人兼CEO郭寅认为,人工智能是一门强应用相关的技术学科,从最早的雏形发展到今天,都离不开在各类应用场景中发现问题、解决难题、迭代技术,人工智能技术发展与场景应用创新是个相互促进、螺旋上升的过程。“随着《指导意见》的实施,我国人工智能技术将迎来加快迭代升级的新热潮。”

加快构建全链条、全过程的人工智能行业应用生态

8月15日,科技部启动支持建设新一代人工智能示范应用场景,发布了智慧农场、智能港口、智能矿山、智能工厂等首批支持的十大应用场景。

“人工智能的应用场景涉及生产、生活的方方面面,不能眉毛胡子一把抓。我们坚持面向世界科技前沿、面向经济主战场、面向国家重大需求、面向人民生命健康谋篇布局,以充分挖掘人工智能的价值。”邢怀滨说,“按照提高生产能效、改善工作方式、方便群众生活等主要标准,我们希望尽快打造形成一批可复制、可推广的标杆型示范应用场景,加快构建全链条、全过程的人工智能行业应用生态,让人工智能充分赋能经济社会发展。”

“人工智能是渗透面广、带动性强、影响深刻的新生事物,政府和市场要各司其职、协同发力,真正把充分发挥市场作用和更好发挥政府作用有机结合起来。”邢怀滨强调,一方面,要坚持企业在场景创新全过程中的主体地位,鼓励企业放手去干、去闯;另一方面,政府要与学术界、企业界紧密合作,在相关社会伦理、规则制定、法制完善等方面履职尽责。

“中国拥有全球最齐全的产业体系和超大规模的消费市场,丰富繁多的应用场景为人工智能提供了巨大的用武之地。”邢怀滨表示,“经过全社会的共同努力,中国一定能在新一代人工智能这个赛道上跑出好成绩。”(记者赵永新)

【纠错】【责任编辑:吴咏玲】

讨论主题:人工智能对人类社会发展的影响(弊大于利)

讨论主题:人工智能对人类社会发展的影响(弊大于利)姓名:陈鹏组员:傅佳峰组员:谢克、李淼、储励报告内容:根据查阅知网资料,知乎搜索,哔哩哔哩视频;

得到如下内容:人工智能的发展,对人类社会产生的影响——大家都知道,语言的实现和翻译过程可以通过计算机的符号语言实现,但是思维过程现阶段来看还难以实现。思维以意义为基础,语义的实现也包含在思维实现的过程中。人的思维过程就是以语义实现为基础的,当然也离不开现实世界的语境

伴随着人工智能的出现,随着人工智能的大范围应用,相关伦理问题也引起了广泛重视与激烈讨论,主要有以下几个问题:20世纪初,乔纳斯、费因伯格、汉斯·昆、汉斯·伦克建立了责任伦理学。人工智能的发展应用必然会引发责任问题,人工智能系统的责任界定与追责问题是人类社会不可回避的问题。这之中最具代表性的就是自动驾驶问题。自动驾驶看上去是未来可能及其便利的技术之一。虽然自动驾驶汽车的安全系数更高,但是仍然有出现事故的潜在可能。其本身难以破解既有的道德难题,那就是近年来引起普遍关注的“电车难题”。假如自动驾驶在路上遇到不守规矩的路人,人工智能是选择优先保护乘车人还是路人?面对此种情况,假如人工智能汽车的原则是优先保护路人,那么乘车人的安全该如何保护,谁会放心乘坐这样一辆汽车;如果原则为优先保护乘车人,一旦冲撞路人造成事故,责任判定对现有法律法规和伦理规制是个挑战。自动驾驶颠覆了传统的人车关系,人工智能的介入使道德和法律规范的对象难以界定,传统责任分配规制就无从谈起。是使用者、制造者或是人工智能?对人工智能该如何做责任认定?从哲学层面来讲,责任的产生基于因果关系。

人工智能对人类发展的长期威胁和冲击尽管人工智能不能完全替代人类的价值,但人工智能对人类社会的冲击却不可避免,也无法忽视。人工智能以及自动化技术,正在做的事情实际上是将人类从生产过程中逐渐剥离。在工业生产过程中,人类的参与度将越来越低。人们将向消费端转移,甚至会成为一个纯粹的消费者。这一变化的过程中,将会使得普通民众失去社会影响力,进而失去自身价值。在过去的100多年间的平权运动中,普通民众之所以能够获得更多的权利,赢得投票权,通过建立工会向资本家争取福利,其关键是民众在整个生产过程中的广泛参与。拥有资本之外,还需要工人的参与,才能将资本转化为价值。但是人工智能将人类排挤出生产过程,使得大部分的民众失去了自身在社会中的价值。设想一下今天的亚马逊帝国,如果产品的生产,运输,销售,投递都不需要普通人介入的话,资本巨头将会主宰世界。普通民众想要争取自己的权利,将即没有任何筹码,也没有平台,也无法汇聚力量。被从生产过程中剥离出来,民众甚至会失去反抗的理由。普通民众面对将不再是精英和资本的剥削,而是经济精英不再需要人民。人民也就失去了自己的力量。对大部分个体来说,个人的社会价值消亡,成为对社会只是消耗,不创造任何价值的附属品。尽管人类的整体作为一个物种仍有其价值,但大部分个体失去了社会价值。世界将变成分化的两级,一边是失去社会价值的大部分人民,只有消耗,无法创造价值;还有另一部分人,拥有算法和资本,他们将成为社会的另一极,这一极和目前的精英阶层不同的是,他们会成为神,并能够掌握剩下的所有人的命运。正如现在大部分富豪所做的对太空旅游的探索,包括Virgin的理查德·布兰森(RichardBranson),亚马逊的贝佐斯的蓝色起源,还有ElonMusk的火星旅行,这些将成为那些极少数社会精英的游戏,而与大部分人无缘。大部分人也许无所事事,在元宇宙中虚度光阴。那个时候国家还存在么?也许都是个问题。还记得曾经读过一篇获得雨果奖的科幻小说,《北京折叠》,就是描述了一个类似的场景。人类的空间被分成了几层,不同的人占据了不同空间。底层的人甚至不知道上层的存在。而上层的人拥有最多的资源和空间,并掌控了一切。这不是危言耸听,这将是整个人类要面对的威胁。过去两年的疫情,社会财富正在加速向少数人集中,甚至也包括权力。随着人工智能自动化的推动,这一过程将进一步加速。在这个过程中,目前还没有力量可以改变这个趋势。过去主宰世界的自由主义和全球化理念,需要被新的社会理念所取代。我们需要一种新的理念,以应对人工智能所带来的长期威胁。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇