博舍

人工智能+教育来了,给老师带来什么危机 人工智能与就业危机的关系是什么呢

人工智能+教育来了,给老师带来什么危机

目前人工智能在教育领域的应用技术主要包括图像识别、语音识别、人机交互等。

比如通过图像识别技术,人工智能可以将老师从繁重的批改作业和阅卷工作中解放出来;

语音识别和语义分析技术可以辅助教师进行英语口试测评,也可以纠正、改进学生的英语发音;

而人机交互技术可以协助教师为学生在线答疑解惑,去年媒体曾报道美国佐治亚理工大学的机器人助教代替人类助教与学生在线沟通交流竟无学生发现,说明了人工智能在这方面的应用潜力。

除此之外,个性化学习、智能学习反馈、机器人远程支教等人工智能的教育应用也被看好。

虽然目前人工智能技术在教育中的应用尚处于起步阶段,但随着人工智能技术的进步,未来其在教育领域的应用程度或将加深,应用空间或许会更大。

问题3、人工智能对学科设置有何引导作用?

在科学技术日新月异的今天,世界正在发生快速变化。新时代对学校教育的影响之一是学科设置的变化,包括新学科的设立、传统学科的改良以及某些“过时”学科的撤销。

近日,教育部公布了2016年度普通高等学校本科专业备案和审批结果。其中笔者观察到,各高校在布点新专业时,纷纷聚焦大数据、新能源、新媒体等战略性新兴产业,比如“数据科学与大数据技术”、“新能源科学与精神”、“网络与新媒体”等专业,时代感十足。

回归到人工智能领域,自2003年北京大学提请建立智能科学系,并于2004年招收首批本科生后,至今十多年的时间里,随着人工智能的崛起,越来越多的高校开设此专业,从事有关智能科学发展的研究并培养相关人才。

而人工智能是一个多学科交叉的领域,其发展也带动了其他相关专业地位和报考人数的提升。与此同时,人工智能带动了本专业与相关专业发展的同时,也对某些专业发展造成冲击。以外语专业为例,随着人工智能语音技术的发展,外语翻译行业受到挑战。

跳出教育看教育,未来人工智能将不断取代或变革现有的工作,也会创造很多新的工作,学校教育必须紧跟时代步伐,不断调整学科专业方向与人才培养目标,才能为社会培养、输送有用的人才。

问题4、教育数据会成为教育人工智能的瓶颈吗?

在教育行业,人工智能不仅被用来节省教师人力、提高教学效率,而且可以驱动教学方式的变革。

以人工智能驱动个性化教育为例,收集学生作业、课堂行为、考试等数据,对不同学生的学情进行个性化诊断,并进一步为每个学生制定有针对性的辅导和练习,从而实现因材施教,这已成为教育人工智能探索个性化教育的一个方向。

但是实现人工智能引领个性化教学的一个关键点是数据的采集与分析。

关于数据与人工智能的关系,有一种说法认为数据是人工智能的某种“养料”。同样的,我们也可以说,教育数据是教育人工智能的“养料”。

教育数据产生于各种教育活动和整个教学的全过程,人工智能要想更好地应用到教育中,首先面临的就是数据采集的问题。

目前,教育数据的来源渠道有两个:

一是来源于数字化的教学环境,教学和学习数据在这种数字化环境中自然而然的产生;

二是从传统教学行为中收集教育信息,并将之转化为数据。

前者的优势是实时收集数据,效率高、节省人力,而现如今在互联网+教育的广度和深度有待进一步推进的情况下,教育数据的来源很大一部分要依靠后者,未来教育数据或将成为发展教育人工智能的一大制衡因素。返回搜狐,查看更多

工业界和学术界最大区别是什么

0分享至来源:高校人工智能与大数据创新联盟

宅实验室专心科研的生活自由但无硬核的工作像是在空中跳舞,学术界人才济济而职称的坑位少,大家相见即交锋。面对这样的环境感觉到现实非常的残酷,那么工业界又是怎样的一种状态呢?来听听大家对于该问题的看法吧

问题

鄙人能源类工科博士在读,正在面临工业界和学术界的抉择,想知道两者的区别,以便提前做好准备。科研状态自我感觉挺舒适,习惯了自由自在,没有太大约束的生活,但是感觉自己做的东西浮在空中,落地会摔粉碎。学术圈目前应该是越来越难了吧,人才多,评职称艰难。隔壁实验室的讲师每天走得比我还晚(一般12点走),所以很想知道工业界又是怎么样一种状态?

作者:RoseofVersailles链接:https://www.zhihu.com/question/332602866/answer/2147589149来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

01

回答一:作者-蛤蟆仙人

我的背景更偏学术界,我对两边都有了解,我谈一点自己粗浅的看法。我的讨论范围限定在(1)机器学习领域,(2)能力在前10%~50%的正常人,不讨论改变世界的大神。

简单粗暴的结论:

(1)高校的研究能力在工业界很有用,但是高校的成果几乎(99.9%)在工业界都没有用。或许高校的education的作用更大,期望高校做出改变工业界的学术成果不太现实。

(2)工业界的研究院其实属于学术界,本质跟高校区别不大。他们比高校做的东西更有用,但是研究院做的不是核心技术,只是外围、边缘的技术而已。先说说高校的科研。高校绝大多数的研究都是各种问题的cornercase,在公开的数据集上跑几个实验,claim自己是SOTA,发篇论文。但这些东西在工业界用途非常非常小。我举几个例子。

近年来学术界搜索、推荐的论文不少,但在工业界能用的几乎没几个。学术界的做法是“改进模型,在MovieLens等数据集上做个实验,提升几个点,发表论文”。但学术界的成果在工业界几乎都不work。在工业界真正能改进模型效果的方法大多是标注数据、处理数据、调特征、修bug。少数能用的学术成果都是Google等公司发表的。

最近几年联邦学习很热门,每个会议都有上百篇联邦学习的投稿。这些文章中90%以上都是在解决cornercase,比如XXX设定下的收敛、XXX设定下的XXX差分隐私方法、用XXX方法防御XXX假设下的拜占庭错误。有脚指头想想也知道,这些cornercase在工业界是没有用的。工业界用的是简单、好调、scalability能上得去的方法,而且要考虑自身系统平台的支持。

最近一两年,有N篇基于visiontransformer的论文,都是对visiontransformer做一点改进,在公开数据集上top-1accuracy提升一点点。在绝大多数工业应用里面,没人在乎一点点准确率的提升。好好处理数据、标注数据、再加点小trick,带来的提升比模型大得多。说实话,ResNet之后所有的模型带来的提升全加起来,还没JFT一个数据集带来的提升多。

工业界里重要的问题非常多,但是没有足够的人力去解决,只能挑收益最大的做。而高校乌央乌央的人扎堆挤到一些很小的问题上,研究各种各样的cornercase,比如上面讨论的几个问题。这就是为什么我打算离开高校。再说说工业界的研究院。

工业界研究院有一部分人做纯科研,做出了非常牛逼的工作。Google、Deepmind、MSR、NVIDIA等公司的研究院都有非常厉害的成果。Transformer、AlphaGo这些成果确实改变了世界。其余影响力小一些的论文也起到了PR的作用。

工业界研究院有相当多的人在为业务、技术部门服务。可惜的是研究院做的通常不是核心技术,而是可有可无的边缘技术。研究院的人看不到完整的核心技术。举几个例子:

推荐算法团队跟研究院合作,希望“试一试”强化学习、图神经网络这些技术。重点在“试一试”,也就是说可有可无,不是核心技术。能带来零点几个点的增长最好,没有也无所谓。

技术部门发现强化学习在网约车派单上好用,收益挺大。上线之后,让研究院做进一步的探索,目标是用更fancy的技术取得marginalimprovement。

为什么工业界研究院接触不到完整的、核心的技术?核心技术肯定在业务部门手里,重要性次一级的工具在技术中台手里。由于利益原因,没人愿意把自己重要的东西交给别人做,除非是自己不愿做、没精力做、没能力做。说一下工业界的技术团队。工业界的工作并不美好,有很多脏活累活要干,没有学术界看起来高大上,而且KPI压力很大。有一部分人在推着技术走,这种工作的成就感会比较高。另一部分人被业务推着走,比如这个地方掉点了,那个地方有个badcase,要修一下。。。很明显,前者的技术含量高,成长更快,在就业市场上很抢手;后者的技术含量低,是高档人肉电池,容易被换掉。最后说说人。学术界的人才密度远远大于工业界。拿到985学校的讲师(所谓助理教授)职位,比公司SPoffer还难。工业界研究院里各个都是有不错成果的博士。而工业界的技术部门里,人才密度低得多。哪里更容易出头是显而易见的。在跳槽的时候,研究院出身的不那么受欢迎,跟核心技术团队的人差距巨大。

02

回答二:作者-小米君

个人观点:

学术界就像谈恋爱,有不错的motivation和idea你只用锻造技术去给一个solution就完了,最后呈现的方式是publication。你可以更自由,可以天马行空,可以各种魔改,甚至不需要考虑落地成为一个paperer守着ppt过一辈子。

工业界就是结婚过日子,柴米油盐,衣食住行,你就不得不考虑商业化和市场,平衡各方利益,调动各种资源上下游的关系。有这个idea的可能很多,但是你可以做出实打实得产品,并将其推给用户,为该领域起到推动作用,这就不是简单的publication可以呈现的。同样,没有爱情的婚姻质量不高,没有重大innovation支撑的产品也不长久。

总之,paper不代表一切~却是一切美好的开始……

多加几句:从社会责任的角度来看,不以结婚为目的的谈恋爱都是耍流氓,婚姻里连流氓都不愿意耍的是搭伙过日子,只是完成国家规定的结婚kpi,给娃(产品)上户口。

03

回答三:作者-留德华叫兽

学术界水了5年,工业界摸鱼了3年,谈谈我的浅见(IT、人工智能)。

一、工程能力、数据之于业界的重要性

当你进入到工业界会发现,原来世界500强公司的机器学习团队也大都只是Gitclone市面上开源的代码,调整一些参数/用自己的数据集训练,有那么几个复现能力强的算法工程师,足矣。。

不同深度学习模型在大数据燃料的驱动下,差别几乎可以忽略。

相反,学术界takeforgranted的数据集才是工业界的命脉,得数据者得天下,对于互联网公司更是如此。

标注一张语义分割图片需要1个小时

标注一张语义分割图片需要1个小时,相比花里胡哨的深度学习模型,业界更需要海量大数据收集/管理/读取/activelearning的能力、把算法工程(产品)化的能力、算法写进板子的能力、软件开发和迭代的能力以及ppt和有效沟通的能力。

二、产品才是业界的核心

如果说学术界KPI是顶刊和引用数,那么业界的KPI便是尽量提升用户数和满意度

企业最终卖的是产品和解决方案,而算法只是其中很小的一部分。并且对于大多数中小企业来讲是很微不足道的部分,而大头都是软件开发相关,什么前端、后端、美工、产品经理--这也是作为数学建模、算法出身的我最近几年才认识到的“残酷”现实。

开发才是业界的刚需!

设想一个做导航软件的小公司,导航软件里最核心的算法便是@运筹OR帷幄最经典的最短路径算法。但作为用户,你最关心的导航软件一定是它的UI(用户操作界面)以及支持的功能(例如是否有限速提醒、探头提醒等),还有数据库(是否导航中的信息足够详尽和精确),算法部分只要够用就行。

作为用户,你会不会打开俩个导航软件对比哪个软件的线路更短、用时更快?比如搜索一段路径:百度地图给出的路径长53.5公里、用时52分钟,而腾讯地图给出的路径长53.7公里、用时56分钟。

而作为用户的你,是因为这多出来的0.2公里和4分钟才选择的百度而不是腾讯么?因此(中小)公司宁愿选择砸钱雇很多前端(UI、美工设计师)也不愿花钱雇第二个运筹学算法工程师。只有那些头部大厂才舍得花钱砸算法工程师去改进算法提升那么一点点的软件运行效率

而当公司面临财务危机的时候,第一批卷铺盖走人的也肯定是算法工程师(或研发科学家),毕竟他们工资高得吓人。

三、为别人打工VS为自己打工

学术界即使博士后、青椒,毕竟发的文章署名是自己的,多半还是在为自己打工,因此即使007也心甘情愿。

然而残酷的事实是学术界卷得厉害,007也不一定能换来终身教职并且还得饱受清贫之苦。为了所谓的学术理想是否值得,是需要深思的。

工业界就不一样的,国内996大厂好歹有加班补贴。作为码农按时计费,超一小时就要算上一小时的钱或者绩效那边补上(奖金)。欧洲这边则是965每周工作40小时,到点下班、加班一小时都不可能。

感激博士毕业求职季把我拒掉的两个博后岗位,让我提前脱离“苦海”,提前“上岸”,成为了快乐的德国“摸鱼”人。

04

回答四:作者-RoseofVersailles

坐标美国,目前在学术界,但是一直有做工业界项目,也和工业界的人有不少交流,并且近期正在谈工业界的职位,希望可以尽快谈妥,脱离学术圈。

我能想到的,工业界和学术界主要有如下区别:

1.工业界以资本为导向,作为一个上市公司,做什么大方向要听股东大会以及其任命的CEO的。学术界以政策为导向,作为一所大学,研究什么要听国家基金委员会的。这两者的区别表现出来,一般就是工业的研究偏保守,主要是对现有产品改进。学术界研究很激进,主要探索前人的未知。

2.工业界上班,100%的精力都在研发上。学术界上班,至少30%的精力要放在教学和科普活动上。

3.至少在美国,学术界上班的工作强度至少是工业界的2倍。工业界基本上早9晚5,一周5天,每年至少再休20天年假。学术界ap的常规操作是早7晚12,一周7天,全年不休。

4.至少在美国,同等地位的职位,学术界的薪资最多不到工业界的1/2。比如学术界博后年薪5万,工业界刚入职的博士研究员差不多10-12万。学术界ap年薪8-10万,工业界seniorscientist年薪20-40万。学术界fullprof年薪18-25万,工业界中/高层管理年薪50万-上不封顶。

5.学术界做出最重大研究成果,一般第一时间在arxiv占坑,然后迅速投Nature、Science。工业界做出最重大研究成果,一般会极尽所能进行保密,连专利都不一定去申请,更不会发paper。

6.有些时候,学术界和工业界的研究,也是有交叉的。比如学术界也会接DARPA和NASA的活,基本上最后是要出产品的。工业界也会fund一些探索性项目,只要能创新就行,不需要盈利。但总的来讲,这种交叉的情况不会太多。

7.学术界做出成果,受益人一般是自己(e.g.发了paper,拿了funding)。工业界做出成果,直接受益人是股东,至于自己能从中渔利多少,取决于为人处事如何、懂不懂向上司表现,会哭的孩子才有奶吃。总的来说,工业界更适合躺平。

8.有的高赞答案说工业界投资更大,设备更强,人手更多,所以做科研更厉害。据我的了解,只有极少数的公司在极少数的领域是这样的,比如量子计算,人工智能。绝大多数领域,比如物理、材料、化学,是非常吃大科研装置的,纵使是全球500强公司,也出不起建造-维护装置的钱。绝大多数领域的科研装置,绝对是学术界更先进、更好。比如球差电镜,光源,中子源,加速器,核磁。一般来讲,公司如有需要,会选择和大学合作,以使用这些科研装置。

9.学术界项目失败一般是没事的,而工业界项目失败一般是要有背锅侠的。在学术界的基层人员可以多吹吹牛,而在工业界则应该根据自己能力合理的要任务,一旦pastdue却实现不了deliverable,是真的会极大影响自己的职业生涯的。

10.接上一条,学术界拿了tenure,基本上属于铁饭碗。而工业界经常会出现某个部门业绩不佳,直接砍掉的情况。Tenure也算是对学术界低收入的一个补偿吧。

11.学术界更注重开放合作,有时候没publish的idea甚至都会在conference讲。工业界则非常在乎ip,哪个idea是谁提出来的,谁做了什么,都要清清楚楚的记录下来,以防未来有人浑水摸鱼。

12.学术界report给谁,这些层级的关系,一般都是过过场面,不会当真(比如某ap,需要report给dean)。工业界report给谁,谁就真的是你的supervisor,一点都马虎不得。总的来讲学术界更多的是“单打独斗”的小作坊。工业界则是等级森严的阶级社会。

13.学术界的resume一般是publication和award来说话。工业界的resume一般是project的experience来说话。

14.学术界的工作地点有时候会很偏远,比如losalamos,ithaca,collegestation。工业界的工作地点则集中在几个重点地区,比如bayarea,boston,nyc。

作者|蛤蟆仙人、小米君、留德华叫兽、RoseofVersailles

来源|https://www.zhihu.com/question/332602866

整理|机器学习算法与自然语言处理、AINLP

版权声明:转载文章和图片均来自公开网络,推送文章除非无法确认,我们都会注明作者和来源。如果出处有误或侵犯到原作者权益,请与我们联系删除或授权事宜

往期精彩文章(单击就可查看):

1.

2.

3.

4.

5.

6.

7.

8.

9.

10.

11.

12.

13.

14.

15.

16.

17.

18.

19.

20.

21.

22.

23.

24.办

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

人工智能的伦理挑战

原标题:人工智能的伦理挑战

控制论之父维纳在他的名著《人有人的用处》中曾在谈到自动化技术和智能机器之后,得出了一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”维纳的这句谶语,在今天未必成为现实,但已经成为诸多文学和影视作品中的题材。《银翼杀手》《机械公敌》《西部世界》等电影以人工智能反抗和超越人类为题材,机器人向乞讨的人类施舍的画作登上《纽约客》杂志2017年10月23日的封面……人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。

维纳的激进言辞和今天普通人对人工智能的担心有夸张的成分,但人工智能技术的飞速发展的确给未来带来了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。准确来说,这种伦理学已经与传统的伦理学旨趣发生了较大的偏移,其原因在于,人工智能的伦理学讨论的不再是人与人之间的关系,也不是与自然界的既定事实(如动物,生态)之间的关系,而是人类与自己所发明的一种产品构成的关联,由于这种特殊的产品――根据未来学家库兹威尔在《奇点临近》中的说法――一旦超过了某个奇点,就存在彻底压倒人类的可能性,在这种情况下,人与人之间的伦理是否还能约束人类与这个超越奇点的存在之间的关系?

实际上,对人工智能与人类之间伦理关系的研究,不能脱离对人工智能技术本身的讨论。在人工智能领域,从一开始,准确来说是依从着两种完全不同的路径来进行的。

首先,是真正意义上的人工智能的路径,1956年,在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰・麦卡锡为这次会议起了一个特殊的名字:人工智能(简称AI)夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称,而参与达特茅斯会议的麦卡锡和明斯基等人直接将这个名词作为一个新的研究方向的名称。实际上,麦卡锡和明斯基思考的是,如何将我们人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。这一阶段上的人工智能的发展,在很大程度上还是对人类行为的模拟,其理论基础来自德国哲学家莱布尼茨的设想,即将人类的各种感觉可以转化为量化的信息数据,也就是说,我们可以将人类的各种感觉经验和思维经验看成是一个复杂的形式符号系统,如果具有强大的信息采集能力和数据分析能力,就能完整地模拟出人类的感觉和思维。这也是为什么明斯基信心十足地宣称:“人的脑子不过是肉做的电脑。”麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来的特里・谢伊诺斯基和杰弗里・辛顿也根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让该网络可以像人的大脑一样进行学习,并能够做出简单的思考。

然而,在这个阶段中,所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的原理很简单,让测试一方和被测试一方彼此分开,只用简单的对话来让处在测试一方的人判断,被测试方是人还是机器,如果有30%的人无法判断对方是人还是机器时,则代表通过了图灵测试。所以,图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。

所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。

不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。

这样,由于智能增强技术带来了两种平面,一方面是人类思维的平面,另一方面是机器的平面,所以,两个平面之间也需要一个接口技术。接口技术让人与智能机器的沟通成为可能。当接口技术的主要开创者费尔森斯丁来到伯克利大学时,距离恩格尔巴特在那里讨论智能增强技术已经有10年之久。费尔森斯丁用犹太神话中的一个形象――土傀儡――来形容今天的接口技术下人与智能机器的关系,与其说今天的人工智能在奇点临近时,旨在超越和取代人类,不如说今天的人工智能技术越来越倾向于以人类为中心的傀儡学,在这种观念的指引下,今天的人工智能的发展目标并不是产生一种独立的意识,而是如何形成与人类交流的接口技术。在这个意义上,我们可以从费尔森斯丁的傀儡学角度来重新理解人工智能与人的关系的伦理学,也就是说,人类与智能机器的关系,既不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。当苹果公司开发与人类交流的智能软件Siri时,乔布斯就提出Siri是人类与机器合作的一个最朴实、最优雅的模型。以后,我们或许会看到,当一些国家逐渐陷入老龄化社会之后,无论是一线的生产,还是对这些因衰老而无法行动的老人的照料,或许都会面对这样的人与智能机器的接口技术问题,这是一种人与人工智能之间的新伦理学,他们将构成一种跨人类主义,或许,我们在这种景象中看到的不一定是伦理的灾难,而是一种新的希望。

(作者:蓝江,系南京大学哲学系教授)

人工智能伦理问题的现状分析与对策

中国网/中国发展门户网讯  人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。

当前人工智能伦理问题

伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。

计算机伦理学创始人 Moore将伦理智能体分为4类:伦理影响智能体(对社会和环境产生伦理影响);隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。

当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。例如:人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于 Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。人工智能的滥用可能威胁公民隐私权、个人信息权。深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用 Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……

人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。

关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。 

人工智能伦理准则、治理原则及进路

当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。

伦理准则

近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。

近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理 3 个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。

治理原则

美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。

习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。

治理进路

在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。

“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。

“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》11中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。

我国人工智能伦理治理对策

人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。

教育改革

教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》13等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。为更好地支撑人工智能发展和治理,应从4个方面进行完善:普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;在科技工作者中加强人工智能伦理教育和职业伦理培训;为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。

伦理规范

我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。当前有5项重点工作可以开展:针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。推动科研机构和企业对人工智能伦理风险的认知和实践。充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。

技术支撑

通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。

此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。

法律规制

法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。

国际合作

当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。

我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。

(作者:张兆翔、谭铁牛,中国科学院自动化研究所;张吉豫中国人民大学法学院;《中国科学院院刊》供稿)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇