博舍

关于智能机器人的一些伦理道德问题 人工智能偏见问题有哪些方面的问题

关于智能机器人的一些伦理道德问题

随着智能工程技术的发展,人们越来越接近于能够制造人形智能机器人这种经常在科幻小说中出现的东西。就在2017年10月26日,在沙特阿拉伯首都利雅得举行的“未来投资倡议”大会上,“女性”机器人索菲娅被授予沙特公民身份。她也因此成为史上首个获得公民身份的机器人。然而,在智能机器人发展方兴未艾的同时我们也不得不思考其中产生的一些道德伦理问题。首先,最重要的一点是目前还没能完美地让机器人的行为完全符合人的伦理道德规范,并且不作出伤害人类的事情。还有就是关于法律权利的问题。假如像沙特的那个机器人一样,机器人有了公民身份,那便意味着他拥有了法律权利。假设,一天机器人行使了他的投票权,那么这一票从法律上应该是有效的。然而这票到底是机器人投出的还是由开发他的公司投出的呢?试想,如果是后者,那么在机器人越来越多之时,投票选举之事是否会被某间公司或者某个人操纵呢?如果是,后果可能会不堪设想。而且,假若有机器人行使被选举权成为某位拥有某些权力的人,那这权力会否被某些人利用呢?再有就是类似于电车难题一样的问题,电车难题是一辆有轨电车,突然失去了控制(原因待查)。在轨道正前方,正巧——或者说不幸,有五个铁路工人在施工。如果不作任何处理,电车将直接撞上这五个工人,不存在任何侥幸。司机无法刹车——刹车已经失灵(原因依然不详)!但,司机并不是眼睁睁看着惨剧发生,他还有一个唯一的选项——电车方向盘还是有用的,他可以扳动一下方向,使电车驶进另外一条轨道。在另外一条轨道上,只有一名工人。因此,如果司机扳动方向,他可以救下那五个人,但要轧死另外一个人。司机应当怎样做?类比过来便是,撞真正的血与肉构成的人还是撞机器人?或许撞机器人风险小些,修复机器人可能是比修人更简单的。然而,这是否有悖道德呢?对于智能机器人引起的道德伦理问题还有很多很多,发展智能机器人的路也还很长很长。

人工智能偏见有哪些方面(2023年最新整理)

人工智能偏见有哪些方面(2023年最新整理)人工智能2023.01.104320

导读:今天首席CTO笔记来给各位分享关于人工智能偏见有哪些方面的相关内容,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

人工智能带来的弊端都可能有那些方面?

1.大规模的失业。人工智能的发展,导致很多工人失业。人工智能可以代替很多职业,如此便会导致大批大批的人失业,大批大批的人整日无所事事。

2.高新技术型人才争夺战导致垄断,贫富分化再度加剧。人工智能时代的到来,必将引发空前的人才争夺战。同时这会导致巨头的垄断、贫富分化加剧。

3.机器人具有很大危险性。机器人类人化之后就会存在很多的不确定性,这也是人工智能的弊端之一。曾经就发现过机器人杀人的事件。

人工智能

是一个以计算机科学为基础,由计算机、心理学、哲学等多学科交叉融合的交叉新兴学科,研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器

人工智能包括哪些方面?

人工智能共涉及九大板块,具体包括:1、核心技术板块(AI芯片、IC、计算机视觉、机器学习、自然语言处理、机器人技术、生物识别技术、人脸识别技术、语音识别、大数据处理等)2、智能终端板块(VR/AR、人工智能服务平台、家居智能终端、3G/4G智能终端、金融智能终端、移动智能终端、智能终端软件、智能硬件、软件开发平台、应用系统等)3、智慧教育板块(教育机器人、智慧教育系统、智慧学校、人工智能培训等)4、智能机器人板块(服务机器人、农业机器人、娱乐机器人、排险救灾机器人、医用机器人、空间机器人、水下机器人、特种机器人等)5、智慧城市及物联网板块(智慧交通,智能电网,政务大数据应用,公共安全、智慧能源应用,智慧社区、智慧城建,智慧建筑,智慧家居,智慧农业、智慧旅游、智慧办公、智慧娱乐,智慧物流、智慧健康保障、智慧安居服务、智慧文化服务等)6、智慧医疗板块(医疗影像人工智能、智能辅助诊断提醒/临床决策诊断系统、外科手术机器人、医疗服务机器人、医疗语音识别录入、混合现实技术医疗大数据平台、数据分析系统(BI)、精准医疗等)7、智能制造板块(智能化生产线、工业机器人、工业物联网、工业配件等)8、智能汽车板块(汽车电子、车联网、自动驾驶、无人驾驶技术、激光雷达、整车厂商等)9、智慧生活板块(未来生活模式、智能生活家居、智能家电、3C电子、智能穿戴等)

评论

人工智能的优势和缺点有哪些?

1、人工智能的优势

人工智能软件的主要优点之一是它是高度自编程的。自编程意味着不再需要人工监督整个过程。因此,这节省了时间和人工成本,并因此减少了人为错误。过去,人为错误是任何项目中的重要因素。但是,在人工智能应用中,几乎可以消除人为错误。

人工智能技术的另一个优势是,它可以作为一个集体单元发挥作用。人类形成计算机网络,但是人工智能设备是完全自治的。这意味着一台机器可以同时执行多个任务。此外,借助人工智能技术,可以同时访问整个数据集,而不会出现任何延迟。

人工智能的最大优点是它可以节省大量的人工成本,因为它需要更少的体力劳动和更多的智力劳动。它也可以用于所有类型的任务,包括基于事实的决策而不是基于情感的决策,这对企业的决策非常有利。

2、人工智能的缺点

随着技术的不断提高,这些过程速度和准确性的提高将非常有用,但也可能导致员工减少对人类的依赖,而更多地依赖于计算机。人工意识的最大缺点之一是它会完全破坏人类的机能。

此外,尽管人工智能可能在关键的决策过程中很有用,但它可能会否定人类参与这些讨论的需求。因此,使用AI的一个主要缺点是,决策过程中的某些步骤仍然需要人工。而且,由于没有人为干预,可能会导致错误和偏见,因此不可避免地需要人为干预。

人工智能的另一个缺点是,一旦人工智能发展,对其进行修改就变得超出了人类的可能性。因此,一旦它发展成为一个大型数据库,人们将无法从中删除数据。此外,随着数据库大小的增加,查询的数量也会增加,结果的质量可能会降低。因此,很难预测人工智能将适合哪种类型的查询。

定义人工智能的四个方面是什么?

人工智能是对人的意识、思维的信息过程的模拟。但不是人的智能,能像人那样思考、也可能超过人的智能。但是这种会自我思考的高级人工智能还需要科学理论和工程上的突破。从诞生以来,人工智能理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。正因为如此,人工智能的应用方向才十分之广。

为了让爱宠宠对人工智能的定义进行讨论,以便更深刻地理解人工智能,下面综述其它几种关于人工智能的定义。

人工智能定义1:人工智能是那些与人的思维、决策、问题求解和学习等有关活动的自动化(Bellman,1978)。

人工智能定义2:人工智能是一种使计算机能够思维,使机器具有智力的激动人心的新尝试(Haugeland,1985)。

人工智能定义3:人工智能是用计算模型研究智力行为(Charniak和McDermott,1985)。

人工智能定义4:人工智能是研究那些使理解、推理和行为成为可能的计算(Winston,1992)。

为什么人们对人工智能偏见可能是一件好事

尽管人们喜欢谈论人工智能(AI)和机器学习能够完成比人类做的更好的事情,但事实是人工智能和机器学习只是加速了人类正常工作的速度。

正如关于人工智能偏见的一篇深思熟虑的文章所写的那样,“当人们开始构建机器学习模型时,将会遇到了一个不变的事实:人工智能的最大挑战经常在写入程序时开始,这使得人们必须明确自己的目标,几乎没有其他的办法。”

换句话说,人工智能的采用反映和放大了人们的偏见,而不是消除这些偏见。当人们采用人工智能和机器学习时,从市场营销到司法判决,人们都需要对此有所了解。

不管怎样,机器需要完全按照人们告诉他们要做的事情实施。正如行业专家强调的那样,通过数据启动机器的最佳方式并不是速度,而是缺乏创造力:机器学习的真正优势在于他们不会感到厌倦或分心,机器学习模型可以连续做出数百万或数十亿次不同的数据决策,并且不会让它变得更糟或更好。这意味着可以将它们应用于人类很难应对的问题,比如为单个搜索排名数十亿的网页等。这种优势是真实的,但它也带来了问题。

尽管营销人员喜欢以“超越人类”的方式出售他们的人工智能产品,但这并不是。人们需要对计算机进行编程,在这个过程中,人们采用自己的计算机编程时充满了他们的偏见。正如专家所指出的的那磁:机器学习模型有一个非常讨厌的习惯,那就是他们会学习数据,然后告诉他们学到了什么。此外,他们也可能固执地拒绝学习,除非人们明确向他们解释那是什么。

专家总结道:“人工智能模型对人们来说是一面镜子,他们不明白人们什么时候不诚实。换句话说,人工智能模型并不是一个中立的仲裁者:人们将告诉它真相,并将这种真相反映在人们身上。而人们已经对人工智能和机器学习期望过多,以至于人们需要使用计算机与人工代理通话或进行人工代理。”

当人们对人工智能和机器学习算法进行编程时,必须对重要的事情做出明确的决定,而在被迫公开面对编程这些模型的偏见时,人们可能会学会克服这些偏见。

人工智能包括哪些方面

工智能(ArtificialIntelligence)是研究、开发用于模拟、延伸和扩展人智能的理论、方法、技术及应用系统的一门新技术科学。人工智能领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。

人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新技术科学。

人工智能是计算机科学的一个分支,它企图了解智能的实质,可以产出一种新的可以和人类智能相似的方式做出反应的智能机器,该领域的研究主要有机器人、语言识别、图像识别、自然语言处理和专家系统等。

自从人工智能诞生以来,理论和技术越来越成熟,应用领域在不断的扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以把人的意识、思维的信息过程的模拟。虽然人工智能不是人的智能,但可以像人那样思考、最终可能超过人的智能。

优点:

1、在生产方面,效率更高且成本低廉的机器及人工智能实体代替了人的各种能力,人类的劳动力将大大被解放。

2、人类环境问题将会得到一定的改善,较少的资源可以满足更大的需求。

3、人工智能可以提高人类认识世界、适应世界的能力。

缺点:

1、人工智能代替了人类做各种各样的事情,人类失业率会明显的增高,人类就会处于无依靠可生存的状态。

结语:以上就是首席CTO笔记为大家介绍的关于人工智能偏见有哪些方面的全部内容了,希望对大家有所帮助,如果你还想了解更多这方面的信息,记得收藏关注本站。

打赏海报

本文转载自互联网,旨在分享有价值的内容,文章如有侵权请联系删除,部分文章如未署名作者来源请联系我们及时备注,感谢您的支持。

转载请注明本文地址:https://www.shouxicto.com/article/42187.html

上一篇:人工智能博士哪个国家的好(2023年最新分享)下一篇:人工智能该怎么画(2023年最新分享)

人工智能在教育领域中的应用面临哪些问题和挑战

再比如说,可以了解你的学习能力的情况,可以对你的学习负担提供各种监测,当然这个是要遵循伦理,研究伦理的前提下,可以通过对你的数据和你的表情的分析知道你处在疲劳状态,处在轻生状态,这个在研究里面已经在做了,当然这个前提要尊重个人隐私、伦理的前提下,监测学生的上课状态。如果你过分疲劳,对学习效率很低的。

再比如说可以通过人工智能和虚拟现实结合,提供增强性的虚拟探究环境,供学习者进行探究,进行发现,比如再通过一个虚拟环境,可以回到两千年前去发掘那个时代的历史以及历史演化的过程,智能加虚拟现实结合。等等,人工智能可以在学习环境、学习过程上提供非常多的很好的支持。

第三,人工智能可以对学习过程的评价起到非常重要的作用。他可以分析出你在学习过程中对哪些知识掌握的情况,每个知识点上学科能力的情况,你的核心素养的情况,以及你的体质健康发展情况、心理健康发展情况,可以使得我们的教育评价从单一的学科知识的评价到全面的综合性的评价,可以使得我们的评价从以前只是期末一次考试变成过程性的评价,可以嵌入到你的学习过程中,对学习者进行一些评价,而且评价不仅仅是评价你的知识,还可以评价你的问题解决能力方面。

另外,这种评价可以使得老师的工作大幅度减轻。以前我们只是由人工来做各种各样的评分、观察,需要很大的工作量,现在人工智能可以由计算机进行自动测评,比如英语口语测试,现在已经产业化了,都已经实用化了,很多中考、高考的英语考试都是用实际的系统。

另外,英语作文的批改,现在基本上实用化了,在实验室里面,我们的问答题、论述题、作文题,这些主观题的批改,也已经取得了实质性的进步。今后这方面会取得实质性的突破。取得实质性突破以后,我们老师改作业,统计分数,这些工作就会大幅度降低。人工智能会在教育评价上发挥非常重要的作用。

另外,人工智能对教师的工作可以起到非常重要的作用,起到教师助理的作用。比如,智能出题、智能批改、智能阅卷、智能化的辅导,各种评价报告的自动生成,以及针对学生因人而异的给学生提供各种反馈,像现在我们老师面对一个班,可能面对40个-50个学生,他很难,以前很难做到每个学生都给个性化的反馈,因为他的时间精力不允许,他也不可能了解每个孩子的具体情况,但是现在基于人工智能的技术,我们完全可以了解到孩子在学习过程中存在的各种问题,在人工智能的帮助下,可以根据不同的问题,每个学生提供个性化的反馈,实现对学生个性化的支持,做到既具有规模化,又做到个性化,这是我们中国教育现代化2035所追求的目标。

中国教育现代化2035提出,我们要推进兼容个性化和规模化并重的教育。这个时候人工智能可以大幅度提高老师对学生个性化支持的一种能力,降低教师工作过程中的负担。

第五,人工智能还可以在我们的教育决策、教育管理,以及教育公共服务方面,起到非常重要的作用。比如,人工智能可以使得我们的教育公共服务,从面向群体到面向个体,比如政府,要提供教育公共服务,以前只能面对群体来提供,现在有了人工智能以后可以了解学生个性化的需求,通过网络提供个性化的教育公共服务,相比北京市,北京市有一个中学教师开放性辅导计划,这个计划就是我们在支持,在运行。

它的核心工作就是动员了10788个骨干教师常态性的在网上给学生提供一对一的答疑服务,以及直播课的服务,以及问题解答的服务,以及微课共享的服务。在这个过程中,每个学生在学校里面都有个性化的需要,这种个性化的需要以前是政府不解决的,而现在有了大数据,有了人工智能,有了互联网以后,可以使得政府可以购买教师的在线服务,给学生提供个性化内容的服务,使得我们教育公共服务更个性化。

第二,我们有了学习过程中的各种数据,以及我们办学过程之中的数据,可以使得我们的决策不再只是基于我们个体经验,而是有个体的经验加上科学的数据结合,人机结合的决策,可以使得我们的管理,我们现代教育的治理更加科学、更加精准,也更加符合我们现在民众利益主体,参与度越来越高的诉求,可以大幅度提升政府的现代教育治理的功能。

第三,还可以促进教育对各种环境的集成管控,可以实现把一些隐患的问题,在事情还没有发生之前就可以事先进行预测、进行管控。比如,刚才举的例子,校园外的一些不法分子,完全可以通过数据甄别出来,可以在一些事情上没有被发生之前就可以预测。再比如说校园的各种公共设施,如果出现了小的漏洞,小的漏洞完全可以及时通过人工智能技术集成联通以后,集成远程控制,及时发现。不是等小事情酿成大事情再进行补救,从事后补救变成事前监管,事前预警。实际上人工智能在这五个方面都可以发挥很多很多的作用。

主持人刚刚余教授听您在人工智能教育领域方面的应用非常广泛。但是可能很多人跟我有一样担心,人工智能现在在教学领域能发挥这么大的作用,未来会不会真的把老师取代了?和教师之间会存在一种什么样的关系?是合作还是相辅相承?

余胜泉

教师永远不会被取代。因为我们教师是促进人的成长,有两个职能,一个是教书的职能,一个是育人的职能。今后如果只是知识性的讲授,知识性的传授的工作,会越来越多的被人工智能所提高效率,但是完全取代是不可能的。因为人需要人和人之间的沟通,面对面的沟通,这种情感的沟通,和我们面对屏幕的沟通还是有差异的。

人永远不会取代。但是我们很多的讲课的效率,会大幅度提升。另外,教师除了教书以外还有育人,还有解决学生成长过程中的各种问题,这种问题的解决,需要人工智能来增强。教师在教育教学中非常重要的。我觉得教师和人工智能的关系,是一个相互赋能、相互增强的关系。

相互赋能是什么意思?教师的智慧会越来越多的转化为规则性的东西,使得人工智能具有教师的能力,把老师的个体智慧或者集体智慧转化为人工智能的能力,把人工变成了智能。

另外,人工智能也会赋能教师,教师利用人工智能可以提高,可以使得我们教师提高工作效率,而且能够做到以前做不到的事情,是一个相互赋能、相互增强的关系。人工智能首先是教学效率提高,比如说以前讲测考练,原来需要10个小时完成的事情,可能一两个小时就完成了,针对学生个性化辅导,作业批改。

现在老师一个人带三个班,每天都要改一百多份作业,这一百多份要认真改的话,要两三个小时,工作量非常大。如果今后人工智能发展了,完全可以让人工智能实现批改,实现批改以后可以给出你各种分析报告,每个孩子出现问题是什么地方,给他什么样的改进措施,都给你自动生成。你拿这个报告,可能比老师自己改效率还高,比你自己改还更好地了解孩子。通过这种方式给提高老师的工作效率,把原来需要花很多时间和精力的事情取代掉了。老师有更多的时间,更多的精力关注孩子的成长。心理、身心健康。

另外一方面,人工智能可以增强教师,就是可以使得我们老师做到以前做不到的事情。比如,举一个非常简单的例子,我们有个团队在做一个研究项目叫“AI好老师”,我们孩子在成长过程中,经常遇到各种各样的问题,比如说小的问题,打架、不守纪律、网络成瘾、过分崇拜明星、早恋等等这些问题,这些问题背后都是有教育学、社会学、心理学、生理学的一系列的原因,但是这些原因是很深的,一般的老师很难说把各种知识都很了解,我们很多老师、很多家长面对孩子出现这些问题的时候,总是简单地打骂或者简单的斥责,这样对孩子于事无补。

这个时候,像我们就做了一个项目叫AI好老师,我们建立了0-18岁儿童成长过程中常见的典型的问题知识库,以及每个问题背后的教育学、心理学、社会学、生理学这方面的原因,以及一些如何干预,对这些问题如何进行干预的优秀教师的案例,我们收集了优秀教师处理这些问题的案例,这样就会形成智能的系统。

只要和那个系统说,我的孩子早恋了,他会问你几个表现,如果你确认之后,他说这可能是早恋,他分析早恋的原因是什么,社会学、心理学的原因是什么,再给出某一个很好的老师处理过这个事情他是怎么和孩子沟通的,他可以把符合教育教学规律的案例,让老师学习。这样可以提高我们老师的育人的能力,提高家长和孩子相处的和谐程度,促进学生身心健康的发展。

再比如体质健康,现在儿童成长过程中的身体体质这些方面的发展越来越重要。除了知识以外,身心健康其实更重要,我们完全可以通过一些智能手环、智能肺活量的工具、智能跳绳工具,以及运动器材,会通过5G加上传感器以后,可以自动采集学生运动过程中的各种数据,把这些数据通过5G传送到云平台以后,就可以限定学生的心率、血氧、运动脉搏各种各样运动参数的常模数据库,有了这个数据库以后,可以对学生的运动知识、运动技能、营养情况、身体发育等这些方面的情况进行进一步的分析,分析可以发现学生在体质健康上存在哪些问题,或者哪一种体质类型,可以给出有针对性的运动处方的方案,也可以发现学生在运动中有哪些优势,从而增强他的优势。

我举这些例子就是想说明,我们很多教育中理想中希望老师能做到的事情,但是由于传统的时间精力以及能力的问题,我们做不到,现在人工智能可以增强我们教师,使得我们教师能够做到这些事情。人工智能和教师是相互赋能、相互增强的关系。

但是,虽然人工智能不会取代老师,但是会使用人工智能的教师会取代不使用人工智能的教师,我们教师还要主动适应互联网、大数据、人工智能时代新的技术的变化、新的技术的变革,不断进一步的学习,善于使用,关注最新的进展,希望老师能够努力把这些东西融入到他的日常教学中,从而提高自己的教学效率。

主持人

刚刚您说了很多人工智能和教师之间的互相赋能、互相增强的关系,随着人工智能的普及或者应用,对教师的压力是不是挺大的?教师之前可能只要备好课、教好学生,关心学生成长,现在要学习更多的人工智能方面的知识。人工智能在人才培养方面,我们是不是现在也是一个非常重要的环节?

余胜泉

人工智能的知识学习有一个渐进的过程,人工智能核心就是智力的自动化,像机械是我们体力的延长一样,人工智能是我们脑力的延长,可以使得我们人能够处理以前无法处理的复杂事情,实际上是提高我们老师的效率,适当的学习这些知识。像我们生活中,比如天天拿着手机录语音,那个复杂吗?不复杂。但是,背后的技术是很复杂的。

但是对于应用来说并不复杂。我们老师对人工智能的学习不要太担心。但是,你刚才提了一个很重要的问题,人工智能人才的培养。确实,人工智能人才的培养是我们国家和整个社会迈向智能时代的一个非常关键的地方。

我觉得,一是面向大众来说,我们要培养了解人工智能,未来会对我们的社会产生哪些影响,了解人工智能在现实生活中有哪些应用,这样理解这个社会的变化,主动拥抱这些变化,这是对非专业的人士。对一些专业人才,我觉得可能我们国家,一个是要加强人工智能的职业教育,在职业教育大力普及人工智能的一些技术,人工智能工程方面的工作。

比如要向使得人工智能的发展,今后数据处理是很重要的能力,数据收集、数据标记、数据关联、数据工程。第二,今后机器学习、机器训练,了解典型的各种机器学习的原理,以及它的训练的技巧、训练的方法。

另外,了解人工智能和各行各业,对各行各业特定的领域知识库的应用,以及应用系统的配置管理,我们要在职业教育里面大力加强人工智能专业的发展,让他能够很好地支持、管理以及推进人工智能在各行各业的应用,使他有序化。

另外,人工智能还要加强研究性人才的培养,大学里面研究性人才的培养。因为人工智能不是一天练成的,是一个信息科技在一个时间段内持续性发展的一个过程,智能爆发。智能爆发的背后是有成千上万研究者的智慧转化为我们生活中可以实际应用的系统,这个时候我觉得,在人工智能领域里面,高校的职责,一个是把我们信息科技,计算机相关专业办好,这是人工智能的基础。

另外,希望有一些有实力的高校多办人工智能的专业,尤其是研究性高校,这是推进技术往前进步的核心动力,需要有精英参与。另外,这个过程中,我们特别要避免计算机教学,或者人工智能教学、人工智能研究,以唯论文为核心,论文很重要,光有论文解决不了问题,一定要以解决实际问题,形成开源的系统。

像国外,计算机科学,很多大学做的那些开源的系统,对这个行业的发展,对这个研究的发展起着非常大的推动作用,但是在我们国家,这种有影响的,寥寥无几,而且不受认可,做一个几百万人用的开源系统可能还不如人家写一篇SCI论文,这是不健康的,因为这些东西最后使得我们纯理论化,对于整个行业、整个产业发展是不利的。

所以我们特别希望在计算机科学的教育,以人工智能的教育,要强调多结合实践,当然不是不发表文章,文章还是要,需要解决重大实际过程中去发文章,而不是为发文章而发文章,要解决重大实践问题,做出能够得到广泛使用,能够推动这个行业往前迈一步的应用系统,这样的话,才使得我们的研究和产业发展能够一步一步往前走。

我现在看到我们在北京市的一些中小学,他们已经开设人工智能课程了。现在在中小学开设人工智能课程,会不会太早了?

我也看到了,现在有很多学校开一些人工智能的课。还有一些企业专门编了中小学的人工智能课程。当然我觉得,在中小学,适当普及人工智能的常识是对的,但是有一些过于急功近利不值得倡导。我看过一套人工智能的教材,从三年级就开始开人工智能,很多词汇术语可能都不清楚,现在给他讲很复杂的知识,这是不合适的。因为这些知识,这个时候去学,同样一个东西理解,可能两三个星期才能明白这个词说什么意思,但是等到成年以后,可能只花两三个小时就能明白这个事情。

所以我不鼓励太多复杂的知识进入到中小学,但是适当的让小孩子理解人工智能对现实社会的变化的影响,了解人脸识别,可以做什么,了解各行各业里面应用的现象,就像我们了解汽车、飞机可以飞的道理。比如同样一个力,我们小学生也要学力的概念,但是只要知道力是相互作用的就可以了,但是到了大学就要了解力和力之间复杂的关系,甚至还要了解宏观的力和微观的力是完全不同的性质。

同样是讲人工智能,你对低年级的时候应该以浅显、形象了解为主,到了那些知识复杂算法还是应该到大学,到研究生阶段再去教比较合适。适当地让学生有一些体验性的活动,以结合信息技术课,寓教于乐,结合信息技术课,尤其是在小学,我不赞成系统开人工智能的课,但是可以让学生有感性的认识、感性的体验性的可以的。

但是概念体系和编程能力,并不见得要那么系统化。但是适当到了初中和高中的时候,结合信息技术课,因为本身信息技术课是有的,结合信息技术课适当渗透人工智能的知识,这是可以的,这是合适的。否则容易超前教学。现在什么东西都要往中小学渗透,中小学的负担太重了。

实际人的心智是有个发展的过程,当心智发展不全的时候,学一个东西花很长时间,抽象思维水平到了一定程度以后,花几个小时就学会了。要提高他到了成年以后的学习能力,小的时候要适当地给他留白,留空。让他不受过重的学习负担的压力。因为过分的学习负担的压力会造成学生学习的厌倦、倦怠,以及泯灭他的好奇心、求知欲,一旦一个孩子成长过程中,没有了好奇心、没有了求知欲,养成了功利性读书的习惯,对于他一辈子的成长都会起着巨大的障碍作用。

真正的杰出的人才都是具有很强的自学能力,很强的自律意识,很强的好奇心、求知欲在这里驱动,是内在驱动的,而不是外在驱动的。外在驱动,环境变化,有外在的驱动力弱了以后,基本就停滞不前,现在过分的学习负担过重,会对小孩子的好奇心、求知欲会起到压制作用,长期来说不好。

主持人

感谢余教授提出的中肯的意见。我们知道余教授所在的北师大未来教育高精尖创新中心是2015年成立的,到现在四年时间了,你们肯定也在致力于人工智能在教育方面的落地和研究,您觉得,通过这四年的努力和研究,有没有发现我们国家人工智能现在在我们教育领域当中会不会存在着一些问题或者挑战?

余胜泉

目前人工智能在实际应用过程中,还存在一些问题,我觉得代表性的可能体现在,一个是目前产业界对人工智能应用的场景过多的关注讲测考练,知识性的教学太多,都在用人工智能提高知识教学的效率,比如都在适应性学习,做题库,经典推荐,当然有一定作用,但是这个是对原来我们教学优势的一种强化,有时候强化的极致以后反而成了一些问题。

用人工智能进行应试教育方面做得比较多。我们其实特别希望人工智能不光是要做应试教育这方面内容,更多的需要人工智能在学生身心健康发展方面,学生体质健康发展方面,降低学生负担方面,帮助我们教育做科学决策方面,发挥更大的作用。应用场景一定要多元化、多样化。

比如我看到过一个美国的公司做的产品,给盲人做了一个智能手环,拿手在书上划,就能把书上的文字变成语音,让盲人也能听到,这种应用非常有价值,我们国家都是在搞知识性教育,原来学生做五道题,再给你做五道题,纯讲测考练的,这样就有点违背我们的教育教学的规律。这是第一个问题。

第二个问题,我觉得,目前人工智能还存在数据的问题。就是人工智能真正要发挥作用,需要有各种各样的学习数据,而且这个数据要贯通形成,有更多的数据才有更多的智能。形象地说,人工智能像汽车,数据就像汽油,没有数据,汽车就跑不起来。这种数据目前还存在着,一个是数据的孤岛,数据隔离的现象,每个系统都有各自的数据,数据没有融会贯通。

第二,数据使用的规范也存在问题。学习过程中的数据,涉及到孩子的隐私,目前隐私伦理在教育数据利用方面还缺乏清晰的规范,我觉得应该有这种清晰的教育数据利用的伦理和规范,尊重儿童身心健康以及个人隐私的前提下,合理利用数据。当然也不是说完全不用,完全不用会扼杀这个产业。一是数据贯通,一个是要遵循数据的伦理和规范。

第三个问题,人工智能还存在着技术上本身还有很大的发展。目前真正大规模使用的,像英语口语考试、英语的学习,以及英语作文的批改,这些方面做得相对成熟一些,智能教学,仪器教学装备有了一些。但是很多我们理想上问题的解决,还有待人工智能技术的进一步的成熟。这种成熟关键在于,一是要把人工智能产业界的技术人员和我们教育体系里面的人员结合在一起,形成交叉融合。

如果纯技术驱动,不懂教育规律,有时候就用技术强化我们教育中的很多违背规律的做法。实际上要在正确的教育思想、教育理念、教育规律下发挥技术所应该发挥的作用,一定要在遵循教育规律下不断地推进我们的技术成熟。这对于人工智能的发展也会起到非常重要的作用。

另外,人工智能还要避免两个极端思想。一种极端思想就是认为人工智能能做一切,什么问题都能解决。唯人工智能论。今后人工智能会取代老师,人工智能会取代学校,这都是比较简单的过分乐观的,像我们接触过原来一些企业界的,未来互联网会消灭学校,走了20多年,学校还很好,不可能的。

人工智能不会取代学校,也不会取代老师,不要过于乐观。另外,也要防止那些过于悲观。有些认为人工智能一点用没有,花架子之类的,也要防止这种过于的悲观。这两个之间要有些平衡,要防止这两个极端的事情。

另外,人工智能在用于一些关键性业务的时候,高利害业务的时候,可能还需要各种保障机制,像前段时间,印度就出了一个事情,印度的高考,由于它的高考阅卷系统出现故障,造成很多孩子都不及格,印度那段时间自杀了十几个,自杀了好多孩子,因为印度的高考是高利害的,和我们二三十年前一考定终身差不多,这也给我们启示。高利害的这些应用一定要慎重。比如说我让人工智能来阅卷,这个阅卷是高利害的,决定一个人的很大利益的。

这个时候我建议应该采用多种原理的技术,因为人工智能同样实现这个东西,可能有不同原理,不同原理的技术,比如我找三个产品来同样做这件事情。如果这三个产品都能够有一致性,这就比较稳定。如果有差异,这个产品好,那个产品差,有分歧的时候,这时候人工介入。这是比较科学的。在高利害的应用领域里面,还需要人机结合的思维方式。这种方式非常重要。

主持人

谢谢。今天非常感谢余教授和大家一起分享人工智能在我们教育领域目前的应用。包括我们未来还需要解决哪些问题,受益匪浅。非常感谢您。感谢大家收看我们今天的节目,下期见。

|来源:人民网

|美编:甄宏莉返回搜狐,查看更多

浅谈人工智能时代下的工程伦理问题

浅谈人工智能时代下的工程伦理问题一、引言

近年来,随着大数据基础设施建设以及人工智能技术的发展,社会中涌现出许多新技术,给人们带来更便捷的生活。但与其共生的道德风险问题也日益显著。人工智能道德风险即人工智能技术带来的伦理结果的不确定性,其既有主观因素也有客观因素,具体表现有道德算法风险、道德决策风险、隐私数据泄露风险等。风险主要成因有技术主体、政治、经济、文化等社会因素。结合当下大数据驱动的人工智能算法特点,如何运用风险治理思想分析其背后的工程伦理问题对人工智能领域发展具有重要意义。

二、人工智能时代的当下

在1956年达特茅会议中AI这个概念被提出,经历数次低谷与发展浪潮,人工智能再次活跃在大众的视野中,并且以更完备的生态以及更强的活力积极改变我们的生活。在如今的人工智能浪潮中,深度学习因为其能够胜任更复杂、更庞大的场景而成为主流。

在AI的应用层面,随着大数据基础设施建设的日趋完备,人工智能孕育出许多产业,如:数据挖掘、人脸识别、语音识别、自动驾驶等。同时医疗卫生、交通运输、仓储物流、游戏等行业都已经或正在接受人工智能的优化。

2019年11月11日24时整,“双11”全天的物流订单量达到创纪录的12.92亿元,物流订单量迎来了“爆炸式”的增长。“双11”全天各邮政、快递企业共处理5.35亿快件,是二季度以来日常处理量的3倍,同比增长28.6%,再创历史新高。而在其背后做支撑的是一套完整的基于大数据的人工智能系统。

目前,百度、阿里、腾讯、谷歌等主流互联网公司正在大力投资人工智能相关产业与技术,而与此同时全球正有上千家公司全力押注人工智能,并且这个趋势依旧保持稳定增长的速度。

三、人工智能伦理问题日益凸显

显然,在当下这个人工智能技术飞速发展的时代,人工智能技术的广泛应用为人类带来了显而易见的好处。但技术的进步不但扩大了人类对于技术的恐慌,同时也放大了由于某些技术缺陷和忽略道德伦理问题而带来的负面影响。

3.1忽略伦理问题下产生的算法歧视问题

外卖作为当下快节奏生活的必需品,在其背后做支撑的是数以百万的外卖员和强大的人工智能系统。2020年9月8日,一篇名为《外卖骑手,困在系统里》的文章在互联网上被热议,文章指出:2016至2019年间,美团多次向配送站站长发送加速通知,3公里的送餐距离最长时限一再被缩短至38分钟;而根据相关数据显示,2019年中国全行业外卖订单单均配送时间较3年前减少了10分钟。外卖骑手在系统算法与数据的驱动下疲于奔命,逐渐变成高危职业——骑手为在算法规定的最长送餐时限内完成送餐任务无视交通规则,不断提高车速。

许多伦理问题都是由于实践主体缺乏必要的伦理意识造成的,而外卖平台算法使得外卖骑手被“困在系统里”显然是工程的决策者以及管理者没有考虑相关的伦理问题所导致的。外卖平台作为一项服务消费者、向社会提供就业岗位的工程,其目的与其他类型的工程类似,均为满足人类在某方面的需求,但工程在向社会提供服务的同时不应当忽略工程风险问题。

3.2从风险与安全角度分析外卖平台

工程风险的防范与安全分为工程的质量监理与安全、意外风险控制与安全和事故应急处置与安全三个方面,分析外卖平台的工程风险主要从意外风险控制和事故应急处置两方面展开。

3.2.1意外风险控制维度的工程风险

外卖平台作为服务大众的工程项目,其受众人数巨大——外卖市场规模超6500亿元,覆盖4.6亿消费者,工程一旦出现意外风险控制不当的情况则对其受众造成无法估量的损失。在基于大数据的人工智能算法的训练过程中,算法训练结果会随着数据重心的整体偏移,从而导致外卖骑手不得不加快派送的速度进而风险增加。因此,为避免人工智能系统追求极致地无限制缩短派送最长时限,工程师和程序设计者在程序设计之初应当添加阈值以保证外卖平台背后的外卖骑手能够在遵守交通规则的前提下及时、安全地完成任务。

3.2.2事故应急处置维度的工程风险

事故应急处理体现着工程负责人、相关利益反对工程的理解程度。应对工程事故,应当事先准备一套完整的事故应急预案,保证迅速、有序地开展应急与救援行动,降低人员伤亡和经济损失。外卖骑手因忽视交通规则造成伤亡的事件并非最近才发生——2017年上半年,上海市公安局交警总队数据显示,在上海,平均每2.5天就有1名外卖骑手伤亡。同年,深圳3个月内外卖骑手伤亡12人。2018年,成都交警7个月间查处骑手违法近万次,事故196件,伤亡155人次,平均每天就有1个骑手因违法伤亡。2018年9月,广州交警查处外卖骑手交通违法近2000宗,美团占一半,饿了么排第二。而外卖平台除口头告诫骑手之外并没有推出从根本处解决问题的措施,直到《人物》发表《外卖骑手,困在系统里》一文后外卖平台才相继推出多等5分钟的政策。

3.3从工程四要素角度分析外卖平台

工程包括技术要素、利益要素、责任要素、环境要素以及伦理要素,接下来将从工程四要素中的技术、利益与责任这三个方面来展开。

3.3.1技术维度的道德风险

基于算法和大数据的人工智能技术背后隐藏着风险。算法体现着工程师和程序设计者的思想,其政治立场和社会偏见都会不可避免的嵌入程序中。从大数据中诞生的人工智能系统通常会存在基于数据采样偏差带来的问题,而这类问题在后续的训练中不会被消除甚至可能被放大。因此,为消除算法与数据采用带来的偏见,工程师以及程序设计者在程序设计之初就应当消除主观偏见;同时在数据的处理方法中,应当极尽全力保证数据的准确,降低数据偏差带来的风险。

3.3.2利益维度的道德问题

人工智能存在威胁、侵犯人类利益的风险。从安全角度来说,人工智能应当对人类来说是安全的、可靠的、不作恶的。以外卖平台派单系统为例,外卖骑手在系统的算法歧视下被迫忽视交通规则,对骑手、对行人已经构成严重的安全隐患。因此,如何通过人工智能系统,在权衡各方利益、兼顾效率、保证安全的前提下实现利益最大化是人工智能系统需要解决的核心问题。

3.3.3责任维度的道德风险

人工智能在价值选择困境与责任承担困境中存在风险。外卖平台派单系统在消费者对于外卖的时间要求与外卖骑手在派送过程中的风险问题之间面临抉择,系统应当尽量满足消费者的需求而忽视外卖骑手的安全,还是应当在尽量保护骑手的安全的前提下提高派送效率?在人工智能系统作为自主行为主体的情况下,系统会逐渐压缩骑手的安全空间。而在发生事故之后的责任鉴定中,系统并没有能力为自己的决策承担其相应的责任。

四、总结

为避免人工智能出现无节制的追求极致从而导致技术、利益、责任等方面的道德风险,实现人类社会可持续发展的目标,人工智能的设计应当秉承着将人类健康、安全和福祉放在首位的原则。由外卖平台人工智能系统这一例所引发出来的思考,进一步提出以下建议:

1、工程设计之初应当强化工程负责人、管理者、工程师以及程序设计者的伦理意识。由于算法、工程体现着设计人员的思想,而相关人员对伦理方面的意识缺失必将导致缺乏伦理思想的工程存在缺陷。

2、强化工程相关人员的风险与安全意识。风险与安全始终是工程无法逃避的问题,针对风险可接受性进行完备分析与评估,并对一系列不可控意外风险制定相关预警机制与应急机制是控制风险、规避风险、妥当处理事故的唯一途径。

3、强化人类主导和监督能力。人类主导以及人为监督有助于人工智能系统不会走向极端,从而出现逻辑上无比正确却存在人类伦理问题的缺陷。

4、明确人工智能系统的责任归属。程序设计之初应当对程序设计者针对不同模块的设计明确责任归属,当下人工智能的发展远远没有达到成熟阶段,相应的人工智能系统也没有能力对其发展的不良后果负责,这个责任很自然的需要其背后的软件工程师、程序设计者、工程负责人以及管理者共同承担;人工智能系统在设计阶段明确责任归属有利于工程事故发生之后的责任归属划分;有利于在程序设计阶段强化工程师们的工程伦理意识。

从技术发展的角度来看,人工智能系统因其发展历史较短、技术成熟度低等原因远未达到可以完全信赖的地步。人工智能系统在设计中应考虑预防性安全措施来防范风险,减少不可接受的伤害。

如何让人工智能摆脱算法偏见

如何让人工智能摆脱算法偏见2018-11-1616:01Thundersoft中科创达关键词:人工智能AI聊天机器人

导读:所谓“算法偏见”是指在看似没有恶意的程序设计中带着设计者的偏见,或者所采用的数据是带有偏见的。

人们都曾看过电影里机器控制了世界而人类被毁灭的场景。好在这些电影只是娱乐性的,现实世界是不会发生的。然而一个更应该关注的问题是:算法偏见。

1、什么是“算法偏见”

所谓“算法偏见”是指在看似没有恶意的程序设计中带着设计者的偏见,或者所采用的数据是带有偏见的。结果当然是带来了各种问题,例如,被曲解的谷歌搜索,合格的考生无法进入医学院就学,聊天机器人在推特上散布种族主义和性别歧视信息等。

算法偏见造成的最棘手的问题是,从事编程的工程师即使主观上没有种族主义、性别、年龄歧视等倾向,也有可能造成偏见。

人工智能(AI,ArtificialIntelligence)本质上就是为了自学而设计的,有时它的确会出错。当然,人们可以在事后做出调整,但最好的解决办法是一开始就防止它发生。

具有讽刺意味的是人工智能最令人兴奋的可能性之一就是能够搭建一个没有人类偏见的世界。比如当涉及到招聘时,一种算法可以让男性和女性在申请同一份工作时获得平等的待遇,或者在警务工作中避免种族偏见的发生。

不管人们是否意识到,人类创造的机器确实反映了人们怎样是看待世界的,因此也会有类似的刻板印象和世界观。由于人工智能越来越深入到生活中,人类必须重视它。

2、算法偏见的分类

人工智能面临的另外一个挑战是,偏见不是以一种形式出现的,而是有各种类型的。这包括交互偏见、潜意识偏见、选择偏见、数据驱动的偏见和确认偏见。

“交互偏见”是指用户由于自己与算法的交互方式而使算法产生的偏见。当机器被设置向周围环境学习时,它们不能决定要保留或者丢弃哪些数据,什么是对的,什么是错的。

相反,它们只能使用提供给它们的数据——不论是好的、坏的,还是丑的,并在此基础上做出决策。前面提到的聊天机器人Tay便是这类偏见的一个例子。它是受到一个网络聊天社区的影响而变得偏种族主义了。

“潜意识偏见”是指算法错误地把观念与种族和性别等因素联系起来。例如,当搜索一名医生的图像时,人工智能会把男性医生的图像呈现给一名女性,或者在搜索护士时反过来操作。

“选择偏见”是指用于训练算法的数据被倾向性地用于表示一个群体或者分组,从而使该算法对这些群体有利,而代价是牺牲其他群体。以招聘为例,如果人工智能被训练成只识别男性的简历,那么女性求职者在申请过程中就很难成功。

“数据驱动的偏见”是指用来训练算法的原始数据已经存在偏见了。机器就像孩子一样:他们不会质疑所给出的数据,而只是寻找其中的模式。如果数据在一开始就被曲解,那么其输出的结果也将反映出这一点。

最后一类是“确认偏见”,这类似于数据驱动的偏见,偏向于那些先入为主的信息。它影响人们怎样收集信息,以及人们怎样解读信息。例如,如果自己觉得8月份出生的人比其他时候出生的更富有创造性,那就会偏向于寻找强化这种想法的数据。

3、算法偏见并不可怕

当我们了解到这么多偏见的例子渗入到人工智能系统时,似乎会引起我们的担忧。但重要的是要认清事实,记住这个世界本身就是有偏见的,因此,在某些情况下,人们对从人工智能中得到的结果并不奇怪。

然而,并不应该如此,人们需要一个对人工智能算法和系统进行测试和验证的过程,以便在开发期间和部署之前及早发现偏见。

与人类不同,算法不能撒谎,因此,如果结果是有偏见的,那一定有原因:和它得到的数据有关。

人类可以撒谎去解释不雇佣某人的原因,但人工智能不能。而采用算法,就有可能知道什么时候会出现偏见,并对其进行调整,以便将来能克服这些问题。

人工智能会学习,也会犯错。通常情况下,只有在实际环境中使用算法后才能发现任何内在的偏见,因为这些偏见在实践中被放大了。

不应把算法看成是一种威胁,而是解决任何偏见问题的好机会,并能在必要的时候加以纠正。

可以通过开发系统来发现有偏见的决策,并及时采取措施。与人类相比,人工智能特别适合采用贝叶斯(Bayesian)方法来确定某种假设的概率,从而消除所有人类偏见的可能性。这比较复杂,但是可行的,特别是考虑到人工智能的重要性(在以后几年里只会越来越重要)。

随着人工智能系统的建立和部署,非常重要的一点是必须理解它们是怎样工作的,只有这样才能通过设计让它们具有意识,避免将来出现偏见问题。

不要忘记,尽管人工智能发展非常迅速,但仍处于起步阶段,还有很多值得学习和改进的地方。这种调整会持续一段时间,在此期间,人工智能会变得更聪明,将有越来越多的方法来克服偏见等问题。

技术行业总是在质疑机器是怎样工作的,为什么这样工作。虽然大部分人工智能是在黑盒中运作的,决策过程是隐藏的,但人工智能的透明度是建立信任和避免误解的关键。

4、消除偏见的策略

目前有很多研究都在进行帮助鉴别偏见的产生,例如FraunhoferHeinrichHertz研究所开展的工作。他们正在研究识别不同类型的偏见,例如前面提到的偏见,还有一些更“低级”的偏见,以及人工智能训练和发展过程中可能出现的问题。

另外还需要考虑的是无监督训练。目前大多数人工智能模型是通过有监督训练生成的,采集的是明显带有人类选择的标签数据。

而对于无监督训练,使用不具任何标签的数据,算法必须要通过自己对数据进行分类、识别和汇集。

虽然这种方法通常比有监督学习慢很多数量级,但这种方法限制了人的参与。

因此,能够消除任何有意识或者无意识的人为偏见,从而避免对数据产生影响。

在底层也有很多事情可以改进。在开发新产品、网站或者功能时,技术公司需要各方面的人员。

多样性会给算法提供各种各样的数据,而这些数据也是有偏见的。如果能有一些人去分析输出结果,那么发现偏见的可能性会更高。

此外,还可以发挥算法审计的作用。2016年,卡耐基梅隆研究小组在网络招聘广告中发现了算法偏见。

当他们列出了在网上寻找工作的人员后,谷歌广告显示,男性在高收入工作中所占比例是女性的近六倍。该小组的结论是,进行内部审计将有助于减少这类偏见。

总之,机器偏见来自人的偏见。人工智能的偏见有多种方式的表现,但实际上,它只有一个来源:人类自己。

处理这一问题的关键在于技术公司、工程师和开发人员,他们都应该采取有效的措施来防止无意中创建一种带有偏见的算法。通过进行算法审计并始终保持透明度,就有信心让人工智能算法远离偏见。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇