博舍

国内人工智能在教育教学的应用汇总 人工智能教育的问题有哪些呢

国内人工智能在教育教学的应用汇总

国内人工智能在教育教学的应用汇总

深度学习或是人脸识别技术在国内教育领域已有一些实践和应用,尤其是17、18年,可以看到线上教育机构以及一些基于教室监控的人工智能辅助系统逐渐成熟。本文对这些应用进行梳理,简析原理并探讨其优劣和是否真正有价值。

首先明确人工智能在教育领域的应用集中在情绪识别和专注度评价两点上。

文章目录国内人工智能在教育教学的应用汇总@[toc]海风教育AI系统好望角(线上)杭州中学“智慧课堂行为管理系统”(线下)汉王教育公司“CCS课堂呵护系统”(线下)[^3]海风教育AI系统好望角(线上)

具体情况:

国内线上教育机构已有多家推出辅助的人工智能系统来优化教育教学的效果,基本上都是和第三方机构合作并非自主研发的,且目前看来不少都还是纸上谈兵的状况,就算应用也非常简单粗暴,参考价值低。

2018年4月,海风推出“好望角”AI系统,宣布上线情绪识别功能,借助人脸识别技术,能够基于人脸表情来分析学生情绪,基于眼球焦点分析学生注意力情况,并将分析结果即时反馈给老师。据郑文丞介绍,海风教育将情绪识别和眼球识别技术应用到教学过程中,是国内K12在线教育领域首个落地AI应用成果。1

,

,

探讨:

好望角据说是国内首个落地的线上AI应用成果,据我了解,其他机构的AI系统确实都没有看到真正在客户端的落地应用,只能借助新闻了解一二。

好望角的这个系统做了两件事,情绪识别和眼球识别,都是人脸识别的范畴。其中情绪应该是分为以下8类:正面情绪“高兴”;负面情绪“厌恶、悲伤、疑惑、轻蔑、愤怒”;中性情绪“专注、惊讶”。

效果可以从图片中看出可以提醒教师学生的听课状态,调整教学节奏,做得还是不错的,整个在教育学应用的逻辑基本是合情合理自圆其说的。

线上平台的一大优势就是视频图像清晰,通常是一对一教学,不论是教师还是学生都是一人一个画面,人脸始终位于画面大幅面的区域,人脸识别的分析效果显然会比较准确。另外只要平台大,数据量总是足够的。

除了海风的好望角,推出人工智能系统辅助教学的线上平台还有:

掌门1对1与人工智能企业商谈科技战略合作(2018年)

借助摄像头系统捕捉学生上课时的喜怒哀乐,结合面部表情识别系统,生成属于每个学生的学习情绪报告,辅助老师随时掌握课程动态、提醒老师及时调整上课节奏和气氛等。项目未见落地。

好未来(学而思)与FaceThink合作AILab

除高兴、生气、惊讶、害怕、厌恶等常见的情绪指标外,FaceThink(德麟科技2016年初成立)针对教育场景下最重要的“专注度”进行了建模,力图让机器识别的结果逼近有丰富经验的教师。根据测试,FaceThink在一对一和双师课堂两个场景下的识别率分别为94%和91%,随着数据量的增加,识别率还有继续进步的空间。

典型的情绪识别和专注度评价两个系统,AILab介绍链接见此,项目未见落地。

VIPKID深度融合人脸技术(2017年)

在教学过程中VIPKID通过人脸识别、情绪识别等技术抓取用户上课数据(如孩子在学习过程中的瞳孔和表情变化等),对师生的表情进行分析,计算分析用户的视线关注情况。

这个也是落地了的,看上去比较成熟。

杭州中学“智慧课堂行为管理系统”(线下)

具体情况:

2018年5月,杭州第十一中学试行“智慧课堂行为管理系统”,通过教室内安装组合摄像头,捕捉学生在课堂上的表情和动作,经大数据分析计算出课堂上学生的专注度,从而促进教学改进。

,

,,

使用该系统,后台会预先录入课堂应到学生名单,现场摄像头通过对教室内学生“刷脸”匹配,从而完成考勤。此外,该系统会对学生阅读、书写、听讲、起立、举手和趴桌子6种行为,以及高兴、反感、难过、害怕、惊讶、愤怒和中性7种表情,以30秒一次进行扫描,从而实现时时统计。“我们会对学生的6种行为赋予不同的分值,通过这个系统,我们可以看到哪些同学在专注听课,哪些同学在开小差,再结合他们高兴、伤心、愤怒、反感等面部表情,可以分析出学生在课堂上的学习状态。

我们会设置一个最低赋分值,如果某学生课堂分低于该值则代表其不专注。在每节课第20分钟的时,系统会向设置在讲台上的显示屏推送提醒,内容只有老师可见。2

探讨:

这个系统明确做了两件事,行为识别和表情识别,其中表情识别和之前的好望角的分类略有区别,最大的差别在于这里没有“专注”这一分类,专注与否是结合了动作和表情进行判断的,我认为这种判断专注的方式更为科学合理,毕竟专注并不是一个表情就能决定的,当然,越专注越好吗?当然不是,这个他们都没有考虑,还要另说。

通过图片展示的应用结果,可以看到识别表情的结果是以次数来统计判断的,这个是否合理,还是只是一个令人反感的没有实际意义的冰冷数字,还待讨论。

关于隐私问题的解释:系统只会采集学生的表情、行为状态信息,而非课堂的实时录像。

还有一种质疑是说这个系统起到了监视作用,学生可能会应对这个系统而做出动作假装在阅读之类,干扰结果。

汉王教育公司“CCS课堂呵护系统”(线下)3

具体情况:

2018年1月开始,CCS课堂呵护系统(汉王教育公司开发)v3.0版本已经上线发布,并在浙江、江苏、河南、内蒙古等地教育部门确立战略合作意向。

探讨:

这个系统没有公布具体识别方法的细节,就从公布的图片来探讨了,图片的信息量还是很大的。

首先是一个人脸识别考勤,再者是一个“专注”和“非专注”的两分类问题,其次还有“回答问题”、“书写”、“瞌睡”的动作识别。

总体来说在辅助教学上用的是行为识别而非人脸识别,从结果来看,比较关键的是一个专注时长的判断,这个数据最多只能用作参考,用此来判断学生是否好好学习了还是不太靠谱,对教学辅助的意义较小。

好望角介绍:https://baijiahao.baidu.com/s?id=1598580283935115452&wfr=spider&for=pc↩︎

智慧课堂行为管理系统:http://www.sohu.com/a/232188256_198170↩︎

CCS课堂呵护系统:http://www.hanwangjiaoyu.com/classCare↩︎

“人工智能+教育”的应用场景有哪些

2、“自适应+STEAM教育”类

如“wonderworkshop”——通过软件将儿童的数据进行分析,并通过机器人硬件和独特的教学内容,帮助孩子趣味学习编程。

3、“自适应+语言教育”类

如“朗播网”——提供一套自适应英语学习系统,为用户测试英语各方面能力,并提供针对性的考试提分技巧和能力学习课程。

4、人性化地风险事件处理方案

如“NEWSELA”——将K12用户的英文阅读水平分级,通过科学算法来判断用户的阅读水平,向用户推送符合其阅读水平和兴趣的新闻来提供用户的阅读能力。

2.虚拟学习助手

虚拟学习助手是指为学习者提供陪练答疑、客服咨询、助教等服务,企业从中能够低成本为学习者提供标准化的服务,并且又能获得大量用户数据反馈。

1、虚拟助教

由于教育过程中,助教所需要做的业务就是为学生答疑、提醒等功能,这些工作多为简单重复的脑力工作,因此,AI可以逐渐替代助教业务。

2、虚拟陪练

课后练习反馈对于学习效果的提升非常重要,而数据化程度最高的环节也正是练习,因此这也是大部分人工智能+教育创业者的切入环节。不同类型的学习内容需要的技术方案各不相同,如理论性的学科的练习更加容易智能化,但是与实践相关的科目,如艺术、运动等往往需要搭配智能硬件来达到学习效果。

此类产品如“音乐笔记”就是音乐教育领域的陪练机器人,智能腕带和APP结合,利用可穿戴社会和视频传感器,对钢琴演奏的数据进行实时采集分析,并将练习效果反馈和评价呈现给用户。

3.专家系统

专家系统是指,在某个领域能够有效地运用数字化的经验和知识库,解决以往只有专家能够解决的复杂问题。专家系统结合了人工智能和大数据,具备自我学习和综合分析的能力,系统可以获取、更新知识,不再只是静态的规则和事实。

专家系统帮助学习者和机构诊断、预测、决策。这类企业通常可细分为:

1、“生涯规划+教育”类

如“申请方”——基于大数据和人工智能,为面临升学、留学、求职等情况的用户提供智能规划和申请服务的平台,帮助学生获取开放性的教育资源、实现高效率的血液发展、收获个性化的教育体验。

2、“智能批改+教育”类

如“批改网”——是一个计算机自动批改英语作文的在线系统,为学生和教室提供智能的批改服务。

4.商业智能化

教育机构组织运营包括多个核心环节(推广招生、教学、客户服务等)和支撑活动(基础设施、人力资源、采购、教研等)。人工智能可以在多个环节提升组织的整体效率。

教育商业智能应用场景非常丰富:在基础设施活动中,有智能选址、财务预测管理、校车管理规划等场景了;在人力资源活动中,有教室招聘、人才评估、人才培养三个应用场景;在采购活动中,软硬件采购和评估可以应用AI技术;在教学研发活动中,有教研体系、课程内容和备课工具都可以作为其应用场景;在推广招生环节中,有招生平台、投放策略等场景;在教学过程环节中,有课堂的辅助、LMS、作业批改、考试测评等场景;在客户服务环节中,有家校沟通、客户管理、班级管理等场景。

企业在商业智能化这通常有两个方向:

1、“运营支持”

如“Panorama”——K12教育的数据分析公司,从学生反馈、社会情感学习、学校生态和家长及社会参与度四个方面对学校进行评估,为每个学校制定个性化的调查方案,找出学校的问题所在并针对广泛性问题提供解决方案建议。

2、“学情管理”

如“狸米学习”就是为公立中小学提供个性化教学解决方案的。为学校提供完整的智能化教学配套方案,教室可用于作业管理和课时学情分析,家长通过此了解孩子学习状况,教学管理者可以用于学校的智能化教学分析。

未来教育创业的驱动力定是来自人工智能为核心的“科技创新”+”教研创新“,前面触及到的四个领域(即自适应学习领域、虚拟学习领域、专家系统领域以及教育商业智能领域)的各个赛道中都有巨大的创业机会。

Lighthouse返回搜狐,查看更多

人工智能的安全、伦理和隐私问题

人工智能的安全、伦理和隐私问题

一、人工智能的安全问题1.人工智能网络安全问题众所周知,很多行业在应用入工智能这项技术以及相关的知识的时候都是依附于计算机网络来进行的,而计算机网络这个行业是错综复杂的,很多计算机网络的安全问题也是目前我国面临的很严重的问题之一,相应的人工智能的网络安全问题也是还存在问题的,比如机器人在为人类服务的过程中,操作系统可能遭到黑客的控制,机器人的管理权限被黑客拿到,使机器人任由黑客摆布;亦或突然源代码遭受到攻击,人工智能的信息基本通过网络进行传输,在此过程中,信息有可能遇到黑客的篡改和控制,这就会导致机器人产生违背主人命令的行为,会有给主人造成安全问题的可能性。不仅如此,在人工智能的发展过程中,大量的人工智能训练师需要对现有的人类大数据进行分析和统计,如何防止信息的泄漏和保护个人信息的隐私也是人工智能领域需要关注的问题。

2.人工智能应用范围限定的问题对一些发展不成熟、会有引起安全问题的可能性的领域以及技术的应用范围给出一定的限定,这是保障人类与社会和谐发展的一种手段,也是不能或缺的一个步骤。目前,人工智能的发展也是如此的,这也是人工智能目前安全问题所面临的问题之一。目前各行各业都有人工智能的应用,比如无人驾驶、各类机器人等,很多行业都会看到人工智能的存在,小到购物APP中的客服机器人,大到国际比赛中机器人的应用,在许多危险的领域,如核电、爆破等危及人类生命安全的场景,发挥了至关重要的作用。这些领域的应用如果应用的成功那没什么问题,一旦出现问题就会产生很严重的安全性问题。对于人工智能应用的范围,目前并没有给出明确的界定,也没有明确的法律依据,这就需要相关组织和机构,尽快对人工智能的适用场景进行梳理,加快人工智能标准和法律的建设步伐,防止一些不法分子,利用法律漏洞将人工智能运用到非法的范围中,造成全人类不可估量的损失。

3.人工智能本身的安全标准人工智能的产生以及应用的本身目的并不是为了赶超人类或者达到人类的智力水平,它本身存在的价值是服务于人类,可以成为人类生活的更好的一种工具,人类需要对其有着一定的控制的能力。但是近几年来,很多人工智能的存在是为了与人类的智力水平以及人类为标准,忽略了部分人类伦理的问题,甚至涉及到部分人权问题,这就偏离了人工智能本身存在的目的,而这种的偏离会产生一定的安全问题,从而影响人工智能的发展。所以人们应对机器人的道德和行为判断力进行判定,确保其在人类的道德伦理范围中,避免人工智能产物做出危害人类安全的行为。人类必须对人工智能的行为进行严格的监管,也要大力发展人工智能自身的伦理监督机制,使其为人类所用。

二、人工智能的伦理问题1.人工智能算法的正义问题依托于深度学习、算法等技术,从个性化推荐到信用评估、雇佣评估、企业管理再到自动驾驶、犯罪评估、治安巡逻,越来越多的决策工作正在被人工智能所取代,越来越多的人类决策主要依托于人工智能的决策。由此产生的一个主要问题是公平正义如何保障?人工智能的正义问题可以解构为两个方面:第一,如何确保算法决策不会出现歧视、不公正等问题。这主要涉及算法模型和所使用的数据。第二,当个人被牵扯到此类决策中,如何向其提供申诉机制并向算法和人工智能问责,从而实现对个人的救济,这涉及透明性、可责性等问题。在人工智能的大背景下,算法歧视已经是一个不容忽视的问题,正是由于自动化决策系统日益被广泛应用在诸如教育、就业、信用、贷款、保险、广告、医疗、治安、刑事司法程序等诸多领域。从语音助手的种族歧视、性别歧视问题,到美国犯罪评估软件对黑人的歧视,人工智能系统决策的不公正性问题已经蔓延到了很多领域,而且由于其“黑箱”性质、不透明性等问题,难以对当事人进行有效救济。

2.人工智能的透明性和可解释性问题人工智能系统进入人类社会,必然需要遵守人类社会的法律、道德等规范和价值,做出合法、合道德的行为。或者说,被设计、被研发出来的人工智能系统需要成为道德机器。在实践层面,人工智能系统做出的行为需要和人类社会的各种规范和价值保持一致,即价值一致性或者说价值相符性。由于人工智能系统是研发人员的主观设计,这一问题最终归结到人工智能设计和研发中的伦理问题,即一方面需要以一种有效的技术上可行的方式将各种规范和价值代码化,植入人工智能系统,使系统在运行时能够做出合伦理的行为;另一方A面需要避免研发人员在人工智能系统研发过程中,将其主观的偏见、好恶、歧视等带入人工智能系统。算法歧视与算法本身的构建和其基于的数据样本数量及样本性质密不可分。算法歧视问题其实取决于底层数据的积累,数据积累越多算法计算就越准确,对某一人群的算法描述就越精准。同时,随着算法复杂性的增加和机器学习的普及导致算法黑箱问题越来越突出。美国计算机协会公共政策委员会在《算法透明性和可问责性声明》中提出七项基本原则,第一项基本原则即为解释,其含义是鼓励使用算法决策系统对算法过程和特定决策提供解释,并认为促进算法的可解释性和透明性在公共政策中尤为重要。未来人工智能系统将会更加紧密地融入社会生活的方方面面,如何避免诸如性别歧视、种族歧视、弱势群体歧视等问题,确保人工智能合伦理行为的实现,这需要在当前注重数学和技术等基本算法研究之外,更多地思考伦理算法的现实必要性和可行性。

三、人工智能的隐私问题1.个人隐私的过度收集互联网的发展以及人工智能技术的应用在很大程度上降低了大数据在分析应用方面的成本,摄像头已经遍布我们生活的大部分角落,走在街上我们的一行一动,都随时随地在电子监控的掌控之中;计算机被广泛利用来准确地记录人们的浏览记录:移动通信设备随时跟踪人们的通话记录,聊天记录等。在人工智能时代,在收集个人信息面前,人们面对无处可逃的命运。在人工智能的应用中,监控发生了根本性的变化,融合了各种类型的监控手段,监控的力度也变的越来越强大。以CCTV视频监控为例,它不再是单一的视频监控或图像记录和存储,其与智能识别和动态识别相结合,大量的视频监控信息构成了大数据,在此基础上通过其他技术的智能分析就能进行身份的识别,或是与个人的消费、信用等的情况进行关联,构成一个人完整的数字化的人格。人工智能应用中的数据米源于许多方面,既包括政府部门也有工商业企业所收集的个人数据资料,还包含着用户个人在智能应用软件中输入和提供的数据资料,比如在可穿戴设备中产生的大量个人数据资料,以及智能手机使用所产生的大量数据资料都可能成为人工智能应用中被监控的部分,它在不改变原有形态的前提下对个人的信息进行关联,将碎片化的数据进行整合,构成对用户自身完整的行为勾勒和心理描绘,用户很难在此情况下保护自己的个人隐私。视频监控还可能借助无线网络通信,使隐私遭遇同步直播成为现实,一些非法的同步录像行为,具有侵犯隐私利益的可能性。此类人工智能技术的广泛应用,让我们隐私无处安放,不仅超出了公众所能容忍的限度,也是对整个社会隐私保护发起的挑战。

2.个人隐私的非法泄露在人工智能不断发展,应用领域不断拓展,人工智能技术在各行各业中都发挥着越来越重要的作用,渗透在各大领域之中,带动着产业的发展,同时我们也必须承认该项技术的发展和应用无法避免的隐患。很多情况下,我们在不自知或不能自知的状态下向智能应用的运营商或者服务提供商提供我们的数据信息,每个人的数据都可能被标记,被犯罪分子窃取并转卖。以“Facebook”数据泄露为例,2018年3月17日,美国《纽约时报》曝光Facebook造成5000多万的用户隐私信息数据被名为“剑桥分析(CambridgeAnalytica)”的一家公司泄露,这些泄露的数据中包含用户的手机号码和姓名、身份信息、教育背景、征信情况等,被用来定向投放广告。“而在此次事件中,一方面是由于使用智能应用的普通用户对自身隐私数据缺乏危机意识和安全保护的措施,另一方面Facebook应用中规定只需要用户的单独授权就能收集到关联用户的相关信息,其将隐私设置为默认公开的选项给第三方抓取数据提供了可乘之机。同样Facebook之所以受到谴责的一个重要原因就是未能保护好用户的隐私数据,欠缺对第三方获取数据目的的必要性审查,对第三方有效使用数据缺乏必要的监控,使个人数据被利益方所滥用,欠缺网络安全事件的信息公开和紧急处理的经验,不仅会侵害网络用户个人的合法权利,也会对社会的发展进步产生消极的影响。Facebook在对数据使用和流转中,并未对个用户数据提起重视、履行责任。在向第三方提供数据共享的便利同时并没有充分考虑到用户隐私保护的重要性和必要性,以及没有采取必要的预防策略,极易对平台数据造成滥用的风险。不难看出,从分析用户的隐私数据来定向投放广告追求商业价值和经济利益,到一再发生的泄密事件使得用户隐私数据信息泄露变得更加“有利可图”。一方面,人工智能应用由于在技术上占有优势,在获得、利用、窃取用户的隐私数据时有技术和数据库的支撑,可以轻松实现自动化、大批量的信息传输,并在后台将这些数据信息进行相应的整合和分析;另一方面,后台窃取隐私数据时,我们普通的用户根本无法感知到,在签订隐私条款时很难对冗长的条文进行仔细的阅读,往往难以发现智能应用中隐藏着的深层动机。在此次数据泄露事件中,该平台本身并没有将用户的数据直接泄露出去,而是第三方机构滥用了这些数据,这种平台授权、第三方滥用数据的行为更加快了隐私泄露的进程。

3.个人隐私的非法交易在人工智能时代,个人信息交易已形成完整的产业链,在这个空间中,一个人的重要隐私信息几乎全部暴露在外,包括身份证号,家庭住址,车牌号,手机号码和住宿记录,所有这些的信息都成为待出售的对象。在人工智能技术广泛应用的同时,人们常用的智能手机、电脑以及社交媒体平台都在无时无刻的记录着我们的生活轨迹,各种垃圾广告和邮件可以实现精准的推送,推销电话、诈骗短信等成为经常光顾的对象,尽管我们没有购买理财产品,没有购房需求,没有保险服务等,也没有向这些公司提供过自己的隐私数据信息,但无法避免而且能经常接到理财公司、房地产商、保险公司等的推销电话。探究这些公司对用户偏好和兴趣精准了解的缘由,那便是人工智能应用中个人隐私的非法交易行为,我们保留在网站或企业中的个人信息,除了由该企业本身使用外,这些企业还经常与其他的个人和企业共同分享、非法交易,而忽略了公民的个人隐私安全。目前,人们的个人数据,如电话号码,银行卡信息,购车记录,收入状况,网站注册信息等,已成为私人非法交易的严重灾区,这些个人信息被不法分子通过非法交易获得并通过循环使用来获利。现阶段,这类专门进行个人信息买卖的公司在国内不计其数,大大小小的分布在各种隐蔽的角落,甚至有一些正规的大型企业也免不了买卖个人信息的行为。当今社会,公民的很多日常行为都不得不提供自己的私人信息,如应聘工作、参加考试、购买保险、购买车票、寻医看病等等。这些信息提供给企业商家后,他们就有义务对用户的信息进行保密,而目前对用户信息保密的相关法律规定还比较欠缺,因此往往寄希望于企业商家通过自律行为来保护用户的隐私。但是目前的现状是大多数企业的自身素质不高,单纯将对隐私保护寄希望于商家企业的自律是不现实的,这些数据往往会被企业商家非法买卖,甚至将这些非法买卖的个人信息用于诈骗、传销。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇