博舍

人工智能项目可能面临失败的六个原因 人工智能失败的原因有哪些方面的问题

人工智能项目可能面临失败的六个原因

人工智能对人类生活和市场的影响非同寻常。据世界经济统计,到2030年,人工智能可贡献约15.7万亿美元。如果我们计算这个前景,那就是几个公司的合并经济。

我们都曾多次目睹人工智能应该被每个人所采用。这是真的;没有人否认这一点——尽管没有人谈论人工智能领域失败的项目。

[[417727]]

当一些商业领袖考虑通过将人工智能执行到他们现有的技术堆栈中或将其用于下面令人鼓舞的项目时,他们不断地让自己失败,而不是实现他们计划的目的。另一项在2020年进行的研究显示,大约28%的人工智能项目无法进行。

专家们认为,企业人工智能失败的原因在于企业自身缺乏有效的人工智能策略。形成一个蓬勃发展的人工智能战略需要精心准备,建立明确的目标,成长一个强大的管理团队。

也就是说,如果我们部署人工智能系统,就意味着商业的数字化转型。在机器学习中,它可能会增加你的商业运作——但在人工智能中,它并不总是发生。

以下是可以预测人工智能项目失败的最常见错误和误判:

1.失败算法的改进

人工智能算法的发展可能会出现一些问题。这种类型的系统受到它的生产者的影响,因为它的创造需要它对人类进行同样的操作。这是经常发生的问题的重点。开发人员的工作可能会注意到人工智能。

失败背后的另一个原因是,开发人员可能需要通过排除一些数据删除过程和添加一本手册来分析程序。它会把数据弄乱,得出错误的结论。另一方面,对于所需的目的来说,该算法可能过于具有挑战性。

2.数据策略不足

获取人工智能项目的最大问题之一是缺乏数据策略。在开始成形之前形成一个可靠的数据策略是至关重要的。您需要指出您拥有哪些数据,制定策略如何将来自不同资源的所有数据放在一起,估计需要多少数据,最后计划如何提取和修改数据。

一些组织要么开始时没有项目,要么完全没有开始人工智能项目,因为他们觉得他们没有足够的数据,或者数据不充分。但是,阻碍人工智能发展的最重要的数据障碍是,在启动人工智能项目之前,没有形成一个团队范围的数据系统。一个有效的人工智能数据计划必须包含你所有的数据问题,并提供一个积极的方式,以获得最佳的数据潜力的实践和试验你的设计。

3.投资不足

人工智能和机器学习是现代先进技术;最新技术需要基金来开发。由于开发和生产人工智能项目的巨大成本,一些公司不愿意投资于所需的团队和软件,以提供有前途的人工智能。这影响了你让数据科学家完成第一部分的工作。

即使企业中有了新的自动机器设备,也经常需要有数据科学家来维护和验证由这些自动化方法生成的模型,因为大量数据不能为模型的运行提供证据。在提供数据和使用模式时,还需要额外的软件和人员来源。

4.不合适的数据科学家

要经营任何企业,你都需要一个在这一领域的专家,他能处理和管理一切。然而,一些从事数据分析工作的人在参加了一个在线课程后,给自己起了一个数据科学家的名字。事实是,熟练的数据科学家需要管理大多数机器学习和人工智能项目。缺乏经验的数据科学家经常指出无效的开始,看起来不错的小设计,以及大量的时间消耗。

不过,考虑到当前的经济形势,聘用数据科学家并非易事。这些熟练的资源是有限的,而且非常昂贵。而数据科学是一项复杂的工作,需要多年的统计、数学和编程技能才能成为专家。

5.不足以部署规则

在最长的一段时间里,模型没有扩展的原因是为了支持。这种切换可能包括错误,需要在部署之前有效地重新测试和检查模型。这种方法可能需要时间,而且当模式可用于创建时,它可能是不合适的。

6.项目太复杂

企业知道,人工智能项目在时间和资源方面相当昂贵。人工智能的价值形成了一种趋势,即专注于雄心勃勃的项目,这些项目最终将改变业务并带来巨大的投资回报。最终,涉及人工智能的公司需要最大的投入。

结语

拥有人工智能是很好的,但是如果用一个合适的策略来部署人工智能的话,它将是一个巨大的失败。记住上述因素,减少失败的人工智能项目的数量。

从7个方面看人工智能的失败

恼人的人工智能脆弱性案例很多。将贴纸贴在停车标志上会使人工智能误读。改变图像上的一个像素就能让人工智能将马认作青蛙。99.99%的神经网络会确信多色静电是一张狮子的图像。以肉眼无法察觉的方式修改医学图像后,人工智能系统会100%地误诊为癌症。诸如此类。

亨德里克斯说,有一种方法可能会让人工智能更强大地应对此类失败,那就是让它们尽可能多地暴露在令人困惑的“对抗性”例子中。然而,它们仍可能在罕见的“黑天鹅”事件中失败。“新冠病毒或经济衰退这样的黑天鹅问题,即使是人类也很难解决,这可能不是机器学习特有的问题。”他指出。

2

固有偏见

人工智能越来越多地被用于支持重大决策,例如谁能获得贷款、刑期长短以及谁先获得医疗卫生服务。人们希望人工智能能够比人类更加公正地做出决策,但许多研究发现,如果训练这些人工智能所使用的数据存在偏见,那么可能会导致集体自动歧视,给社会带来巨大风险。

例如,2019年,科学家发现美国在全国部署的一个医疗算法中存在种族偏见,影响了数百万美国人。该人工智能的设计初衷是确定哪些患者能享受重症监护计划带来的益处,但它却常规地将更健康的白人患者纳入此类计划,让他们排在了病情更严重的黑人患者前面。

加州大学伯克利分校的研究人员齐亚德•奥博迈尔(ZiadObermeyer)是一名医生,他和同事发现,该算法错误地认为医疗费用高的人是病得最重、最需要照顾的人。然而,由于系统的种族歧视,“黑人患者在需要医疗卫生服务时更不太可能得到服务,因此也不太可能产生费用,”他解释道。

在与软件开发人员合作后,奥博迈尔及其同事帮助设计了一种新的算法,通过分析其他变量,减少了84%的偏见。他说:“还需要做更多工作,但要打败偏见并非不可能。”他们最近撰写了一份指南,概述了政府、企业和其他组织可以实施的一些基本步骤,以发现和防止其当前和未来使用的软件中存在偏见。相关步骤包括:识别其使用的所有算法、了解该软件的理想目标及其在实现目标方面的表现、必要时对人工智能进行再训练,以及建立一个高级监督机构。

3

灾难性遗忘

深度伪造(deepfake)是指人工生成高度真实的虚假图像和视频(通常有关名人、政客和其他公众人物),这种情况在互联网和社交媒体上越来越普遍,它们能够欺骗性地描绘人们说了或做了并未真正发生过的事情,从而造成巨大伤害。为了开发出能够识别深度伪造的人工智能,韩国成均馆大学的计算机科学家沙罗兹•塔里克(ShahrozTariq)及其同事创建了一个网站,人们可以上传图像来检查图像的真实性。

起初,研究人员训练了他们的神经网络来识别一种深度伪造。然而,几个月后又出现了许多新型的深度伪造,在他们训练人工智能来识别这些新型深度伪造时,人工智能很快就忘记了如何识别旧的深度伪造。

这是一个灾难性遗忘的例子,人工智能可能会在学习新信息后突然完全忘记以前知道的信息,基本上是用新知识覆盖过去的知识。“人工神经网络的记忆力很差。”塔里克说。

人工智能研究人员正在寻找各种策略来防止灾难性遗忘,这样神经网络就可以像人类一样,毫不费力地持续学习。有一种简单的技术,那就是为每一个新任务创建一个专门的神经网络,例如,把猫与狗或苹果与橘子区分开来,“但这显然是不可扩展的,因为网络的数量会随着任务的数量而线性增加。”英格兰牛津大学的机器学习研究员萨姆•凯斯勒(SamKessler)说。

然而,人工智能也许并不是总能获得过去的知识,比如,处理医疗记录等私人信息时。塔里克及同事希望能制造一种不依赖先前任务数据的人工智能。他们让它自己训练如何发现新型深度伪造,同时也从另一个人工智能那里学习如何识别旧类型的深度伪造。他们发现,在识别社交媒体上经常分享的低质量深度伪造方面,这种“知识精炼”策略的准确率约为87%。

4

可解释性

为什么人工智能会怀疑某个人可能是罪犯或患有癌症?对这类以及其他高风险预测的解释会产生许多法律、医学和其他后果。长期以来,人工智能是如何得出结论的一直仿佛是一个神秘的黑匣子,许多人都试图解释人工智能的内部运作方式。“然而,我最近的研究表明,可解释性领域有点陷入僵局。”奥本大学的阮安说。

阮安及其同事研究了研究人员为解释人工智决策(例如,是什么决定了火柴棍的图像是火柴棍,是火焰还是木棍?)而开发的7种不同技术。他们发现这些方法有许多都“非常不稳定”。阮安说:“它们每次都能给你不同的解释。”

此外,虽然一种归因方法可能适用于一组神经网络,“但它可能在另一组神经网络上完全失败。”阮安补充道。他说,可解释性的未来可能需要为正确解释建立数据库。然后,归因方法可以进入这些知识库,“并搜索可能解释决策依据的事实。”他说。

5

量化不确定性

2016年,在佛罗里达州北部,一辆开启了自动驾驶系统的特斯拉ModelS汽车与其前方一辆左转的卡车相撞,导致驾驶员死亡,这是报告的第一个与自动驾驶系统有关的死亡案例。特斯拉的官方日志表明,无论是自动驾驶系统还是驾驶员“都没有在明亮的天空下注意到货运卡车白色的一侧,因此没有踩刹车。”

有一个办法也许能帮助特斯拉、优步和其他公司避免此类灾难,即提高其汽车在计算和处理不确定性方面的表现。目前,人工智能“非常确信,即便它们大错特错”,牛津大学的凯斯勒说。如果算法做出了一个决定,“我们应该充分地了解它对这个决定有多大信心,特别是对于医疗诊断或自动驾驶汽车来说,如果它非常不确定,那么人类可以介入并给出(他们)自己对形势的判断或评估。”

例如,澳大利亚迪肯大学的计算机科学家穆卢德•阿卜杜尔(MoloudAbdar)及其同事在人工智能将皮肤癌图像归为恶性或良性,或者黑色素瘤或非黑色素瘤时,应用了几种不同的不确定性量化技术。研究人员发现,这些方法有助于防止人工智能做出过于自信的诊断。

自动驾驶汽车在量化不确定性方面依然存在挑战,因为目前的不确定性量化技术通常比较耗时,“而汽车无法等待,”阿卜杜尔说,“我们需要更快的办法。”

6

常识

南加州大学计算机科学家任翔(XiangRen,音)说,人工智能缺乏常识,即根据人们通常认为理所当然的广泛日常知识背景,得出可接受的合理结论的能力。他说:“如果不充分重视这些模型的实际学习内容,那么它们就会学习一些导致其发生故障的捷径。”

此前的研究表明,最先进的人工智能能够以高达90%左右的准确率得出关于世界的逻辑推断,这表明它们正在常识方面取得进步。然而,在测试这些模型时,任翔及其同事发现,即使是最好的人工智能,生成逻辑连贯的句子的准确率也不到32%。当谈到发展常识能力时,他说:“最近我们人工智能界非常关心的一件事是,利用更全面的检查表来从多个维度查看模型的行为。”

7

数学

虽然传统计算机很擅长处理数字,但人工智能“在数学方面却出人意料地糟糕”,加州大学伯克利分校的亨德里克斯说。“你的模型可能是最新、最强大的,能使用数百个GPU来训练,但它们仍然不如袖珍计算器可靠。”

例如,亨德里克斯及其同事用数十万个数学问题训练了人工智能,并给出逐步解答。然而,在用1.25万道高中数学竞赛题测试时,“它的准确率只有5%左右。”他说。相比之下,一位3次获得国际数学奥林匹克比赛金牌的选手“在没有计算器的情况下”解答这些问题的准确率达90%。

如今的神经网络可以学会解决几乎每一种问题,“只要你给它足够的数据和足够的资源,但数学问题不行。”亨德里克斯说。他表示,科学中的许多问题都需要大量的数学知识,因此目前人工智能的这一弱点可能会限制它在科学研究中的应用。

目前尚不清楚为什么人工智能在数学方面表现不佳。有一种可能是,神经网络是像人脑一样以高度并行的方式来处理问题的,而数学问题通常需要一系列的步骤来解答,因此人工智能处理数据的方式可能不适合这类任务,“就像人类通常无法在头脑中进行大量计算一样。”亨德里克斯说。然而,人工智能在数学方面的糟糕表现“仍然是一个小众话题,这个问题没有多少吸引力”,他补充道。

作者:CharlesQ.Choi

IEEESpectrum

《科技纵览》

官方微信公众平台

推荐

剔除人工智能中的偏见

制造有情感智力的人工智能

强大的人工智能推理(一):如何训练多用途机器人返回搜狐,查看更多

人工智能项目失败的6个原因

 数据问题是企业的人工智能项目没有达到预期目标的主要原因。但是,如果企业能从错误中吸取教训并长期坚持,那么在人工智能方面的努力将会得到回报。

[[273731]]

18个月前,Cooper公司为其客户服务代理商推出了智能推荐系统,以便为客户问题提供解决方案。该公司前身为Nationstar公司,是美国最大的非银行抵押贷款提供商,拥有380万客户,因此该项目被视为该公司一个令人关注的节省成本的项目。该公司首席信息官SridharSharma说,该公司花费九个月的时间才发现代理商没有使用它,又花了六个月的时间来弄清楚原因。

Sharma发现,智能推荐系统提供的建议与客户并不相关,但问题不在于机器学习算法。相反,该公司依赖于基于客户问题的技术术语描述训练数据,而不是使用客户自己的语言描述这些问题。

他说:“我们没有很好地确保客户提出问题的根源是没有采用客户使用的术语,这是因为是用我们内部使用的技术术语编写的。”

Sharma说,此外,智能推荐系统的反馈机制(代理记录通话结果)有重叠的类别,这使得问题更加严重。他拒绝透露这个项目给该公司造成了多大的损失。

Cooper公司陷入人工智能的困境并不是异常现象。根据调研机构IDC公司最近的一项调查,只有约30%的受访者表示其人工智能项目的成功率为90%,大多数受访者表示其失败率为10%到49%,而3%的受访者表示一半以上的人工智能项目已经失败。

超过四分之一的受访者认为,缺乏员工以及人工智能技术具有不切实际的期望是面临的主要挑战。另有23%的人表示他们的人工智能项目因为缺乏必要的数据而失败。

Sharma说:“失败的第一个征兆是有些人想退出这个项目。但如果这样做,就注定要失败。”

Cooper公司计划明年将重新回到客户服务项目,作为其客户关系管理(CRM)系统改革的一部分,企业将继续致力于人工智能技术的开发。其最新的机器学习项目涉及分析非结构化数据,已经具有积极的商业利益,并有助于为未来创建更好的语言训练数据。

他补充说,“这些措施的成本并不低,当事情不顺利时,需要企业首席执行官和首席财务官的支持。”

缺乏数据

数据问题是人工智能项目达不到预期目标的主要原因。根据麦肯锡公司去年秋天发布的一份调查报告,限制人工智能技术应用的两大挑战与数据有关。

首先,与Cooper公司一样,许多公司很难获得适当标记的数据来训练他们的机器学习算法。如果数据没有正确分类,工作人员必须花费大量时间标记,这可能会延迟项目或导致项目失败。第二个数据问题是没有项目的正确数据。

普华永道公司合伙人兼全球人工智能领导人AnandRao表示,“企业通常没有合适的数据,如果无法使用未标注的数据建立模型,就会感到沮丧。这就是企业实施人工智能项目一直失败的地方。”

美国奥杜邦协会正在使用人工智能来帮助保护野生鸟类。例如,该组织在7月份发布了一项关于气候变化如何影响38种草原鸟类的人工智能分析结果。

奥杜邦协会保护科学副总裁ChadWilsey说,“如果我们不采取任何措施来减缓气候变化的速度,那么42%的草原鸟类可能面临灭绝,但如果我们能够采取行动,那么可以将其比例降低到8%。”

并非所有奥杜邦协会的人工智能项目都取得了成功。去年夏天,该组织试图利用机器学习来计算海滩上的褐鹈鹕和剪嘴鸥的数量。该试点项目基于一组志愿者收集的图像,这些志愿者通过无人机在德克萨斯州海岸附近的一个岛上进行调查。

Wilsey说,“我们有兴趣了解通过的飓风如何影响鸟类种群。”

例如,大多数可用的鸟类图片都是由地面上的工作人员拍摄的,而不是无人机直接拍摄。Wilsey说,由于这是一项试点研究,奥杜邦协会没有资源拍摄更多的照片。

训练数据偏差

另一个人工智能项目因缺乏数据而受阻的例子是弗里茨实验室试图创建一个模型来识别照片中人们的头发。弗里茨实验室帮助移动开发者构建可以直接在手机上运行的人工智能模型,而无需将数据发送回中央服务器进行处理。

该公司首席技术官JamesonToole说,“我们希望建立一个能够在实时视频中检测头发并实时改变颜色的功能。”

他说,起初一切看起来都很好,但算法中存在一个重大缺陷,如果系统公开上市的话,其问题会非常严重。

Toole说,“值得庆幸的是,我们在办公室和我们招募的人员之间进行了大量的人工测试,我们意识到对于某些种族人群来说,这并不是一件好事,我们重新筛选了数据集,以确定数据集中没有人是这些种族人群的一部分。”

他说,有很多图像数据集可供训练,包括免费的和商业的数据集。但是企业必须检查是否有他们需要的特定类型的足够数据。

他说:“企业首先要花费一定的时间,努力构建自己的代表用户群的测试用例。”

弗里茨实验室最终收集了丢失的图像,并通过工作人员的处理对它们进行注释。Toole说,“这无疑凸显了这样一个事实,即当受到可用数据的限制时,将偏见引入这样的系统并不困难。”

根据普华永道公司最近的一项调查,一半以上的公司没有评估人工智能偏见的正式流程。更糟糕的是,只有25%的受访者表示他们会在实施之前优先考虑人工智能解决方案的道德含义。

数据集成问题

有时,问题不在于缺乏数据,而在于数据太多。普华永道公司零售业务方面的人工智能和数据的常务董事表示,一家全球性大型银行就面临这种情况。

他表示,如果能够回到过去,这家银行就会更早地开始将不同的数据渠道汇集在一起​​。他说,“这是我们没有做的事情,这是一个很大的错误。我们收集了数据,其结果是我们没有获得完全的全方位的客户视图。”

他补充说,该数据整合​​问题损害了这家银行创建有效营销信息的能力,导致收入损失,该银行现在正转向多渠道客户数据视图,包括在线、移动和面对面互动。

他说,“我们仍然不在那里,孤立的数据是我们拥有并仍然存在的最大挑战之一。这个挑战不是技术问题,而是商业问题,第一个问题是合规性。我们不允许混合某些类型的数据。”

他说,“另一个问题与企业优先事项有关。还有很多其他项目正在运行。谁会为将数据混杂一起而支付费用?这本身并不是银行的增值业务。”他表示,这是每个银行都必须面对的挑战。

他说,“如果再次开展这个项目,应该在银行首次开始处理人工智能用例时启动数据集成过程。我不认为我们真的会做到这一点,因为有太多的数据来源,我不认为都能完全完成。”

他表示,该银行预计在未来18至24个月内将连接其主要数据源。他说,现在该银行只有10%到15%左右。

数据漂移

人工智能项目面临的另一个问题是企业依赖历史数据而不是活动交易数据来进行训练。埃森哲公司董事总经理安德里AndreasBraun表示,在许多情况下,在转换为实时数据时,对单个静态历史快照进行过培训的系统表现不佳。

埃森哲公司负责欧洲数据和人工智能业务的Braun说,“企业可以卸载一些数据,训练一些模型,并在实验室中获得相当好的模型提升,但是一旦把它重新融入组织,就开始出现问题。”

历史数据样本和通过实时系统传输的数据之间可能存在显著差异,例如,实时检测欺诈或发现洗钱行为,因为这些模型没有经过训练,无法识别其行为的微小变化。

他说:“如果某个用户在某个时间点(可能是晚上、周六或周日)复制数据,那么这种情况将会冻结数据。这使得实验室的分析非常容易。但是,当机器学习模型重新融入到实时系统中时,其情况会更糟。”

Braun说,解决方案是将数据科学家从生产技术方面放入一个单独的孤岛中。特别是,当使用实时数据构建模型时,将模型集成到生产环境中要快得多。

他说:“而且成功的情况要好得多。它完全改变了游戏规则。”

未经处理的非结构化数据

根据咨询机构德勤公司最近的一项调查,62%的公司处理非结构化数据仍然依赖电子表格,只有18%的公司在分析工作中利用了产品图片、客户音频文件或社交媒体评论等非结构化数据。

此外,德勤公司零售和消费产品战略和分析实践负责人BenStiller表示,该公司收集的大量历史数据缺乏对人工智能有用的背景,或者以摘要形式存储。

“数据限制当然可以从一开始就为失败做好准备。”他说。

Stiller说,“然而,根据调查显示,像Cooper这样利用非结构化数据的公司,其业务超出其业务目标的可能性要高出24%。这真的需要企业对数据的看法发生根本性的转变。”

例如,Cooper公司以大约15亿个客户文档的形式拥有大量非结构化数据。因此,客户服务代理会花费太多时间查找帮助客户所需的文档,有时还需要与客户沟通回访。

因此,该公司使用机器学习技术扫描了所有15亿份文件,并仔细分析了第一批1.5亿份文件,这些文件属于200种最常用的文件。

Cooper公司的Sharma说,“现在我们有一个机器学习项目,它带来了价值,并且现在正在实施中。”

当企业重返以前问题缠身的人工智能客户服务项目时,除了加快客户服务呼叫的速度,文档分析还帮助创建一个更好的语言字典,供将来使用。

文化挑战

除了数据外,组织问题对人工智能的成功提出了重大挑战。

Sharma说,如果回到过去,他最初会专注于客户在详细解决问题时使用的语言,并让主题专家与人工智能开发人员配合工作。

Sharma说,“必须让客户与我们的技术团队一起合作,这样的场景始终是最重要的,你必须让他们一起共事,并使其成为一份全职工作。”

除非企业能从这些错误中吸取教训,否则实现人工智能承诺的机会可能会减少,因为失败的人工智能项目可能会让投资团队不再提供融资,并可能对员工和客户满意度产生负面影响。

Stiller说,“围绕人工智能的早期失败项目可能让执行团队放弃在这个领域的重大投资。这可能会导致企业落后于竞争对手。”

这一切都从企业管理层开始。正如德勤公司的调查显示,企业高层对于人工智能项目的支持至关重要。Stiller说,“如果企业首席执行官提供支持,那么其业务目标的成功率可能会超过77%。”

因此,不要让挫折破坏企业对人工智能的组织承诺,因为人工智能的长期方法会得到回报,他说,“随着时间的推移,企业实施的项目越多,投资回报率就会越高。”

为什么你的人工智能项目会失败可能是这五个原因

尽管教学改革将推动人工智能的发展,但这仍然是一种长期的方法。那么现在呢?第三个吸引人的方法就是专业的人工智能公司,由合适的人才来构建人工智能模型,以及提供人工智能即服务。

3

数据质量与数量

近十年来,大多数软件工具都具备了收集海量数据的能力。由于数据越来越多,人工智能开始引起注意。

新的问题随之而来:数据的质量。在构建有效的人工智能系统方面,数据是最关键的需求之一。尽管企业已经开始收集大量数据,但是不需要的数据、非结构化数据等问题仍然存在。收集数据的方式有很多种,比如结构化、非结构化、半结构化等。数据通常是无组织的,包含了各种各样的参数,这些参数可能对于人工智能项目尤其重要,也可能没有任何用。

要解决数据问题,请考虑在启动人工智能项目前,让所有的利益相关方都参与进来。这样能清楚地理解建立人工智能模型所需的数据、数量和形式。当了解它之后,企业可以根据需要清理并转换数据。此外,当准备好数据后,需要进行测试,以确保构建的人工智能符合企业或项目的意图。

4

员工缺乏人工智能意识

很多人认为,人工智能将取代他们的工作。不过,真实的情况并非如此。

当企业采用人工智能时,他们也必须对其员工进行教育,使其了解人工智能。培育“数据素养”是非常重要的。原因有二:一是确定员工(特别是非技术人员)理解人工智能的作用及能力。二是教育员工不盲目依赖人工智能的决策。促进人工智能的普及,把它当作一项任务而非工作。让员工理解人工智能的唯一目的就是释放人类的时间,使他们能够专注于复杂的问题。

5

部署后的管理和监测

构建和部署人工智能就像拥有一辆汽车,购买之后还需要维护。不过,维护人工智能是一项远比汽车维护更大的工程。

人工智能系统会根据提供给它们的数据来作出无数的决策。假如人们不能理解一个人工智能是如何作出某一决策的,那么这个人工智能系统就被称为“黑盒人工智能”。在决策时,确定人工智能不会变成黑盒是至关重要的,这将是一个很大的挑战。另外,数据和业务场景的动态特性也是一个挑战。数据不太可能在人工智能项目的整个生命周期中保持静态。当数据改变时,人工智能也需要重新校准,以确保不会偏离其性能。

对人工智能系统进行重新校准的过程与构建一个全新的模型相似。正如其他人工智能项目一样,这需要时间和资源。为了达到这个目的,大多数公司都在很长一段时间内延伸自己的模型,而没有“维护”或适应模型中的业务变更。但不能等到模型开始“漂移”而造成不必要的影响。

要解决这些问题,组织必须持续监控他们的人工智能系统。当数据和业务场景发生变化时,人工智能需要定期更新。要降低这一过程的难度,你可以使用人工智能观察工具,帮助你监控模型和报告不必要的“漂移”。

应逐步采用人工智能

人工智能是一种强大的技术,它正在改变今天的商业模式。但是,它也需要人们花费时间和精力去发掘并发挥它的能力。

作为人工智能的推动者,我们建议组织逐步采用人工智能。人工智能投资的回报并不是线性的,当你开始在你的组织中使用它的时候,这就会变得复杂。当你拥有了特定的人工智能用例后,你就可以在企业范围内扩展人工智能系统的采用。

—End—

数创新高地•荟聚新势能2021年全国工业APP和信息消费大赛总决赛在湖南株洲举行

创新驱动数字赋能产业升级——2021数字生态产业峰会暨第十四届信息主管年会特别报道

赛迪数据:今年前三季度我国工业经济运行呈现六大特点返回搜狐,查看更多

浅谈人工智能时代下的工程伦理问题

浅谈人工智能时代下的工程伦理问题一、引言

近年来,随着大数据基础设施建设以及人工智能技术的发展,社会中涌现出许多新技术,给人们带来更便捷的生活。但与其共生的道德风险问题也日益显著。人工智能道德风险即人工智能技术带来的伦理结果的不确定性,其既有主观因素也有客观因素,具体表现有道德算法风险、道德决策风险、隐私数据泄露风险等。风险主要成因有技术主体、政治、经济、文化等社会因素。结合当下大数据驱动的人工智能算法特点,如何运用风险治理思想分析其背后的工程伦理问题对人工智能领域发展具有重要意义。

二、人工智能时代的当下

在1956年达特茅会议中AI这个概念被提出,经历数次低谷与发展浪潮,人工智能再次活跃在大众的视野中,并且以更完备的生态以及更强的活力积极改变我们的生活。在如今的人工智能浪潮中,深度学习因为其能够胜任更复杂、更庞大的场景而成为主流。

在AI的应用层面,随着大数据基础设施建设的日趋完备,人工智能孕育出许多产业,如:数据挖掘、人脸识别、语音识别、自动驾驶等。同时医疗卫生、交通运输、仓储物流、游戏等行业都已经或正在接受人工智能的优化。

2019年11月11日24时整,“双11”全天的物流订单量达到创纪录的12.92亿元,物流订单量迎来了“爆炸式”的增长。“双11”全天各邮政、快递企业共处理5.35亿快件,是二季度以来日常处理量的3倍,同比增长28.6%,再创历史新高。而在其背后做支撑的是一套完整的基于大数据的人工智能系统。

目前,百度、阿里、腾讯、谷歌等主流互联网公司正在大力投资人工智能相关产业与技术,而与此同时全球正有上千家公司全力押注人工智能,并且这个趋势依旧保持稳定增长的速度。

三、人工智能伦理问题日益凸显

显然,在当下这个人工智能技术飞速发展的时代,人工智能技术的广泛应用为人类带来了显而易见的好处。但技术的进步不但扩大了人类对于技术的恐慌,同时也放大了由于某些技术缺陷和忽略道德伦理问题而带来的负面影响。

3.1忽略伦理问题下产生的算法歧视问题

外卖作为当下快节奏生活的必需品,在其背后做支撑的是数以百万的外卖员和强大的人工智能系统。2020年9月8日,一篇名为《外卖骑手,困在系统里》的文章在互联网上被热议,文章指出:2016至2019年间,美团多次向配送站站长发送加速通知,3公里的送餐距离最长时限一再被缩短至38分钟;而根据相关数据显示,2019年中国全行业外卖订单单均配送时间较3年前减少了10分钟。外卖骑手在系统算法与数据的驱动下疲于奔命,逐渐变成高危职业——骑手为在算法规定的最长送餐时限内完成送餐任务无视交通规则,不断提高车速。

许多伦理问题都是由于实践主体缺乏必要的伦理意识造成的,而外卖平台算法使得外卖骑手被“困在系统里”显然是工程的决策者以及管理者没有考虑相关的伦理问题所导致的。外卖平台作为一项服务消费者、向社会提供就业岗位的工程,其目的与其他类型的工程类似,均为满足人类在某方面的需求,但工程在向社会提供服务的同时不应当忽略工程风险问题。

3.2从风险与安全角度分析外卖平台

工程风险的防范与安全分为工程的质量监理与安全、意外风险控制与安全和事故应急处置与安全三个方面,分析外卖平台的工程风险主要从意外风险控制和事故应急处置两方面展开。

3.2.1意外风险控制维度的工程风险

外卖平台作为服务大众的工程项目,其受众人数巨大——外卖市场规模超6500亿元,覆盖4.6亿消费者,工程一旦出现意外风险控制不当的情况则对其受众造成无法估量的损失。在基于大数据的人工智能算法的训练过程中,算法训练结果会随着数据重心的整体偏移,从而导致外卖骑手不得不加快派送的速度进而风险增加。因此,为避免人工智能系统追求极致地无限制缩短派送最长时限,工程师和程序设计者在程序设计之初应当添加阈值以保证外卖平台背后的外卖骑手能够在遵守交通规则的前提下及时、安全地完成任务。

3.2.2事故应急处置维度的工程风险

事故应急处理体现着工程负责人、相关利益反对工程的理解程度。应对工程事故,应当事先准备一套完整的事故应急预案,保证迅速、有序地开展应急与救援行动,降低人员伤亡和经济损失。外卖骑手因忽视交通规则造成伤亡的事件并非最近才发生——2017年上半年,上海市公安局交警总队数据显示,在上海,平均每2.5天就有1名外卖骑手伤亡。同年,深圳3个月内外卖骑手伤亡12人。2018年,成都交警7个月间查处骑手违法近万次,事故196件,伤亡155人次,平均每天就有1个骑手因违法伤亡。2018年9月,广州交警查处外卖骑手交通违法近2000宗,美团占一半,饿了么排第二。而外卖平台除口头告诫骑手之外并没有推出从根本处解决问题的措施,直到《人物》发表《外卖骑手,困在系统里》一文后外卖平台才相继推出多等5分钟的政策。

3.3从工程四要素角度分析外卖平台

工程包括技术要素、利益要素、责任要素、环境要素以及伦理要素,接下来将从工程四要素中的技术、利益与责任这三个方面来展开。

3.3.1技术维度的道德风险

基于算法和大数据的人工智能技术背后隐藏着风险。算法体现着工程师和程序设计者的思想,其政治立场和社会偏见都会不可避免的嵌入程序中。从大数据中诞生的人工智能系统通常会存在基于数据采样偏差带来的问题,而这类问题在后续的训练中不会被消除甚至可能被放大。因此,为消除算法与数据采用带来的偏见,工程师以及程序设计者在程序设计之初就应当消除主观偏见;同时在数据的处理方法中,应当极尽全力保证数据的准确,降低数据偏差带来的风险。

3.3.2利益维度的道德问题

人工智能存在威胁、侵犯人类利益的风险。从安全角度来说,人工智能应当对人类来说是安全的、可靠的、不作恶的。以外卖平台派单系统为例,外卖骑手在系统的算法歧视下被迫忽视交通规则,对骑手、对行人已经构成严重的安全隐患。因此,如何通过人工智能系统,在权衡各方利益、兼顾效率、保证安全的前提下实现利益最大化是人工智能系统需要解决的核心问题。

3.3.3责任维度的道德风险

人工智能在价值选择困境与责任承担困境中存在风险。外卖平台派单系统在消费者对于外卖的时间要求与外卖骑手在派送过程中的风险问题之间面临抉择,系统应当尽量满足消费者的需求而忽视外卖骑手的安全,还是应当在尽量保护骑手的安全的前提下提高派送效率?在人工智能系统作为自主行为主体的情况下,系统会逐渐压缩骑手的安全空间。而在发生事故之后的责任鉴定中,系统并没有能力为自己的决策承担其相应的责任。

四、总结

为避免人工智能出现无节制的追求极致从而导致技术、利益、责任等方面的道德风险,实现人类社会可持续发展的目标,人工智能的设计应当秉承着将人类健康、安全和福祉放在首位的原则。由外卖平台人工智能系统这一例所引发出来的思考,进一步提出以下建议:

1、工程设计之初应当强化工程负责人、管理者、工程师以及程序设计者的伦理意识。由于算法、工程体现着设计人员的思想,而相关人员对伦理方面的意识缺失必将导致缺乏伦理思想的工程存在缺陷。

2、强化工程相关人员的风险与安全意识。风险与安全始终是工程无法逃避的问题,针对风险可接受性进行完备分析与评估,并对一系列不可控意外风险制定相关预警机制与应急机制是控制风险、规避风险、妥当处理事故的唯一途径。

3、强化人类主导和监督能力。人类主导以及人为监督有助于人工智能系统不会走向极端,从而出现逻辑上无比正确却存在人类伦理问题的缺陷。

4、明确人工智能系统的责任归属。程序设计之初应当对程序设计者针对不同模块的设计明确责任归属,当下人工智能的发展远远没有达到成熟阶段,相应的人工智能系统也没有能力对其发展的不良后果负责,这个责任很自然的需要其背后的软件工程师、程序设计者、工程负责人以及管理者共同承担;人工智能系统在设计阶段明确责任归属有利于工程事故发生之后的责任归属划分;有利于在程序设计阶段强化工程师们的工程伦理意识。

从技术发展的角度来看,人工智能系统因其发展历史较短、技术成熟度低等原因远未达到可以完全信赖的地步。人工智能系统在设计中应考虑预防性安全措施来防范风险,减少不可接受的伤害。

人工智能在教育领域中的应用面临哪些问题和挑战

再比如说,可以了解你的学习能力的情况,可以对你的学习负担提供各种监测,当然这个是要遵循伦理,研究伦理的前提下,可以通过对你的数据和你的表情的分析知道你处在疲劳状态,处在轻生状态,这个在研究里面已经在做了,当然这个前提要尊重个人隐私、伦理的前提下,监测学生的上课状态。如果你过分疲劳,对学习效率很低的。

再比如说可以通过人工智能和虚拟现实结合,提供增强性的虚拟探究环境,供学习者进行探究,进行发现,比如再通过一个虚拟环境,可以回到两千年前去发掘那个时代的历史以及历史演化的过程,智能加虚拟现实结合。等等,人工智能可以在学习环境、学习过程上提供非常多的很好的支持。

第三,人工智能可以对学习过程的评价起到非常重要的作用。他可以分析出你在学习过程中对哪些知识掌握的情况,每个知识点上学科能力的情况,你的核心素养的情况,以及你的体质健康发展情况、心理健康发展情况,可以使得我们的教育评价从单一的学科知识的评价到全面的综合性的评价,可以使得我们的评价从以前只是期末一次考试变成过程性的评价,可以嵌入到你的学习过程中,对学习者进行一些评价,而且评价不仅仅是评价你的知识,还可以评价你的问题解决能力方面。

另外,这种评价可以使得老师的工作大幅度减轻。以前我们只是由人工来做各种各样的评分、观察,需要很大的工作量,现在人工智能可以由计算机进行自动测评,比如英语口语测试,现在已经产业化了,都已经实用化了,很多中考、高考的英语考试都是用实际的系统。

另外,英语作文的批改,现在基本上实用化了,在实验室里面,我们的问答题、论述题、作文题,这些主观题的批改,也已经取得了实质性的进步。今后这方面会取得实质性的突破。取得实质性突破以后,我们老师改作业,统计分数,这些工作就会大幅度降低。人工智能会在教育评价上发挥非常重要的作用。

另外,人工智能对教师的工作可以起到非常重要的作用,起到教师助理的作用。比如,智能出题、智能批改、智能阅卷、智能化的辅导,各种评价报告的自动生成,以及针对学生因人而异的给学生提供各种反馈,像现在我们老师面对一个班,可能面对40个-50个学生,他很难,以前很难做到每个学生都给个性化的反馈,因为他的时间精力不允许,他也不可能了解每个孩子的具体情况,但是现在基于人工智能的技术,我们完全可以了解到孩子在学习过程中存在的各种问题,在人工智能的帮助下,可以根据不同的问题,每个学生提供个性化的反馈,实现对学生个性化的支持,做到既具有规模化,又做到个性化,这是我们中国教育现代化2035所追求的目标。

中国教育现代化2035提出,我们要推进兼容个性化和规模化并重的教育。这个时候人工智能可以大幅度提高老师对学生个性化支持的一种能力,降低教师工作过程中的负担。

第五,人工智能还可以在我们的教育决策、教育管理,以及教育公共服务方面,起到非常重要的作用。比如,人工智能可以使得我们的教育公共服务,从面向群体到面向个体,比如政府,要提供教育公共服务,以前只能面对群体来提供,现在有了人工智能以后可以了解学生个性化的需求,通过网络提供个性化的教育公共服务,相比北京市,北京市有一个中学教师开放性辅导计划,这个计划就是我们在支持,在运行。

它的核心工作就是动员了10788个骨干教师常态性的在网上给学生提供一对一的答疑服务,以及直播课的服务,以及问题解答的服务,以及微课共享的服务。在这个过程中,每个学生在学校里面都有个性化的需要,这种个性化的需要以前是政府不解决的,而现在有了大数据,有了人工智能,有了互联网以后,可以使得政府可以购买教师的在线服务,给学生提供个性化内容的服务,使得我们教育公共服务更个性化。

第二,我们有了学习过程中的各种数据,以及我们办学过程之中的数据,可以使得我们的决策不再只是基于我们个体经验,而是有个体的经验加上科学的数据结合,人机结合的决策,可以使得我们的管理,我们现代教育的治理更加科学、更加精准,也更加符合我们现在民众利益主体,参与度越来越高的诉求,可以大幅度提升政府的现代教育治理的功能。

第三,还可以促进教育对各种环境的集成管控,可以实现把一些隐患的问题,在事情还没有发生之前就可以事先进行预测、进行管控。比如,刚才举的例子,校园外的一些不法分子,完全可以通过数据甄别出来,可以在一些事情上没有被发生之前就可以预测。再比如说校园的各种公共设施,如果出现了小的漏洞,小的漏洞完全可以及时通过人工智能技术集成联通以后,集成远程控制,及时发现。不是等小事情酿成大事情再进行补救,从事后补救变成事前监管,事前预警。实际上人工智能在这五个方面都可以发挥很多很多的作用。

主持人刚刚余教授听您在人工智能教育领域方面的应用非常广泛。但是可能很多人跟我有一样担心,人工智能现在在教学领域能发挥这么大的作用,未来会不会真的把老师取代了?和教师之间会存在一种什么样的关系?是合作还是相辅相承?

余胜泉

教师永远不会被取代。因为我们教师是促进人的成长,有两个职能,一个是教书的职能,一个是育人的职能。今后如果只是知识性的讲授,知识性的传授的工作,会越来越多的被人工智能所提高效率,但是完全取代是不可能的。因为人需要人和人之间的沟通,面对面的沟通,这种情感的沟通,和我们面对屏幕的沟通还是有差异的。

人永远不会取代。但是我们很多的讲课的效率,会大幅度提升。另外,教师除了教书以外还有育人,还有解决学生成长过程中的各种问题,这种问题的解决,需要人工智能来增强。教师在教育教学中非常重要的。我觉得教师和人工智能的关系,是一个相互赋能、相互增强的关系。

相互赋能是什么意思?教师的智慧会越来越多的转化为规则性的东西,使得人工智能具有教师的能力,把老师的个体智慧或者集体智慧转化为人工智能的能力,把人工变成了智能。

另外,人工智能也会赋能教师,教师利用人工智能可以提高,可以使得我们教师提高工作效率,而且能够做到以前做不到的事情,是一个相互赋能、相互增强的关系。人工智能首先是教学效率提高,比如说以前讲测考练,原来需要10个小时完成的事情,可能一两个小时就完成了,针对学生个性化辅导,作业批改。

现在老师一个人带三个班,每天都要改一百多份作业,这一百多份要认真改的话,要两三个小时,工作量非常大。如果今后人工智能发展了,完全可以让人工智能实现批改,实现批改以后可以给出你各种分析报告,每个孩子出现问题是什么地方,给他什么样的改进措施,都给你自动生成。你拿这个报告,可能比老师自己改效率还高,比你自己改还更好地了解孩子。通过这种方式给提高老师的工作效率,把原来需要花很多时间和精力的事情取代掉了。老师有更多的时间,更多的精力关注孩子的成长。心理、身心健康。

另外一方面,人工智能可以增强教师,就是可以使得我们老师做到以前做不到的事情。比如,举一个非常简单的例子,我们有个团队在做一个研究项目叫“AI好老师”,我们孩子在成长过程中,经常遇到各种各样的问题,比如说小的问题,打架、不守纪律、网络成瘾、过分崇拜明星、早恋等等这些问题,这些问题背后都是有教育学、社会学、心理学、生理学的一系列的原因,但是这些原因是很深的,一般的老师很难说把各种知识都很了解,我们很多老师、很多家长面对孩子出现这些问题的时候,总是简单地打骂或者简单的斥责,这样对孩子于事无补。

这个时候,像我们就做了一个项目叫AI好老师,我们建立了0-18岁儿童成长过程中常见的典型的问题知识库,以及每个问题背后的教育学、心理学、社会学、生理学这方面的原因,以及一些如何干预,对这些问题如何进行干预的优秀教师的案例,我们收集了优秀教师处理这些问题的案例,这样就会形成智能的系统。

只要和那个系统说,我的孩子早恋了,他会问你几个表现,如果你确认之后,他说这可能是早恋,他分析早恋的原因是什么,社会学、心理学的原因是什么,再给出某一个很好的老师处理过这个事情他是怎么和孩子沟通的,他可以把符合教育教学规律的案例,让老师学习。这样可以提高我们老师的育人的能力,提高家长和孩子相处的和谐程度,促进学生身心健康的发展。

再比如体质健康,现在儿童成长过程中的身体体质这些方面的发展越来越重要。除了知识以外,身心健康其实更重要,我们完全可以通过一些智能手环、智能肺活量的工具、智能跳绳工具,以及运动器材,会通过5G加上传感器以后,可以自动采集学生运动过程中的各种数据,把这些数据通过5G传送到云平台以后,就可以限定学生的心率、血氧、运动脉搏各种各样运动参数的常模数据库,有了这个数据库以后,可以对学生的运动知识、运动技能、营养情况、身体发育等这些方面的情况进行进一步的分析,分析可以发现学生在体质健康上存在哪些问题,或者哪一种体质类型,可以给出有针对性的运动处方的方案,也可以发现学生在运动中有哪些优势,从而增强他的优势。

我举这些例子就是想说明,我们很多教育中理想中希望老师能做到的事情,但是由于传统的时间精力以及能力的问题,我们做不到,现在人工智能可以增强我们教师,使得我们教师能够做到这些事情。人工智能和教师是相互赋能、相互增强的关系。

但是,虽然人工智能不会取代老师,但是会使用人工智能的教师会取代不使用人工智能的教师,我们教师还要主动适应互联网、大数据、人工智能时代新的技术的变化、新的技术的变革,不断进一步的学习,善于使用,关注最新的进展,希望老师能够努力把这些东西融入到他的日常教学中,从而提高自己的教学效率。

主持人

刚刚您说了很多人工智能和教师之间的互相赋能、互相增强的关系,随着人工智能的普及或者应用,对教师的压力是不是挺大的?教师之前可能只要备好课、教好学生,关心学生成长,现在要学习更多的人工智能方面的知识。人工智能在人才培养方面,我们是不是现在也是一个非常重要的环节?

余胜泉

人工智能的知识学习有一个渐进的过程,人工智能核心就是智力的自动化,像机械是我们体力的延长一样,人工智能是我们脑力的延长,可以使得我们人能够处理以前无法处理的复杂事情,实际上是提高我们老师的效率,适当的学习这些知识。像我们生活中,比如天天拿着手机录语音,那个复杂吗?不复杂。但是,背后的技术是很复杂的。

但是对于应用来说并不复杂。我们老师对人工智能的学习不要太担心。但是,你刚才提了一个很重要的问题,人工智能人才的培养。确实,人工智能人才的培养是我们国家和整个社会迈向智能时代的一个非常关键的地方。

我觉得,一是面向大众来说,我们要培养了解人工智能,未来会对我们的社会产生哪些影响,了解人工智能在现实生活中有哪些应用,这样理解这个社会的变化,主动拥抱这些变化,这是对非专业的人士。对一些专业人才,我觉得可能我们国家,一个是要加强人工智能的职业教育,在职业教育大力普及人工智能的一些技术,人工智能工程方面的工作。

比如要向使得人工智能的发展,今后数据处理是很重要的能力,数据收集、数据标记、数据关联、数据工程。第二,今后机器学习、机器训练,了解典型的各种机器学习的原理,以及它的训练的技巧、训练的方法。

另外,了解人工智能和各行各业,对各行各业特定的领域知识库的应用,以及应用系统的配置管理,我们要在职业教育里面大力加强人工智能专业的发展,让他能够很好地支持、管理以及推进人工智能在各行各业的应用,使他有序化。

另外,人工智能还要加强研究性人才的培养,大学里面研究性人才的培养。因为人工智能不是一天练成的,是一个信息科技在一个时间段内持续性发展的一个过程,智能爆发。智能爆发的背后是有成千上万研究者的智慧转化为我们生活中可以实际应用的系统,这个时候我觉得,在人工智能领域里面,高校的职责,一个是把我们信息科技,计算机相关专业办好,这是人工智能的基础。

另外,希望有一些有实力的高校多办人工智能的专业,尤其是研究性高校,这是推进技术往前进步的核心动力,需要有精英参与。另外,这个过程中,我们特别要避免计算机教学,或者人工智能教学、人工智能研究,以唯论文为核心,论文很重要,光有论文解决不了问题,一定要以解决实际问题,形成开源的系统。

像国外,计算机科学,很多大学做的那些开源的系统,对这个行业的发展,对这个研究的发展起着非常大的推动作用,但是在我们国家,这种有影响的,寥寥无几,而且不受认可,做一个几百万人用的开源系统可能还不如人家写一篇SCI论文,这是不健康的,因为这些东西最后使得我们纯理论化,对于整个行业、整个产业发展是不利的。

所以我们特别希望在计算机科学的教育,以人工智能的教育,要强调多结合实践,当然不是不发表文章,文章还是要,需要解决重大实际过程中去发文章,而不是为发文章而发文章,要解决重大实践问题,做出能够得到广泛使用,能够推动这个行业往前迈一步的应用系统,这样的话,才使得我们的研究和产业发展能够一步一步往前走。

我现在看到我们在北京市的一些中小学,他们已经开设人工智能课程了。现在在中小学开设人工智能课程,会不会太早了?

我也看到了,现在有很多学校开一些人工智能的课。还有一些企业专门编了中小学的人工智能课程。当然我觉得,在中小学,适当普及人工智能的常识是对的,但是有一些过于急功近利不值得倡导。我看过一套人工智能的教材,从三年级就开始开人工智能,很多词汇术语可能都不清楚,现在给他讲很复杂的知识,这是不合适的。因为这些知识,这个时候去学,同样一个东西理解,可能两三个星期才能明白这个词说什么意思,但是等到成年以后,可能只花两三个小时就能明白这个事情。

所以我不鼓励太多复杂的知识进入到中小学,但是适当的让小孩子理解人工智能对现实社会的变化的影响,了解人脸识别,可以做什么,了解各行各业里面应用的现象,就像我们了解汽车、飞机可以飞的道理。比如同样一个力,我们小学生也要学力的概念,但是只要知道力是相互作用的就可以了,但是到了大学就要了解力和力之间复杂的关系,甚至还要了解宏观的力和微观的力是完全不同的性质。

同样是讲人工智能,你对低年级的时候应该以浅显、形象了解为主,到了那些知识复杂算法还是应该到大学,到研究生阶段再去教比较合适。适当地让学生有一些体验性的活动,以结合信息技术课,寓教于乐,结合信息技术课,尤其是在小学,我不赞成系统开人工智能的课,但是可以让学生有感性的认识、感性的体验性的可以的。

但是概念体系和编程能力,并不见得要那么系统化。但是适当到了初中和高中的时候,结合信息技术课,因为本身信息技术课是有的,结合信息技术课适当渗透人工智能的知识,这是可以的,这是合适的。否则容易超前教学。现在什么东西都要往中小学渗透,中小学的负担太重了。

实际人的心智是有个发展的过程,当心智发展不全的时候,学一个东西花很长时间,抽象思维水平到了一定程度以后,花几个小时就学会了。要提高他到了成年以后的学习能力,小的时候要适当地给他留白,留空。让他不受过重的学习负担的压力。因为过分的学习负担的压力会造成学生学习的厌倦、倦怠,以及泯灭他的好奇心、求知欲,一旦一个孩子成长过程中,没有了好奇心、没有了求知欲,养成了功利性读书的习惯,对于他一辈子的成长都会起着巨大的障碍作用。

真正的杰出的人才都是具有很强的自学能力,很强的自律意识,很强的好奇心、求知欲在这里驱动,是内在驱动的,而不是外在驱动的。外在驱动,环境变化,有外在的驱动力弱了以后,基本就停滞不前,现在过分的学习负担过重,会对小孩子的好奇心、求知欲会起到压制作用,长期来说不好。

主持人

感谢余教授提出的中肯的意见。我们知道余教授所在的北师大未来教育高精尖创新中心是2015年成立的,到现在四年时间了,你们肯定也在致力于人工智能在教育方面的落地和研究,您觉得,通过这四年的努力和研究,有没有发现我们国家人工智能现在在我们教育领域当中会不会存在着一些问题或者挑战?

余胜泉

目前人工智能在实际应用过程中,还存在一些问题,我觉得代表性的可能体现在,一个是目前产业界对人工智能应用的场景过多的关注讲测考练,知识性的教学太多,都在用人工智能提高知识教学的效率,比如都在适应性学习,做题库,经典推荐,当然有一定作用,但是这个是对原来我们教学优势的一种强化,有时候强化的极致以后反而成了一些问题。

用人工智能进行应试教育方面做得比较多。我们其实特别希望人工智能不光是要做应试教育这方面内容,更多的需要人工智能在学生身心健康发展方面,学生体质健康发展方面,降低学生负担方面,帮助我们教育做科学决策方面,发挥更大的作用。应用场景一定要多元化、多样化。

比如我看到过一个美国的公司做的产品,给盲人做了一个智能手环,拿手在书上划,就能把书上的文字变成语音,让盲人也能听到,这种应用非常有价值,我们国家都是在搞知识性教育,原来学生做五道题,再给你做五道题,纯讲测考练的,这样就有点违背我们的教育教学的规律。这是第一个问题。

第二个问题,我觉得,目前人工智能还存在数据的问题。就是人工智能真正要发挥作用,需要有各种各样的学习数据,而且这个数据要贯通形成,有更多的数据才有更多的智能。形象地说,人工智能像汽车,数据就像汽油,没有数据,汽车就跑不起来。这种数据目前还存在着,一个是数据的孤岛,数据隔离的现象,每个系统都有各自的数据,数据没有融会贯通。

第二,数据使用的规范也存在问题。学习过程中的数据,涉及到孩子的隐私,目前隐私伦理在教育数据利用方面还缺乏清晰的规范,我觉得应该有这种清晰的教育数据利用的伦理和规范,尊重儿童身心健康以及个人隐私的前提下,合理利用数据。当然也不是说完全不用,完全不用会扼杀这个产业。一是数据贯通,一个是要遵循数据的伦理和规范。

第三个问题,人工智能还存在着技术上本身还有很大的发展。目前真正大规模使用的,像英语口语考试、英语的学习,以及英语作文的批改,这些方面做得相对成熟一些,智能教学,仪器教学装备有了一些。但是很多我们理想上问题的解决,还有待人工智能技术的进一步的成熟。这种成熟关键在于,一是要把人工智能产业界的技术人员和我们教育体系里面的人员结合在一起,形成交叉融合。

如果纯技术驱动,不懂教育规律,有时候就用技术强化我们教育中的很多违背规律的做法。实际上要在正确的教育思想、教育理念、教育规律下发挥技术所应该发挥的作用,一定要在遵循教育规律下不断地推进我们的技术成熟。这对于人工智能的发展也会起到非常重要的作用。

另外,人工智能还要避免两个极端思想。一种极端思想就是认为人工智能能做一切,什么问题都能解决。唯人工智能论。今后人工智能会取代老师,人工智能会取代学校,这都是比较简单的过分乐观的,像我们接触过原来一些企业界的,未来互联网会消灭学校,走了20多年,学校还很好,不可能的。

人工智能不会取代学校,也不会取代老师,不要过于乐观。另外,也要防止那些过于悲观。有些认为人工智能一点用没有,花架子之类的,也要防止这种过于的悲观。这两个之间要有些平衡,要防止这两个极端的事情。

另外,人工智能在用于一些关键性业务的时候,高利害业务的时候,可能还需要各种保障机制,像前段时间,印度就出了一个事情,印度的高考,由于它的高考阅卷系统出现故障,造成很多孩子都不及格,印度那段时间自杀了十几个,自杀了好多孩子,因为印度的高考是高利害的,和我们二三十年前一考定终身差不多,这也给我们启示。高利害的这些应用一定要慎重。比如说我让人工智能来阅卷,这个阅卷是高利害的,决定一个人的很大利益的。

这个时候我建议应该采用多种原理的技术,因为人工智能同样实现这个东西,可能有不同原理,不同原理的技术,比如我找三个产品来同样做这件事情。如果这三个产品都能够有一致性,这就比较稳定。如果有差异,这个产品好,那个产品差,有分歧的时候,这时候人工介入。这是比较科学的。在高利害的应用领域里面,还需要人机结合的思维方式。这种方式非常重要。

主持人

谢谢。今天非常感谢余教授和大家一起分享人工智能在我们教育领域目前的应用。包括我们未来还需要解决哪些问题,受益匪浅。非常感谢您。感谢大家收看我们今天的节目,下期见。

|来源:人民网

|美编:甄宏莉返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇