博舍

联合国教科文:人工智能技术应引入中小学教学 人工智能技术引入音乐教育

联合国教科文:人工智能技术应引入中小学教学

一是中央政府主导的开发机制。在这类机制下,大部分人工智能课程的开发由中央政府主导的国家机构负责,并从国家层面予以支持和推广,比如韩国,课程专家根据政府要求进行课程开发,中国、科威特和保加利亚也属于这一类,只是开发人员还包括了在职教师、学者和专家。

二是政府委托私营机构提供课程的开发机制。在沙特阿拉伯和卡塔尔,政府委托私营公司开发国家课程,这种机制是为了更好适应日新月异的技术变化。

三是中央政府指导下课程开发权力下放的开发机制。比利时、德国属于这一类,在德国,由德国联邦政府制定标准,地方政府将国家标准进一步细化,并发展成为学校可实施的课程。

四是私营部门驱动的非官方课程开发机制。这类课程由私营部门参与推动和开发,这些课程可能会原样或经当地专家改编后采用。这类课程开发具有一定灵活性,以便能够被纳入政府支持的各种课程框架和需求中。

图片来源于网络

报告指出,目前基础教育阶段人工智能课程融入学校教育教学的模式主要有5类。

一是分离式人工智能课程。该模式下的课程是在国家或地方课程框架内的独立学科类别中开发出来的,这些课程有自己的时间分配、教科书和资源,例如,中国10—12年级信息科学与技术下的人工智能基础课程。

二是嵌入式人工智能课程。该模式是指课程的开发被包含在国家或地方课程框架中的其他学科类别中,人工智能通常成为信息与通信技术或计算机科学中的一个专题,也可以被开发成为语言、数学、科学或工程的一部分。例如,韩国政府提供了两门人工智能选修课程,一门属于数学,另一门属于技术和家政学。

三是跨学科人工智能课程。该模式是在具有跨学科工作和相关特定时间要求的课程体系中开展的,这些课程涉及多个学科领域,采用项目式方法达到人工智能学习效果。例如,在阿联酋,人工智能被整合进一系列学科中,包括信息与通信技术、科学、数学、语言、社会研究和道德教育。

四是多模态人工智能课程。该模式的核心是人工智能课程需要在学校开展,并得到课程讲解员和教科书等传统学校内部资源支持,但也会利用校外资源网络和国家或国际竞赛等非常规学习机会。

五是灵活的人工智能课程。该模式是指人工智能课程可以根据地区、学校联盟或个别学校的不同需求,通过一种或多种整合机制实施。例如,印度的人工智能课程模块可以通过嵌入式、跨学科、校外模式等提供;沙特阿拉伯的数字技能,可以选择分离式或嵌入式课程模式实施。

报告最后认为,人工智能的学习需要更加注重培养学生人工智能技术和情境伦理的创造力,培养具有国际竞争力的技能人才。

(消息内容和图片来源于网络)返回搜狐,查看更多

当人工智能被引入教育未来师生如何用好这把双刃剑

原标题:当人工智能被引入教育未来师生如何用好这把双刃剑

4月24日,科技日报记者从北京师范大学智慧学习研究院了解到,该院历经一年时间,聚焦智能时代机器人技术在教育中的应用,对近年来教育机器人领域百篇有影响力的学术论文进行了系统分析,形成了《如何利用人工智能学习?百篇教育机器人学术文章深度分析》报告。

机器人具有多学科属性,能很好地应用于教学实验,创建建设性学习环境,提供真实世界任务导向,在STEM教育以及编程教育中已得到广泛应用。同时,机器人技术也将增强传统教学实践,将抽象概念具象化,培养学生系统设计思维。

报告发现,当前研究一方面集中在探索人机协同教学新模式,满足差异化学习需求,响应包括信息意识、计算思维、数字化学习与创新在内的智能时代的素养诉求;另一方面着眼于如何打破技术与经济壁垒,提供低成本的机器人教育解决方案,保障教育公平。

随着AI生成内容(AIGC)和大规模语言模型(LLMs)等技术在复杂性、效率和集成性方面的飞速发展,ChatGPT、GPT-4等聊天机器人将对话代理技术水平带到了一个全新的层次。这一技术革新有望提升个性化的学习体验,创建自适应学习环境,激发灵感和创造力,减轻教师工作负担,并提供超越课堂的、随时随地的多语言学习机会。然而,ChatGPT的拟人性也是一把双刃剑,易生成具有欺骗性的不易察觉的错误信息和偏见。对ChatGPT产生过度依赖不但会助长学习中的惰性,诱发作弊和剽窃,更会削弱学生的批判性思维,使其产生错误的价值观,甚至引发更为严重的伦理道德问题。如何正确使用、管理与利用聊天机器人等,是当前研究的重点。

报告指出,机器人的发展受到一系列复杂因素的影响,这些因素引发的隐私安全问题、人类尊严问题以及计算能力成本问题应该引起关注。报告也对机器人在教育领域的应用提出了若干建议。

随着人工智能技术(包括智能导师系统、聊天机器人、元宇宙等)的兴起,教育领域中人机协作的研究变得极为重要。但在关注伦理问题的同时,也需思考如何提升教师的作用,实现教师和人工智能的协作教学,加强理论研究、平台建设及专家指导,以推动中小学和高校人机教学实践的发展。

智能时代大量的人工智能技术被引入教育,其中大部分是双刃剑。报告呼吁,必须重新思考并改变教学理念、在线学习模式、数字资源开发利用方式、评价方法等,以满足智能时代的教育需求。另外,还要重新思考学生、教师等在智能时代需要掌握的核心技能。

报告还指出,可以通过社会实验研究人工智能技术在教育过程中的影响,这不仅能验证某项技术在教育中是否有效,还将为延伸教学公共服务提供实践基础和数据支持,有助于实现教育公平。(记者张盖伦)

(责编:郝孟佳、李依环)

分享让更多人看到

人工智能在音乐领域的应用概述(1)

AI+机器听觉(Content-BasedMIR,实现基于内容的音乐检索)        从根据语言数据(直接用文字标定每一首歌的风格,歌手等信息)到直接根据音乐本身进行推断的转变。1.1MusicFingerprinting(音乐指纹)        H(X)理解为哈希函数,将音频数组X映射到哈希值Y,Y有更小的数据量,同时体现歌曲间的差异,具有辨别不同歌曲的特性。       上图为著名的飞利浦算法。简述为,对源音频加窗(如汉宁窗),做短时傅里叶变换(STFT)。分窗步比一般语音识别的步长更小,窗间隔只取到窗宽度的1/32。        类似上图,通过ABS(类似复数取模)将二维的幅度相位合并为一维(不用功率谱的原因可能是它丢失了相位,丢失大量信息)。使用带通滤波器不重叠地(non-overlapping)按照对数规则划分若干频段(经典算法中划分33个,300Hz~2000Hz(各种播放设备,无论喇叭,收音机,手机,超市扩音器等等,都能在此频段集中))。类似于图像处理中的池化(Pooling),我们在差分处理需要对这些密集的分频段频域数据在保持相对不变(Invariance)基础上降维。取subFingerprint,32比特为一帧(frame)。对于每一帧中的信号能量做bitderivation。大致过程如下。     上式中,X[k]是第k频段幅度,Bm[k]为遮罩,由下式确定。此式对应流程图中EnergyComputation和bitDerivation的第一步。    下式引入改进的IDCT,对应bitderivation第二步。        最后获取音频基因并进行比对,归一化获得每个频段的决策。比如,若比对结果大于0则取1涂黑,反之取0留白,如下图。对应流程图bitderivation第三步和第四步。       整个过程可总结为:分窗做短时傅里叶变换;分频并将频谱映射至梅尔刻度;利用三角窗函数取对数;取离散余弦转换(discretecosinetransform)得出梅尔倒频谱(MFCC)。最后,以256帧为一块(block),以块为单位检索音乐。一个块时长约为3.3秒(取窗的宽度为0.37s,那么256×0.37÷32约为2.9,再考虑块两端未重叠的窗宽,最终长度约为3.3秒)。上图指纹即为一块,一行表示一帧各频段,分别取1或0.      通过比对两段音频的指纹,便可知两者的相似程度。

      以上概述了该算法流程,现在简单描述该算法的可行性。

      假设两个音频片段没有任何联系,指纹中任一比特均相互独立,互相匹配的概率为0.5.单个比特匹配随机变量服从p=0.5的伯努利分布。       则总匹配数服从含量8192,单次成功概率为0.5的二项分布。n很大,故可近似为正态分布。即可按照下式求出相似比率的μ=0.5,σ≈0.006。这是很窄的正态分布,即当两者无关时,Ratio落在0.5之外的概率微乎其微,落在0.8以上几乎不可能。

      以上看起来很好。然而实际情况中,每个比特互相独立是不可能的。第一步取窗时产生大量重合部分;任何音乐都几乎连续,有律动和音调,因此不可能每个比特互相独立。有的解决方法将非独立因素等效为计算比率时有效点比实际少,即通过适当减小ratio中的分母实现近似,但难以精确描述。若严谨验证需要仿真。下图使用100K随机生成音频律动序列仿真,得出标准差仍在可接受范围。       上式对匹配比率的最大值进行估计,得出即使不匹配样本块容量达300万(折合约5000首歌),得出最大匹配率期望仍小于0.58.实验中发现,对于实际匹配样本,即使信噪比(SNR)为-3db,匹配率仍大于0.58.由此可见,该算法非常鲁棒。       以此算法为基础,苹果旗下shazam、谷歌等公司改进诸多方面,基本形成听歌识曲的算法框架。       一般听歌识曲局限在于只能匹配信号精确相同的音频(可以有噪音)。例如,开麦现场无法识别歌曲;播放Live或K歌版本,绝对无法匹配原版。从刚才描述中显然看出,听歌识曲是通过音频的瞬态(几毫秒)特征进行匹配,不同版本的音乐听来是一首,但在波形、频谱上几乎没有关系,因此该算法无效。为此,引入QuerybyHumming.

1.2QuerybyHumming(哼唱检索)       这是基于旋律的算法,理解简单但实现相对繁琐:这种匹配是部分的、模糊的,歌者往往部分跑调。       首先进行预处理:onsetdetection(音符起止点检测,使用python中librosa库可实现大部分)、傅里叶变换提取基波并使用硬拐点分辨音高、计算相对音高(RelativePitch)和时值比例(IOIRatio),最后与midi信号匹配,如下图。       匹配的关键算法是动态规划(DP)。       上图展示传统连续系统动态规划(CDP)。横轴为待匹配字符(实际哼唱得到的相对音高和时值比例),纵轴为数据集(每个0代表每首歌对应的字符)。类比正则表达式中的模糊匹配,横轴相当于text,纵轴相当于pattern。现在要填满状态转移矩阵。初始条件是数据库维度第一列的矩阵元素都是0.由于横轴都用负数表示,故在最后一列找出最小值,找到对应行的歌曲即为最佳匹配。上图与下图a同理,通过累加database和queryfeature的局部相似函数s(t,τ)得到累积相似度S(t,τ),只不过下图横轴累积的是正数。对于上下这两图简单理解为:若某个数据库与第一个音符关系不符合,则略过。若找到符合,进入第二个音符关系寻找匹配。之后的每一次匹配按照下图(c)的规则判断最佳匹配选择应该如何,同时逐渐填满矩阵。        传统CDP算法表达式如下所示。递归终止(矩阵边界)S(t,0)、S(t,-1)、S(-1,τ)、S(0,τ)均为0,递归式中,上图©对应下式(1),描述了获取最佳局部路径的解。每一点旁边的数(1,2,3)表示某状态下把局部相似度计入总相似度时的权重。注意到每沿参考轴(上图向右,上上图向下)前进一次,总相似度都加了3次该前进过程中的局部相似函数值.所以累积函数除3即可归一化。        然后,寻找相似片段。上图(b)展示了累积相似度函数图像。CDP将相似片段的端点计为累计相似度大于门限α的交点。于是便找到可能的一首或几首歌曲。        以上传统CDP算法可以针对音乐特征进行优化。例如,根据音高直方图(表达relativepitch出现频次)过滤;根据旋律走向和时值比例过滤完全不可能匹配的歌曲;事先分析数据库中数据主题并评估检测权重(类似调参)。        传统听歌识曲基本原理大致如此,接下来将介绍关于智能分类(推荐)和智能作曲的基本原理,未完待续。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇