博舍

音乐人工智能与音乐信息科技系-中央音乐学院 最出名的人工智能音乐是什么乐器名称呢

音乐人工智能与音乐信息科技系-中央音乐学院

音乐人工智能与音乐信息科技系创建于2019年,“音乐人工智能与音乐信息科技学科”获评北京市高精尖学科,学科建设在全国具有引领、示范意义。2021年,《音乐与人工智能协同创新发展理论研究》项目获批国家社科重大项目,成立“音乐与脑科学实验室”,“音乐人工智能实验室”入选首批教育部哲学社会科学实验室(培育)名单,音乐专业(音乐人工智能方向)虚拟教研室入选教育部首批虚拟教研室建设试点。

音乐人工智能系汇聚了一大批中国最优秀的音乐家及音乐人工智能专家,包括中国文联副主席、书记处书记、中央音乐学院校长、中国音协指挥学会会长、全国高校美育教育指导委员会主任俞峰教授;国务院参事、中国工程院院士、中国人工智能学会理事长、北京信息科学与技术国家研究中心主任戴琼海教授;中国科学院院士、西安交通大学电子与信息学部主任管晓宏教授;中国计算机学会(CCF)计算艺术分会主任、中国人工智能学会(CAAI)艺术与人工智能专委会主任、中央音乐学院音乐人工智能系主任李小兵教授;北京通用人工智能研究院院长、北京大学人工智能研究院院长、北京大学智能学院院长朱松纯教授;欧洲科学院外籍院士、清华大学人工智能研究院常务副院长、清华大学计算机学位评定分委员会主席孙茂松教授;北京大学信息科学技术学院副院长、智能科学系系主任、言语听觉研究中心主任吴玺宏教授;清华大学脑与智能实验室主任王小勤教授;复旦大学计算机科学技术学院李伟教授等,共同培养音乐人工智能交叉复合型人才。

音乐人工智能与音乐信息科技系下设音乐人工智能中心、电子音乐中心、音乐治疗教研室,包含音乐人工智能与音乐信息科技、电子音乐制作、电子音乐作曲、电子音乐技术理论、音乐录音、音响艺术指导、音乐治疗、艺术嗓音及嗓音医学8个专业方向。

本系现任系主任李小兵教授,支部书记方恒健教授,现有教职工39人,其中,正高职称15人(含特聘教授7人),副高职称5人,中级职称14人。

人工智能在音乐领域的应用概述(1)

AI+机器听觉(Content-BasedMIR,实现基于内容的音乐检索)        从根据语言数据(直接用文字标定每一首歌的风格,歌手等信息)到直接根据音乐本身进行推断的转变。1.1MusicFingerprinting(音乐指纹)        H(X)理解为哈希函数,将音频数组X映射到哈希值Y,Y有更小的数据量,同时体现歌曲间的差异,具有辨别不同歌曲的特性。       上图为著名的飞利浦算法。简述为,对源音频加窗(如汉宁窗),做短时傅里叶变换(STFT)。分窗步比一般语音识别的步长更小,窗间隔只取到窗宽度的1/32。        类似上图,通过ABS(类似复数取模)将二维的幅度相位合并为一维(不用功率谱的原因可能是它丢失了相位,丢失大量信息)。使用带通滤波器不重叠地(non-overlapping)按照对数规则划分若干频段(经典算法中划分33个,300Hz~2000Hz(各种播放设备,无论喇叭,收音机,手机,超市扩音器等等,都能在此频段集中))。类似于图像处理中的池化(Pooling),我们在差分处理需要对这些密集的分频段频域数据在保持相对不变(Invariance)基础上降维。取subFingerprint,32比特为一帧(frame)。对于每一帧中的信号能量做bitderivation。大致过程如下。     上式中,X[k]是第k频段幅度,Bm[k]为遮罩,由下式确定。此式对应流程图中EnergyComputation和bitDerivation的第一步。    下式引入改进的IDCT,对应bitderivation第二步。        最后获取音频基因并进行比对,归一化获得每个频段的决策。比如,若比对结果大于0则取1涂黑,反之取0留白,如下图。对应流程图bitderivation第三步和第四步。       整个过程可总结为:分窗做短时傅里叶变换;分频并将频谱映射至梅尔刻度;利用三角窗函数取对数;取离散余弦转换(discretecosinetransform)得出梅尔倒频谱(MFCC)。最后,以256帧为一块(block),以块为单位检索音乐。一个块时长约为3.3秒(取窗的宽度为0.37s,那么256×0.37÷32约为2.9,再考虑块两端未重叠的窗宽,最终长度约为3.3秒)。上图指纹即为一块,一行表示一帧各频段,分别取1或0.      通过比对两段音频的指纹,便可知两者的相似程度。

      以上概述了该算法流程,现在简单描述该算法的可行性。

      假设两个音频片段没有任何联系,指纹中任一比特均相互独立,互相匹配的概率为0.5.单个比特匹配随机变量服从p=0.5的伯努利分布。       则总匹配数服从含量8192,单次成功概率为0.5的二项分布。n很大,故可近似为正态分布。即可按照下式求出相似比率的μ=0.5,σ≈0.006。这是很窄的正态分布,即当两者无关时,Ratio落在0.5之外的概率微乎其微,落在0.8以上几乎不可能。

      以上看起来很好。然而实际情况中,每个比特互相独立是不可能的。第一步取窗时产生大量重合部分;任何音乐都几乎连续,有律动和音调,因此不可能每个比特互相独立。有的解决方法将非独立因素等效为计算比率时有效点比实际少,即通过适当减小ratio中的分母实现近似,但难以精确描述。若严谨验证需要仿真。下图使用100K随机生成音频律动序列仿真,得出标准差仍在可接受范围。       上式对匹配比率的最大值进行估计,得出即使不匹配样本块容量达300万(折合约5000首歌),得出最大匹配率期望仍小于0.58.实验中发现,对于实际匹配样本,即使信噪比(SNR)为-3db,匹配率仍大于0.58.由此可见,该算法非常鲁棒。       以此算法为基础,苹果旗下shazam、谷歌等公司改进诸多方面,基本形成听歌识曲的算法框架。       一般听歌识曲局限在于只能匹配信号精确相同的音频(可以有噪音)。例如,开麦现场无法识别歌曲;播放Live或K歌版本,绝对无法匹配原版。从刚才描述中显然看出,听歌识曲是通过音频的瞬态(几毫秒)特征进行匹配,不同版本的音乐听来是一首,但在波形、频谱上几乎没有关系,因此该算法无效。为此,引入QuerybyHumming.

1.2QuerybyHumming(哼唱检索)       这是基于旋律的算法,理解简单但实现相对繁琐:这种匹配是部分的、模糊的,歌者往往部分跑调。       首先进行预处理:onsetdetection(音符起止点检测,使用python中librosa库可实现大部分)、傅里叶变换提取基波并使用硬拐点分辨音高、计算相对音高(RelativePitch)和时值比例(IOIRatio),最后与midi信号匹配,如下图。       匹配的关键算法是动态规划(DP)。       上图展示传统连续系统动态规划(CDP)。横轴为待匹配字符(实际哼唱得到的相对音高和时值比例),纵轴为数据集(每个0代表每首歌对应的字符)。类比正则表达式中的模糊匹配,横轴相当于text,纵轴相当于pattern。现在要填满状态转移矩阵。初始条件是数据库维度第一列的矩阵元素都是0.由于横轴都用负数表示,故在最后一列找出最小值,找到对应行的歌曲即为最佳匹配。上图与下图a同理,通过累加database和queryfeature的局部相似函数s(t,τ)得到累积相似度S(t,τ),只不过下图横轴累积的是正数。对于上下这两图简单理解为:若某个数据库与第一个音符关系不符合,则略过。若找到符合,进入第二个音符关系寻找匹配。之后的每一次匹配按照下图(c)的规则判断最佳匹配选择应该如何,同时逐渐填满矩阵。        传统CDP算法表达式如下所示。递归终止(矩阵边界)S(t,0)、S(t,-1)、S(-1,τ)、S(0,τ)均为0,递归式中,上图©对应下式(1),描述了获取最佳局部路径的解。每一点旁边的数(1,2,3)表示某状态下把局部相似度计入总相似度时的权重。注意到每沿参考轴(上图向右,上上图向下)前进一次,总相似度都加了3次该前进过程中的局部相似函数值.所以累积函数除3即可归一化。        然后,寻找相似片段。上图(b)展示了累积相似度函数图像。CDP将相似片段的端点计为累计相似度大于门限α的交点。于是便找到可能的一首或几首歌曲。        以上传统CDP算法可以针对音乐特征进行优化。例如,根据音高直方图(表达relativepitch出现频次)过滤;根据旋律走向和时值比例过滤完全不可能匹配的歌曲;事先分析数据库中数据主题并评估检测权重(类似调参)。        传统听歌识曲基本原理大致如此,接下来将介绍关于智能分类(推荐)和智能作曲的基本原理,未完待续。

AI+音乐=人工智能在音乐消费场景的中作用比想象的要大

编辑导读:人工智能的应用越来越广泛,除了最开始的虚拟歌姬,AI在音乐上的应用已经涵盖到AI作词、AI作曲、音频合成等多个方面。人工智能在音乐消费场景会有什么新突破?本文作者对它的发展进行了分析,希望对你有帮助。

人工智能正更广泛的在音乐行业中扩大影响并辐射各行业及场景带来诸多利好。

自上世纪40年代人工智能行业开启后,随着AI技术的日臻完善和成熟,AI能够作用于社会生活的范围逐渐扩大,从尖端科技产业应用人工智能产品,到涉及生活方方面面的智能家居。在音乐市场,AI技术的应用也愈发深刻,覆盖音乐教学、AI音乐创作、虚拟歌手、娱乐社交等众多场景。

现阶段,随着人工智能的不断开发和演进,AI在音乐领域的能力正逐渐被大众认可。

而且,不管是AI技术用于音乐创作发展,还是借助AI音乐赋能产品玩法,再或者以AI技术对音乐进行加工利用,如:AI演唱、AI作词、AI作曲、人声/乐器分离、BGM识别、副歌剪辑、曲谱识别、音频合成等等,人工智能正更广泛的在音乐行业中扩大影响,其辐射各行业及场景带来诸多利好也是明显可见的。

一、AI音乐创作

机器可能没有灵魂,但现在它和人一样,也可以进行艺术创作。

在音乐创作层面,机器通过对大数据深度学习训练后,模型可自动产生类似人类作曲家的曲子,相较人工作曲,AI创作在成品数量及速度上都更加突出,而且,随着机器算法学习的不断强化,其创作能力、作品质量也将大幅提升,这打破了音乐市场关于成本及创作时间的限制,对于音乐产业链运作将更有效率。

AI是如何谱曲的?简单来说就是大数据分析+外部算法,AI作曲背后蕴含着多种算法模型的结合运用,包含人工神经网络、马尔科夫链及遗传算法等。

人工神经网络是一种对生物神经的网络行为特征进行模仿,开展分布式并行信息处理的算法数学模型,基于程序员搭建的多层“神经网络”,机器对海量经典音乐数据消化和分析后形成对音乐旋律、节奏、音高、强弱变化的理解。而在不断的高速学习中,AI的能力会越来越强,最终掌握规律并不断以巧妙的手法重新融合,创造出风格不同的音乐作品。该方式能够对音乐全局性特征进行学习,但缺点是需采用大量的样本进行训练。

马尔科夫链是一种随机选择过程,主要用于产生一段具有一定风格的旋律,这种方法可以模拟作曲家创作音乐时的思维,来控制计算机生成相应的作品;遗传算法则是模仿生物进化过程的智能计算方法,使用适应性函数来演化样本、优化全局。

当前,国内外也已有不少企业布局该领域并推出研发成果,如:AIVA科技开发AI作曲家“Aiva”,据悉,微软“小冰”的音乐创作能力已实现旋律、编曲及歌词端一体化的产品落地;基于人工智能的音乐作曲工具还有EcrettMusic、谷歌Magenta和索尼FlowMachines等;

国内,行者AI团队“小嗨”在智能创作上,已实现识曲、作词、作曲等功能,作品已实现商业化授权和应用;中国平安AI作曲在世界AI作曲国际大奖赛中获得第一,创作AI交响变奏曲《我和我的祖国》;今年春节,网易也试水AI音乐创作领域,推出一站式音乐创作平台网易天音,解锁拜年新姿势;4月12日,科技音乐公司HIFIVE也官宣上线“AI音乐开放能力”服务,以先进科技赋能音乐发展,“AI音乐创作”功能现全面开放。

AI作为交互式创作助手,不仅可给予专业创作者更多的灵感和可能性,而且,对于音乐爱好者来说,AI音乐降低了内容创作门槛,可帮助更多人加入到音乐创作中。

二、音乐教学

“人工智能+教育”正在大范围改变人们的生活与教育方式。

智能化的电子乐器,这种智能化乐器不仅能够储存更多的乐器音乐,还可以对音色进行编排,可以按照一定的行为指令进行顺序演奏,此类乐器的功能是其它乐器无法比拟的,在教学中,需要多人协作演奏的乐曲可实现一个人在这样的乐器上演奏。

人工智能音乐软件应用于现代音乐教学中,原来依靠合成器或者音乐工作者处理编辑的音乐任务交由电脑来完成,不仅提高了音乐数据的处理能力也扩大了音乐信息的容纳范围。此外,通过软件还可以将古诗词等改编成音乐;器乐分轨、曲谱直接转为音乐播放,寓教于乐。

科技的运用还可以促进音乐教学对网络的学习和应用。智能化乐器和软件的使用,一些新兴的音乐课程和教学方式出现,打破破传统教育模式,加强音乐教学中师生交流互动,也使学生融入到更广泛的音乐世界中去,学习音乐享受音乐,从而创造音乐。

三、商业化授权和应用,降本增效

现阶段,人工智能作曲技术也正逐渐往商业应用方向发展,其应用场景主要为影视剧配乐、视频配乐,游戏配乐、在线工具配乐、商业广告、发布会、产品内置等方面。从创作时间和成本上看,AI音乐作品为非艺术场景、批量制作、创意要求不高,对价格敏感的商用音乐需求提供了好的解决方案。

例如,在娱乐社交产品中,音乐作为重要的元素,应用于语聊房背景音乐,K歌房伴奏、游戏音效等众多场景下,在平衡音乐成本和满足用户音乐需求层面,相较人工创作的高昂费用及不确定时间,AI音乐的极致性价比可有效帮助开发者降本增效。

从HIFIVE音乐开放平台网站“AI音乐开放服务”公布的价格看,其按照服务量计费,<1万次的AI作曲调用,仅需1元/次,对于大批量的需求者,随着调用次数的增加,单次低至0.5元。对于音乐需求者,AI作品不仅可大幅降低音乐成本,而且便捷的接入方式和可控的创作时间都有利于项目进度规划。

四、虚拟歌手

人工智能偶像掀起娱乐新风向

当前虚拟歌手,也已不再是陌生话题,根植于二次元文化和粉丝经济人气虚拟歌姬初音未来、洛天依在年轻一辈中可以说是人尽皆知,虚拟歌手也开辟了偶像领域的新模式,被称“永不会塌房”的idol”。

2021年春节联欢晚会上,月亮姐姐、王源、洛天依合作出演少儿歌舞节目《听我说》,这是央视春晚历史上虚拟歌手的首次亮相。从2012年作为中国首个虚拟歌手出道,到登上央视春晚舞台,洛天依被大众认可和接受也表明虚拟偶像向主流化道路进军再下一城。

其代表作《达拉崩吧》《权御天下》等在各大音视频平台也拥有不俗的播放量和传播度。近日,上映的动画电影《精灵旅社》最终章《精灵旅社4:变身大冒险》,洛天依也与精灵家族梦幻同屏献唱中文版主题曲《爱,醒来》。

其实除洛天依外,国内也还有言和、乐正龙牙、徵羽摩柯、墨清弦、乐正绫等众多虚拟歌手,随着虚拟偶像的崛起,AI技术也将在市场应用中朝着更先进的方向发展。

五、写在最后

技术革新既是挑战,也是机会。

对于AI音乐也曾引起许多争议:AI作的曲能称作是艺术吗?AI作曲会导致音乐人失业吗?AI作品版权如何界定……虽然上述问题还有待商榷,但我们不可否认,AI技术在音乐层面的应用正逐步深入并带来众多积极效益。

因此,我们有理由相信AI音乐的未来是充满希望的,其市场应用也会迎来更大的发展机遇,将为音乐产业链上下游带来更多的利好。

 

本文@HIFIVE嗨翻屋原创发布于人人都是产品经理。未经许可,禁止转载。

题图来自Unsplash,基于CC0协议

人工智能来了,未来的音乐将是什么样

中央音乐学院音乐人工智能与音乐信息科技系系主任、教授李小兵

纵观世界艺术历史,科技的发展和艺术的发展息息相关,从农耕时代中世纪的教堂圣咏,到工业革命冶炼技术出现后成就的交响乐,随着电子技术以及计算机的出现,电子音乐、MIDI、计算机音乐、音乐人工智能迅速发展。未来音乐会是和计算机、人工智能有关吗?这是很有可能的。我们并不知道未来音乐是怎样的,但未来音乐值得我们探索。

音乐与人工智能的发展

国外音乐与科技相关学科的发展自20世纪50年代开始,工程师和科学家开始合作探索音乐的数字处理技术,逐渐形成了音乐科技/计算机音乐(MusicTechnology/ComputerMusic)这一交叉学科。上世纪70年代以后,欧美各国相继建立了多个大型计算机音乐研究机构。2000年后,音乐科技在世界各地如澳大利亚、日本、新加坡等地都逐渐发展起来。

20世纪90年代起,国内各个综合类大学的计算机专业中的一些教授开始了关于计算机与音乐的研究。近年来,中央音乐学院、中央美术学院、上海音乐学院等国内一批一流艺术院校先后成立了艺术科技交叉学科,对音乐或其他艺术与人工智能的交叉研究开展了初步探索。

中央音乐学院是我国最早开展音乐与人工智能交叉研究的艺术院校:1993年成立了电子音乐中心2012年成立音乐科技部,2018年组建音乐人工智能与音乐信息科技学科方向和实体系,下设音乐人工智能、电子音乐作曲、电子音乐制作、音响艺术指导、音乐治疗、艺术嗓音等专业方向。前一段时间在京举办的世界音乐人工智能大会就是由音乐人工智能系承办的,主办单位是中央音乐学院和中国人工智能学会,团结了全世界最顶尖的一线人工智能音乐专家。明年我们争取做得更大,希望它成为世界音乐人工智能的风向标和重要的学术交流场所,成为产业化交流的平台与服务社会的纽带。

世界音乐人工智能大会圆桌讨论

人工智能与艺术目前受到广泛关注,去年在西安举办的中国人工智能与艺术教育论坛,网络在线近50万人共同参与了该论坛。我们发现,全国各地有非常多的人关注这个事情。2021年举办的全球人工智能技术大会(GAITC)——当AI与艺术相遇专题论坛,同样几十万人参与。

今年,中国人工智能学会(CAAI)艺术与人工智能专委会、中国计算机学会(CCF)计算艺术分会相继成立,团结了全国八大艺术门类的所有跟科技相关的人员,包括中央音乐学院、中央美术学院、上海音乐学院、中央戏剧学院等艺术院校艺术与科技的相关人才,一起来探讨未来艺术。

音乐人工智能先乐后药

音乐与人工智能发展有三个过程:创作、呈现、接受。我们研究音乐、人和人工智能三者如何协同发展的关系。在创作、呈现、接受以外,还有哲学、音乐人工智能的美学以及它的伦理,都有待我们跟进研究。

音乐创作方面,有作曲技术的研究,也有智能作曲和新创作的方式。智能作曲是按照人既有的规律创作;而新创作的方式,是以人还没有的规律(由AI)自觉创作的一个过程。我们现在做AI作曲,会发现它模拟人的创作挺有趣,而它模拟的自主创作会让人瞠目结舌,希望未来也会为这个世界创作一些惊喜。

音乐呈现、传播等方面,有机器人的演奏,中央音乐学院与美国印第安纳大学还搞了一个自动伴奏系统。原来的伴奏系统是人跟着乐队、伴奏带学习,但现在的AI伴奏系统,会像人一样配合你的演奏。未来我们也会自动生成为一些伴奏音乐。

音乐接受方面,我们已经在认知、音乐治疗、欣赏过程方面进行了研究和探索。音乐治疗是我们人工智能系重要的部门之一,下设音乐治疗教研室中心,已经有了接近30年的历史。目前,中央音乐学院的音乐治疗除了传统的音乐治疗以外,还有音乐人脑科学,科学地研究、构建一个更大的音乐治疗范围,不仅仅是从心理学角度研究,还从脑科学进行研究。目前,大家已经找到了音乐记忆在脑部的某个位置的反应,是很小的一个记忆点。我们希望搞清楚音乐的频率、音乐如何形成人的情绪,它对人脑到底产生了什么影响。其实,音乐对人的情绪影响是巨大的,有的时候甚至超过了药物,你吃药得反应半天才会有效果,可是听音乐的一瞬间情绪就会发生变化,所以音乐的频率特别神奇。

中国古代音乐的“乐”字繁体字“樂”,加个草字头就是“藥”(药)字。《黄帝内经》不断说了先乐后药,治病的时候还有声音治病。我们希望通过脑科学验证声音的频率到底对人有多大的反应,反应在哪儿,它的机理是什么。我们未来想做抑郁症、自闭症、临终关怀,可是现在我们想第一步解决睡眠的问题,研究音乐对睡眠的影响。

智能作曲已经开始了

央音的AI自动作曲系统,是通过人工智能算法进行作曲、编曲、歌唱、混音,并最终生成完整歌曲作品的系统。智能作曲能够在23秒快速地创作出一首歌曲,可以达到一般作曲家写作水平。23秒,配器、演唱都可以出来,在全世界都比较前沿。

自动作曲系统架构

智能自动作曲系统主要分为自动作曲模块、自动编曲模块、歌声合成模块和自动混音模块。在系统建立过程当中,首先要对歌曲旋律、曲风、情感、歌词等歌曲信息进行整理和统计,建立给信息大数据库,然后用深度学习算法训练对应的模型,最后由系统根据用户输入的参数和歌词进行歌曲作品的制作。这个项目最终的目的是要实现一个基于网页-服务器架构的、可供用户操作使用的网页端产品。

未来的音乐一定会是一个多维的音乐空间。传统的一对音箱的立体声,我们听到的声音都是从前面传过来。但是现在很多全景式的收音、录音技术,是可以收到四面八方的声音的,效果就好了很多。3D音乐将比立体声音乐有着更动人的音乐魅力,是传统的立体声音乐听觉的升级,是目前电视、立体声录音等没办法体验的、全新概念的音乐体现方式。这种“跑动起来、流动的”3D全息音乐将是未来音乐的一部分,是一个这个时代的创新工程,值得我们探索。

除了传统的交响乐队产生三维立体声效,我们还有新创造的音乐,比如电子音乐创作,不拘泥于前面发声,也可以通过后面发声、上面发声,各个维度所有方向参与音乐的创作表达当中。我们的研究结果

发现,3D音乐的出现,可能会对我们传统的和声、配器产生影响。

3D音乐肯定会改变原来的模式,2019年中央音乐学院做了一场3D音乐《中国十二生肖》。现在全世界很多的音乐家都在做,包括杜比公司、DTS公司已经发布自己的编码解码系统,这就给了创造者更多的空间,他们自己在家里就可以做3D音乐了。3D音乐除了音箱以外,还可以下降到耳机的算法,我们戴耳机也可以听出三维的空间。

未来,音乐机器人、虚拟机器人对于我们音乐表演、交互、音乐娱乐将会有重要的好处,我们目前正在做一个音乐教育方面的音乐机器人。大家知道,全世界的音乐教育师资缺乏,特别是偏远地区专业的音乐老师非常缺乏,甚至有些地方都是体育老师、语文老师兼职。我们希望在“数字人”方面做一些努力,让“数字人”能作为一个音乐老师跟你交互。如果音乐教育的虚拟人物能为全国的边远山区做一些事,对我们中国的美育教育将会是一个重大的贡献。

我们还有一个AI歌词辅助写作系统,辅助作曲家创作歌词。我们做了一个作诗系统,80%的人都写不过它。我们现在在做音乐数据以及计算中心,教育部和发改委都非常重视,特别希望我们建成全世界最大的音乐数据中心。

音乐人工智能的研究领域非常广泛,全世界没有专门研究人工智能的学校,大家都是从声音转过来的。中央音乐学院这个学科研究的就是未来音乐,我们有人工智能创作、人工智能的表演与交互、智能音乐教育、音乐与脑科学四个研究方向。我们的毕业生特别抢手,音乐人工智能的毕业生还没有毕业,各个大公司都抢着要我们的人。未来的音乐是什么?可能我们不知道。但是我们可以通过纵观音乐历史的发展、科技的发展来看到一些线索。科技的发展对我们的音乐创作、音乐呈现、音乐接受、音乐哲学等都会产生深远的影响。

我认为未来音乐的发展将会在下面三个维度上展开:

第一、传统意义的音乐(包括现代音乐)将会继续发展;第二、科技赋能传统意义的音乐创新发展;第三、新科技产生新的音乐形态独立发展。

总之,音乐人工智能是帮助人类、赋能人类的,不是代替人类的,人类的艺术因为音乐人工智能的出现将更加丰富多彩、更加弥足珍贵。希望我们一起携手为未来音乐做一些事情。

作者:中央音乐学院音乐人工智能与音乐信息科技系系主任、教授李小兵

特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇