博舍

人工智能(4):模型评估 人工智能模型举例说明图片

人工智能(4):模型评估

模型评估是模型开发过程不可或缺的一部分。它有助于发现表达数据的最佳模型和所选模型将来工作的性能如何。

按照数据集的目标值不同,可以把模型评估分为分类模型评估和回归模型评估。

1分类模型评估

 

准确率

        预测正确的数占样本总数的比例。

其他评价指标:精确率、召回率、F1-score、AUC指标等2回归模型评估

 

均方根误差(RootMeanSquaredError,RMSE)

RMSE是一个衡量回归模型误差率的常用公式。不过,它仅能比较误差是相同单位的模型。

举例:

假设上面的房价预测,只有五个样本,对应的

真实值为:100,120,125,230,400

预测值为:105,119,120,230,410

那么使用均方根误差求解得:

 

其他评价指标:相对平方误差(RelativeSquaredError,RSE)、平均绝对误差(MeanAbsoluteError,MAE)、相对绝对误差(RelativeAbsoluteError,RAE) 

3拟合

模型评估用于评价训练好的的模型的表现效果,其表现效果大致可以分为两类:过拟合、欠拟合。

在训练过程中,你可能会遇到如下问题:

训练数据训练的很好啊,误差也不大,为什么在测试集上面有问题呢?

当算法在某个数据集当中出现这种情况,可能就出现了拟合问题。

3.1欠拟合

 

因为机器学习到的天鹅特征太少了,导致区分标准太粗糙,不能准确识别出天鹅。

欠拟合(under-fitting):模型学习的太过粗糙,连训练集中的样本数据特征关系都没有学出来。

3.2过拟合

 

机器已经基本能区别天鹅和其他动物了。然后,很不巧已有的天鹅图片全是白天鹅的,于是机器经过学习后,会认为天鹅的羽毛都是白的,以后看到羽毛是黑的天鹅就会认为那不是天鹅。

过拟合(over-fitting):所建的机器学习模型或者是深度学习模型在训练样本中表现得过于优越,导致在测试数据集中表现不佳。

4小结分类模型评估【了解】

        准确率

回归模型评估【了解】

        RMSE--均方根误差

拟合【知道】

        举例--判断是否是人

        欠拟合

        (1)学习到的东西太少

        (2)模型学习的太过粗糙

        过拟合

        (1)学习到的东西太多

        (2)学习到的特征多,不好泛化

Meta推出Voicebox其音频生成人工智能模型

(资料图片)

今天,Meta宣布了其最新的生成式AI模型,继ImageBind之后是Voicebox,该模型旨在帮助创作者执行语音生成任务,例如音频编辑、采样和风格化,即使它不是专门的。通过情境学习接受训练来做到这一点。

Meta宣称,这种新的人工智能模型将为世界各地的许多人带来好处,并举例说明,例如帮助视障人士用自己的声音听到朋友发出的书面信息,以及允许人们用自己的声音说外语。

人工智能模型本身可以生成高质量的音频剪辑,并编辑预先录制的音频以消除汽车喇叭等不必要的干扰,同时保留音频的内容和风格,同时支持多种语言,以六种语言生成语音。该模型的未来发展包括在元宇宙中的游戏过程中为视觉助手或非玩家角色提供自然的声音。

Meta还将Voicebox与其他音频AI模型进行了比较,特别将Vall-E和YourTTS列为竞争对手,表明Voicebox更先进,并且在比较单词错误率和风格相似度时优于这两种模型。

关键词:

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇