博舍

【干货】人工智能相关双语术语表 人工智能术语解释大全图片高清

【干货】人工智能相关双语术语表

automaticsummarization自动摘要

averagegradient平均梯度

Average-Pooling平均池化

B

backpropagation(BP)反向传播

BackpropagationThroughTime(BPTT)通过时间的反向传播

BatchNormalization(BN)分批标准化

Bayesiannetwork贝叶斯网络

Bias-VarianceDilemma偏差/方差困境

Bi-directionalLong-ShortTermMemory(Bi-LSTM)双向长短期记忆

bias偏置/偏差

bigdata大数据

Boltzmannmachine玻尔兹曼机

C

CentralProcessingUnit(CPU)中央处理器

chunk词块

co-adapting共适应

co-occurrence共现

ComputationCost计算成本

computervision计算机视觉

conditionalrandomfield(CRF)条件随机域/场

convergence收敛

conversationalagent(CA)会话代理

convexity凸性

convolutionalneuralnetwork(CNN)卷积神经网络

CostFunction成本函数

crossentropy交叉熵

D

DecisionBoundary决策边界

DecisionTrees决策树

DeepBeliefNetwork(DBN)深度信念网络

DeepConvolutionalGenerativeAdversarialNetwork(DCGAN)深度卷积生成对抗网络

deeplearning(DL)深度学习

deepneuralnetwork(DNN)深度神经网络

DeepQ-Learning(DQN)深度Q学习

differentiableneuralcomputer(DNC)可微分神经计算机

dimensionalityreductionalgorithm降维算法

discriminativemodel判别模型

discriminator判别器

divergence散度

DynamicFusion动态融合

E

Embedding嵌入

emotionalanalysis情绪分析

End-to-End端到端

xpectation-Maximization(EME)期望最大化

ExplodingGradientProblem梯度爆炸问题

ExtremeLearningMachine(ELM)超限学习机

F

FacebookArtificialIntelligenceResearchFacebook(FAIR)人工智能研究所

factorization因子分解

featureengineering特征工程

FeaturedLearning特征学习

FeedforwardNeuralNetworks前馈神经网络

G

GaussianMixtureModel(GMM)高斯混合模型

GeneticAlgorithm(GA)遗传算法

Generalization泛化

GenerativeAdversarialNetworks(GAN)生成对抗网络

GenerativeModel生成模型

Generator生成器

GlobalOptimization全局优化

GoogleNeuralMachineTranslation(GNMT)谷歌神经机器翻译

GradientDescent梯度下降

graphtheory图论

graphicsprocessingunit(GPU)图形处理单元/图形处理器

H

HDMhiddendynamicmodel隐动态模型

hiddenlayer隐藏层

HiddenMarkovModel(HMM)隐马尔可夫模型

hybridcomputing混合计算

Hyperparameter超参数

I

ICAIndependentComponentAnalysis独立成分分析

input输入

InternationalConferenceforMachineLearning(ICML)国际机器学习大会

languagephenomena语言现象

latentdirichletallocation隐含狄利克雷分布

J

Jensen-ShannonDivergence(JSD)JS距离

K

K-MeansClusteringK-均值聚类

K-NearestNeighboursAlgorithm(K-NN)K-最近邻算法

KnowledgeRepresentation知识表征

knowledgebase(KB)知识库

L

LatentDirichletAllocation隐狄利克雷分布

latentsemanticanalysis(LSA)潜在语义分析

LinearRegression线性回归

loglikelihood对数似然

LogisticRegressionLogistic回归

Long-ShortTermMemory(LSTM)长短期记忆

loss损失

M

Max-Pooling最大池化

MaximumLikelihood最大似然

minimaxgame最小最大博弈

Momentum动量

MultilayerPerceptron(MLP)多层感知器

multi-documentsummarization多文档摘要

multilayeredperceptron(MLP)多层感知器

multiplelinearregression多元线性回归

N

NaiveBayesClassifier朴素贝叶斯分类器

Nashequilibrium纳什均衡

naturallanguagegeneration(NLG)自然语言生成

naturallanguageprocessing(NLP)自然语言处理

NegativeLogLikelihood(NLL)负对数似然

NeuralMachineTranslation(NMT)神经机器翻译

NeuralTuringMachine(NTM)神经图灵机

noise-contrastiveestimation(NCE)噪音对比估计

non-convexoptimization非凸优化

non-negativematrixfactorization非负矩阵分解

Non-SaturatingGame非饱和博弈

O

objectivefunction目标函数

Off-Policy离策略

On-Policy在策略

output输出

P

Parameter参数

parsetree解析树

part-of-speechtagging词性标注

ParticleSwarmOptimization(PSO)粒子群优化算法

perceptron感知器

polaritydetection极性检测

pooling池化

PlugandPlayGenerativeNetwork(PPGN)即插即用生成网络

principalcomponentanalysis(PCA)主成分分析

ProbabilityGraphicalModel概率图模型

Q

QuantizedNeuralNetwork(QNN)量子化神经网络

quantumcomputer量子计算机

QuantumComputing量子计算

R

RBFRadialBasisFunction径向基函数

RandomForestAlgorithm随机森林算法

RectifiedLinearUnit(ReLU)线性修正单元/线性修正函数

RecurrentNeuralNetwork(RNN)循环神经网络

recursiveneuralnetwork递归神经网络

reinforcementlearning(RL)强化学习

representation表征

representationlearning表征学习

ResidualMapping残差映射

ResidualNetwork残差网络

RestrictedBoltzmannMachine(RBM)受限玻尔兹曼机

Robot机器人

Robustness稳健性

RuleEngine(RE)规则引擎

S

saddlepoint鞍点

selforganisedmap(SOM)自组织映射

Semi-SupervisedLearning半监督学习

sentimentanalysis情感分析

SingularValueDecomposition(SVD)奇异值分解

SpectralClustering谱聚类

stochasticgradientdescent(SGD)随机梯度下降

supervisedlearning监督学习

SupportVectorMachine(SVM)支持向量机

synset同义词集

T

T-DistributionStochasticNeighbourEmbedding(t-SNE)T-分布随机近邻嵌入

Tensor张量

TensorProcessingUnits(TPU)张量处理单元

theleastsquaremethod最小二乘法

Threshold阙值

TimeStep时间步骤

tokenization标记化

treebank树库

transferlearning迁移学习

TuringMachine图灵机

U

unsupervisedlearning无监督学习

V

VanishingGradientProblem梯度消失问题

Vapnik–Chervonenkistheory(VCTheory)万普尼克-泽范兰杰斯理论

vonNeumannarchitecture冯·诺伊曼架构/结构

W

weight(W)权重

wordembedding词嵌入

wordsensedisambiguation(WSD)词义消歧

返回搜狐,查看更多

神经网络术语解释

目录Padding:填充步幅(stride)PoolingLayer:池化层BatchNormalizationSeparableConvolutionsREFERENCEPadding:填充

在进行卷积层的处理之前,有时要向输入数据的周围填入固定的数据(比如0等),这称为填充(padding),是卷积运算中经常会用到的处理。比如,在图7-6的例子中,对大小为(4,4)的输入数据应用了幅度为1的填充。“幅度为1的填充”是指用幅度为1像素的0填充周围使用填充主要是为了调整输出的大小。比如,对大小为(4,4)的输入数据应用(3,3)的滤波器时,输出大小变为(2,2),相当于输出大小比输入大小缩小了2个元素。这在反复进行多次卷积运算的深度网络中会成为问题。为什么呢?因为如果每次进行卷积运算都会缩小空间,那么在某个时刻输出大小就有可能变为1,导致无法再应用卷积运算。为了避免出现这样的情况,就要使用填充。在刚才的例子中,将填充的幅度设为1,那么相对于输入大小(4,4),输出大小也保持为原来的(4,4)。因此,卷积运算就可以在保持空间大小不变的情况下将数据传给下一层。

步幅(stride)

应用滤波器的位置间隔称为步幅(stride)。之前的例子中步幅都是1,如果将步幅设为2,则如图7-7所示,应用滤波器的窗口的间隔变为2个元素

PoolingLayer:池化层

池化是缩小高、长方向上的空间的运算。比如,如图7-14所示,进行将2×2的区域集约成1个元素的处理,缩小空间大小。

图7-14的例子是按步幅2进行2×2的Max池化时的处理顺序。“Max池化”是获取最大值的运算,“2×2”表示目标区域的大小。如图所示,从2×2的区域中取出最大的元素。此外,这个例子中将步幅设为了2,所以2×2的窗口的移动间隔为2个元素。另外,一般来说,池化的窗口大小会和步幅设定成相同的值。比如,3×3的窗口的步幅会设为3,4×4的窗口的步幅会设为4等。

特征

没有要学习的参数:池化层和卷积层不同,没有要学习的参数。池化只是从目标区域中取最大值(或者平均值),所以不存在要学习的参数。通道数不发生变化:经过池化运算,输入数据和输出数据的通道数不会发生变化。如图7-15所示,计算是按通道独立进行的对微小的位置变化具有鲁棒性(健壮)输入数据发生微小偏差时,池化仍会返回相同的结果。因此,池化对输入数据的微小偏差具有鲁棒性。比如,3×3的池化的情况下,如图7-16所示,池化会吸收输入数据的偏差(根据数据的不同,结果有可能不一致)BatchNormalization

BatchNorm,顾名思义,以进行学习时的mini-batch为单位,按minibatch进行正规化。具体而言,就是进行使数据分布的均值为0、方差为1的正规化。

优点:

可以使学习快速进行(可以增大学习率)不那么依赖初始值(对于初始值不用那么神经质)。抑制过拟合(降低Dropout等的必要性)SeparableConvolutionsSpatialSeparableConvolutionsDepthwiseSeparableConvolutionsLearnmoreatlinkREFERENCE深度学习入门:基于python的理论与实现

人工智能教育图片

关于我们版权声明版权保障VIP服务热门搜索今日热门

联系电话:021-36170220

商务合作:15921797502(同微信)

 联系客服订阅号服务号

上海韩众网络科技有限公司|地址:上海浦东新区东方路3539号2号楼3楼|电话:021-36170220(09:00-18:00)如网民接到962110电话,请立即接听。

Copyright©2015-2023摄图网沪ICP备15050430号-1ICP证沪B2-20180118沪公网安备31011502008153号上海工商上海互联网违法和不良信息举报中心用时:0.0278秒秒

广播电视节目制作经营许可证(沪)字第02702号网络文化经营许可证沪网文{2022}1459-054号出版物经营许可证新出发沪批字第Y8341号《摄图网络服务使用协议》《摄图隐私政策》

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇