【干货】人工智能相关双语术语表
automaticsummarization自动摘要
averagegradient平均梯度
Average-Pooling平均池化
B
backpropagation(BP)反向传播
BackpropagationThroughTime(BPTT)通过时间的反向传播
BatchNormalization(BN)分批标准化
Bayesiannetwork贝叶斯网络
Bias-VarianceDilemma偏差/方差困境
Bi-directionalLong-ShortTermMemory(Bi-LSTM)双向长短期记忆
bias偏置/偏差
bigdata大数据
Boltzmannmachine玻尔兹曼机
C
CentralProcessingUnit(CPU)中央处理器
chunk词块
co-adapting共适应
co-occurrence共现
ComputationCost计算成本
computervision计算机视觉
conditionalrandomfield(CRF)条件随机域/场
convergence收敛
conversationalagent(CA)会话代理
convexity凸性
convolutionalneuralnetwork(CNN)卷积神经网络
CostFunction成本函数
crossentropy交叉熵
D
DecisionBoundary决策边界
DecisionTrees决策树
DeepBeliefNetwork(DBN)深度信念网络
DeepConvolutionalGenerativeAdversarialNetwork(DCGAN)深度卷积生成对抗网络
deeplearning(DL)深度学习
deepneuralnetwork(DNN)深度神经网络
DeepQ-Learning(DQN)深度Q学习
differentiableneuralcomputer(DNC)可微分神经计算机
dimensionalityreductionalgorithm降维算法
discriminativemodel判别模型
discriminator判别器
divergence散度
DynamicFusion动态融合
E
Embedding嵌入
emotionalanalysis情绪分析
End-to-End端到端
xpectation-Maximization(EME)期望最大化
ExplodingGradientProblem梯度爆炸问题
ExtremeLearningMachine(ELM)超限学习机
F
FacebookArtificialIntelligenceResearchFacebook(FAIR)人工智能研究所
factorization因子分解
featureengineering特征工程
FeaturedLearning特征学习
FeedforwardNeuralNetworks前馈神经网络
G
GaussianMixtureModel(GMM)高斯混合模型
GeneticAlgorithm(GA)遗传算法
Generalization泛化
GenerativeAdversarialNetworks(GAN)生成对抗网络
GenerativeModel生成模型
Generator生成器
GlobalOptimization全局优化
GoogleNeuralMachineTranslation(GNMT)谷歌神经机器翻译
GradientDescent梯度下降
graphtheory图论
graphicsprocessingunit(GPU)图形处理单元/图形处理器
H
HDMhiddendynamicmodel隐动态模型
hiddenlayer隐藏层
HiddenMarkovModel(HMM)隐马尔可夫模型
hybridcomputing混合计算
Hyperparameter超参数
I
ICAIndependentComponentAnalysis独立成分分析
input输入
InternationalConferenceforMachineLearning(ICML)国际机器学习大会
languagephenomena语言现象
latentdirichletallocation隐含狄利克雷分布
J
Jensen-ShannonDivergence(JSD)JS距离
K
K-MeansClusteringK-均值聚类
K-NearestNeighboursAlgorithm(K-NN)K-最近邻算法
KnowledgeRepresentation知识表征
knowledgebase(KB)知识库
L
LatentDirichletAllocation隐狄利克雷分布
latentsemanticanalysis(LSA)潜在语义分析
LinearRegression线性回归
loglikelihood对数似然
LogisticRegressionLogistic回归
Long-ShortTermMemory(LSTM)长短期记忆
loss损失
M
Max-Pooling最大池化
MaximumLikelihood最大似然
minimaxgame最小最大博弈
Momentum动量
MultilayerPerceptron(MLP)多层感知器
multi-documentsummarization多文档摘要
multilayeredperceptron(MLP)多层感知器
multiplelinearregression多元线性回归
N
NaiveBayesClassifier朴素贝叶斯分类器
Nashequilibrium纳什均衡
naturallanguagegeneration(NLG)自然语言生成
naturallanguageprocessing(NLP)自然语言处理
NegativeLogLikelihood(NLL)负对数似然
NeuralMachineTranslation(NMT)神经机器翻译
NeuralTuringMachine(NTM)神经图灵机
noise-contrastiveestimation(NCE)噪音对比估计
non-convexoptimization非凸优化
non-negativematrixfactorization非负矩阵分解
Non-SaturatingGame非饱和博弈
O
objectivefunction目标函数
Off-Policy离策略
On-Policy在策略
output输出
P
Parameter参数
parsetree解析树
part-of-speechtagging词性标注
ParticleSwarmOptimization(PSO)粒子群优化算法
perceptron感知器
polaritydetection极性检测
pooling池化
PlugandPlayGenerativeNetwork(PPGN)即插即用生成网络
principalcomponentanalysis(PCA)主成分分析
ProbabilityGraphicalModel概率图模型
Q
QuantizedNeuralNetwork(QNN)量子化神经网络
quantumcomputer量子计算机
QuantumComputing量子计算
R
RBFRadialBasisFunction径向基函数
RandomForestAlgorithm随机森林算法
RectifiedLinearUnit(ReLU)线性修正单元/线性修正函数
RecurrentNeuralNetwork(RNN)循环神经网络
recursiveneuralnetwork递归神经网络
reinforcementlearning(RL)强化学习
representation表征
representationlearning表征学习
ResidualMapping残差映射
ResidualNetwork残差网络
RestrictedBoltzmannMachine(RBM)受限玻尔兹曼机
Robot机器人
Robustness稳健性
RuleEngine(RE)规则引擎
S
saddlepoint鞍点
selforganisedmap(SOM)自组织映射
Semi-SupervisedLearning半监督学习
sentimentanalysis情感分析
SingularValueDecomposition(SVD)奇异值分解
SpectralClustering谱聚类
stochasticgradientdescent(SGD)随机梯度下降
supervisedlearning监督学习
SupportVectorMachine(SVM)支持向量机
synset同义词集
T
T-DistributionStochasticNeighbourEmbedding(t-SNE)T-分布随机近邻嵌入
Tensor张量
TensorProcessingUnits(TPU)张量处理单元
theleastsquaremethod最小二乘法
Threshold阙值
TimeStep时间步骤
tokenization标记化
treebank树库
transferlearning迁移学习
TuringMachine图灵机
U
unsupervisedlearning无监督学习
V
VanishingGradientProblem梯度消失问题
Vapnik–Chervonenkistheory(VCTheory)万普尼克-泽范兰杰斯理论
vonNeumannarchitecture冯·诺伊曼架构/结构
W
weight(W)权重
wordembedding词嵌入
wordsensedisambiguation(WSD)词义消歧
返回搜狐,查看更多
神经网络术语解释
目录Padding:填充步幅(stride)PoolingLayer:池化层BatchNormalizationSeparableConvolutionsREFERENCEPadding:填充在进行卷积层的处理之前,有时要向输入数据的周围填入固定的数据(比如0等),这称为填充(padding),是卷积运算中经常会用到的处理。比如,在图7-6的例子中,对大小为(4,4)的输入数据应用了幅度为1的填充。“幅度为1的填充”是指用幅度为1像素的0填充周围使用填充主要是为了调整输出的大小。比如,对大小为(4,4)的输入数据应用(3,3)的滤波器时,输出大小变为(2,2),相当于输出大小比输入大小缩小了2个元素。这在反复进行多次卷积运算的深度网络中会成为问题。为什么呢?因为如果每次进行卷积运算都会缩小空间,那么在某个时刻输出大小就有可能变为1,导致无法再应用卷积运算。为了避免出现这样的情况,就要使用填充。在刚才的例子中,将填充的幅度设为1,那么相对于输入大小(4,4),输出大小也保持为原来的(4,4)。因此,卷积运算就可以在保持空间大小不变的情况下将数据传给下一层。
步幅(stride)应用滤波器的位置间隔称为步幅(stride)。之前的例子中步幅都是1,如果将步幅设为2,则如图7-7所示,应用滤波器的窗口的间隔变为2个元素
PoolingLayer:池化层池化是缩小高、长方向上的空间的运算。比如,如图7-14所示,进行将2×2的区域集约成1个元素的处理,缩小空间大小。
图7-14的例子是按步幅2进行2×2的Max池化时的处理顺序。“Max池化”是获取最大值的运算,“2×2”表示目标区域的大小。如图所示,从2×2的区域中取出最大的元素。此外,这个例子中将步幅设为了2,所以2×2的窗口的移动间隔为2个元素。另外,一般来说,池化的窗口大小会和步幅设定成相同的值。比如,3×3的窗口的步幅会设为3,4×4的窗口的步幅会设为4等。
特征
没有要学习的参数:池化层和卷积层不同,没有要学习的参数。池化只是从目标区域中取最大值(或者平均值),所以不存在要学习的参数。通道数不发生变化:经过池化运算,输入数据和输出数据的通道数不会发生变化。如图7-15所示,计算是按通道独立进行的对微小的位置变化具有鲁棒性(健壮)输入数据发生微小偏差时,池化仍会返回相同的结果。因此,池化对输入数据的微小偏差具有鲁棒性。比如,3×3的池化的情况下,如图7-16所示,池化会吸收输入数据的偏差(根据数据的不同,结果有可能不一致)BatchNormalizationBatchNorm,顾名思义,以进行学习时的mini-batch为单位,按minibatch进行正规化。具体而言,就是进行使数据分布的均值为0、方差为1的正规化。
优点:
可以使学习快速进行(可以增大学习率)不那么依赖初始值(对于初始值不用那么神经质)。抑制过拟合(降低Dropout等的必要性)SeparableConvolutionsSpatialSeparableConvolutionsDepthwiseSeparableConvolutionsLearnmoreatlinkREFERENCE深度学习入门:基于python的理论与实现人工智能教育图片
关于我们版权声明版权保障VIP服务热门搜索今日热门联系电话:021-36170220
商务合作:15921797502(同微信)
联系客服订阅号服务号上海韩众网络科技有限公司|地址:上海浦东新区东方路3539号2号楼3楼|电话:021-36170220(09:00-18:00)如网民接到962110电话,请立即接听。
Copyright©2015-2023摄图网沪ICP备15050430号-1ICP证沪B2-20180118沪公网安备31011502008153号上海工商上海互联网违法和不良信息举报中心用时:0.0278秒秒
广播电视节目制作经营许可证(沪)字第02702号网络文化经营许可证沪网文{2022}1459-054号出版物经营许可证新出发沪批字第Y8341号《摄图网络服务使用协议》《摄图隐私政策》