IEEE Fellow李世鹏 :人工智能与机器人前沿研究之思考
作者 |维克多编辑|青暮
2021年12月9日,由粤港澳大湾区人工智能与机器人联合会、雷峰网(公众号:雷峰网)合办的第六届全球人工智能与机器人大会(GAIR2021)在深圳正式启幕,140余位产学领袖、30位Fellow聚首,从AI技术、产品、行业、人文、组织等维度切入,以理性分析与感性洞察为轴,共同攀登人工智能与数字化的浪潮之巅。大会次日,思尔实验室主任、前深圳市人工智能与机器人研究院执行院长、国际欧亚科学院院士、IEEEFellow李世鹏在GAIR大会上做了《人工智能与机器人前沿研究之思考》的演讲。李世鹏博士,IEEEFellow,国际欧亚科学院院士。历任深圳市人工智能与机器人研究院首席科学家和执行院长、科大讯飞集团副总裁及讯飞研究院联席院长、微软亚洲研究院创始成员与副院长。李院士在多媒体、IoT及AI等领域颇具影响力。他拥有203项美国专利并发表了330多篇被引用了的论文(H指数:82)。被Guide2Research列为世界顶尖1000名计算机科学家之一。培养出四位MITTR35创新奖的获得者。是(科技部)新一代人工智能产业技术创新战略联盟发起人之一及联合秘书长。在演讲中,李世鹏介绍并展望了人工智能与机器人前沿研究方向,他指出:未来机器学习突破深度学习的数据瓶颈或许可以借助认知科学的方法得到突破,学习范式可从依靠“大数据”转变成依靠“大规则”;人机协作也要进化为人机“谐”作,只有将耦合、交互、增强、互补等目标纳入研究方向,才能实现人机的无缝连接。以下是演讲全文,AI科技评论做了不改变原意的整理:今天的演讲题目是《人工智能与机器人前沿研究之思考》,分为三个部分,先谈人工智能和机器人研究全景,然后聚焦研究方向,包括机器学习、运动智能、人机谐作、群体协作;最后进行总结。
人工智能相关研究的关键元素有三个:人、机器人/物联网以及AI。之所以将机器人和物联网归为一类,是因为这两者是物理世界和虚拟世界的接口。如果三个元素两两之间发生联系就会形成一个新的学科,例如机器人和AI相结合会产生智能体,AI和人类相结合会产生人机耦合以及增强智能,而机器人和人类相融合会形成增强机体。随着人工智能与机器人领域的发展,研究对象不再局限在单个智能体,而是越来越多地对多个智能体的协作进行研究,例如人类社会群体如何更好地相融合?如何设计出能够精妙协作的机器群体?总体而言,我认为重要的基本研究方向是:机器学习、运动智能、人机谐作、群体协作。
1聚焦方向之机器学习机器学习的发展离不开深度学习加持,它给行业带来许多研究成果,并赋能了语音识别、人脸识别、物体识别、自动驾驶等方面,推动人工智能产业高速发展。虽然成果颇丰,但成也萧何败也萧何。深度学习依赖于大数据,其瓶颈也在于大数据。例如国内的智能语音技术尽管处于行业领先,但仍依赖技术积累和数据积累。现在想要让深度学习发挥巨大威力,仍然需要大量数据的加持,如果想让深度学习从一个领域扩展到另一个领域,也少不了数据支撑。
如何突破?研究者已经探索了多条路径,其中一个解决方案是:扩展深度学习框架。例如优化深度学习算法、知识图谱+深度学习、专家系统+深度学习等等。另一条路径是因果推理,其目标是借助人类举一反三的能力,期望超越数据之间的相关性,进而探索数据之间的因果性,从而得到数据之间的逻辑推理。第三条路径是类脑计算,从生物学角度,探索人脑认知元素和机制,以仿真方法再现人类大脑。个人认为认知科学是突破深度学习框架的着力点。理由是人类认知过程有两点需要我们去进一步借鉴:生而知之、学而知之。生而知之是指部分认知能力与生俱来,新生儿的脑神经有很多先天的连接。它给我们的启示是:现在的大多深度学习算法,大部分都是从零开始训练,而没有充分或者高效利用先验知识或者已有模型。如何利用“现有知识”是深度学习的下一个热门方向。学而知之是指大部分认知能力是后天学习到的,尤其是早期学习。通过学习脑神经建立了更多的连接。孩子很多能力,包括感知、应对、语言、读写和理解,甚至分析问题和解决问题的思路和能力在很小时候已经基本定型;以后基本都是知识的积累。这意味着脑神经元很早的时候就连接定型成一个元模型,剩下的是只是利用这个元模型去解决具体领域的问题。这个与当前的大规模预训练模型有着惊人的相似之处。学而知之的另一层次是:人类学习过程依靠多源的、多传感的、多模态的、多角度的数据,例如视觉、听觉、嗅觉、触觉和语境等联合信息,而今天的深度学习依靠大都是一段语音、一张照片,因此,未来AI模型的输入数据可能不仅是单一的数据,而是多个信号源的融合。如何模仿人类学习的过程,这是认知科学对深度学习的另一个启示。再者,人类学习过程是一个从样本示例到原理归纳的过程,而不是仅停留在样本示例层面;目前深度学习却都是停留在样本层面。那么,未来是否能够构造类人的机器学习框架,无论输入什么样的数据,只要逻辑相通,都会收敛到一致的模型?突破深度学习的数据瓶颈,可以尝试构建规则的众包系统,让人类教机器学习过程,其目的不是输入数据,而是让机器学习规则。由于我们试图从日常的活动中学习规则,这种规则普通人都可以标注示教,这就打破了以前专家系统地需要“专家”的局限。这种从“大数据”过渡到“大规则”模型构建方式显然也更符合人类的认知。2聚焦方向之运动智能众所周知,在机器人领域,波士顿动力公司的产品最“像人”,如上动图,机器人跳舞丝毫看不出生硬的感觉。但受计算资源、能量、运动控制的限制,它只能运行几十分钟。其实,波士顿动力机器人的运行方式是基于电机驱动,存在很多缺点,例如刚性运动、自重比较大、反应速度和灵活性的矛盾以及耗能大。
对比人类和其他动物的运行方式,肌肉、骨骼、传感和神经的结合可以在低能耗情况下,实现灵活运行。这给研究者的启示是,机器人的运行系统应该像人一样满足:高效、灵活、精确、鲁棒、刚柔并济、轻量、自适应等指标。当前的运动智能可能在某一个维度表现优秀,但综合考量仍然有很多缺点。因此,运动智能的一个重要研究方向是:仿生。仿照动物的运动智能,例如运动控制采用逼近反馈式,运动过程视变化随时灵活调整。如果说机器人是靠“内力”驱动,而医疗微纳米机器人是“外力”研究方向的代表。例如依靠磁力,小机器人精确地将药物从一个管道运送到另一个管道。3聚焦方向之人机谐作在人机谐作层面,区别于协作,“谐作”代表人机协作中的耦合、交互、增强、互补、协作、和谐等意思。人机谐作的目标是:不需要告诉机器人类的意图,机器就能领会,从而达到人机的无缝连接。在达成人机谐作的过程中,重点研究人机自然交互、感知及增强。具体可能包括:生物特征检测和识别、人机接口、脑机接口、语音识别、动作识别、表情识别、语言理解、意图理解、体态感知、无隙增强,以及在扩展现实与远程现实的延伸等等。人机增强智能方面,今天的机器学习框架大都是基于大数据的深度学习框架,肯定会遇到机器智能处理不了的情景。这对于某些高风险领域,例如自动驾驶、金融等来说是致命的。针对这一问题,当前的解决方案是“人类接管”。这会涉及三个核心问题:核心问题1:机器智能如何感知自己处理不了一些情况,而主动要求人来接管?核心问题2:什么时候人类可以完全放手给机器自主完成任务?核心问题3:什么样的人机交互设计能充分发挥人和机器各自的长处,同时又无需非必要地麻烦对方?三个核心问题如果无法解决,会导致一些困境。例如,以自动驾驶为例,目前安全员并不是开了“自动”功能就一劳永逸,仍然需要时时监测路况与路线,一刻都不能分神。这其实增加了安全员的负担,因为在没有自动驾驶的时候,人类对自己的驾驶环境会有一定的预测,而机器驾驶的情况人类无法预测。人机增强机体也属于人机谐作的一个领域,能够帮助人类增强物理机体能力,完成一些人类自身体力完不成的事情。但机器可能过于复杂,需要人类培训后才能操作。人机增强机体的未来目标是实现人与机器和谐共处,操控起来如同人类的自己的器官一样自然。其中,涉及的核心研究课题包括:机器感知人的意图、人的姿态、理解人的自然语言命令、肢体语言等等,从而让机器以最适合人类接受、恰到好处的平滑方式帮助人解决问题。4聚焦方向之群体协作目前单智能体已经可以完成许多任务,但如何发挥每个智能体集合起来的威力?这涉及群体协作的研究方向。在仓储场景下,存在许多抓取分类的机器人,如果能够有效调度,那么必将大大提高工作效率。当前主流的调度方式是中心化的控制方式,但面对成千上万的规模的智能体,则需要非中心化的控制,允许智能体之间存在自主行为,在相互协作的同时,还能“做自己的事”。即单独的有智能可独立行动的智能体,通过协作而达到的更高效的群体/系统智能和行为。智能体群体协作目前涉及的规则包括,群体行为模型和激励机制、群体智能协同决策。这一方面,蚂蚁是我们的学习对象。另外,在自动驾驶方面,越来越多自主驾驶机器人出现,它们之间如何做到协同感知和协同控制也是当今热门话题。上述四个方面属于基础性的研究,任何一个领域出现了突破,那将对其领域以及下游应用而言都是革命性的突破,也将带来工业数智化原创技术的创新,会让我们在竞争中占领优势地位!雷峰网雷峰网雷峰网原创文章,未经授权禁止转载。详情见转载须知。
最全人工智能专业术语表(中英文对照)
人工智能不仅是指寻求如何替代人类的机器人或人类寻求自我挑战的游戏,更是指运用复杂的程序化数学,其结果与高质量的训练数据相结合,推动了我们在日常生活中所看到的技术进步。从无人驾驶汽车到寻找癌症的治疗方法,人工智能正在逐渐渗透我们的生活之中。
以下是内容由“澳鹏|AI与机器学习干货大本营”编辑,希望能帮助对人工智能领域感兴趣的学者或是专业人士,如果有任何遗漏也请随时回复我们,我们将及时更新!(按英语首字母顺序排列)
AA/BTesting(A/B测试)一种受控的真实实验,用于比较系统或模型的两个变体A和B。
ActivationFunction(激活函数)在人工神经网络的情境中,接受来自上一层的所有输入的加权和并生成输出值来激活下一层的函数。
ActiveLearning(ActiveLearningStrategy)(主动学习/主动学习策略)半监督机器学习的一种特殊情况,在这种情况下,学习代理能够以交互的方式查询数据库(通常是人工标注员),以获取新数据点的标签。
Algorithm(算法)一种关于如何解决某一类问题的过程的明确规范,它能够执行计算、处理数据并进行自动推理。
Annotation(标注)附加到一条数据之上的元数据,通常由人工标注员提供。
AreaUndertheCurve(AUC)(曲线下面积)机器学习中用于确定在多个使用的模型中哪个模型具有最高性能的一种方法。
ArtificialIntelligence(人工智能)机器模拟人类智力和行为做出决策、执行任务的能力。
ArtificialNeuralNetworks(人工神经网络)由简单互联单元(称作神经元)的连续层所构成的一种架构,这些单元与非线性激活函数交织在一起,会让人模糊地联想到动物大脑中的神经元。
AssociationRuleLearning(关联规则学习)一种基于规则的机器学习方法,用于发现大型数据集中变量之间的关系。
Autoencoder(自动解码器)一种人工神经网络,用于以无监督、非线性的方式生成高效的数据表示,通常用于降低维度。
AutomatedSpeechRecognition(自动语音识别)计算语言学的一个子领域,主要是关于通过计算机识别和翻译口语的方法。
BBackpropagation(BackpropagationThroughTime)(反向传播/基于时间的反向传播)用于训练人工神经网络,进而计算网络权重计算所需梯度的一种方法。
Batch(批量)在模型训练的单个梯度更新中使用的示例集。
Bayes’sTheorem(贝叶斯定理)统计学家根据可能与某个存在相关的先验条件知识描述某个事件的概率时所用的一个著名定理。
Bias(InductiveBias,ConfirmationBias)(偏差-归纳偏差、确认偏差)归纳偏差:学习者在给定输入条件下预测尚未遇到的输出时所用的假设事项集。确认偏差:以确认自己的信念或假设的方式搜索、解释、赞成和回想信息,而较少关注与之相矛盾的信息的趋势。
Bias-VarianceTradeoff(偏差与方差权衡)当数据科学家尝试同时最大程度地减小偏差和方差时所产生的冲突,该冲突不利于监督算法推广到他们的训练集范围之外。
Boosting(提升)主要用于减少监督学习中的偏差和方差的一种机器学习集成元算法,以及将弱学习者转化为强学习者的一系列机器学习算法。
BoundingBox(边界框)完全包含一组点或一个对象的最小(矩形)框。
CChatbot(聊天机器人)一种旨在通过对话与人类用户进行交互的计算机程序或AI。
Classification(分类)对映射函数进行从输入变量到离散输出变量的近似处理的任务,或者从广义上来说,是指用于确定特定实例所属的类的某一类机器学习算法。
Clustering(聚类)在机器学习中,是指对一组对象进行分组,使得同一组(即集群)中的对象彼此之间的“相似性”高于与其他组中的对象“相似性”的无监督任务。
Cold-Start(冷启动)由于系统无法针对尚未收集到足够信息的用户或项目推断出任何信息而引起的潜在问题。
CollaborativeFiltering(协作过滤)在推荐系统中使用的一种方法,用于通过收集来自较大用户组的偏好来预测用户的兴趣。
ComputerVision(计算机视觉)机器学习的领域之一,主要研究如何获得对图像或视频的高级理解。
ConfidenceInterval(置信区间)一种区间估计,可能包含未知总体参数的真实值。该区间与置信水平相关,而置信水平用于量化参数在区间中的置信度。
Contributor(贡献者)提供标注服务的人工标注员。
ConvolutionalNeuralNetwork(CNN)(卷积神经网络)一种深层、前馈人工神经网络类别,通常用于计算机视觉。
CentralProcessingUnit(CPU)(中央处理单元)计算机中通过执行指令指定的基本算术、逻辑、控制和输入/输出操作来执行计算机程序的指令的电子电路。
Cross-Validation(k-foldCross-Validation,Leave-p-outCross-Validation)(交叉验证-k折交叉验证、留p法交叉验证)旨在评估如何将预测模型的结果推广到新数据集的一组流程,包括k折交叉验证及留p法交叉验证。
DData(StructuredData,UnstructuredData,Dataaugmentation)(数据-结构化数据、非结构化数据、数据增强)所有机器学习和人工智能项目的最基本要素。
非结构化数据:未经处理的原始数据。文本数据是非结构化数据的完美示例,因为它没有格式化为特定功能。
结构化数据:以机器学习算法可摄取的方式处理的数据;如果是监督机器学习,则为已标记的、经处理后的数据。
数据增强:将内外部来源衍生的新信息添加到数据集的过程(一般通过标注来实现)。
DecisionTree(决策树)监督机器学习算法的一个类别,在此类算法中,数据会根据给定参数或条件进行迭代拆分。
DeepBlue(深蓝)由IBM开发的国际象棋游戏计算机,作为全球首个在常规时限内同时战胜了国际象棋游戏和国际象棋比赛卫冕世界冠军的计算机国际象棋游戏系统而闻名。
DeepLearning(DeepReinforcementLearning)(深度学习/深度强化学习)与特定任务的算法相反,基于学习数据表示的更广泛的机器学习方法系列。深度学习包括监督学习、半监督学习或无监督学习。
维度(降维、维度灾难)降维:通过获取一组主变量来减少所考虑的随机变量数量的过程。另请参见特征选择。
维度灾难:由于维数越多,可用数据量越稀疏这一事实,在高维空间中分析和组织数据时出现的一种现象。
EEmbedding(WordEmbedding)(嵌入/词嵌入)某个实例中所含的某个数学结构的另一个实例,例如作为另一个组的子组的组。
EnsembleMethods(集成方法)在统计和机器学习中,集成方法使用多种学习算法来获得更好的预测性能,而这种性能可以单独从任何组合式学习算法中获得。与统计力学中通常是无限的统计集成不同,机器学习集成仅由一组有限的替代模型组成,但通常允许在这些替代模型之间存在更灵活的结构。
Entropy(熵)随机数据源传达的平均信息量。
Epoch(时期)在深度学习模型训练场景中,完整训练数据集的一次训练循环。
FFeature(FeatureSelection,FeatureLearning)(特征-特征选择、特征学习)用作模型输入的变量。
FeatureLearning(特征学习)旨在自动从原始数据中发现特征检测或分类所需的表示的一组技术。
FalsePositive(误报)由于结果在虚无假设原本不应该存在的情况下拒绝虚无假设而导致的误差。
FalseNegative(漏报)由于结果在虚无假设应该存在的情况下未拒绝虚无假设而导致的误差。
Feed-Forward(Neural)Networks(前馈神经网络)一种人工神经网络,其中神经元之间的连接不会向后移动或形成循环。
F-Score(F得分)衡量模型准确性的一个指标,它会考量准确率和召回率来计算得分。更具体地说,F得分是准确率和召回率的调和平均值,该平均值的最大值为1(完美的准确率和召回率),最小值为0。
GGarbageIn,GarbageOut(垃圾进垃圾出)一项原则,具体说的是:只要输入数据存在缺陷,就会导致误导性的结果并产生无意义的输出,也就是“垃圾”。
GeneralDataProtectionRegulation(GDPR)(通用数据保护条例)欧盟颁布的一部针对欧盟内所有个体的数据保护和隐私法规,旨在控制公民和居民对其个人数据的控制。
GeneticAlgorithm(遗传算法)基于进化论的一种启发式搜索算法,进化论反映了自然选择的过程,在这个过程中,最能适应环境的个体会被选出生产下一代。
GenerativeAdversarialNetworks(GANs)(生成对抗网络)无监督机器学习中使用的一种人工智能算法类别,作为零和游戏框架中相互竞争的两个神经网络的组合予以实施。
GraphicProcessingUnit(GPU)(图形处理单元)一种专用的电子电路,它采用并行处理架构,旨在快速操作和更改内存,以加速图像渲染,从而使其可以同时执行多个计算。
GroundTruth(事实真相)通过直接观察(而非推论)获得的一条信息。
HHuman-in-the-Loop(人机协同)人机协同(HITL)是人工智能的一个分支,它同时利用人类智能和机器智能来构建机器学习模型。在传统的“人机协同”方法中,人们会参与到一个良性循环,在其中训练、调整和测试特定算法。
Hyperparameter(HyperparameterTuning)(超参数/超参数优化)模型外部的一种配置,其值无法从数据中估算出来,数据科学家会在模型训练过程中不断对其进行调整。-手动确定训练特定模型最佳配置的过程。
IImageNet(ImageNet数据集)一个庞大的视觉数据集,由1400万个手工标注图像的URL组成,并以两万个不同类别进行组织,旨在用于视觉对象识别研究。
ImageRecognition(图像识别)计算机视觉中用于确定图像是否包含某些特定对象、特征或活动的问题。
Inference(推理)通过将经训练的模型运用到新的未标记实例来进行预测的过程。
InformationRetrieval(信息检索)计算机科学的一个领域,旨在研究在文档中搜索信息、搜索文档本身、搜索描述数据的元数据以及搜索文本、图像或声音数据库的过程。
LLayer(HiddenLayer)(层/隐藏层)人工神经网络中的一系列神经元,旨在处理一组输入特征,或者从广义上来说,处理这些神经元的输出。
隐藏层:神经元的一层,其输出连接到其他神经元的输入,因此不能作为网络输出直接实现可视化。
Learning-to-Learn(元学习)机器学习领域的一个新方向,主要是研究算法如何通过分析自己的学习过程并对其加以改进来改变其归纳方式。
Learning-to-Rank(排序学习)运用机器学习构建信息检索系统的排名模型。
LearningRate(学习率)梯度下降算法在人工神经网络训练阶段的每次迭代中所用的标量值,与梯度相乘得出结果。
LogitFunction(Logit函数)在数学中(尤其是在统计学中)使用的S型“逻辑”函数的逆函数。
LongShort-TermMemoryNetworks(长短期记忆网络)递归神经网络的一种变体,可用作梯度消失问题的一种解决方案。
MMachineLearning(机器学习)人工智能的一个子领域,通常使用统计技术来赋予计算机“学习”能力,即借助数据来逐步提高特定任务的性能,而无需进行显式编程。
MachineLearningLifecycleManagement(机器学习生命周期管理)机器学习系统的DevOps。
MachineTranslation(机器翻译)计算语言学的一个子领域,主要是研究如何使用软件将文本或语音从一种语言翻译成另一种语言。
Model(模型)模型是机器学习系统通过训练过程从训练数据中所学到内容的抽象表示。
MonteCarlo(蒙特卡洛方法)一种使用重复随机采样生成合成模拟数据的近似方法。
Multi-ModalLearning(多模式学习)机器学习的一个子领域,旨在将多模式信号合并到一起进行解释,并构建模型来处理和关联来自多种数据类型的信息。
Multi-TaskLearning(多任务学习)机器学习的一个子领域,同时利用多个任务之间的异同来解决多个任务。
NNaiveBayes(朴素贝叶斯)基于贝叶斯定理并在特征之间具有很强的独立性假设的一系列简单概率分类器。
NamedEntityRecognition(命名实体识别)信息提取的一个子任务,旨在将文本中的命名实体识别和分类为预定类别,例如名称、位置、词性等。
NaturalLanguageProcessing(NLP)(自然语言处理)人工智能领域之一,主要是研究计算机语言与人类语言之间的交互,尤其是如何处理和分析大量自然语言数据。
NeuralNetworks(神经网络)参见人工神经网络。
Neuron(神经元)人工神经网络中的一个单元,用以处理多个输入值,以生成单个输出值。
Node(节点)参见神经元。
OOpticalCharacterRecognition(光学字符识别)将打印、手写或键入文本的图像转换为机器友好的文本格式。
Optimization(优化)从可用替代方案中(基于某些标准)选择最佳方案。
Overfitting(过度拟合)模型在不知情的情况下识别出噪声中的模式并假设这些模式代表了底层结构;模型的生成结果与特定数据集过于接近,因此无法很好地归纳到不可见的观察结果。
PPatternRecognition(模式识别)机器学习的领域之一,主要专注于数据模式的(监督或无监督)识别。
Pooling(MaxPooling)(轮询/最大轮询)将卷积层生成的矩阵缩减为较小矩阵的过程。
PersonallyIdentifiableInformation(个人可识别信息)可以单独使用或与某些其他信息结合使用,以识别特定个人的任何信息。
Precision(准确率)正确的阳性结果数除以分类器返回的所有样阳性结果数。
Prediction(预测)带有输入实例的训练模型的推断输出。
Preprocessing(预处理)将原始数据转换为更易理解格式的过程。
Pre-trainedModel(预训练模型)通常已使用另一个数据集进行了初步训练的模型或模型的组成部分。另请参见:转移学习。
PrincipalComponentAnalysis(主组件分析)使用正交变换将一组可能相关变量的观测值转换为一组线性不相关变量(称为主组件)的过程。
Prior(先前技术)在考虑新证据之前,代表特定数量的先前存在信念的概率分布。
RRandomForest(随机森林)一种集成学习方法,其工作原理是在训练时构造大量决策树并输出每个单独树的结果的组合版本(例如均值或众数)。
Recall(召回率)所有相关样本中被正确分类为阳性的样本数所占百分比。
RectifiedLinearUnit(整流线性单元)使用整流函数作为激活函数的单元。
RecurrentNeuralNetworks(递归神经网络)人工神经网络的类别之一,其中神经元之间的连接沿着序列形成有向图,使其表现出时序动态时间行为并使用其内部状态(内存)来处理顺序信号。
Regression(LinearRegression,LogisticRegression)(回归-线性回归、逻辑回归)一组用于估计变量间关系的统计过程。
线性回归:一种简单的回归类型,以特征的线性组合作为输入,并输出连续值。
逻辑回归:一种回归类型,通过将S型函数运用到线性预测对分类问题中每个可能的离散标签值生成概率。
Regressor(回归器)一种特征,即用作模型输入的解释性变量。
Regularization(正则化)引入额外信息以防过度拟合的过程。
ReinforcementLearning(强化学习)机器学习的子领域之一,主要是受人类行为的启发,研究代理应如何在给定的环境中采取行动,以实现累积奖励概念的最大化。
Reproducibility(crisisof)(可再现性危机)科学领域的一种方法论危机,即学者们发现:许多科学研究的结果很难或不可能在独立研究人员或最初研究人员自己的后续研究中复制或再现。
RestrictedBoltzmannMachines(受限玻尔兹曼机)受限玻尔兹曼机(RBM)是一种生成型随机人工神经网络,可以学习其输入集上的概率分布。
SSemi-SupervisedLearning(半监督学习)监督学习技术的一个类别,它还可以利用可用的未标记数据进行训练,通常结合使用少量的已标记实例与大量的未标记行。另请参见监督学习和无监督学习。
情绪分析(SentimentAnalysis)使用自然语言处理、文本分析、计算语言学和生物特征识别等功能系统地识别、提取、量化和研究受影响的状态和主观信息。
SpeechRecognition(语音识别)参见自动语音识别。
StatisticalDistribution(统计分布)在统计学中,经验分布函数是指与样本的经验指标相关的分布函数。该累积分布函数是一个阶跃函数,在n个数据点中的每个数据点上都跳了1/n次。它在测量变量的任何指定值处的值都是小于或等于对应指定值的测量变量观察值的分数。
SupervisedLearning(监督学习)一种机器学习任务,主要是指基于示例输入/输出对学习将输入映射到输出的函数。
SupportVectorMachines(SVM)(支持向量机)由一个单独的超平面正式定义的一种判别分类器类别,对于每个提供的带标记训练数据点,算法都会输出一个对新示例进行分类的最佳超平面。
SyntheticData(合成数据)当无法收集足够的实际数据或原始数据不满足特定要求时人工生成的数据。
TTensorFlow(TensorFlow代码库)一种开源代码库,在机器学习社区中非常流行,用于跨一系列任务的数据流编程。它是一个符号数学库,还可用于神经网络等机器学习应用。
TimeSeries(TimeSeriesData)(时序/时序数据)在特定时间记录并根据它们的出现顺序进行索引处理的一系列数据点。
Testing(TestingData)(测试/测试数据)测试是指在监督机器学习情境中,使用保留数据评估模型最终性能的过程。
测试数据:数据科学家针对模型开发的测试阶段而选择的可用数据的子集。
TopicModeling(主题建模)无监督机器学习算法的一种类别,它使用聚类功能在文本数据中查找隐藏的结构并作为一个主题对其进行解释。
TrainingData(训练数据)在监督机器学习情境中,构建可从数据中学习并根据数据进行预测的算法。
训练数据:数据科学家针对模型开发的训练阶段而选择的可用数据的子集。
TransferLearning(转移学习)机器学习的一个领域,其重点在于使用获得的知识来解决特定问题,并将此类知识运用到其他相关问题。
TuringTest(图灵测试)由艾伦·图灵开发的一种测试,用于评估机器表现出与人类相同的智能行为的能力。该测试包括人机聊天。如果在测试房间之外见证对话的评估人员不能可靠地区分人类与受测机器,则可以认定该机器已经通过了图灵测试。
TypeIError(I类误差)参见误报。
TypeIIError(II类误差)参见漏报。
UUncertainty(不确定性)可能包含真实值的一系列值。
Underfitting(拟合不足)机器学习算法无法正确捕获数据的底层结构,通常是因为模型不够高级或不适用于当前任务;与过度拟合的涵义相反。
UnsupervisedLearning(无监督学习)机器学习的领域之一,包括对用于描述未标记数据结构的函数进行推断。
VValidation(验证)使用保留数据评估训练模型性能的过程;与模型性能最终评估的测试阶段相反,验证阶段旨在确定是否需要对模型进行任何迭代修改。
Vanishing/ExplodingGradients(消失/爆炸梯度)数据科学家在采用基于梯度的学习方法和反向传播对人工神经网络进行训练时,由于神经网络中接收与误差函数偏导数成比例的更新的权重(考虑到每个训练迭代中的当前权重)而面临的可怕困难和主要障碍。
Variance(方差)由于对训练集中小波动的敏感性而引起的误差,该误差按照针对随机变量与其平均值的平方偏差的期望值进行计算。
本文如有任何遗漏/修正,欢迎留言与我们联系,我们将及时进行更新和调整。