博舍

学习人工智能机器学习需要什么配置的电脑 学人工智能电脑要什么配置

学习人工智能机器学习需要什么配置的电脑

机器学习和人工智能应用有多种类型——从传统的回归模型、非神经网络分类器和以PythonSciKitLearn和R语言的功能为代表的统计模型,到使用PyTorch和TensorFlow等框架的深度学习模型.在这些不同类型的ML/AI模型中,也可能存在显着差异。“最佳”硬件将遵循一些标准模式,但您的特定应用程序可能有独特的最佳要求。

我们的建议将基于典型工作流程的一般性。请注意,这主要针对用于编程模型“训练”而不是“推理”的ML/DL工作站硬件。

处理器(中央处理器)

在ML/AI领域,GPU加速在大多数情况下主导性能。但是,处理器和主板定义了支持该平台的平台。还有一个现实是,必须花费大量精力进行数据分析和清理以准备在GPU中进行训练,而这通常是在CPU上完成的。当板载内存(VRAM)可用性等GPU限制需要时,CPU也可以作为主要计算引擎。

什么CPU最适合机器学习和人工智能?

推荐的两个CPU平台是IntelXeonW和AMDThreadripperPro。这是因为它们都提供了出色的可靠性,可以为多个视频卡(GPU)提供所需的PCI-Express通道,并在CPU空间中提供出色的内存性能。我们通常建议使用单路CPU工作站来减少跨多CPU互连的内存映射问题,这可能会导致将内存映射到GPU的问题。

更多的CPU内核会使机器学习和AI更快吗?

选择的内核数量将取决于非GPU任务的预期负载。根据经验,建议每个GPU加速器至少有4个内核。但是,如果您的工作负载具有重要的CPU计算组件,那么32甚至64个内核可能是理想的选择。在任何情况下,16核处理器通常被认为是此类工作站的最低要求。

机器学习和AI与Intel或AMDCPU配合使用效果更好吗?

这个领域的品牌选择主要是偏好问题,至少如果您的工作负载以GPU加速为主。但是,如果您的工作流程可以从英特尔oneAPIAI分析工具包中的某些工具中获益,则英特尔平台会更可取。

为什么推荐Xeon或ThreadripperPro而不是更“消费者”级别的CPU?

对ML和AI工作负载提出此建议的最重要原因是这些CPU支持的PCI-Express通道数量,这将决定可以使用多少GPU。IntelXeonW-3300和AMDThreadripperPro3000系列都支持足够的PCIe通道用于三个或四个GPU(取决于主板布局、机箱空间和功耗)。此类处理器还支持8个内存通道,这会对CPU密集型工作负载的性能产生重大影响。另一个考虑因素是这些处理器是“企业级”的,并且整个平台在持续的重计算负载下可能很健壮。

显卡(GPU)

自2010年代中期以来,GPU加速一直是推动机器学习和人工智能研究快速发展的驱动力。2019年底,DonKinghorn博士撰写了一篇博文,讨论了NVIDIA在该领域产生的巨大影响。对于深度学习训练,图形处理器提供了比CPU更显着的性能提升。

哪种类型的GPU(显卡)最适合机器学习和人工智能?

NVIDIA在GPU计算加速方面占据主导地位,毫无疑问是标准。他们的GPU将是最受支持和最容易使用的。还有其他加速器,例如一些高端AMDGPU、来自不同制造商的FPGA,以及其他具有潜力的新兴ML加速处理器——但它们目前的可用性和可用性将排除我们推荐它们的可能性。

机器学习和AI推荐使用哪些显卡?

几乎所有NVIDIA显卡都可以工作,更新和更高端的型号通常提供更好的性能。幸运的是,大多数具有GPU加速的ML/AI应用程序在单精度(FP32)下运行良好。在许多情况下,使用具有混合精度的Tensor核心(FP16)可为深度学习模型训练提供足够的准确性,并提供比“标准”FP32显着的性能提升。大多数最新的NVIDIAGPU都具有此功能,但低端卡除外。

NVIDIA的GeForceRTX4080和4090等消费类显卡可提供非常出色的性能,但由于其散热设计和物理尺寸,可能难以在具有两个以上GPU的系统中进行配置。RTXA5000和A6000等“专业”NVIDIAGPU质量高,往往具有更多板载内存,并且在多GPU配置中运行良好。特别是RTXA6000,其48GBVRAM,推荐用于处理具有“大特征尺寸”的数据,例如更高分辨率的图像、3D图像等。

机器学习和AI需要多少VRAM(显存)?

这取决于模型训练的“特征空间”。GPU上的内存容量有限,ML模型和框架受到可用VRAM的限制。这就是为什么在训练之前进行“数据和特征缩减”是很常见的原因。例如,训练数据的图像通常分辨率较低,因为像素数量成为限制性关键特征维度。然而,尽管存在这些限制,该领域还是取得了巨大的成功!每个GPU8GB的内存被认为是最小的,并且肯定是许多应用程序的限制。12到24GB相当普遍,并且在高端视频卡上很容易获得。对于更大的数据问题,NVIDIARTXA6000上可用的48GB可能是必需的——但通常不需要。

多个GPU会提高机器学习和人工智能的性能吗?

一般是的。在我们推荐的配置中,我们默认使用多个显卡,但此提供的好处可能会受到您正在进行的开发工作的限制。所使用的框架或程序必须支持多GPU加速。幸运的是,多GPU支持现在在ML和AI应用程序中很常见——但如果您在没有现代框架的情况下进行开发工作,那么您可能不得不自己实施它。

另请记住,像NVIDIARTX3090或A5000这样的单个GPU可以提供显着的性能,并且可能足以满足您的应用程序。在工作站中拥有2个、3个甚至4个GPU可以提供惊人的计算能力,甚至可能足以解决许多大型问题。还建议在进行开发工作时至少有两个GPU,以启用多GPU功能和缩放的本地测试——即使“生产”作业将被卸载到单独的GPU计算集群。

机器学习和AI在NVIDIA或AMD上运行得更好吗?

为了使AMDGPU可用于该领域,正在做一些工作,英特尔很快就会进入该领域,但实际上NVIDIA占据主导地位,并且在计算GPU背后进行了十多年的成功、密集的研究和开发工作。

机器学习和人工智能需要“专业”显卡吗?

不会。NVIDIAGeForceRTX3080、3080Ti和3090是适合此类工作负载的出色GPU。但是,由于散热和尺寸限制,“pro”系列RTXA5000和高内存A6000最适合具有三个或四个GPU的配置。从历史上看,现代ML/AI是在NVIDIA游戏GPU上开发的,它们在开发工作站中仍然很常见。对于要求最严苛的工作负载,出色的NVIDIA计算GPUA100可用于机架式配置。它们非常昂贵,但性能惊人。

使用多个GPU进行机器学习和AI时是否需要NVLink?

NVIDIA的NVLink在一对GPU之间提供直接的高性能通信桥梁。这是否有益取决于问题类型。对于训练多种类型的模型,不需要它。但是,对于任何具有“历史”组件的模型,例如RNN、LSTM、时间序列,尤其是Transformer模型,NVLink可以提供显着的加速,因此推荐使用。请注意,并非所有NVIDIAGPU都支持NVLink,而且它只能桥接两张卡。

内存(随机存取存储器)

ML/AI系统CPU端的内存容量和性能当然取决于正在运行的作业,但可能是一个非常重要的考虑因素,并且有一些最低限度的建议。

机器学习和人工智能需要多少RAM?

第一条经验法则是CPU内存量至少是系统中总GPU内存量的两倍。例如,具有2个GeForceRTX3090GPU的系统将具有48GB的总VRAM–因此系统应配置为128GB(96GB是两倍,但128GB通常是最接近的可配置数量)。

第二个考虑因素是需要多少数据分析。通常需要(或至少希望)能够将完整的数据集拉入内存以进行处理和统计工作。这可能意味着大内存需求,多达1TB(或很少甚至更多)的系统内存。这是我们建议使用工作站和服务器级处理器的原因之一:它们比消费类芯片支持更多的系统内存。

存储(硬盘)

存储是“超出您的想象”可能是个好主意的领域之一。此处的最低要求类似于CPU内存要求。毕竟,您的数据和项目必须可用!

哪种存储配置最适合机器学习和人工智能?

建议尽可能使用快速NVMe存储,因为当数据太大而无法放入系统内存时,数据流速度可能成为瓶颈。从NVMe暂存作业运行可以减少作业运行速度减慢。NVMe驱动器通常提供高达4TB的容量。

与用于暂存作业的快速NVMe存储一起,更传统的基于SATA的SSD提供更大的容量,可用于超过典型NVMe驱动器容量的数据。8TB通常可用于SATASSD。

盘片驱动器可用于归档存储和非常大的数据集。现已提供18TB+容量。

此外,上述所有驱动器类型都可以配置为RAID阵列。这确实增加了系统配置的复杂性,并且可能会用完主板上本来可以支持额外GPU的插槽——但可以允许10到100TB的存储空间。

总结

机器学习和人工智能的硬件配置要求很高的,可能配置起来可以流畅进行运算和设计的电脑都需要上万元,而且还不能根据你后期的需求来弹性的安排硬件,最终花大价钱搞定的电脑不到2年就要再去更换,如果是企业遇到这种需要大批量采购电脑的情况,用完之后再有业务需求需要弹性扩容的情况,那之前的硬件投入的资金就要浪费掉了,为了避免浪费以及低成本高效率的办公,企业和个人都选择赞奇云工作站,随开随用,按需收费,高效一键上云,企业客户量多从优,优惠多多,帮助企业节省成本,一定要试试。

上赞奇云工作站不需要复杂的安装和部署,就能随时随地享受到行业领先配置的机器,高画质稳定输出作品,减少本地配置时间和成本投入,完全不同担心电脑卡顿、运行不动等问题。

赞奇云工作站软件中心囊括SketchUp、3dsMax、AE、UnrealEngine、Illustrator、CAD、Houdini、Lumion等,满足不同领域设计师们的软件差异性需求,并且能在高性能算力的支持下更顺畅的运行各类设计软件。

更方便的是,赞奇超级云盘弹性扩容、分级管理、盘符挂载等特征,还能帮助员工们建立内部共享素材数据库,提高内部素材传输效率和利用率,也能随时掌握团队成员的工作完成进度。

此外,基于域控的安全策略,还可以免受病毒攻击,并且提供自动多副本可靠性机制。就算本地电脑中毒或出现故障情况,也不会引起数据丢失,助力设计师们高效作品创作。

注:去赞奇云工作站官网地址zanqicloud.com/找在线客服有优惠价,可免费试用云电脑,企业客户优惠多多哦。

适合AI人工智能、训练电脑、神经网络、深度学习电脑主机配置推荐

近期某大学学生找到装机之家咨询电脑配置,称他们导师想要一套深度学习用途的电脑主机,对电脑配置要求较高,预算一万五内,CPU要求是九代i7,单路GPU。针对网友要求,装机之家分享一套适合AI人工智能、训练电脑、神经网络、深度学习电脑主机配置推荐,来看看吧。

深度学习电脑主机配置推荐

深度学习是利用复杂的多级深度神经网络来打造的一些系统,这些系统能够从海量的未标记训练数据中进行特征检测,海量训练数据的出现以及GPU计算所提供的强大而高效的并行计算促进了机器学习的广泛应用。

电脑配置清单:

intel九代i7-9700K配RTX2080深度学习电脑主机配件名称品牌型号参考价格处理器Intel酷睿i7-9700K(盒装)¥2999散热器酷冷至尊冰神B240一体式水冷散热器¥399显卡技嘉GeForceRTX2080GAMINGOC(单路)¥5799主板华硕PRIMEZ390-A主板¥1599内存美商海盗船复仇者LPXDDR4300016GB内存¥599硬盘三星970EVOPlus500GNVMeM.2固态硬盘¥849机箱安钛克P101静音中塔机箱¥399电源长城巨龙GW-EPS1250DA电源(额定1250W)¥999显示器用户自选--键鼠装用户自选--参考价格13642元QQ或者微信:80062824咨询电脑配置

注:由于电脑硬件更新换代步伐较快,如果有产品停产请使用新产品替代。另外,硬件价格会随着行情变化会有浮动,请参考当天价格为准,以上组装电脑配置清单价格仅提供参考。

电脑硬件点评:

CPU方面,本套装机属于intel新发布的酷睿九代新平台,采用了高端i7-9700K处理器,相比上一代的i7-8700K性能有所升级。intel酷睿i7-9700K核心代号依旧是CoffeeLake,依旧采用LGA1151接口类型,所以全面兼容300系主板,最佳适合Z390主板。属于原生8核8线程,采用14nm++制造工艺,支持超频;基础频率大小3.6GHz,睿频最高达4.9GHz,拥有12MB三级缓存,内置UHD630核心显卡,支持双通道DDR4-2666MHz频率内存,TDP热功耗设计仅为95W。

Intel酷睿i7-9700K(盒装)

i7-9700K还有一款是F版本的,即i7-9700KF,价格相对便宜不少,去掉了核心显卡,但是其它规格上保持一致。此外,我们还可以考虑散片CPU进一步提升性价比。对于深度学习主机来说,一般i7-9700K已经足够了,当然对CPU要求较高,也可以考虑i9-9900K。

主板方面,对于九代i7-9700K高端处理器,自然最佳搭配Z390高端主板,装机之家小编推荐的是华硕PRIMEZ390-A主板,拥有高达9相数字供电,采用ATX大板设计,仍然采用经典的白色装甲和黑色PCB设计,具有很高的辨识度。支持3个PCIExpressx16显卡插槽,支持2路SLI以及3路CrossFireX,方便用户组建双显卡SLI,,配备四根内存插槽,最大支持64G。

华硕PRIMEZ390-A主板

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇