当前位置:知之问问>百科问答>Supermicro,supermicro

Supermicro,supermicro

2023-06-18 17:55:57 编辑:join 浏览量:629

Supermicro,supermicro

AMD新发布的EPYC 7662和7532两款处理器的参数如何?

文章插图

AMD 刚刚拓展了自家霄龙(EPYC)处理器家族的产品组合,带来了 EPYC 7662 和 EPYC 7532 两位新成员 。该公司表示,其希望向客户推出更有针对性的产品,以满足不同类型工作负载的运行需求 。【题图 via Neowin】首先介绍的是 EPYC 7662,作为第二代霄龙 SKU 中的第五款 64 核处理器,其非常适合刚进入该市场的客户 。

EPYC 7662 提供了一致的 Zen 2 架构内核性能,但售价较其它 AMD EPYC 64 核 SKU 更加实惠 。至于 32 核心的 EPYC 7532,客户亦将受益于高达 256MB 的三级缓存 。在讨论该系列产品的理想用例时,AMD 表示:“EPYC 7532 非常适合对缓存更加敏感的工作负载(比如 ANSYS CFX),允许每隔内核访问多达 8MB 的缓存” 。

平均而言,在各项 ANSYS CFX 基准测试中,EPYC 7532 的性能均比英特尔志强(Xeon)6248 高出了 111%。通用属性方面,EPYC 7662 和 EPYC 7532 都支持 128 条 PCIe 4.0 通道、3200MHz 内存、以及高级安全特性 。比如集成的专用安全处理器,就为安全启动奠定了基础 。

另有安全内存加密(SME)和安全加密虚拟化(SEV)等特性的支持 。【图 via AnandTech】据悉,戴尔(DELL)和超微(Supermicro)将成为首批支持 EPYC 新品的合作伙伴 。两款处理器可在 Dell EMC PowerEdge R6515、R7515、R6525、R7525 和 C6525 服务器,以及 Supermicro A服务器上实用 。

Supermicro展示的Nervana NNP-T深度学习服务器有何特点?

文章插图

随着人工智能和机器学习应用的兴起,研究者对于深度学习和训练的计算量需求也日渐提升 。为满足这种密集的运算需求,通常需要相当大规模的服务器集群 。在今年早些时候的 Hot Chips 大会上,我们已经见到过来自英特尔的 Nervana NNP-T Spring Crest 芯片 。通过收购 Nervana,英特尔获得了打造“大型训练芯片”所需的 IP。

(题图 via AnandTech)据悉,该芯片基于台积电 16nm 工艺制造,辅以 CoWoS 和四层 HBM2 内存,面积达到了 680 平方毫米 。本周早些时候,Supermicro 已经在超算大会上展示了最新的 Nervana NNP-T 服务器 。这些硬件均基于 PCIe 扩展卡,可想象它们此前被设计为可容纳 GPU 的传统服务器 。

其采用了典型 2P 布局,可在 4U 机箱中插入 8 张扩展卡,且计算卡之间可以互相通信 。每颗芯片具有 3.58 Tbps 的总双向带宽,而片外连接则支持多达 1024 个节点的可伸缩性 。从每张 PCIe 卡片的 8-pin 辅助供电来看,其峰值功率应该在标准的 225W。本周晚些时候,Supermicro 告知其已获准展示该系列服务器的 8 路 OAM(OCP 加速器模块)版本 。

其能够通过底板的 PCB 保持芯片间的通信,而不是传统的 PCIe 卡对卡之类的桥接器 。这使得扩展卡之间能够流通大量的空气来散热,并且兼容模块化的 OCP 标准 。作为英特尔首款支持 bfloat16 深度学习训练的芯片,每个芯片最多支持 119 个 TOP。另有 60MB 片上存储器和 24 个专用的“张量”处理器集群,后者具有双 32×32 矩阵乘法阵列 。

【Supermicro,supermicro】该芯片共有 270 亿个晶体管,内核频率 1.1 GHz、辅以 32GB HBM2-2400 内存 。从技术上来讲,PCIe 连接可以升级到 Gen 4.0 x16,但英特尔商务 CPU 支持这项特性 。有人表示,为展开此类计算,一些客户正在将头结点从 2P 升级到 4P(Facebook 更是用上了 8P) 。

标签:Supermicro,supermicro

版权声明:文章由 知之问问 整理收集,来源于互联网或者用户投稿,如有侵权,请联系我们,我们会立即处理。如转载请保留本文链接:https://www.zhzhwenwen.com/answer/122917.html
热门文章