Gorodenkoff-stock.adobe.com

消息 随时了解最新的企业技术新闻和产品更新。

DDN存储,Nvidia Magnum IO旨在加快AI部署

DataDirect添加了参考体系结构,该体系结构将NVMe所有闪存封装在Nvidia DGX SuperPod中,可扩展到64个GPU和10个DDN AI400阵列以及NVMe SSD。

DataDirect Networks基于Nvidia DGX SuperPod超级计算集群和新的Nvidia Magnum IO软件,推出了一种大规模可扩展的AI全闪存参考体系结构。

高性能计算(HPC)存储专家DataDirect Networks(DDN)和竞争对手Dell Technologies都在本周的超级计算展上展示了涉及Nvidia图形处理单元的AI优化存储集成。

DDN Nvidia软件包将DDN AI400全闪存NVMe存储和Nvidia DGX-2图形处理单元(GPU)结合在一个横向扩展架构中。参考设计预计将于2020年从Nvidia经销商处普遍提供。

该设计基于Nvidia DGX叠加计算集群。DDN框架可在一个托管群集中扩展到64个Nvidia GPU和10个DDN AI400阵列。AI400是A3I全闪存系统DDN存储阵列系列的一部分。

Magnum IO将提高DDN存储系统的性能.大酒瓶本周由Nvidia推出,集成了DDN、IBM和软件定义的初创公司Excelero和韦卡约,以及来自英伟达拥有Mellanox.

DDN对Magnum IO的贡献涉及简化IOs与其分布式并行文件系统通信路径的工程。这项工作使得将客户机部署到文件系统中更加容易,而不会导致性能下降。根据Nvidia的实验室测试,DDN声称其AI400 SuperPod配置可以将吞吐量扩展到400 GBps。

DDN存储系统的目标是研究实验室和其他高密度计算环境。推动存储采集,DDN希望通过向主流数据中心销售更多存储来利用人工智能的商品化。

超级计算基础设施DND高级主管Kurt Kuckein说,通常需要数月的时间部署,但英伟达计算和DDN存储组合减少了部署时间。

“我们努力在A3I产品线中提炼出许多困难的工作,以便它为英伟达的架构进行了最佳的封装。这使我们能够将事物导入并使其快速运行。”Kuckein说。

戴尔的HPC存储新闻

戴尔技术公司本周还扩大了其HPC产品线。Dell EMC Ready Solutions系列增加了两种不同的交钥匙产品:一种用于BeeGFS,另一种用于媒体文件存储供应商PixStor。Ready解决方案使用Dell EMC PowerEdge第14代服务器、Dell网络和Dell EMC存储。BeeGFS文件是光泽DDN拥有的文件系统。

戴尔与合作伙伴DataRobot、Grid Dynamics、Iguazio和Red Hat OpenShift推出了运行AI平台的参考体系结构。材料清单包括Dell EMC融合式基础架构、数据保护、服务器和存储。

Dell添加了一个新的加速器选项,用于支持Nvidia T4 Tensor Core GPU的Dell EMC DSS 8440服务器。Tensor Core专为多租户环境设计,最多配备16个加速器。

Dell还推出了对以下各项的支持:

  • PowerEdge服务器中的Nvidia Tesla V100s,用于InfiniBand和PowerEdge Express Flash PCIe SSD之间的快速数据传输;
  • Nvidia RTX GPU用于提高渲染场的性能;和
  • Intel现场可编程门阵列卡可在PowerEdge R740xd和R940xa服务器上运行的AI应用程序中实现更快的数据干扰。

下一步

观看Nvidia关于Magnum IO的闪存峰会主题演讲

深入研究NVMe存储

搜索灾难恢复
搜索数据备份
搜索汇聚基础设施
Baidu