盖蒂图片社

DDN推出AI400X2高性能AI存储

DataDirect Networks的AI400X2的性能和容量都比之前的型号提高了一倍,并增加了自动分级等AI存储新功能。

DataDirect Networks扩大了其A3I AI存储平台产品线,为AI存储带来了两倍的性能、更高的容量和新的优化,与之前的模型相同。

AI400X2,在AI400X之后,是DDN的扩展A3I线,针对企业AI存储用例。根据DDN的数据,其性能超过90gbps,占用2U空间,是AI400X在相同空间的45gbps性能的两倍。新的存储平台引入了热节点和热池等特性,热节点可以降低系统网络流量,热池可以在系统内部自动分级数据。

国际数据公司(IDC)高级分析师埃里克·伯格纳(Eric Burgener)表示,以前只属于高性能计算的人工智能工作量在企业中正在增长,需要存储空间,这一趋势只会持续下去。

他表示:“未来5年,人工智能的工作量将成为所有工作量中增长最快的。”

作为人工智能工作负载Burgener表示,随着企业的发展,企业正在寻求易于部署、高可用性、快速恢复和低延迟。他们还将受益于融合的基础设施堆栈、具有预购硬件(Nvidia的加速计算或gpu、Mellanox的高性能网络和DDN的高性能存储)的并行文件系统和由一家供应商共同销售的软件,如DDN提供的AI400X2。

针对人工智能优化

据DDN称,AI400X2是为人工智能工作而打造的,主要与Nvidia DGX POD和SuperPOD Systems合作,这两款产品是人工智能基础设施产品,为需要大规模人工智能计算和存储的企业客户所使用。

用于存储AI的DDN AI400X2
DDN已推出AI存储AI400X2。

DDN营销高级副总裁库肯(Kurt Kuckein)表示,这款手机使用了最新的InfiniBand端口和NVMe PCIe Gen4 ssd。通过新的性能升级,DDN声称AI400X2是最快的并行存储在市场上,读取速率为96 GBps,写入速率为65 GBps。

Kuckein说,AI400X2还包括热池等新特性,即不考虑延迟需求将冷数据转移到hdd的自动分层,并将热数据保存在闪存中,所有这些都在一个文件系统中。热池通过监控访问频率来了解文件是如何被访问的,并相应地对它们进行分级。

他说,人工智能工作负载可能需要使用热数据(比如经常需要的大文件)和冷数据(比如在hdd上运行良好的流文件)。

国际数据公司的Burgener表示,热池与文件热的概念是一致的,文件热是根据数据被访问的频率为数据设定温度。与将需要从HDD访问的文件移动到缓存的旧方法相比,按温度分级数据更加灵活,这会消耗计算。

HDD层的性能约为前端性能的60%单一名称空间直接访问硬盘上的文件,而不是将其移动到热层或缓存,Kuckein说。

HDD层是独立的、密集的扩展框,但不需要单独的主机,在22U的内存中最大容量可达11.5 pb。Kuckein表示,如果客户需要更大的容量,可以将多个带有硬盘外壳的AI400X2系统集群在一起,实现人工智能工作负载的整合,而不是一般的数据中心整合。

热节点

新的AI400X2型号还在存储平台上引入了热节点。热节点使用客户端的GPU缓存作为AI400X2上DDN的ExaScaler文件系统的一部分。这是另一种自动分层,将必要的数据移动到客户机的加速计算中。根据Kuckein的说法,文件被缓存用于快速读取,通过将文件保存在客户端存储而不是通过网络,消除了网络流量并降低了延迟。

目前,DDN在Nvidia DGX 500系统中提供热节点,但该功能并不仅限于这些系统。

客户和可用性

Kuckein表示,DDN表示,AI400X2的目标客户是需要根据人工智能工作负载调整性能和能力的企业客户。

但是,Burgener说,只有特定类型的客户需要AI400X2这样的系统。较小的AI工作负载可以使用分布式文件系统;但是,一旦工作负载增长超过一定的大小,有些人将需要一个并行扩展文件系统。

DDN与英伟达紧密合作,包括英伟达的SELENE系统。A3I系统也用于Nvidia的DGX POD和DGX SuperPOD的存储。

AI400X2现在正在出货。DDN表示,这款手机的定价将与AI400X类似,但没有提供细节。

深入挖掘人工智能存储

搜索灾难复苏
搜索数据备份
搜索聚合基础设施
关闭
Baidu