WavebreakMediaMicro——Fotolia

评估 权衡你正在考虑的技术、产品和项目的利弊。

并行I/O在数据存储中的重要性

并行计算从20世纪70年代开始出现,但多处理器系统的重新出现可能会使并行I/O在当前的数据存储领域占据重要地位。

根据存储性能委员会SPC-1最近的基准测试结果,我们即将迎来数据存储性能的分水岭时刻。你可以这样称呼它——作为新技术的领导者,数据核心软件(DataCore Software)几乎肯定会这样称呼它并行I / O

SPC-1测量每秒I/O (IOPS)由存储系统在预定义的企业工作负载下处理,这种工作负载代表在OLTP、数据库邮件服务器应用程序中常见的随机I/O查询和更新。它和a类似交易处理绩效委员会基准在数据库世界中。在现实生活中,SPC-1对数据存储基础设施能够处理的IOPS进行了评估,并根据评估工具包的费用对IOPS进行了评估成本/ IOPS。

直到并行I / O技术(重新)出现时,两个SPC-1指标通常是成比例的:IOPS可以加速,通常通过昂贵和专有的硬件增强,这反过来提高了每IOPS的成本。使用DataCore Software的并行I/O时,每IOPS的成本与工具包的成本成反比。的结果I/O性能稳步提高,但价格稳步下降。

并行I/O的起源

这个词并行I / O对某些人来说,这可能听起来像是一种新奇的新技术,但它是一个基于成熟技术的简单概念——好吧,这种技术在高性能计算的稀有圈子之外,近三十年来没有太多讨论。

并行I/O是一个并行计算子集这是一个计算机科学研究和发展的领域,在20世纪70年代末至90年代初风靡一时。当时,计算机科学家和工程师致力于算法、互连和主板设计,使他们能够安装和操作多个低性能的中央处理器芯片,以支持新的高性能交易处理应用程序的要求。在英特尔和其他公司推动采用单处理器芯片设计的微处理器体系结构走向前沿时,这些开发工作大多陷入了困境。Unicore)和串行总线,用于处理内存内外的应用程序指令,并向存储基础设施交付I/ o。

基于Unicore处理器的系统——PC革命、大多数客户机服务器和大部分分布式服务器计算技术都是基于Unicore处理器的——主宰了商业计算领域大约30年。根据摩尔定律,Unicore技术每两年在一个芯片上的晶体管数量翻一番;按照房子的假设在美国,在大致相同的频率下,芯片时钟的速度增加了一倍。

就其本身而言,并行I/O似乎只是数据存储堆栈设计中一个有趣的细微差别。但其实际意义是重大的。

这一进程的影响使多处理器并行处理开发陷入停滞。基于Unicore cpu的pc和服务器发展得太快,并行计算开发人员无法跟上。到时候越复杂越难构建速度越快multi-chip并行处理机器的定义,它的性能已经被快速的单处理器系统与串行总线黯然失色。即使应用程序变得越来越需要I/O, Unicore计算机也通过芯片容量和速度的强力改进来满足这些需求。

直到他们没有。千禧年伊始,豪斯的假设就分崩离析了。趋势线为增加处理器时钟速率与描述每个集成电路晶体管的趋势线解耦。由于一些技术原因,主要与功率和热量产生有关,芯片速度停滞不前。与生产更快的Unicore芯片不同,开发人员开始推出多核芯片,利用芯片芯片上集成电路数量翻倍的趋势,正如摩尔所预测的那样。

今天,多核处理器正在发展德里古尔在服务器、个人电脑、笔记本电脑,甚至平板电脑和智能手机上。尽管一些观察者没有注意到,从体系结构的角度来看,多核与多芯片非常相似,这重新开启了并行计算的可能性,包括并行I/O改进应用程序的性能

并行I/O将提高性能

大多数应用程序没有被写入利用并行处理.即使是最复杂的基于管理程序的软件,虽然它可以使用单独的计算机核来托管特定的虚拟机(VM),但仍然将每个逻辑核用作一个VM,并按顺序处理托管的应用程序工作负载。然而,在这个应用程序处理层之下,可以应用并行性来提高整体性能。这就是并行I/O的由来。

DataCore重新启用了一些较早的并行I/O算法公司的首席科学家和联合创始人Ziya(咸海在多处理器系统工程的全盛时期进行研究,并使用多核芯片的逻辑核来实现它们。多核处理器中的每个物理核心都支持软件多线程,从而使操作系统和管理程序能够更有效地使用芯片资源。物理核和多线程的组合使得系统为每个物理核提供两个或更多的逻辑核。

有了这么多的逻辑处理器,很多核心都没有使用。DataCore的技术使用了一些核心,这些核心目前还未被用来创建一个明确开发的并行处理引擎,除了服务来自所有托管应用程序的I/O请求之外什么也不做。这种引擎允许在许多应用程序中并发地(而不是顺序地)处理I/O,这意味着为I/O服务的时间要短得多。这被称为并行I / O,这正是DataCore现在通过存储性能委员会SPCI-1基准测试所展示的。

就其本身而言,并行I/O似乎只是数据存储堆栈设计中一个有趣的细微差别。但其实际意义是重大的。

  • 大幅提高了存储I / O吞吐量。如DataCore SPC-1基准测试所示,这个简单的软件附加到一个商品系统上,该系统包括一台普通的联想服务器和一些商品磁盘和闪存固态驱动器(硬件和软件约为38400美元),产生了459000 IOPS。其结果是,该系统将成为世界上成本最低的高性能存储产品之一,每SPC-1 IOPS不到8美分。虽然有一些硬件存储平台具有更好的SPC-1性能数字,但它们的每IOPS成本往往要高得多。
  • DataCore将SPC-1作为一个超聚合系统运行,实现了有史以来最快的响应时间。报告的延迟是经过审计的SPC-1基准测试中有史以来最低的,比之前公布的所有其他结果好3倍到100倍。其他人在单独的系统上运行基准测试,将I/O工作负载驱动到他们的数据存储设备,而DataCore则在它用于服务I/O的同一服务器系统上运行应用程序工作负载,使存储直接连接。超聚合模式的结果还考虑了工作负载生成器的成本,并处理了在同一平台上运行应用程序的负担,该平台实现了有史以来最快的响应时间。这只会让结果更加令人印象深刻。
  • 更快的存储响应时间和更高的吞吐量通常转化为更快的应用程序的性能这个结果在当代虚拟服务器环境中很有价值。基于管理程序的服务器计算已经开始把最大的压力放在单处理器/串行总线计算机体系结构上,整个虚拟机(封装为vm的应用程序和操作系统)竞争固定的物理处理器和总线资源。并行I/O可以极大地提高VM I/O的性能,从而减少共享串行总线的阻塞点。这意味着DataCore技术可以加速虚拟机工作负载性能,同时在单个物理hypervisor主机上支持更高的虚拟机密度。

下一个步骤

避免未对齐I/O对性能的影响

随机I / O服务器虚拟化障碍吗

Condusiv技术提高I / O性能

深入挖掘数据中心存储

搜索灾难复苏
搜索数据备份
搜索聚合基础设施
关闭
Baidu