要让今天的多核服务器系统保持全速运行,管理员们必须谨慎优化存储效率。
一般来说,存储器离使用存储的服务器越近,该服务器的运行速度就越快。如果要优化服务器和存储容量,这仅仅是个起点。和使用网络存储相比,使用机架内的本地存储可以消除跨数据中心的骨干网络流量压力。
在本地存储的设计方面存在不止一个正确答案。我们可以把存储驱动器安装在服务器内部(直连存储,称为DAS),但如果一个虚拟化的物理服务器出现故障,由于其它服务器无法访问存储在故障服务器内的数据,就会导致严重的业务和工作负载停顿事故。
现代数据中心存储可以很简单,也可以复杂无比。
机架内的本地服务器存储
你可以简单地在同一机架内混合安装服务器节点和存储节点,这种模式下存储网络流量仅通过机架顶交换机就可以完成传输,完全不占用骨干网络。这意味着服务器和网络数据之间只隔了一个低延迟的交换机跃点。除了远程复制功能,所有必要的冗余都已具备。这种方案很便宜,因为没有新增硬件。
让服务器和存储共用相同机架的主要缺点是,硬盘驱动器(HDD)需要比服务器更低的冷却气流温度,才能维持正常运行和避免过早损坏。没有内置硬盘的服务器可以在高达70摄氏度(158华氏度)的环境下运行,使用45摄氏度(华氏114度)的新鲜冷却气流可以廉价且无害地大幅降低制冷能耗。而通常硬盘驱动器允许的运行温度为摄氏60度,和前者的10摄氏度差异就意味着,如果有硬盘驱动器存在,就必须采用适合硬盘的不同的冷却气流管理模式。
这种温度要求使得混合的机架设计变得很复杂。数年以后,如果数据中变成全固态硬盘(SSD)存储模式,那么以上问题就不复存在,因为固态硬盘可以在机械硬盘不能承受的更高温度下正常运行。
使用融合或超融合基础设施,是从单一厂商一站购齐已整合的全部功能的好办法。它本质上还是服务器和存储混合机架,因此也存在同样的冷却问题。将来,你还可能会在集成、维护和备件上承担额外的费用。当数据中心考虑融合基础设施时必须平衡易用性和复杂性,同时也应很容易地更换供应商,防止被单个供应商锁定。
基于VSAN的网络存储
我们可以让数据存储退回到原始的DAS模式,但是在网络出口方面增加更大的网络带宽。市场上有虚拟存储区域网络(VSAN)这类产品,但它的大部分功能都基于远程直接内存访问(RDMA)或高速的以太网环境。本地存储可以承载服务器本机的大部分存储需求,而网络则主要用于复制副本到远端,在本地服务器出现故障时维持数据的可用性。
如果使用***的基于InfiniBand的RDMA链路,可以使用56Gb每秒的以太网传输带宽(虽然看上去不是标准数值),这种条件下的VSAN架构可以提供很好的性能。然而,它有一些特有的缺点。首先,服务器必须具备本地存储部件。这实际上和一些云的模式相同,使用本地实例存储来保证虚拟机的性能,同时也要求IT设施通过网络复制副本,维持数据的可用性。这种模式下只有读取性能得到提升,而写入性能依旧缓慢。
读取性能的加速可以让大部分系统受益,但添加DRAM作为传输缓存也能获得相同的改善,而且并不像前者那么复杂。在使用服务器承载存储功能时的成本问题比较突出。还有驱动器价格问题,服务器在扩展存储组件方面的价格比专用存储设备更高。不带驱动器的服务器外形更紧凑,运行温度低,散热更容易。
由于服务器和存储的增长需求不一致,VSAN系统可能很难面面俱到。供应商宣称,可以通过添加节点的方式平滑扩展存储和服务器的性能,但这和数据中心的实际扩展需求不见得一致。让存储能力和服务器的性能分开管理才是***途径。
VSAN的最初目标是希望降低大型存储阵列的部署成本,用批量成本仅30美元的SATA硬盘终结存储厂商的天价。未来趋势除了主流的SSD复制模型外,为了简化数据中心的存储架构,基于服务器内部存储的VSAN架构应该会逐渐被额外的DRAM内存取代。
软件定义存储
当前,基于服务器本地存储的各种极其复杂的案例并未形成规模。软件定义存储(SDS)将数据服务从存储节点中抽象出来,在虚拟实例中统一实现。不同品牌之间的存储硬件特殊性被消除,最终和每TB容量30美元的硬盘毫无区别。
但是,能改善服务器本机存储缺陷、同时又足够廉价的商业化的软件定义存储解决方案尚未真正出现。虽然软件定义存储正在兴起和逐步成形,但最终结果可能是:一切都以不含驱动器的服务器为中心,存储独立出来,通过iSCSI或其它驱动器接口访问,例如使用非易失存储总线。未来随着向SSD过渡的顺利进行,我们终将看到软件定义存储成为现实,混用服务器和存储驱动器导致的散热难题也将变成古老的传说。