最近,我发现组织中的IT趋势与数据中心里的IT趋势分别类似于经典力学与量子力学。虽然上一次你上物理课已经是N年前了,经典力学仍然统治着大型对象的运行。然而,一旦对象太小,如原子那么大的话,所有规则就更改了。这些新规则就是量子力学。
数据中心也是如此。在数据中心外面,IT部门宣扬整合与集中化。他们使用虚拟化与云计算将数据与进程推回到数据中心。他们甚至使用虚拟桌面架构将桌面推到数据中心里。
但在数据中心内部,趋势就是反向的。使用增添硬件的方式向上扩展的应用与系统屈服于向外扩展。其结果就是一大堆更小型的机器一起工作,或者由软件编排的本地磁盘阵列提供更传统集中的阵列服务。
分散化打败集中化
所以有技术含量的问题就是,为什么数据中心不遵循规则呢?
坦白讲,原因就一个,那就是成本。传统集中化磁盘阵列的成本与其交付的性能简直不成正比,尤其考虑到服务器是以复杂纠结的方式附属在数据中心,还有存储系统与网络需要管理与监控。相反,本地存储很简单。每个人都知道是如何运作的,所以也能相对减少人为错误。其速度对于多数工作负载来说也是快的,尤其是现在多数RAID控制器提供原生固态驱动缓存。每个服务器监控工具都能监控本地存储,那么你至少节省了成本,不用培训、部署与管理。
基于同样原因,横向扩展系统很时髦。在单片系统上,你需要确定峰值工作负载的大小。这一年剩下的时间,所有容量都浪费了,或者难以使用。一个横向扩展的系统能精确定位所需大小,因为在峰值下降后容量释放回资源池。这呼吁组织将工作负载转向云端。随着混合云技术的成熟,云爆发或者暂时将工作负载推向云的理念越发变得实际起来。也是就充分利用诸如亚马逊E2C弹性云的功能,这比自建数据中心的成本低多了。
尽管有组织IT集中化的趋势,内部数据中心分散化的趋势会继续么?IT的发展总是循环的,所以在十年内,我们又开始集中化数据中心是不足为奇的。那时候,我想咱们应该习惯于IT少说多做。