向400G迁移可能比你想象的来得更快

服务器 数据中心
无论您今天运行的是10Gb还是100Gb,向400Gb的过渡可能比您意识到的更快……

随着数据中心管理人员放眼未来,基于云计算的发展迹象无处不在:更高性能的虚拟化服务器、更高的带宽和更低的延迟需求,以及更快的服务器切换连接。无论您今天运行的是10Gb还是100Gb,向400Gb的过渡可能比您意识到的更快。

许多因素导致了400G/800G甚至更高的需求。数据中心已经从多个完全不同的网络转移到更虚拟化的、软件驱动的环境。与此同时,它们正在部署更多的机器对机器的连接,并减少它们之间的交换机数量。支持未来云规模数据中心的大部分组件都已经存在。现在缺少的是一个创建物理层基础设施的全面战略,该基础设施可以将所有这些设施连接在一起。

那么,我们如何做到这一点呢?

收发器

跃升至 400Gb 需要将当前 SFP、SFP+ 或 QSFP+ 收发器的密度提高一倍。这就是 QSFP-双密度 (QSFP-DD) 和八进制小型可插拔 (OSFP) 技术发挥作用的地方。两者都使用 8 个通道而不是 4 个通道,并且可以在 1RU 面板中安装 32 个端口。唯一显着的区别在于向后兼容性和功率处理能力。 MSA 提到了不同的光学连接选项:可以根据支持的应用选择 LC、mini-LC、MPO 8、12、16、SN、MDC 和 CS 连接器。

连接器

多种连接器选项提供了更多方式来分配更高的八进制容量。 12 芯 MPO 传统上用于支持 6 个双芯通道。对于许多应用,如 40GBase-SR4,仅使用四通道(八根光纤),MPO16 可能更适合与八进制模块一起使用。其他值得研究的连接器是 SN 和 MDC,它们采用 1.25 毫米插芯技术并为高速光学模块提供灵活的分线选项。最终的问题将是未来哪些收发器可与哪些连接器一起使用。

芯片

当然,对带宽的需求是没有限制的。目前,限制因素不是你可以在交换机前面插入多少,而是里面的芯片组可以提供多少容量。更高的基数与更高的 SERDES 速度相结合,从而获得更高的容量。大约在 2015 年支持 100Gb 应用程序的典型方法使用 128 - 25Gb 通道,产生 3.2Tb 交换机容量。达到 400Gb 需要将 ASIC 增加到 256 个 50Gb 通道,从而产生 12.8Tb 的交换机容量。下一个进展——256 个 100Gb 通道——将我们带到 25.6Tbs。正在考虑将通道速度提高到 200Gb 的未来计划——这是一项艰巨的任务,需要几年时间才能完善。

责任编辑:姜华 来源: 千家网
相关推荐

2018-05-11 09:39:35

2021-06-09 15:40:47

容器

2022-02-11 15:30:53

大数据数据中心综合布线

2023-09-25 14:48:24

Wi-Fi 6

2019-01-11 10:00:44

微信腾讯改版

2010-05-06 09:23:45

云计算

2019-04-04 13:33:17

2021-07-25 22:34:33

人工智能作家机器人

2012-09-24 11:14:06

PHP编程语言Web开发

2012-09-20 09:28:26

PHP程序Web

2013-09-18 09:28:50

400G网络400G网络流量

2022-09-19 15:50:10

物联网安全工业4.0

2023-02-10 08:13:56

Pythonf-strings

2020-04-24 09:58:18

数据泄露黑客网络攻击

2022-03-31 10:39:07

Linuxsudo命令

2024-09-27 09:53:22

Rust标准库优化

2022-09-25 11:46:52

浏览器扩展程序广告拦截器

2013-09-18 09:24:47

2022-09-28 07:19:35

浏览器安全保证恶意扩展

2014-09-02 09:17:51

400G以太网
点赞
收藏

51CTO技术栈公众号