社区编辑申请
注册/登录
向400G迁移可能比你想象的来得更快
服务器 数据中心
无论您今天运行的是10Gb还是100Gb,向400Gb的过渡可能比您意识到的更快……

随着数据中心管理人员放眼未来,基于云计算的发展迹象无处不在:更高性能的虚拟化服务器、更高的带宽和更低的延迟需求,以及更快的服务器切换连接。无论您今天运行的是10Gb还是100Gb,向400Gb的过渡可能比您意识到的更快。

许多因素导致了400G/800G甚至更高的需求。数据中心已经从多个完全不同的网络转移到更虚拟化的、软件驱动的环境。与此同时,它们正在部署更多的机器对机器的连接,并减少它们之间的交换机数量。支持未来云规模数据中心的大部分组件都已经存在。现在缺少的是一个创建物理层基础设施的全面战略,该基础设施可以将所有这些设施连接在一起。

那么,我们如何做到这一点呢?

收发器

跃升至 400Gb 需要将当前 SFP、SFP+ 或 QSFP+ 收发器的密度提高一倍。这就是 QSFP-双密度 (QSFP-DD) 和八进制小型可插拔 (OSFP) 技术发挥作用的地方。两者都使用 8 个通道而不是 4 个通道,并且可以在 1RU 面板中安装 32 个端口。唯一显着的区别在于向后兼容性和功率处理能力。 MSA 提到了不同的光学连接选项:可以根据支持的应用选择 LC、mini-LC、MPO 8、12、16、SN、MDC 和 CS 连接器。

连接器

多种连接器选项提供了更多方式来分配更高的八进制容量。 12 芯 MPO 传统上用于支持 6 个双芯通道。对于许多应用,如 40GBase-SR4,仅使用四通道(八根光纤),MPO16 可能更适合与八进制模块一起使用。其他值得研究的连接器是 SN 和 MDC,它们采用 1.25 毫米插芯技术并为高速光学模块提供灵活的分线选项。最终的问题将是未来哪些收发器可与哪些连接器一起使用。

芯片

当然,对带宽的需求是没有限制的。目前,限制因素不是你可以在交换机前面插入多少,而是里面的芯片组可以提供多少容量。更高的基数与更高的 SERDES 速度相结合,从而获得更高的容量。大约在 2015 年支持 100Gb 应用程序的典型方法使用 128 - 25Gb 通道,产生 3.2Tb 交换机容量。达到 400Gb 需要将 ASIC 增加到 256 个 50Gb 通道,从而产生 12.8Tb 的交换机容量。下一个进展——256 个 100Gb 通道——将我们带到 25.6Tbs。正在考虑将通道速度提高到 200Gb 的未来计划——这是一项艰巨的任务,需要几年时间才能完善。

责任编辑:姜华 来源: 千家网

同话题下的热门内容

2022年数据中心虚拟化的主要趋势中国光网络研讨会|华为罗贤龙:以全光算网管控技术提升算网业务竞争力5G 如何影响数据中心以及如何做好准备中国算力大会 | 华为:以全光自动驾驶网络开启高效运维新纪元鲲鹏开发者创享日2022在长沙召开数据中心的停机时间怎么会成为企业的噩梦?紫光云与省工信厅签约,助力河北工业互联网加快发展万国数据与临港浦江国际科技城、壁仞科技达成战略合作,共建算力共享平台

编辑推荐

如何改变运维在数据中心中的地位详解IPv6与IPv4之间的差别!三大运营商不限量套餐哪家划算?详细对比国外12家值得注意的SD-WAN厂商UPS电源选择与电池容量计算
我收藏的内容
点赞
收藏

51CTO技术栈公众号