构建以数据为中心的计算架构,为企业数字化业务提速

原创
服务器 芯片
在数据量持续快速增长的今天,传统的以CPU、GPU为主的计算方式已经无法满足企业对于算力的要求。借助NVIDIA BlueField DPU + DOCA的组合,能够帮助企业构建3U一体的超大规模数据中心统一架构,真正实现让计算无处不在的能力。

  【51CTO.com原创稿件】在数字时代的今天,数据已经成为推动企业持续高速发展的核心要素。随着5G、物联网、云计算等技术的快速发展,企业获取数据变得越来越简单,数据呈现出爆炸式增长的态势。如何高速、实时的分析数据,充分挖掘数据价值,对于数据中心计算能力的要求越来越高。为此,NVIDIA BlueField DPU (数据处理器) 应运而生。

  NVIDIA网络事业部亚太区市场开发高级总监宋庆春在近期接受记者采访时表示,在数据量持续快速增长的今天,传统的以CPU、GPU为主的计算方式已经无法满足企业对于算力的要求。借助NVIDIA BlueField DPU + DOCA的组合,能够帮助企业构建3U一体的超大规模数据中心统一架构,真正实现让计算无处不在的能力。

  无处不在的计算

  随着AI技术的普及和数据量的爆炸式增长越来越大,计算模型变得越来越大,传统以CPU+GPU为主导的计算方式,已经无法满足企业对于算力的要求,数据中心正在迎来巨大变革,以满足企业对于计算力的需求。

  为了加速数据中心的变革,NVIDIA在2020年就推出了BlueField DPU,其内置功能强大的智能网卡,以及通用 ARM CPU、多种加速引擎为云计算、边缘计算、云原生超级计算机等实现基础设施卸载和加速,为现代数据中心带来前所未有的创新。据了解,目前BlueField-2已经在行业中得到了应用,在今年的GTC上,NVIDIA正式发布了BlueField-3,并计划最快于2022年上半年推向市场。

  宋庆春告诉记者,从BlueField-2到BlueField-3,计算性能提升了5倍,加密处理能力提升了4倍,存储性能提升了3-4倍,实现了非常大的性能跨越。他表示,到BlueField-4推出之后,NVIDIA将会把GPU集成到DPU里,真正帮助用户构建全新一代的数据中心,进一步提高数据中心的计算能力,满足用户对于算力的需求。

  采访中,宋庆春还通过实操案例,介绍了DPU在数据中心中的主要优势。他表示,当用户 run OVS在CPU上,会消耗大量的CPU内核,且包转发的效率非常得低,如果把OVS操作放在DPU上,不但能够提高包转发率,还会大幅提高CPU在业务上的利用率。另外,通过把OVS放到DPU上运行,实现了OVS操作和CPU业务之间的隔离,让业务和OVS运行在两个独立的平面上,大幅降低业务的长尾延迟。

  为了推动DPU在数据中心中发展,NVIDIA还推出了DOCA ,这一专门为 DPU 量身设计的软件框架,为广大程序员提供在 DPU 上灵活编程的完整工具包,充分发掘利用 DPU 的强大处理能力,并且向下实现对多代 DPU 的平滑支持,实现软件和硬件解耦,透明升级。

  宋庆春表示,DOCA能够实现软件定义网络、软件定义存储、软件定义安全等基础设施服务,通过DOCA和BlueField硬件关联起来,直接调用到硬件的加速引擎。他强调,DOCA软件栈主要有两层:一是DOCA的driver和runtime,二是DOCA的Library。DOCA library针对业务提供接口,在driver和runtime上调用硬件的加速engine。同时,利用DPU management对上层进行调用,通过DPU软件包把DPU和业务直接关联起来。

  覆盖6大业务场景

  虽然NVIDIA BlueField DPU推出的时间并不长,但已经覆盖了云、安全、HPC和AI、电信、存储以及多媒体6大业务场景。

  据宋庆春介绍,在云场景下,NVIDIA和VMWare共同开发了Monterey project,把VMWare Hypervisor中的一些功能Offload到DPU上,从而在DPU上实现在Virtualization环境下Infrastructure相关工作,如 Firewall(防火墙)、存储、管理等工作都由DPU来取代CPU,将业务和Infrastructure操作完全隔离起来,实现了Bare-Metal的业务性能,同时实现了业务和Infrastructure的隔离,具备更高的安全性。据了解,这是VMWare第一次把Source开放给合作伙伴,共同开发基于VMWare企业级的云解决方案。

  在HPC和AI应用场景下,传统业务HPC和AI通讯框架以及HPC和 AI的文件存储框架都是由CPU来运行。由于BlueField DPU能把一些通信计算框架和存储框架offload出来,实现了通信框架、安全、存储和业务的隔离,让GPU和CPU 100%的资源都用在业务上,大幅降低业务的长尾延迟,增加计算性能。

  在HPC和AI中,由于DPU能够将通信Framework offload,如将AlltoAll操作放到DPU上,构建无阻塞式AlltoAll通信,实现了通讯与计算同时进行,降低了CPU的通信工作负载,实现100%的计算和通讯Overlap,大幅提高业务性能。

  在本次沟通会上,UCloud技术专家马彦青详细介绍了与NVIDIA的合作情况。据介绍,UCloud基于DPU&DOCA实现了网络卸载。

  马彦青表示,UCloud过去的网络架构使用了VPC网关,作为裸金属服务器之间VPC之间划分的方法。这种方法会使用很多网关服务器集群来进行管理,大概4-8台一个小集群,成本比较高。同时,在跨网关时会存在带宽瓶颈。

  “我们采用CPU作为新的VPC网络架构之后,能够将VPC管理集成到DPU内部。在新的VPC管理方案中,使用了UNet、Openvswitch、GRE隧道封装进行VPC管理。其中,UNet是UCloud自行研发的分布式SDN管理软件,OVS包转发以及GRE封装都可以通过ASIC硬件来进行实现,大大提高了转发效率。”马彦青表示,UCloud将原来10G网卡提升到DPU 25G之后,性能大大提高,在裸金属2.0产品中做了双网卡bonding之后,带宽可以提高到50G。这样,在裸金属网络架构里使用DPU之后,就可以更快捷地和主机网络使用相同的VPC管理方式,而且双方之间能够进行直接互通,也提高了连接效率。

  马彦青表示,对于云计算供应商而言,主要关注DPU在云计算数据中心的使用情况。包括使用ASAP2做网络卸载、使用SNAP/Virtio BLK SNAP做存储卸载、使用ARM处理器做服务编排管理、利用DPI深度包检测功能做正则表达式的算法卸载和安全加解密卸载,包括TLS、SSL以及IPSec算法,以及通过InifiniBand网络和RDMA做数据加速传输这五大方面。

  宋庆春表示,随着DPU崛起,为数据中心成为的计算单元铺平了道路,一定会掀起一波数据中心变革,不论是从单芯片还是到数据中心,实现了统一计算架构,数据中心成为了新的计算单元。

【51CTO原创稿件,合作站点转载请注明原文作者和出处为51CTO.com】

责任编辑:张诚 来源: 51cto
相关推荐

2018-06-13 14:52:02

混合云数字化转型英特尔

2021-03-24 14:13:51

数据分析架构大数据

2021-07-15 10:01:13

数字化转型数字化数据

2019-07-29 09:29:26

2021-08-09 10:29:29

NVIDIA

2011-08-05 16:36:02

Informatica数据中心

2022-06-06 21:53:08

云原生云计算

2014-04-10 22:33:46

IBM企业数字营销

2023-10-26 11:12:50

数字化转型CIO

2009-08-31 22:52:26

IT运维管理网络设备摩卡软件

2023-04-28 15:24:33

数字化转型数字经济

2018-10-25 14:21:22

Oracle数字化助手

2020-05-26 09:43:32

CRM

2020-02-04 13:50:16

云计算IT安全

2018-05-10 09:52:15

英特尔傲腾

2018-05-25 12:00:27

2020-01-16 09:34:19

浪潮存储

2009-07-14 14:26:43

2010-11-09 10:22:19

开放数据中心云计算

2013-12-10 14:39:15

点赞
收藏

51CTO技术栈公众号