2017 年 9 月 26 日,当今 AI 革命势头正劲之际,NVIDIA 创始人兼***执行官黄仁勋亮相北京,展示了能够加快人工智能大规模采用速度的全新技术。
这场为期三天的盛会吸引了超过 3,500 名科学家、工程师和新闻界人士参加。黄仁勋向这 3,500 多名参与者所做的演讲标志着 GTC 全球巡回之旅的启程。在未来几个月里,NVIDIA将陆续前往慕尼黑、特拉维夫、台北、华盛顿和东京,向数以千计开发人员讲述AI创新的故事。
目前,市场对能够加速交付各类 AI 服务的技术需求量激增。毫无疑问,为交付这些服务,NVIDIA 的深度学习平台是一种极快速、极有效方式,而且 NVIDIA 还于星期二发布了全新的软件,对深度学习平台进行了更新。
黄仁勋在主题演讲中介绍了互联网公司竞相将深度学习 AI引入受众达数十亿人的服务之中,以及 AI 推理工作负载是如何呈指数级增长的。在视频领域,每日运行的推理计算估计有 3,000 亿次。在语音领域,每日运行的推理计算估计打 500 亿次以上。在语言翻译领域,每日运行的推理计算更是达到约 7,000 亿次以上。
TensorRT 3:每秒识别 5,200 张图片
为满足市场需求,NVIDIA 发布了 TensorRT 3 AI 推理软件。该软件能够在生产环境中运行经过训练的神经网络(请参阅“深度学习训练与推理之间有何区别?”)。这款新软件能够大幅提升从云端向终端设备(包括无人驾驶汽车和机器人)的推理性能,能并降低成本。
当NVIDIA GPU结合TensorRT 3,就能够在所有框架上开展超快、超高效的推理工作,从而实现众多支持 AI 的服务,例如图像和语音识别、自然语言处理、视觉搜索和个性化建议。据黄仁勋介绍,搭配 Tesla V100 GPU 加速器的 TensorRT 每秒能够识别多达 5,700 张图片,而如今所用的 CPU 则每秒仅能识别 140 张图片。
这是一套效率和速度兼备的平台。搭配NVIDIA*** GPU 的一台服务器顶得上当前 150 台 CPU 服务器。换个角度来说,采用 GPU 加速技术的一个数据中心所开展的推理工作相当于 13 个仅采用 CPU 的数据中心。
除了 TensorRT 3 以外,黄仁勋还发布了能够实现 AI 加速的软件。其中包括能够大规模提供实时、低延迟视频分析的 DeepStream SDK、以及能够加快 HPC 和深度学习应用速度的加速计算软件平台 CUDA 的***版本:CUDA 9。
中国云服务提供商和 OEM 采用 Tesla V100
对于希望将这项技术投入使用的用户而言,目前可供选择的选项***丰富。
黄仁勋宣布,阿里云、百度和腾讯均已在其云服务中部署 Tesla V100 GPU 加速器。另外,包括华为、浪潮和联想在内的中国*** OEM 均已采用NVIDIA的 HGX 服务器架构并使用 Tesla V100 GPU 来构建新一代加速数据中心。
助力京东实现自动化配送
NVIDIA 还宣布将与中国大型在线零售商京东合作。京东每年配送的包裹数量超过 300 亿,且这一数字还在以 50% 的速度逐年增长。
为应对如此大的增幅,京东正着手推出能够向客户派发包裹的 JDrover,以及能携带 30 公斤包裹的无人机 JDrone。京东的目标是在 2022 年之前建设一支拥有 100 万架无人机的机群。
上述两种配送工具均由京东创新实验室 JD X 负责开发,由 NVIDIA Jetson 超级计算平台提供技术支持,且运行 TensorRT以实现导航和无人送货。
Metropolis 合作伙伴又添新成员
随着与阿里巴巴和华为建立合作关系,以及NVIDIA DeepStream SDK的全面推出,NVIDIA在本周的 GTC 中国大会上为奠定智慧城市的基础再度贡献了全新的构建模块。
对于人工智能城市和超大规模数据中心而言,DeepStream 简化了由深度学习提供支持的可扩展智能视频分析的发展。
全球已有 50 多家***公司在使用 NVIDIA Metropolis,如今阿里巴巴和华为也加入了这一行列。在 2020 年之前,我们将借力在城市中部署的超过 10 亿台的摄像头,以期解决交通拥堵、紧急事件通知和失踪人员搜寻等问题。