数据革命下的前沿技术变迁

大数据时代下,数据科学成了兵家必争之地。通过一系列数据的整理与分析,结合 AI 技术,能产生大量行之有效的预测性建议。
本系列视频将带大家剖析数据科学在各领域应用的实例,以及展望更奥妙的科技未来。欢迎持续关注

大数据处理进入 GPU 计算时代

提到 CPU,大家一定不会感到陌生。但当我们来到数据增长如指数爆炸的这个时代,CPU 还能否满足我们的需求?谁将成为高性能计算和大数据处理的新主力?
点击这期视频,听特邀主播数据科学专家 Frank 带你探索最新的数据科学世界!

借助 AI 和数据科学推动变革

加速数据科学的入门套件 | NVIDIA

阅读本书您将了解到:


如何建加速机器学习系统,该电子书为包括数据处理、分析、机器学习和推理(全部由 NVIDIA GPU 加速)等在内的现实性端到端系统提供了蓝图。

下载入门套件

流失预测与建模
端到端蓝图

阅读本书您将了解到:


了解为何在进行硬件创新时需要重新思考数据团队如何构建分析和机器学习 (ML) 应用程序。
探索赋能不可或缺的分析和机器学习应用程序的硬件创新。了解为何应抓住时机,重新思考我们如何构建数据科学工作流程及遵循的流程。

下载白皮书

AI 在智能空间领域的应用
电子书 (nvidia.cn)

阅读本书您将了解到:


通过将在全球部署的约 10 亿个摄像头与深度学习驱动的视频分析相结合,新一代 AI 应用程序应运而生,将提高城市街道、机场以及工厂车间等各种空间的运营效率和安全性。

下载白皮书

硬件>软件> 流程:
后摩尔定律时代中的数据科学

阅读本书您将了解到:


探索赋能不可或缺的分析和机器学习应用程序的硬件创新。立即下载,了解为何应抓住时机,重新思考我们如何构建数据科学工作流程及遵循的流程。

下载白皮书
基于 GPU 的开源数据科学软件库套装——RAPIDS

大数据时代,面对海量数据的挑战,看数据科学家应当如何利用具备强大算力的 GPU 来轻松实现高效率的数据处理?
点击这期视频,听特邀主播数据科学专家 Frank 带你探索最新的数据科学世界!

RAPIDS 最新动向

用 RAPIDS 在 GPU 上加速数据科学

深度解析用于加速数据科学和数据工程的 RAPIDS

通过使用 GPU 来扩展 web 和可视化应用(的容量)


利用 RAPIDS 实现 GPU 加速
——探秘 RAPIDS 的基本特性

数据科学和机器学习已成为计算技术中的重要领域。数据科学家应当如何借助 GPU 及其计算集群进行高性能计算?为何基于 GPU 的数据处理可以实现如此高的性能?
点击这期视频,听特邀主播数据科学专家 Frank 带你探索最新的数据科学世界!

RAPIDS 最新动向

用 RAPIDS 在 GPU 上加速数据科学

深度解析用于加速数据科学和数据工程的 RAPIDS

通过使用 GPU 来扩展 web 和可视化应用(的容量)


使用 NVIDIA GPU 来加速
Apache Spark 3.X

Apache Spark™ 作为专业的数据处理和分析工具,在众多应用框架中具有最高的企业应用普及率。当 NVIDIA GPU 为 Spark 进行数据加速,Apache Spark™ 大数据处理效率将产生怎样的质变?
点击这期视频,听特邀主播数据科学专家 Frank 带你探索最新的数据科学世界!

了解 GPU 加速的数据科学

加速 APACHE SPARK 3.X
利用 NVIDIA GPU 助力分析和 AI 新时代

阅读本书您将了解到:


学习 Spark 3 的创新如何使使用 GPU 的大规模并行架构进一步加速 Spark 数据处理成为可能。

下载白皮书

硬件 >软件 >流程:
后摩尔定律时代中的数据科学

阅读本书您将了解到:


了解为何在进行硬件创新时需要重新思考数据团队如何构建分析和机器学习 (ML) 应用程序。 探索赋能不可或缺的分析和机器学习应用程序的硬件创新。
了解为何应抓住时机,重新思考我们如何构建数据科学工作流程及遵循的流程。

下载白皮书

推荐系统 :
构建、部署和优化的最佳实践

阅读本书您将了解到:


通过提供该领域专家的实用见解以及阐明构建、部署和优化推荐系统的最佳实践,为开展更广泛的行业对话做出贡献。

下载白皮书

GPU加速计算创造智能交易的新时代

阅读本书您将了解到:


借助 NVIDIA 自己的软件工具,机构投资者能够更好地利用 AI 以及高性能计算能力,从快速增长的数据规模中筛选出更强的交易信号,优化投资组合,实现交易自动化,改善风险管理,更准确地对衍生品进行定价,并对市场波动做出快速响应。

下载白皮书

适用于 Apache Spark 的 NVIDIA RAPIDS 加速器

2022 GTC 秋季大会
数据科学领域分享

GTC 大会是人工智能、数据科学、高性能计算及图形图像领域的全球盛会,今年九月份的秋季 GTC 又有哪些与数据科学有关的重要 talks 呢?
点击这期视频,听特邀主播数据科学专家 Frank 带你探索最新的数据科学世界!

GTC 数据科学动向

了解 NVIDIA 在 GPU 加速的数据科学领域解决方案的最新情况

深入了解 RAPIDS 的特性和本年度最新发布的功能

学习图神经网络框架 Deep Graph Library

学习图神经网络框架 PyTorch Geometric

了解“互联网工业引擎”推荐系统,在任何给定时间点根据用户情况和偏好来推荐项目

NVIDIA 的 Kaggle 大拿们为您介绍如何将在 Kaggle 竞赛中的获胜项目应用到 NVIDIA 内部和客户的项目之中

使用 GPU 加速 AI 模型
可解释性计算

以人工智能(AI)技术为代表的智能化大潮正在成为不可逆转的发展趋势,然而,相对于传统的基于规则的方法来讲,AI 算法犹如“黑盒子”,容易让人对其决策机制产生困惑和不信任,从而阻碍智能技术的实际落地。因此,AI 模型的解释性问题就理所当然地成为应用的焦点。
本期,我们就来看看在 GPU 上运行机器学习可解释性问题的优势是什么?GPU 上又有哪些工具可以用来解释 AI 模型?

深入了解可解释 AI

慕尼黑再保险:GPU 加速的用于多样化投资组合构建的可解释机器学习

端到端可解释的加速机器学习

AWS SageMaker 上的 RAPIDS:扩展端到端可解释的机器学习工作流

以数据为中心的金融服务中可解释 AI 方法

量化投资中的可解释 AI

用可解释 AI 确定营销策略如何影响销售

大语言模型构建方面的
NVIDIA 方案

ChatGPT 快速火爆让大众认识到大语言模型(LLM)的惊人能力,也使其迅速成为众多领域从业人员的“标配”。
除了公共领域之外,实际上很多专业及商业细分领域也需要专有的“ChatGPT”,因此大语言模型训练的需求是广泛存在的。需求的涌现促使着数据科学家和AI专家们考虑如何训练自己的百亿甚至千亿参数的大语言模型。
本期视频,数据科学家 Frank 将带您了解当前大语言模型构建方面的 NVIDIA 方案。

使用 NVIDIA NeMo 框架和服务简化大型语言
模型入门

KT 通过 AI 训练智能音箱和客户呼叫中心

NVIDIA NeMo 服务|通过定制的生成式 AI 模型
提高企业生产力

用最新的定制技术驯服 LLM

金融中自然语言处理和大型语言模型的可能性:
来自德意志银行的见解

面向所有人的生成式 AI:
在算法创造力指引道德和可访问性

使用 NVIDIA NeMo Framework
实现 LLM 构建的完整流水线

NVIDIA NeMo Framework 是一个端到端云原生企业框架,可用于构建、客户定制化和部署具有数十、百、千亿参数的生成式 AI 模型。NeMo Framework 通过多 GPU 和多节点配置,和 3D 并行技术加速训练工作流程,提供多种客户化技术选择,以及针对语言和图像应用的大规模模型的优化推理。 NeMo Framework 使企业的生成式 AI 模型开发变得简单、经济、快速。
点击这期视频,听特邀主播数据科学专家 Frank 带你探索 NVIDIA 新推出的大模型开源训练平台 NeMo Framework 的特性!

使用 NVIDIA NeMo 框架和服务简化大型语言
模型入门

如何构建企业级生成式 AI 用例

NeMo 工具包:大规模的语音训练

使用 NVIDIA NeMo 结合 AI21 labs 搭建基于 LLM
的中文场景对话引擎 | 网络研讨会

AI 开发平台助力对话式人 AI (GIGABYTE 演讲)

了解更多 NVIDIA Nemo Framework

如何轻松将数据分析和机器学习
工作流迁移到 GPU ?

随着数据规模的增长,传统的 python 处理库往往显露出效率不高的问题。那能否在不改动代码的前提下,将数据处理从 CPU 迁移至GPU 上,从而享受 GPU 的高效计算优势?
自 NVIDIA 的 RAPIDS 23.10 版起,分别推出了 cudf.pandas、nx-cuGraph、cuml-cpu 三款新产品。观看这期视频,听特邀主播数据科学专家 Frank ,带你探索如何轻松将现有的数据分析和机器学习工作流迁移到 GPU ,以实现更快的数据处理和分析速度。

cuDF 加速处理 25 年 514 支股票数据,猜猜结果如何?

【技术博客】RAPIDS cuDF 可将 pandas 的速度
提升近 150 倍,且无需更改代码

【技术博客】在 NVIDIA GPU 上加速 NetworkX, 实现高性能图形分析

User Guide: cuML on GPU and CPU

解密 AI 如何加速数据科学工作流 | NVIDIA 英伟达博客

全面了解 NVIDIA AI Enterprise

探索 RAG :
拓宽大语言模型的应用领域

大语言模型 (LLM) 对人类语言和编程语言的深刻理解正在改变AI格局。对于新一代企业生产力应用程序而言,它们至关重要,可提高用户在编程、文案编辑、头脑风暴和回答各种主题的问题等任务中的效率。然而,这些模型通常难以处理实时事件和特定知识领域 (如私域的知识库) ,从而导致不准确的回答。检索增强生成 (RAG) 通过将信息检索与 LLM 结合,为开放领域的问答应用提供解决方案。
观看本期视频,听特邀主播数据科学专家 Frank 深入介绍 RAG 的技术原理,展示行业先进的 RAG 工程实例,并探讨 RAG 在实际应用中的潜力与优势。

RAG 白皮书 最大化提升企业数据价值

什么是 RAG (检索增强生成) ?

如何通过四个步骤将 RAG 应用程序从试点阶段转变为生产阶段?

多模态检索增强生成的简单介绍

借助加速以太网网络和网络存储扩展企业级 RAG

评估适用于企业级 RAG 的 Retriever

驾驭 RAG :构建代理、CoPilots 、助理
等更多内容!

检索增强生成:设计系统、数据和定制概述

借助生成式 AI 实现美妆领域的增强型营销 欧莱雅倾情分享

2024 GTC RAG 集锦

数据处理新利器,cuDF 轻松实现 Polars 的 GPU 加速

在大数据分析的浪潮中,如何找到更快、更高效的工具?Polars 作为新兴的开源利器,基于 Rust 开发,原生支持多线程并行计算和列式存储技术,对于一般性的任务,Polars 使数据处理速度有了显著的提升。更令人惊喜的是,Polars 还支持 GPU 加速,带来高达13倍的性能提升。
本期视频将由特邀主播数据科学专家 Frank 深入解析 Polars 的技术优势,揭示 Eager 和 Lazy 执行模式的精妙之处,并展示如何在 GPU 加速下,轻松处理大规模数据集。立即观看,体验数据分析的新境界!

由 RAPIDS cuDF 提供支持的 Polars GPU 引擎 现已推出公测版

Polars user guide

Polars 的 GPU 加速

RAPIDS - Get Started | NVIDIA Developer

Numba-CUDA:
赋能GPU数据处理的关键力量

我们知道,在基于Python的GPU数据处理领域,CuPy、cuDF 是不可或缺的工具。但除此之外 Numba-CUDA 也是关键性的工具,它打通了 Python 与 CUDA 底层生态的通道,赋予了开发者更大的设计自由,且性能逼近 CUDA C。Numba-CUDA 支持 Python 语法,其默认数组格式使其可以方便地与多框架互操作,可用以拓展 CuPy、cuDF 功能 。同时,其代码能编译成 PTX 文件供 C/C++ 调用,也能调用 CUDA C/C++ 函数。对于大数据处理任务,还可以方便地使用 Dask 来拓展 Numba-CUDA 任务,因此是 Python 数据科学家们的必学必备的工具。

Accelerated Python with Numba
(特邀嘉宾研讨会)

NVIDIA CUDA Tutorial

Numba CUDA User Guide

CuPy and Numba on the GPU

使用Numba-CUDA定义用户自定义函数

如何才能实现Numba-CUDA与CUDA C/C++之间的相互调用

使用RMM对Numba-CUDA、RAPIDS、CuPy、PyTorch进行统一的显存管理并查看使用状态

RAPIDS - Get Started | NVIDIA Developer

最新的CUDA-Python生态
及展望

2025春季GTC发布了最新CUDA-Python生态内容。CUDA生态发展的重点是Python化,未来CUDA C或C++的子库都会有对应的Python库。这不是对C语言接口的简单封装,而是用更Pythonic的方式进行重构。本期视频将由特邀主播数据科学专家 Frank ,为大家讲讲目前CUDA-Python生态下,有哪些新成员产生?

NVIDIA cuLitho 是一个库,包含优化的工具和算法, 用于 GPU 加速计算光刻和半导体制造工艺, 比目前基于 CPU 的方法多个数量级。
相关博客
NVIDIA cuDSS (预览版) 是经过优化的第一代 GPU 加速的直接稀疏求解器库,用于求解具有超稀疏矩阵的线性系统。直接稀疏求解器是数值计算的重要组成部分,适用于自动驾驶和过程模拟等实时应用,在这些应用中,日益复杂和高吞吐量需要强大的直接求解器。
相关博客
用于稀疏计算的 GPU 库 API。cuSPARSE 主机 API 提供 GPU 加速的基本线性代数例程,cuSPARSELt 主机 API 提供结构化稀疏支持,可利用稀疏张量核心实现 GEMM。稀疏技术在机器学习、AI、计算流体动力学、地震勘探和计算科学领域得到广泛应用。
相关博客
NVIDIA cuFFT 库提供 GPU 加速的快速里叶变换 (FFT) 实现,用于构建跨学科的应用程序,例如深度学习、计算机视觉、计算物理学、分子动力学、量子化学以及地震和医学成像。
相关博客
AmgX 提供了一条在 NVIDIA GPU 上加速核心求解器技术的简单路径。AmgX 可为模拟的计算密集型线性求解器部分提供高达 10 倍的加速,特别适合隐式非结构化方法。
NVIDIA® cuOpt™ 能够借助加速计算更快地做出更好的决策,从而优化运营。cuOpt 能够帮助团队解决具有多重约束的复杂路线规划问题,并且能够提供动态重新规划路线、作业调度和机器人仿真等新功能,同时实现亚秒级求解器响应时间。凭借 23 项创下世界纪录的基准,cuOpt 包揽了过去三年内最大路线规划基准方面的世界纪录。
相关博客
NVIDIA Warp 是一个开发者框架,用于在 Python 中构建和加速数据生成和空间计算。Warp 让程序员能够轻松编写用于仿真 AI、机器人开发和机器学习 (ML) 的 GPU 加速、基于内核的程序。借助 Warp,Python 开发者可以创建 GPU 加速的 3D 仿真工作流,从而在 PyTorch、JAX、Modulus 和 NVIDIA Omniverse™ 中驱动 ML 工作流。优势包括仿真性能等同于原生 CUDA 代码,以及 Python 的便捷性和开发者工作效率。
相关博客
cuDF是一个用于加载、连接、聚合、过滤和以其他方式操作数据的 GPU DataFrame 库。 cuDF 利用 libcudf(一个超快的 C++/CUDA 数据帧库)和 Apache Arrow 列格式来提供 GPU 加速的 pandas API。
相关博客
cuML 是一套快速的 GPU 加速机器学习算法,专为数据科学和分析任务而设计。我们的 API 与 Sklearn 的 API 相同,我们为从业者提供简单的拟合 - 预测 - 转换范式,而无需在 GPU 上编程。
相关博客
NVIDIA Megatron-Core 是一个基于 PyTorch 的开源库,可在数千个 GPU 上以惊人的速度大规模训练大型模型。它采用 GPU 优化的训练技术,采用先进的系统级创新技术,所有这些创新均可通过可组合的 API 访问。Megatron-Core 与 NVIDIA NeMo™ 无缝集成,提供端到端云原生解决方案,用于构建、自定义和部署大语言模型 (LLM) 。
相关博客
NVIDIA Dynamo 平台是一个高性能、低延迟的推理平台,旨在服务于任何框架、架构或部署规模的所有 AI 模型。无论您是在单个入门级 GPU 上运行图像识别,还是在数十万个数据中心 GPU 上部署数十亿参数推理大型语言模型 (LLM),NVIDIA Dynamo 平台都能提供可扩展、高效的 AI 推理。
相关博客
NVIDIA 推理 Xfer 库 (NIXL) 旨在加速 NVIDIA Dynamo 等 AI 推理框架中的点对点通信,同时通过模块化插件架构提供各种类型的内存 (例如 CPU 和 GPU) 和存储 (例如文件、块和对象存储) 的抽象。
NVIDIA CUDA® 深度神经网络库 (cuDNN) 是一个 GPU 加速的深度神经网络基元库,能够以高度优化的方式实现标准例(如前向和反向卷积、池化层、归一化和激活层)。
相关博客
CUTLASS 是 CUDA C++ 模板抽象的集合,用于在 CUDA 内的所有级别和规模上实现高性能矩阵乘法 (GEMM) 。
相关博客
cuEquivariance 是一个 Python 库,旨在促进使用分段张量乘积构建高性能等方差神经网络。cuEquivariance 提供了一个全面的 API,用于描述分段张量乘积,以及用于执行这些乘积的优化 CUDA 核函数。此外,cuEquivariance 还为 PyTorch 和 JAX 提供绑定,确保广泛的兼容性和易于集成。
相关博客
NVIDIA cuTENSOR 是一个 GPU 加速的张量线性代数库,用于张量收缩、归约和元素级运算。借助 cuTENSOR,应用可以利用 NVIDIA GPU 上的专用 Tensor Core 实现高性能张量计算,并加速深度学习训练和推理、计算机视觉、量子化学和计算物理工作负载。
相关博客
作为一个包含经过优化的库和工具的 SDK,NVIDIA cuQuantum 可用于加速量子计算工作流。借助 NVIDIA Tensor Core GPU,开发者可以使用 cuQuantum 将基于状态向量和张量网络方法的量子电路模拟加速一个数量级。
相关博客
CUDA-Q 是一个开源量子开发平台,它编排了运行有用的大规模量子计算应用所需的硬件和软件。
相关博客
NVIDIA Earth-2 将 AI、GPU 加速、物理仿真和计算机图形的强大功能相结合,以超高的准确性和速度在全球范围内模拟和可视化天气和气候预测。该平台由用于 AI、可视化和仿真微服务及参考实现组成。
相关博客
MONAI 框架是 Project MONAI 创建的开源基础。MONAI 是一个免费的、社区支持的、基于 PyTorch 的框架,用于医疗健康成像领域的深度学习。它提供针对领域优化的基础功能,用于在原生 PyTorch 范式中开发医疗健康成像训练工作流。
相关博客
NVIDIA® Parabricks® 是一个可扩展的基因组学分析软件套件,能够充分利用全栈加速计算在几分钟内处理数据。它与所有领先的测序仪器兼容,支持多种生物信息学工作流程,并集成了 AI,有助于实现超高的准确性,并允许用户随心定制。Parabricks 是一种经济高效且节省空间的解决方案,非常适合用于侧重推进疾病理解和管理的大型基因组学项目。
相关博客
NVIDIA Aerial 是一套用于设计、模拟和操作无线网络的加速计算平台、软件和服务。Aerial 包含用于电信公司、云服务提供商 (CSP) 和构建商业 5G 网络的企业的强化 RAN 软件库。学术和行业研究人员可以访问云端或本地 Aerial 设置,用于 6G 方面的高级无线、人工智能和机器学习 (ML) 研究。
相关博客
Sionna™ 是一个 GPU 加速的开源库,用于链路级模拟。此开源库支持对复杂的通信体系架构进行快速的原型设计,并为在 6G 信号处理中机器学习集成提供原生支持。
相关博客
NVIDIA cuPyNumeric 立志成为 NumPy 的嵌入式替代库,将 NVIDIA 平台上的分布式和加速计算引入 Python 社区。
相关博客
如果想利用 GPU 的强大功能进行数据科学和机器学习,一度被认为需要使用一些低级编程语言,例如 C++。 NVIDIA 的团队一直在努力构建 Python SDK,以便在进行 Pythonic GPU 编程时提供近乎原生级别的性能。一起看看如何使用 Pure Python 进行 GPU 编程。
NVIDIA 培训和认证 | RAPIDS 免费培训上线

《零代码修改加速数据科学工作流》

现代数据科学需要快速高效地处理大量数据。加速工作负载,确保实时输出结果,提高整体生产力。NVIDIA RAPIDS 提供了一种流畅的体验,使许多现有的数据科学任务能够在不改变任何代码的情况下实现 GPU 加速。
NVIDIA 深度学习培训中心(DLI)推出免费课程《零代码修改加速数据科学工作流》,采用在线自学的视频讲解模式,让您随时随地开启学习之旅。通过课程,您可以了解在数据科学任务中统一 CPU 和 GPU 工作流的优异性,使用 GPU 加速各种数据处理和机器学习工作流而无需改变任何代码,以及体验 GPU 加速后工作流处理时间的显著减少。

开始学习
Copyright©2005-2025 51CTO.COM 版权所有 未经许可 请勿转载