
大数据处理进入 GPU 计算时代
提到 CPU,大家一定不会感到陌生。但当我们来到数据增长如指数爆炸的这个时代,CPU 还能否满足我们的需求?谁将成为高性能计算和大数据处理的新主力?
点击这期视频,听特邀主播数据科学专家 Frank 带你探索最新的数据科学世界!

加速数据科学的入门套件 | NVIDIA
阅读本书您将了解到:
如何建加速机器学习系统,该电子书为包括数据处理、分析、机器学习和推理(全部由 NVIDIA GPU 加速)等在内的现实性端到端系统提供了蓝图。
流失预测与建模
端到端蓝图
阅读本书您将了解到:
了解为何在进行硬件创新时需要重新思考数据团队如何构建分析和机器学习 (ML) 应用程序。
探索赋能不可或缺的分析和机器学习应用程序的硬件创新。了解为何应抓住时机,重新思考我们如何构建数据科学工作流程及遵循的流程。


AI 在智能空间领域的应用
电子书 (nvidia.cn)
阅读本书您将了解到:
通过将在全球部署的约 10 亿个摄像头与深度学习驱动的视频分析相结合,新一代 AI
应用程序应运而生,将提高城市街道、机场以及工厂车间等各种空间的运营效率和安全性。
硬件>软件> 流程:
后摩尔定律时代中的数据科学
阅读本书您将了解到:
探索赋能不可或缺的分析和机器学习应用程序的硬件创新。立即下载,了解为何应抓住时机,重新思考我们如何构建数据科学工作流程及遵循的流程。


基于 GPU 的开源数据科学软件库套装——RAPIDS
大数据时代,面对海量数据的挑战,看数据科学家应当如何利用具备强大算力的 GPU 来轻松实现高效率的数据处理?
点击这期视频,听特邀主播数据科学专家 Frank 带你探索最新的数据科学世界!


用 RAPIDS 在 GPU 上加速数据科学
深度解析用于加速数据科学和数据工程的 RAPIDS


通过使用 GPU 来扩展 web 和可视化应用(的容量)


利用 RAPIDS 实现 GPU 加速
——探秘 RAPIDS 的基本特性
数据科学和机器学习已成为计算技术中的重要领域。数据科学家应当如何借助 GPU 及其计算集群进行高性能计算?为何基于 GPU 的数据处理可以实现如此高的性能?
点击这期视频,听特邀主播数据科学专家 Frank 带你探索最新的数据科学世界!


用 RAPIDS 在 GPU 上加速数据科学
深度解析用于加速数据科学和数据工程的 RAPIDS


通过使用 GPU 来扩展 web 和可视化应用(的容量)


使用 NVIDIA GPU 来加速
Apache Spark 3.X
Apache Spark™ 作为专业的数据处理和分析工具,在众多应用框架中具有最高的企业应用普及率。当 NVIDIA GPU 为 Spark 进行数据加速,Apache
Spark™ 大数据处理效率将产生怎样的质变?
点击这期视频,听特邀主播数据科学专家 Frank 带你探索最新的数据科学世界!

加速 APACHE SPARK 3.X
利用 NVIDIA GPU 助力分析和 AI 新时代
阅读本书您将了解到:
学习 Spark 3 的创新如何使使用 GPU 的大规模并行架构进一步加速 Spark 数据处理成为可能。
硬件 >软件 >流程:
后摩尔定律时代中的数据科学
阅读本书您将了解到:
了解为何在进行硬件创新时需要重新思考数据团队如何构建分析和机器学习 (ML) 应用程序。
探索赋能不可或缺的分析和机器学习应用程序的硬件创新。
了解为何应抓住时机,重新思考我们如何构建数据科学工作流程及遵循的流程。


推荐系统 :
构建、部署和优化的最佳实践
阅读本书您将了解到:
通过提供该领域专家的实用见解以及阐明构建、部署和优化推荐系统的最佳实践,为开展更广泛的行业对话做出贡献。
GPU加速计算创造智能交易的新时代
阅读本书您将了解到:
借助 NVIDIA 自己的软件工具,机构投资者能够更好地利用 AI
以及高性能计算能力,从快速增长的数据规模中筛选出更强的交易信号,优化投资组合,实现交易自动化,改善风险管理,更准确地对衍生品进行定价,并对市场波动做出快速响应。


2022 GTC 秋季大会
数据科学领域分享
GTC 大会是人工智能、数据科学、高性能计算及图形图像领域的全球盛会,今年九月份的秋季 GTC 又有哪些与数据科学有关的重要 talks 呢?
点击这期视频,听特邀主播数据科学专家 Frank 带你探索最新的数据科学世界!


了解 NVIDIA 在 GPU 加速的数据科学领域解决方案的最新情况
深入了解 RAPIDS 的特性和本年度最新发布的功能


学习图神经网络框架 Deep Graph Library
学习图神经网络框架 PyTorch Geometric


了解“互联网工业引擎”推荐系统,在任何给定时间点根据用户情况和偏好来推荐项目
NVIDIA 的 Kaggle 大拿们为您介绍如何将在 Kaggle 竞赛中的获胜项目应用到 NVIDIA 内部和客户的项目之中


使用 GPU 加速 AI 模型
可解释性计算
以人工智能(AI)技术为代表的智能化大潮正在成为不可逆转的发展趋势,然而,相对于传统的基于规则的方法来讲,AI 算法犹如“黑盒子”,容易让人对其决策机制产生困惑和不信任,从而阻碍智能技术的实际落地。因此,AI 模型的解释性问题就理所当然地成为应用的焦点。
本期,我们就来看看在 GPU 上运行机器学习可解释性问题的优势是什么?GPU 上又有哪些工具可以用来解释 AI 模型?


慕尼黑再保险:GPU 加速的用于多样化投资组合构建的可解释机器学习
端到端可解释的加速机器学习


AWS SageMaker 上的 RAPIDS:扩展端到端可解释的机器学习工作流
以数据为中心的金融服务中可解释 AI 方法


量化投资中的可解释 AI
用可解释 AI 确定营销策略如何影响销售