在Nvidia (NVDA)-Get Report 推出其最新的旗舰服务器GPU两个月后 ,首批依赖该产品的云计算实例即将推出。
周二,Nvidia和谷歌 (GOOG) - 获取报告 宣布,谷歌云平台(GCP)推出了一系列云计算实例-被称为A2 VM系列-这是由Nvidia的新A100 GPU供电。这些实例中功能最强大的实例可访问16个A100 GPU,以及1.3TB的系统内存。需求较少的客户可以购买访问较小实例的权限。
随着Nvidia将A100定位为用于AI培训,AI推理和传统高性能计算(HPC)工作负载的下一代解决方案,以及可以从服务器CPU分担大数据处理能力的解决方案,A2 VM实例正在不断推陈出新作为使用GPU来加速各种苛刻工作负载的选项。
此外,谷歌表示,A100即将支持其Kubernetes Engine服务以部署在容器中运行的应用程序集群,以及其Cloud AI Platform,该平台可帮助开发人员构建,运行和管理AI /机器学习模型。
不久之后,其他主要的公共云提供商将推出支持A100的计算实例。Nvidia在五月份正式宣布 A100时,表示(除Google之外)亚马逊网络服务 (AMZN)- 获取报告,Microsoft Azure (MSFT)- 获取报告 和Oracle (ORCL)- 获取报告 都计划提供A100-支持的服务,例如阿里巴巴 (BABA)- 获取报告,百度 (BIDU)- 获取报告 和腾讯 (TCEHY) 公共云平台。所有这些平台都已经提供了依赖较早的Nvidia GPU的云计算实例。
尽管其确切的性能提升因工作负载而异,但Nvidia断言,基于其新的Ampere GPU架构的A100在流行时会大大超过其最新的旗舰服务器GPU(特斯拉V100,于2017年中推出)与AI相关的工作负载。使用某些类型的算术进行训练和推理时,承诺最高可获得20倍的增益。
尽管Nvidia直到5月14日才正式宣布A100,但它在4月份季度开始向特定客户交付GPU。最初的A100出货量,以及对现有服务器GPU和GPU驱动服务器的强劲需求,帮助Nvidia的数据中心部门在4月季度收入达到11.4亿美元,比上一季度增长18%,每年增长80%。