2017年9月21日,谷歌GCE(Google Compute Engine)发布推出更快的GPU。首先,Google云平台(GCP)随着NVIDIA P100 GPU在测试版上的推出而获得另一个性能提升。其次,NVIDIA K80 GPU现在在GCE上可用。第三,宣布在K80和P100 GPU上引入持续使用的折扣。
云GPU可以加速企业的工作负载,包括机器学习训练和推理,如地球物理数据处理,仿真,地震分析,分子建模,基因组学和更多的高性能计算用例。
NVIDIA的特斯拉P100是目前GPU领域的最先进技术。基于Pascal GPU架构,你可以通过减少实例来增加吞吐量,同时节省资金。与K801相比,P100 GPU可以将工作负载加快10倍。
与传统解决方案相比,云GPU提供了更好的灵活性,性能和成本节约的组合:
灵活性:Google的自定义虚拟机和增量云GPU提供极大的灵活性。自定义CPU,内存,磁盘和GPU配置,以最好地满足需求。
快速性能:云端GPU通过直通模式提供裸机性能。每个VM最多可以连接4个P100或8个K80(我们提供最多4个K80板,每个板上有2个GPU)。对于那些寻求更高磁盘性能的用户,可选择将最多3TB的本地SSD附加到任何GPU虚拟机。
低成本:使用Cloud GPU,可以获得与GCP其余资源相同的每分钟计费和持续使用折扣。只为你需要的资源付费!
云集成:云GPU可用于堆栈的所有级别。对于基础设施,计算引擎和容器引擎(仅在Alpha群集上支持)允许使用VM或容器运行GPU工作负载。对于机器学习,云机器学习可以选择配置为利用GPU,以减少使用TensorFlow大规模培训你的模型所需的时间。
同时,现在可以在全球四个地区部署NVIDIA Tesla P100和K80 GPU。我们所有的GPU都可以利用持续使用折扣,当你使用它们来运行持续的工作负载时,可以自动降低虚拟机的价格(高达30%)。不需要锁定或预付最低费用承诺来利用这些折扣。
谷歌云计算引擎GCE推出更快的GPU
▲
加快机器学习工作量
自推出GPU以来,我们已经看到用户可以从额外的计算中获益,从而加速从基因组学和计算金融到训练和机器学习模型推理等工作。我们的客户之一,Shazam是GCP早期采用GPU来为音乐识别服务提供支持。
Shazam网站可靠性工程负责人Ben Belchak表示,“对于某些任务,NVIDIA GPU是传统CPU的成本效益和高性能替代品。他们与Shazam的核心音乐识别工作非常相符,其中我们将用户录制的音频片段与我们4000多万首歌曲的目录相匹配。我们通过拍摄每首歌曲的音频签名,将其编译成自定义数据库格式并将其加载到GPU内存中。每当用户Shazams一首歌曲,我们的算法使用GPU搜索该数据库,直到找到一个匹配。每天成功超过2000万次。”
今天GCP又迈出了一步,成为任何硬件加速工作负载的最佳选择。随着NVIDIA P100 GPU的增加,谷歌的主要重点是帮助你将新的用例带入生活。
责任编辑:张驰
为您推荐
河北有线技术部陈薇:双向网络增值业务的运营考虑
2011年10月26日,2011三网融合(上海)论坛今日在上海世博展览馆会议厅拉开帷幕,本届论坛主题是“创新、融合、转型、发展”。下午NGB与双向网络改造论坛也随即开始,本次论坛由DVBCN数字电视中文网和上海工业商务展览有限公司共同主办。经过国务院的部署和积极推广,三网融合得到有力的发展。本次论坛结合新疆、合肥、上海等各地方三网融合的实践与探索,对三网融合的发展情况及发展趋势作出沟通和研讨。为推动三网融合的快速发展作出各自的贡献。上海广电影视技术学会理事SMG范金慧女士主持本次论坛。以下是DVBCN电视数字中文网带来的精彩报道。