首页 手机 > 正文

谷歌人工智能芯片现已向公众开放

谷歌的云张量处理单元现在可以由任何人在公测版上试用,为科技巨头云平台的客户提供特殊硬件,大大加快了人工智能模型的训练和执行速度。

谷歌去年首次宣布的云TPU通过为客户提供专门的电路来加速人工智能计算。谷歌用其中的64个训练ResNet-50(一种用于识别图像的神经网络,也是人工智能训练速度的基准工具)只需要30分钟。

这种新硬件可以帮助吸引客户到谷歌的云平台,承诺更快的机器学习计算和执行。加速新人工智能系统的训练可能是一个重要的帮助,因为数据科学家可以利用这些实验的结果为未来的模型迭代做出改进。

谷歌正在利用其先进的人工智能能力为其云平台吸引新鲜血液,远离市场领导者亚马逊网络服务和微软Azure。企业越来越希望多元化使用公共云平台,谷歌的新AI硬件可以帮助企业利用这一趋势。

各公司已经排队测试云TPU,同时他们正在使用硬件在私人Alpha中训练具有人工智能模型的自动驾驶汽车,包括Lyft。

公司走过了漫长的道路才走到这一步。谷歌在2016年公布了原始张量处理单元(它只提供推理功能),并承诺客户将能够在其上运行定制模型。此外,它还通过云机器学习API为其他业务的工作负载提供了速度提升。然而,企业永远无法在原始TPU之上运行自己的定制工作负载。

谷歌并不是唯一一家通过专用硬件推动人工智能加速的公司。微软正在使用一组现场可编程门阵列(FPGA)来加速其内部机器学习操作,并为其Azure云平台的客户提供加速的网络连接。未来,微软致力于为客户提供一种在FPGA上运行机器学习模型的方法,就像该公司的专有代码一样。

与此同时,亚马逊正在为客户提供他们自己专用FPGA的计算示例。该公司还在开发一种专门的人工智能芯片,这将加速其Alexa设备的机器学习计算,根据今天发布的一份报告。

实际上,从TPU获得人工智能加速并不便宜。谷歌目前每TPU每小时收费6.50美元,但一旦硬件普遍可用,价格可能会有所变化。目前,谷歌仍在限制其客户可用的云TPU配额,但任何人都可以请求访问新的芯片。

一旦人们进入云TPU,谷歌就有几个优化的参考模型可用,以便他们可以开始踢轮胎,并使用硬件来加速人工智能计算。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。