技术小站8

网站首页 焦点 > 正文

谷歌的人工智能芯片现已向公众开放

2022-12-14 04:08:32 焦点 来源:
导读 谷歌的Cloud Tensor Processing Units现在可以在公共测试版上供任何人试用,为科技巨头云平台的客户提供了专门的硬件,大大加快了人工智

谷歌的Cloud Tensor Processing Units现在可以在公共测试版上供任何人试用,为科技巨头云平台的客户提供了专门的硬件,大大加快了人工智能模型的培训和执行。

谷歌去年首次宣布的云TPU通过为客户提供专门的电路来加速人工智能计算。 谷歌测试使用其中的64个来训练ResNet-50(一种用于识别图像的神经网络,也是人工智能训练速度的基准工具)只需30分钟。

这种新的硬件可以帮助吸引客户到谷歌的云平台,承诺更快的机器学习计算和执行。 加速新的人工智能系统的培训可能是一个重要的帮助,因为数据科学家可以利用这些实验的结果为未来的模型迭代做出改进。

谷歌正在利用其先进的人工智能能力,吸引新的血液到其云平台,远离市场领导者亚马逊Web服务和微软Azure。 企业越来越希望将公共云平台的使用多样化,而谷歌的新AI硬件可以帮助公司利用这一趋势。

公司已经排队测试云TPU,而他们在私人阿尔法,包括Lyft,正在使用硬件培训AI模型的自动驾驶汽车。

公司要到这里已经走了很长的路。 谷歌在2016年宣布了最初的Tensor处理单元(它只提供推理功能),并承诺客户将能够在它们上运行自定义模型,此外还通过云机学习API为其他业务的工作负载提供了速度提升。 但是,企业永远无法在原始TPU之上运行自己的自定义工作负载。

谷歌并不是唯一通过专用硬件推动人工智能加速的公司。 微软正在使用一组现场可编程门阵列(FPGA)来加快其内部机器学习操作,并为其Azure云平台的客户提供加速联网。 在未来,微软正致力于为客户提供一种在FPGA上运行机器学习模型的方法,就像公司的专有代码一样。

与此同时,亚马逊正在为客户提供拥有自己专用FPGA的计算实例。 该公司还正在开发一种专门的人工智能芯片,这将加速其Alexa设备的机器学习计算,根据今天发布的一份报告。

实际上,从TPU获得人工智能加速并不便宜。 谷歌目前每个TPU每小时收费6.50$,但一旦硬件普遍可用,价格可能会发生变化。 目前,谷歌仍在限制其客户可用的云TPU配额,但任何人都可以请求访问新芯片。

一旦人们进入云TPU,谷歌有几个优化的参考模型可用,让他们开始踢轮胎,并使用硬件加速人工智能计算。


版权说明: 本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。


标签:




热点推荐
热评文章
随机文章