网站首页 互联网 > 正文
谷歌今天推出了TensorFlowLite1.0,这是一个供开发者在移动设备和物联网设备上部署AI模型的框架。包括在训练期间和之后改进更快和更小模型的选择性配准和量化。量化导致某些模型压缩4倍。
“我们将全力支持。我们不会破坏东西,并确保我们保证它的兼容性。我想很多在手机上部署这个设备的人都想要这些保障。
首先在TensorFlow上训练AI模型,然后转化为创建Lite模型在移动设备上运行。Lite最早是在2017年5月的I/O开发者大会和当年晚些时候的开发者预览大会上推出的。
谷歌的TensorFlowLite团队今天也分享了未来的路线图,旨在减少和加速AI模型的边缘部署,包括模型加速,特别是针对使用神经网络的安卓开发者,以及基于Keras的连接修剪工具包和额外的量化增强。
一个TensorFlow2.0模型转换器,这样Lite模型就会提供给开发人员,让他们更好地了解转换过程中的错误以及如何修复。
在加州桑尼维尔的谷歌办公室举行的TensorFlow发展峰会上,Tensorflowsite工程师Raziealvarez在舞台上说,今天Tensorflowsite被超过20亿台设备部署。
TensorFlowLite越来越使TensorFlowMobile过时。除了那些想用它来训练的用户,阿尔瓦雷z说,一个解决方案正在进行中。
正在探索各种技术来减小AI模型的大小和优化移动设备,例如量化和委托(用于在不同的硬件中实现图形的结构化层以提高推理速度)。
1月开发者预览中提供了移动GPU加速和部分设备的代表;它可以使模型部署速度比浮点CPU快2到7倍。边缘TPU意味着速度可以提高到浮点CPU的64倍。
未来,谷歌计划让GPU代表普遍可用,扩大覆盖范围,最终确定API。
许多本地谷歌应用和服务使用TensorFlowLite,包括GBoard、谷歌照片、AutoML和Nest。当Google Assistant需要离线响应查询时,CPU模型的所有计算现在都由Lite执行。
Lite还可以在RaspberryPI和新的150美元珊瑚开发板等设备上运行,该开发板也于今天早些时候推出。
今天也首次亮相:简化用户体验的tensorflow 2.0 alpha版;TensorFlow.js1.0以及用苹果编程语言Swift编写代码的开发者的TensorFlow0.2版本。
版权说明: 本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。
猜你喜欢:
- 2021-10-11 小米Mi9 SE现已上市 顶级紧凑和强大
- 2022-01-01 华为Mate30系列正式亮相
- 2021-09-01 如何防止垃圾邮件入侵你的谷歌日历
- 2022-08-02 苹果有一个聪明的计划在增加电池容量的同时缩小苹果Watch的尺寸
- 2022-01-29 这是iOS 13.4 beta 4的又一次亮相
- 2022-07-27 Adobe将Lightroom带入Mac App Store
- 2022-08-23 360 N6Pro锁屏的通知内容怎么设置隐藏
- 2021-10-14 Naito用很长的篇幅介绍开发ThinkPad T40的详细过程
最新文章:
- 2023-03-08 潘多拉之心怀表音乐叫什么名字(潘多拉之心怀表)
- 2023-03-08 无缘无故的故(无缘无故的故是什么意思)
- 2023-03-08 两手空空的近反义词(两手空空的反义词)
- 2023-03-08 word2014产品密钥(word2003产品密钥)
- 2023-03-08 4444aaa
- 2023-03-08 姐妹情
- 2023-03-08 班超为人有大志(班超之志)
- 2023-03-08 常家庄园门票团购(常家庄园门票)
- 热点推荐
- 热评文章