技术小站8

网站首页 科技 > 正文

脸书的Captum为机器学习带来了可解释性

2021-11-25 10:01:24 科技 来源:
导读 Face今日推出Captum,这是一个使用深度学习框架Py来解释神经网络决策的库。Captum旨在实现AI模型的最新版本,例如集成渐变、深度LIFT和行为

Face今日推出Captum,这是一个使用深度学习框架Py来解释神经网络决策的库。Captum旨在实现AI模型的最新版本,例如集成渐变、深度LIFT和行为。Captum允许研究人员和开发人员解释在多模态环境中做出的决定,多模态环境结合了文本、图像和视频,并允许他们将结果与库中现有的模型进行比较。

开发人员还可以使用Captum了解特征的重要性,或者对神经网络进行深入研究,了解神经元和层的属性。

该工具还将推出CaptumInsights,这是一个可视化工具,用于直观地表示Captuming结果。Book在一篇博文中表示,Insights的推出支持了集成梯度和即将推出的更多模型。

Py Torch产品经理Joe Pisac Inca遗迹在接受Venture Beat Ina电话采访时表示:“还有其他更注重语境的图书馆,但深入研究真的是最难解决的问题,因为要解释这种模式的实用理念,可以说,尤其是在这些多式联运技术问题上。

这一消息是今天在旧金山中途举行的火炬开发者大会上宣布的。

今天的其他新版本包括支持量化和谷歌云TPU的Py Torch 1.3,从安卓和iOS设备开始的嵌入式设备的Py Torch移动,以及对象检测模型检测器2的发布。

Spisak说,在今天的开源之前,Captum被用在Face book内部,以更好地理解在多模态环境下做出的决定。

“你可以观看任何Face book页面,它有文本,有音频,有视频和链接,还有很多不同类型的模式嵌入。所以,我们基本上是从这个前提出发的。我们想知道为什么模型会预测他们预测的东西,但我们希望以可视化的方式来做,这给用户一种直觉,以及具体的统计数据和信息,这样他们就可以自信地说,这就是模型做出这种预测的原因,”他说。

解释性,即理解人工智能模型为什么做决策的能力,对于开发者沟通模型为什么做某个决策非常重要。它使人工智能能够应用于需要解释以符合监管法律的企业。

缺乏理解深度学习所做决定的能力,使得“黑箱”一词流行起来。

在今年夏天与Venture Beat的KyleWiggers的对话中,OpenAITO Gregbrockman和首席科学家IlyaSutskever建议,未来的模型制作应该基于解释和理性。

今年发布的其他有助于解释人工智能推理的工具包括IBM的人工智能解释360工具包和微软5月发布的解释ML。


版权说明: 本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。


标签:




热点推荐
热评文章
随机文章