网站首页 科技 > 正文
Face今日推出Captum,这是一个使用深度学习框架Py来解释神经网络决策的库。Captum旨在实现AI模型的最新版本,例如集成渐变、深度LIFT和行为。Captum允许研究人员和开发人员解释在多模态环境中做出的决定,多模态环境结合了文本、图像和视频,并允许他们将结果与库中现有的模型进行比较。
开发人员还可以使用Captum了解特征的重要性,或者对神经网络进行深入研究,了解神经元和层的属性。
该工具还将推出CaptumInsights,这是一个可视化工具,用于直观地表示Captuming结果。Book在一篇博文中表示,Insights的推出支持了集成梯度和即将推出的更多模型。
Py Torch产品经理Joe Pisac Inca遗迹在接受Venture Beat Ina电话采访时表示:“还有其他更注重语境的图书馆,但深入研究真的是最难解决的问题,因为要解释这种模式的实用理念,可以说,尤其是在这些多式联运技术问题上。
这一消息是今天在旧金山中途举行的火炬开发者大会上宣布的。
今天的其他新版本包括支持量化和谷歌云TPU的Py Torch 1.3,从安卓和iOS设备开始的嵌入式设备的Py Torch移动,以及对象检测模型检测器2的发布。
Spisak说,在今天的开源之前,Captum被用在Face book内部,以更好地理解在多模态环境下做出的决定。
“你可以观看任何Face book页面,它有文本,有音频,有视频和链接,还有很多不同类型的模式嵌入。所以,我们基本上是从这个前提出发的。我们想知道为什么模型会预测他们预测的东西,但我们希望以可视化的方式来做,这给用户一种直觉,以及具体的统计数据和信息,这样他们就可以自信地说,这就是模型做出这种预测的原因,”他说。
解释性,即理解人工智能模型为什么做决策的能力,对于开发者沟通模型为什么做某个决策非常重要。它使人工智能能够应用于需要解释以符合监管法律的企业。
缺乏理解深度学习所做决定的能力,使得“黑箱”一词流行起来。
在今年夏天与Venture Beat的KyleWiggers的对话中,OpenAITO Gregbrockman和首席科学家IlyaSutskever建议,未来的模型制作应该基于解释和理性。
今年发布的其他有助于解释人工智能推理的工具包括IBM的人工智能解释360工具包和微软5月发布的解释ML。
版权说明: 本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。
猜你喜欢:
- 2022-01-20 iQOO手机官微发布重大消息
- 2022-04-01 三星LG和HTC的移动部门都在亏损 但为什么?
- 2022-12-02 三星似乎不会参加下一届IFA 2020
- 2021-09-23 神童创始人提议从微软回购应用
- 2022-08-11 尼康Z6和Z7接收固件更新将RAW视频捕获作为付费升级进行
- 2022-01-19 如何在微软Azure中创建基于云的虚拟网络
- 2021-10-05 健康保险政策中的共同支付功能是什么?
- 2022-11-22 三星宣布了6G网络的出现时间
最新文章:
- 2023-03-07 最有名的清明节古诗名句(最有名的清明节古诗)
- 2023-03-07 苹果11月13日发售(苹果10月13日发布12手机)
- 2023-03-07 永爱医养商城(永爱)
- 2023-03-07 眼镜框的选择
- 2023-03-07 人人租(r人人)
- 2023-03-07 托收承付和委托收款是什么意思(托收承付是什么意思)
- 2023-03-07 风是自由的 希望你也是英文(你也是 英文)
- 2023-03-07 古诗情景运用填空题(经典古诗文情景阅读填空题)
- 热点推荐
- 热评文章