发布一篇很长的抓兰
易百纳社区 人工智能(AI)的最新趋势是使用卷积神经网络(CNNs),与其他现有方法相比,卷积神经网络提供了显著的性能。然而,细胞神经网络的大尺寸和高计算成本是在智能手机等资源受限设备上部署细胞神经网络时的瓶颈。
此外,对细胞神经网络进行数小时的训练会导致更多的二氧化碳排放。例如,用于训练细胞神经网络48小时的计算设备(NVIDIA GPU RTX-2080 Ti)产生的二氧化碳相当于一辆平均行驶13英里的汽车所排放的二氧化碳。为了估算二氧化碳,他们的研究人员使用了一种公开可用的工具。
因此,研究人员旨在将细胞神经网络压缩为:
降低计算复杂度以实现更快的推理。
减少内存占用,以便有效地使用底层资源。
通过分析在压缩细胞神经网络的微调过程中有多少训练示例足够,以实现与使用未压缩细胞神经网的所有训练示例获得的性能相似的性能,来减少细胞神经网络训练阶段的计算数量。
解决方案 压缩细胞神经网络的方向之一是通过“修剪”,即从原始网络中明确删除不重要的过滤器,以构建紧凑或修剪的网络。修剪后,对修剪后的网络进行微调,以恢复性能损失。
本研究提出了一种基于余弦距离的算法,用于在开放的音频场景分类cnn滤波器空间中修剪相似滤波器。此外,研究人员通过减少修剪的计算时间来提高算法的效率。
他们发现,提出的修剪方法将每个推理的计算次数减少了27%,内存需求减少了25%,准确性下降了不到1%。在对修剪后的cnn进行微调时,减少25%的训练样例得到的性能与使用所有样例得到的性能相似。他们公开了所提出的算法的可重复性,并提供了一个视频演示,解释了我们发表的工作的方法和结果。
此外,他们在不降低性能的情况下,将所提出的修剪方法的计算时间提高了3倍。 易百纳社区 人工智能(AI)的最新趋势是使用卷积神经网络(CNNs),与其他现有方法相比,卷积神经网络提供了显著的性能。然而,细胞神经网络的大尺寸和高计算成本是在智能手机等资源受限设备上部署细胞神经网络时的瓶颈。
此外,对细胞神经网络进行数小时的训练会导致更多的二氧化碳排放。例如,用于训练细胞神经网络48小时的计算设备(NVIDIA GPU RTX-2080 Ti)产生的二氧化碳相当于一辆平均行驶13英里的汽车所排放的二氧化碳。为了估算二氧化碳,他们的研究人员使用了一种公开可用的工具。
因此,研究人员旨在将细胞神经网络压缩为:
降低计算复杂度以实现更快的推理。
减少内存占用,以便有效地使用底层资源。
通过分析在压缩细胞神经网络的微调过程中有多少训练示例足够,以实现与使用未压缩细胞神经网的所有训练示例获得的性能相似的性能,来减少细胞神经网络训练阶段的计算数量。
解决方案 压缩细胞神经网络的方向之一是通过“修剪”,即从原始网络中明确删除不重要的过滤器,以构建紧凑或修剪的网络。修剪后,对修剪后的网络进行微调,以恢复性能损失。
本研究提出了一种基于余弦距离的算法,用于在开放的音频场景分类cnn滤波器空间中修剪相似滤波器。此外,研究人员通过减少修剪的计算时间来提高算法的效率。
他们发现,提出的修剪方法将每个推理的计算次数减少了27%,内存需求减少了25%,准确性下降了不到1%。在对修剪后的cnn进行微调时,减少25%的训练样例得到的性能与使用所有样例得到的性能相似。他们公开了所提出的算法的可重复性,并提供了一个视频演示,解释了我们发表的工作的方法和结果。
此外,他们在不降低性能的情况下,将所提出的修剪方法的计算时间提高了3倍。 易百纳社区 人工智能(AI)的最新趋势是使用卷积神经网络(CNNs),与其他现有方法相比,卷积神经网络提供了显著的性能。然而,细胞神经网络的大尺寸和高计算成本是在智能手机等资源受限设备上部署细胞神经网络时的瓶颈。
此外,对细胞神经网络进行数小时的训练会导致更多的二氧化碳排放。例如,用于训练细胞神经网络48小时的计算设备(NVIDIA GPU RTX-2080 Ti)产生的二氧化碳相当于一辆平均行驶13英里的汽车所排放的二氧化碳。为了估算二氧化碳,他们的研究人员使用了一种公开可用的工具。
因此,研究人员旨在将细胞神经网络压缩为:
降低计算复杂度以实现更快的推理。
减少内存占用,以便有效地使用底层资源。
通过分析在压缩细胞神经网络的微调过程中有多少训练示例足够,以实现与使用未压缩细胞神经网的所有训练示例获得的性能相似的性能,来减少细胞神经网络训练阶段的计算数量。
解决方案 压缩细胞神经网络的方向之一是通过“修剪”,即从原始网络中明确删除不重要的过滤器,以构建紧凑或修剪的网络。修剪后,对修剪后的网络进行微调,以恢复性能损失。
本研究提出了一种基于余弦距离的算法,用于在开放的音频场景分类cnn滤波器空间中修剪相似滤波器。此外,研究人员通过减少修剪的计算时间来提高算法的效率。
他们发现,提出的修剪方法将每个推理的计算次数减少了27%,内存需求减少了25%,准确性下降了不到1%。在对修剪后的cnn进行微调时,减少25%的训练样例得到的性能与使用所有样例得到的性能相似。他们公开了所提出的算法的可重复性,并提供了一个视频演示,解释了我们发表的工作的方法和结果。
此外,他们在不降低性能的情况下,将所提出的修剪方法的计算时间提高了3倍。 易百纳社区 人工智能(AI)的最新趋势是使用卷积神经网络(CNNs),与其他现有方法相比,卷积神经网络提供了显著的性能。然而,细胞神经网络的大尺寸和高计算成本是在智能手机等资源受限设备上部署细胞神经网络时的瓶颈。
此外,对细胞神经网络进行数小时的训练会导致更多的二氧化碳排放。例如,用于训练细胞神经网络48小时的计算设备(NVIDIA GPU RTX-2080 Ti)产生的二氧化碳相当于一辆平均行驶13英里的汽车所排放的二氧化碳。为了估算二氧化碳,他们的研究人员使用了一种公开可用的工具。
因此,研究人员旨在将细胞神经网络压缩为:
降低计算复杂度以实现更快的推理。
减少内存占用,以便有效地使用底层资源。
通过分析在压缩细胞神经网络的微调过程中有多少训练示例足够,以实现与使用未压缩细胞神经网的所有训练示例获得的性能相似的性能,来减少细胞神经网络训练阶段的计算数量。
解决方案
压缩细胞神经网络的方向之一是通过“修剪”,即从原始网络中明确删除不重要的过滤器,以构建紧凑或修剪的网络。修剪后,对修剪后的网络进行微调,以恢复性能损失。
本研究提出了一种基于余弦距离的算法,用于在开放的音频场景分类cnn滤波器空间中修剪相似滤波器。此外,研究人员通过减少修剪的计算时间来提高算法的效率。
他们发现,提出的修剪方法将每个推理的计算次数减少了27%,内存需求减少了25%,准确性下降了不到1%。在对修剪后的cnn进行微调时,减少25%的训练样例得到的性能与使用所有样例得到的性能相似。他们公开了所提出的算法的可重复性,并提供了一个视频演示,解释了我们发表的工作的方法和结果。
此外,他们在不降低性能的情况下,将所提出的修剪方法的计算时间提高了3倍。
- 分享
- 举报
-
❄ 2023-07-18 11:22:41回复 举报dev
-
么的钱 2023-04-04 10:46:27回复 举报服务日的受托人
-
么的钱 2023-04-03 09:52:28回复 举报没有重复数据
-
么的钱 2023-04-03 09:51:50回复 举报平路看看
-
么的钱 2023-03-21 11:33:29回复 举报在发布一个评论
-
么的钱 2023-03-21 11:29:53回复 举报评论一下哈哈哈哈
-
浏览量:214次2023-10-09 18:47:09
-
浏览量:325次2022-02-24 14:35:45
-
浏览量:241次2023-10-09 17:52:17
-
浏览量:246次2023-10-09 18:56:58
-
浏览量:447次2019-11-06 17:56:26
-
浏览量:264次2023-11-30 10:45:48
-
浏览量:312次2019-10-11 09:26:12
-
浏览量:388次2022-06-23 13:53:41
-
浏览量:480次2019-02-19 10:28:51
-
浏览量:326次2022-02-24 14:04:53
-
2020-11-18 16:48:22
-
浏览量:511次2019-07-19 16:33:40
-
浏览量:286次2019-12-13 09:14:30
-
浏览量:289次2022-08-11 17:10:58
-
浏览量:277次2022-02-24 13:41:56
-
浏览量:363次2023-07-24 10:09:02
-
浏览量:240次2023-07-24 10:13:52
-
浏览量:273次2023-07-24 10:07:52
-
浏览量:414次2023-10-24 13:55:43
-
广告/SPAM
-
恶意灌水
-
违规内容
-
文不对题
-
重复发帖

么的钱







举报类型
- 内容涉黄/赌/毒
- 内容侵权/抄袭
- 政治相关
- 涉嫌广告
- 侮辱谩骂
- 其他
详细说明