摘要
原文链接:https://arxiv.org/abs/1708.06519
深度卷积神经网络(CNNs)在现实世界中的应用很大程度上受到其高计算成本的阻碍。在本文中,我们提出了一种新的cnn学习方案,以同时减小模型的尺寸;2)减少运行时内存占用;3)在不影响精度的前提下,降低计算操作的数量。这是通过在网络中以一种简单但有效的方式强制通道级稀疏性来实现的。与许多现有的方法不同,所提出的方法直接适用于现代CNN体系结构,为训练过程引入了最小的开销,并且对生成的模型不需要特殊的软件/硬件加速器。我们称这种方法为网络瘦身,它以宽而大的网络作
转载:https://blog.csdn.net/hhhhhhhhhhwwwwwwwwww/article/details/127871910
查看评论