2016ICLR最佳论文 Deep Compression: Compression Deep Neural Networks With Pruning, Trained Quantization And Huffman Codin 主要针对神经网络模型巨大,在嵌入式机器中比较难运行的问题. abstruct 压缩网络包括三个阶段:pruning, trained quantization and Huffman coding,能将模型减小1/35~1/49,并且不影响精度.首先 只通过学习重要…