深度卷积神经网络模型参数压缩方法及其应用任务书

 2021-08-20 11:08

1. 毕业设计(论文)主要内容:

通过编程实现参数压缩算法,完成对卷积神经网络(CNN)参数的压缩,减小模型所需的存储空间,并尽量减少识别率的损失。主要目标为:将CNN参数压缩4-16倍,并将识别率损失控制在1%以内。要求基于caffe深度学习平台,编写一个工具,对使用caffe训练好的CNN模型进行参数压缩,同时可使用压缩之后的模型参数进行前向预测。

2. 毕业设计(论文)主要任务及要求

1、查阅不少于15篇的相关资料,其中英文文献不少于3篇,完成开题报告。 2、掌握卷积神经网络的原理,学习C ,python等编程语言,并基于一种编程语言实现一个前向卷积神经网络。3、掌握参数压缩算法,并编程实现算法,编写一个参数压缩工具。 4、完成不少于5000汉字的英文文献翻译。 5、完成不少于12000字的毕业论文。

3. 毕业设计(论文)完成任务的计划与安排

第1-3周:查阅相关文献资料,明确研究内容,了解研究所需技术语言和开发工具,初步搭建并熟悉开发环境。确定方案,完成开题报告。 第4-5周:阅读参考文献,掌握参数压缩算法的原理和步骤。 第6-8周:编程实现压缩算法、压缩工具,测试各个程序模块。第9-10周:编程实现前向卷积神经网络,测试各个程序模块。 第11-13周:将程序模块进行整合,完成调试和测试。 第14-16周:完成并修改毕业论文。 第17周:准备论文答辩。

4. 主要参考文献

[1] Jegou, Herve, Douze, Matthijs, and Schmid, Cordelia. Product quantization for nearest neighbor search[M]. IEEE TPAMI, 2011. [2] Gong, et al. (2014). Compressing Deep Convolutional Networks using Vector Quantization. arXiv Preprint arXiv:1412.6115. [3] Han, et al. (2015). Learning both weights and connections for efficient neural networks. arXiv Preprint arXiv:1506.02626. [4] Hinton, et al. (2015). Distilling the knowledge in a neural network. arXiv Preprint arXiv:1503.02531. [5] Romero, et al. (2014). Fitnets: Hints for thin deep nets. arXiv Preprint arXiv:1412.6550.

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文任务书,课题毕业论文、开题报告、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。