深度学习模型在跨平台部署时可能会面临具有不同的资源可用性,在运行时可能会面临精度与资源成本的权衡。AdaDeep首次将自适应模型压缩问题与DNN的超参数优化框架相结合,将压缩技术看作是粗粒度的DNN超参数,利用强化学习对不同的计算任务需求和平台资源约束进行自动化选择,从而实现自适应的轻量级模型架构搜索。它考虑了丰富的模型性能(包括精度、计算量、运行时能耗、存储和时延)以及对于不同平台资源约束的可用性。
AdaDeep算法基于Python 3.6+、Tensorflow、torch等依赖库开发。算法输入为深度模型的使用需求(精度或资源限制),输出为根据用户指定的需求组合多种压缩技术以压缩模型。该算法支持在CiFar-10、CiFar-100、ImageNet等数据集上的深度学习模型自适应压缩。在代码的实现过程中,AdaSpring算法参考了Deepx、EIE等第三方资源实现。
算法名称 | 需要驱动的模型选择框架 (A Usage-Driven Model Selection Framework,AdaDeep) |
算法接口 | python adadeep.py --config_file config.yaml |
输入 | 深度模型的使用需求(精度或资源限制) |
输出 | 根据用户指定的需求组合多种压缩技术以压缩模型 |
支持数据集 | CIFAR-10、CIFAR-100、ImageNet |
依赖库 | Python 3.6+、Tensorflow、torch |
参考资源 | Deepx、EIE |
gitlab链接:AdaDeep · GitLab (crowdhmt.com)
文章链接:[1] Liu S, Lin Y, Zhou Z, et al. On-demand deep model compression for mobile devices: A usage-driven model selection framework[C]//Proceedings of the 16th Annual International Conference on Mobile Systems, Applications, and Services. 2018: 389-400.
如果觉得我的文章对您有用,请随意打赏。你的支持将鼓励我继续创作!