以思维导图的方式制作了一份学习笔记,主要内容是各部分工作的目的、主要解决方案、以及部分方法的主要思想以及优缺点 正文附上两张内容预览以及思维导图APP下载链接
以思维导图的方式制作了一份学习笔记,主要内容是各部分工作的目的、主要解决方案、以及部分方法的主要思想以及优缺点 正文附上两张内容预览以及思维导图APP下载链接
随着深度学习在物联网智能基础设施中的广泛应用,各种AIoT(人工智能物联网)应用成为可能。然而,基础设备有限的资源限制了深度计算任务的执行效率。如何提高这些任务的部署效率,成为一个涉及多层优化的问题,包括上层模型结构、底层系统调度,以及它们之间的相互影响。为扩展物联网中深度学习部署和优化的研究范围,我们深入调研了现有的优化技术,涵盖了本地和分布式计算中的深度学习模型、计算图、运算符、内存调度和硬件指令。
深度学习驱动的移动应用通过模型压缩在资源有限的设备上本地部署,以实现稳健且私密的环境感知。然而,现有的DNN压缩技术要么手工设计以优化模型性能,要么按需压缩以优化硬件指标,但都无法在线运行且未考虑动态部署环境。为此,我们提出了AdaSpring,一个上下文自适应、自进化的DNN压缩框架,实现本地在线的自适应压缩。
在资源有限的环境中部署深度神经网络(DNN)并获得令人满意的性能是一项挑战。尤其是在微控制器上,因为其空间和计算能力非常有限。TREC 是最近为在 DNN 中实现计算重用而提出的一种优化方法,本文的重点是如何在微控制器上实现空间和时间的节约。该解决方案在保持 DNN 精度稳定的同时,最大限度地提高了性能。实验表明,该解决方案消除了 DNN 中 96% 以上的计算,使其能够很好地融入微控制器,在仅有微小精度损失的情况下提高了 3.4-5x速度。
Deep Learning Inference on Heterogeneous Mobile Processors: Potentials and Pitfalls - 论文分享