知识蒸馏

2025-03-28 14:01:58 0 举报
知识蒸馏(Knowledge Distillation)是一种模型压缩技术,通过让小型学生模型(Student Model)模仿大型教师模型(Teacher Model)的“知识”,实现轻量化部署且保持高性能。其核心思想是将复杂模型的泛化能力迁移到轻量模型中,广泛应用于移动端部署、边缘计算等场景。
知识蒸馏
深度学习,神经网络,算法流程
算法流程图
算法原理
深度学习
作者其他创作
大纲/内容
评论
0 条评论
下一页