知识蒸馏
2025-03-28 14:01:58 0 举报
知识蒸馏(Knowledge Distillation)是一种模型压缩技术,通过让小型学生模型(Student Model)模仿大型教师模型(Teacher Model)的“知识”,实现轻量化部署且保持高性能。其核心思想是将复杂模型的泛化能力迁移到轻量模型中,广泛应用于移动端部署、边缘计算等场景。
作者其他创作
大纲/内容
学生模型(Student Model)
蒸馏
知识迁移(Knowledge Transfer)
数据
迁移
教师模型(Teacher Model)
知识
知识蒸馏
知识蒸馏(Knowledge Distillation)算法原理图
0 条评论
下一页