浅谈知识蒸馏(Knowledge Distillation)
知识蒸馏(Knowledge Distillation)是一种模型压缩技术,旨在通过从大型的复杂模型(教师模型 […]
浅谈知识蒸馏(Knowledge Distillation) Read More »
知识蒸馏(Knowledge Distillation)是一种模型压缩技术,旨在通过从大型的复杂模型(教师模型 […]
浅谈知识蒸馏(Knowledge Distillation) Read More »
论文Distilling System 2 into System 1(《将系统2蒸馏到系统1》)研究了一种将
用蒸馏(Distilling)让复杂推理(System 2)“转换”为快速、直觉化推理(System 1) Read More »
Distilling the Knowledge in a Neural Network是Geoffrey H
诺奖得主Geoffrey Hinton的一篇老论文,关于知识蒸馏(Distilling) Read More »
论文Joint Semantic Knowledge Distillation and Masked Acou
MaskSR2:基于MaskSR,结合语义知识蒸馏和声学语言建模的全频带语音恢复生成框架 Read More »
论文Diffusion Models Are Real-Time Game Engines(《扩散模型是实时游
GameNGen:首个完全由神经网络模型驱动的游戏引擎 Read More »
论文《通过裁剪和知识蒸馏实现紧凑的语言模型》(Compact Language Models via Prun
通过裁剪(Pruning)和知识蒸馏(Knowledge Distillation)实现紧凑的语言模型 Read More »