モデル蒸留 ( Model Distillation )

巨大なAIの持つ知識を、もっと小さなAIに引き継がせ、効率的に動かすための技術