Knowledge Distillation (Bilgi Damıtma)

Büyük modelin bilgisini daha küçük bir modele aktarma tekniği.

Neden Önemli?

Verimli ve hızlı modeller oluşturmak için büyük modellerin öğretmen olarak kullanılması.