Knowledge Distillation (Bilgi Damıtma)
Büyük modelin bilgisini daha küçük bir modele aktarma tekniği.
Neden Önemli?
“Verimli ve hızlı modeller oluşturmak için büyük modellerin öğretmen olarak kullanılması.”
Büyük modelin bilgisini daha küçük bir modele aktarma tekniği.
“Verimli ve hızlı modeller oluşturmak için büyük modellerin öğretmen olarak kullanılması.”