EfficientML.ai Lecture 9 - Knowledge Distillation (MIT 6.5940, Fall 2023) Share: Download MP3 Similar Tracks EfficientML.ai Lecture 9 - Knowledge Distillation (MIT 6.5940, Fall 2023, Zoom) MIT HAN Lab EfficientML.ai Lecture 1 - Introduction (MIT 6.5940, Fall 2023) MIT HAN Lab Model Distillation: Same LLM Power but 3240x Smaller Adam Lucek Quantization vs Pruning vs Distillation: Optimizing NNs for Inference Efficient NLP Better not Bigger: Distilling LLMs into Specialized Models Snorkel AI EfficientML.ai Lecture 9 - Knowledge Distillation (MIT 6.5940, Fall 2024, Zoom recording) MIT HAN Lab EfficientML.ai Lecture 12 - Transformer and LLM (Part I) (MIT 6.5940, Fall 2023) MIT HAN Lab EfficientML.ai Lecture 21 - On-device Training (MIT 6.5940, Fall 2024) MIT HAN Lab MedAI #88: Distilling Step-by-Step! Outperforming LLMs with Smaller Model Sizes | Cheng-Yu Hsieh Stanford MedAI EfficientML.ai Lecture 11 - TinyEngine and Parallel Processing (MIT 6.5940, Fall 2023) MIT HAN Lab MIT 6.S191 (2020): Neurosymbolic AI Alexander Amini EfficientML.ai Lecture 19 - Distributed Training Part 1 (MIT 6.5940, Fall 2024) MIT HAN Lab EfficientML.ai Lecture 10 - MCUNet: TinyML on Microcontrollers (MIT 6.5940, Fall 2023) MIT HAN Lab EfficientML.ai Lecture 16 - Diffusion Model (MIT 6.5940, Fall 2023) MIT HAN Lab CMU Advanced NLP Spring 2025 (11): Reinforcement Learning Sean Welleck MIT Introduction to Deep Learning | 6.S191 Alexander Amini DINO: Self-distillation with no labels Samuel Albanie EfficientML.ai Lecture 5 - Quantization (Part I) (MIT 6.5940, Fall 2023) MIT HAN Lab Lecture 10 - Knowledge Distillation | MIT 6.S965 MIT HAN Lab EfficientML.ai Lecture 15 - Long-Context LLM (MIT 6.5940, Fall 2024, Zoom Recording) MIT HAN Lab