【機器學習2021】神經網路壓縮 (Network Compression) (二) - 從各種不同的面向來壓縮神經網路 Share: Download MP3 Similar Tracks 【機器學習2021】元學習 Meta Learning (一) - 元學習跟機器學習一樣也是三個步驟 Hung-yi Lee 【機器學習2021】神經網路壓縮 (Network Compression) (一) - 類神經網路剪枝 (Pruning) 與大樂透假說 (Lottery Ticket Hypothesis) Hung-yi Lee Lecture 10 - Knowledge Distillation | MIT 6.S965 MIT HAN Lab 【機器學習2021】自注意力機制 (Self-attention) (上) Hung-yi Lee 【漫士科普】90分钟深度!一口气看明白人工智能和神经网络#人工智能 #神经网络 漫士沉思录 MCP vs API: Simplifying AI Agent Integration with External Data IBM Technology 【生成式AI時代下的機器學習(2025)】第二講:一堂課搞懂 AI Agent 的原理 (AI如何透過經驗調整行為、使用工具和做計劃) Hung-yi Lee 【機器學習2021】課程結語 - 最後的業配並改編《為學一首示子姪》作結 Hung-yi Lee Quantization vs Pruning vs Distillation: Optimizing NNs for Inference Efficient NLP 【機器學習2021】Transformer (上) Hung-yi Lee 11. Introduction to Machine Learning MIT OpenCourseWare 关税过山车,特朗普究竟想干嘛? 小Lin说 一口气了解AMD | 别光盯着英伟达了~ 小Lin说 【機器學習2021】生成式對抗網路 (Generative Adversarial Network, GAN) (一) – 基本概念介紹 Hung-yi Lee 台大資訊 深度學習之應用 | ADL 2.5: Backpropagation 效率地計算大量參數 陳縕儂 Vivian NTU MiuLab 【機器學習2021】類神經網路訓練不起來怎麼辦 (五): 批次標準化 (Batch Normalization) 簡介 Hung-yi Lee 【機器學習 Machine Learning】3小時初學者教學 | 人工智慧 AI | Python | 機器學習入門 | 機器學習教學 #AI #ML #深度學習 GrandmaCan -我阿嬤都會 AI Engineer Roadmap – How to Learn AI in 2025 freeCodeCamp.org ViT太慢了,知识蒸馏后得到的DeiT又快又好! Ph.D. Vlog 台大資訊 人工智慧導論 | FAI 4.2: Backpropagation 參數這麼多到底怎麼有效率算出來的呢? 陳縕儂 Vivian NTU MiuLab