17. Методы редукции дисперсии. SAG, SVRG. Адаптивные методы. Adam, RMSProp, Adagrad. ФКН. 2024
Similar Tracks
18. Обучение нейросетей с точки зрения оптимизации. Grokking. Double Descent. Loss Surface. ФКН.2024
Даня Меркулов
20. Двойственные методы: градиентный подъем (!), метод модиф. функции Лагранжа, ADMM. ФКН.2024
Даня Меркулов
19. Обучение больших моделей. Warmup. DDP. Gpipe. LoRA. ZeRO. Идея квантизации. ФКН.2024
Даня Меркулов
24. Методы оптимизации в непрерывном времени. Gradient Flow. Стох. и ускоренная версии. МФТИ 2024
Даня Меркулов
15. Метод Ньютона. Квадратичная сходимость. Квазиньютоновские методы. SR1, DFP, BFGS. ФКН. 2024
Даня Меркулов
16. Метод стохастического градиентного спуска. Минимизация конечных сумм. Батч. Эпоха. ФКН. 2024
Даня Меркулов
25. Метод двойственного подъёма. Метод модифицированной фун. Лагранжа. Dual decomposition. МФТИ 2024
Даня Меркулов