第66回: Transformerの学習理論: In-context learningにおける汎化と最適化の理論 Share: Download MP3 Similar Tracks 第52回: Transformer言語モデルを内部挙動から理解する NLPコロキウム 第70回: LLMに論理推論を教えられるか? - 人工コーパスを用いたアプローチ NLPコロキウム Learning Theory of Transformers: Generalization and Optimization of In-Context Learning Simons Institute ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング) 3Blue1BrownJapan 1020:ベイズ的最適化の入門と応用 機械学習による機械学習の実験計画 NVIDIA JAPAN 第75回: Agents for Software Development NLPコロキウム 第72回: 四千言語・百万時間の音声データを用いた自己教師あり学習の試み NLPコロキウム 第57回: Evolutionary Optimization of Model Merging Recipes NLPコロキウム 第73回:Is Structure Dependence Shaped for Efficient Communication?: A Case Study on Coordination NLPコロキウム GPTとは何か Transformerの視覚化 | Chapter 5, Deep Learning 3Blue1BrownJapan L1/L2正則化の意味【機械学習】 予備校のノリで学ぶ「大学の数学・物理」 第58回: Webナビゲーションにおける言語モデルエージェントの展望と課題 NLPコロキウム 第60回: Unlearning Traces the Influential Training Data of Language Models NLPコロキウム How Great Leaders Inspire Action | Simon Sinek | TED TED Transformers (how LLMs work) explained visually | DL5 3Blue1Brown