くりらじ静岡局から、技術屋目線で技術情報を追いかける番組をお届けします。
…
continue reading
#111: Formal Algorithms for Transformers
Manage episode 359821334 series 2151064
コンテンツは Hajime Morrita , Jun Mukai によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Hajime Morrita , Jun Mukai またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作権で保護された作品をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal。
勤務先への脅威に怯える森田が Transformer を復習しました。ご意見ご感想などはおたより投書箱や Reddit にお寄せください。iTunes のレビューや星も歓迎です。
今回は録音に際し Adobe Podcast (beta) のバグを引き当ててしまい、向井と森田の音声トラックがずれてしまいました。ごめんなさい。次回からは non-beta の手堅いツールで録音しようと思います・・・。
- [2207.09238] Formal Algorithms for Transformers
- #15 – Neural Machine Translation by Jointly Learning to Align and Translate
- #38 – Subword Regularization: Improving Neural Network Translation Models with Multiple Subword Candidates
- #51 – Attention Is All You Need
- #53 – BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
- Jay Alammar – YouTube
- GitHub – openai/tiktoken: tiktoken is a fast BPE tokeniser for use with OpenAI’s models.
- GitHub – karpathy/nanoGPT: The simplest, fastest repository for training/finetuning medium-sized GPTs.
- Let’s build GPT: from scratch, in code, spelled out. – YouTube
127 つのエピソード