毎週水曜日更新中!
#53 – BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Manage episode 229692774 series 2151064
著作 Hajime Morrita , Jun Mukai の情報はPlayer FM及びコミュニティによって発見されました。著作権は出版社によって所持されます。そして、番組のオーディオは、その出版社のサーバから直接にストリーミングされます。Player FMで購読ボタンをタップし、更新できて、または他のポッドキャストアプリにフィードのURLを貼り付けます。
NN の自然言語処理で transfer learning を実現した BERT について向井が話します。感想などはハッシュタグ #misreading か hello@misreading.chat にお寄せください。
https://misreadingchat.files.wordpress.com/2019/03/ep53.mp3
- [1810.04805] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
- Improving Language Understanding by Generative Pre-Training
- GitHub – openai/gpt-2: Code for the paper “Language Models are Unsupervised Multitask Learners”
- [1901.11504] Multi-Task Deep Neural Networks for Natural Language Understanding
- BERT with SentencePiece を日本語 Wikipedia で学習してモデルを公開しました – 原理的には可能 – データ分析界隈の人のブログ、もとい雑記帳
Follow up
92 つのエピソード