ep21: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

32:19
 
シェア
 

Manage episode 226540758 series 2438076
著作 jojonki の情報はPlayer FM及びコミュニティによって発見されました。著作権は出版社によって所持されます。そして、番組のオーディオは、その出版社のサーバから直接にストリーミングされます。Player FMで購読ボタンをタップし、更新できて、または他のポッドキャストアプリにフィードのURLを貼り付けます。

第21回では,Googleによる双方向コンテキストを獲得した言語モデルBERTの解説をしました.
今回紹介した論文はこちらのissueで解説しています.

github.com/jojonki/arXivNotes/issues/199

番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki

--- Support this podcast: https://anchor.fm/lnlp-ninja/support

50 つのエピソード