くりらじ静岡局から、技術屋目線で技術情報を追いかける番組をお届けします。
…
continue reading
コンテンツは Hajime Morrita , Jun Mukai によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Hajime Morrita , Jun Mukai またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作権で保護された作品をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal。
Player FM -ポッドキャストアプリ
Player FMアプリでオフラインにしPlayer FMう!
Player FMアプリでオフラインにしPlayer FMう!
#53 – BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Manage episode 229692774 series 2151064
コンテンツは Hajime Morrita , Jun Mukai によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Hajime Morrita , Jun Mukai またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作権で保護された作品をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal。
NN の自然言語処理で transfer learning を実現した BERT について向井が話します。感想などはハッシュタグ #misreading か hello@misreading.chat にお寄せください。
https://misreadingchat.files.wordpress.com/2019/03/ep53.mp3
- [1810.04805] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
- Improving Language Understanding by Generative Pre-Training
- GitHub – openai/gpt-2: Code for the paper “Language Models are Unsupervised Multitask Learners”
- [1901.11504] Multi-Task Deep Neural Networks for Natural Language Understanding
- BERT with SentencePiece を日本語 Wikipedia で学習してモデルを公開しました – 原理的には可能 – データ分析界隈の人のブログ、もとい雑記帳
Follow up
134 つのエピソード
Manage episode 229692774 series 2151064
コンテンツは Hajime Morrita , Jun Mukai によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、Hajime Morrita , Jun Mukai またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作権で保護された作品をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal。
NN の自然言語処理で transfer learning を実現した BERT について向井が話します。感想などはハッシュタグ #misreading か hello@misreading.chat にお寄せください。
https://misreadingchat.files.wordpress.com/2019/03/ep53.mp3
- [1810.04805] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
- Improving Language Understanding by Generative Pre-Training
- GitHub – openai/gpt-2: Code for the paper “Language Models are Unsupervised Multitask Learners”
- [1901.11504] Multi-Task Deep Neural Networks for Natural Language Understanding
- BERT with SentencePiece を日本語 Wikipedia で学習してモデルを公開しました – 原理的には可能 – データ分析界隈の人のブログ、もとい雑記帳
Follow up
134 つのエピソード
All episodes
×プレーヤーFMへようこそ!
Player FMは今からすぐに楽しめるために高品質のポッドキャストをウェブでスキャンしています。 これは最高のポッドキャストアプリで、Android、iPhone、そしてWebで動作します。 全ての端末で購読を同期するためにサインアップしてください。