くりらじ静岡局から、技術屋目線で技術情報を追いかける番組をお届けします。
…
continue reading
コンテンツは iwashi によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、iwashi またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作権で保護された作品をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal。
Player FM -ポッドキャストアプリ
Player FMアプリでオフラインにしPlayer FMう!
Player FMアプリでオフラインにしPlayer FMう!
56. 自然言語処理(NLP)の歴史、BERT w/ Takahiro Omi
Manage episode 301908974 series 2451650
コンテンツは iwashi によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、iwashi またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作権で保護された作品をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal。
話したネタ
…
continue reading
- BERTによる自然言語処理入門 ―Transformersを使った実践プログラミング―
- 自然言語処理とは?
- 自然言語処理の応用範囲は?
- 機械翻訳、メールフィルタ、チャットボット
- 自然言語処理はどのように発展してきたのか?
- NN (ニューラルネットワーク) とは何か?
- NN における大きなブレイクスルー
- AlexNet
- エンドツーエンド処理
- Deep NN におけるディープとは?
- 学習とは具体的にはどのような処理?
- RNN (Recurrent Neural Network) とは?
- RNN で解きたかった課題は何か?
- RNN における処理イメージ
- RNN の課題
- LSTM (Long Short Term Memory)
- LSTM の特徴、文脈考慮
- NN への文章はどのように入力するのか?
- 単語をベクトルで表現する
- ELMo と LSTM との関連性は?
- なぜ双方向の情報を使うのが効果的なのか?
- セサミストリート
- Transformers の登場
- Self-Attention とは?
- Self-Attention の計算効率利点
- Attention と Transformer との関連性は?
- BERT(Bidirectional Encoder Representations from Transformers) とは?
- エンコーダとデコーダとは?
- BERT の特徴とは?
- BERTによるニュース記事の構造化:企業名抽出
- 自然言語処理界隈はどのように進化していくのか?
- GitHub Copilot
- Recruit、ストックマーク株式会社
115 つのエピソード
Manage episode 301908974 series 2451650
コンテンツは iwashi によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、iwashi またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作権で保護された作品をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal。
話したネタ
…
continue reading
- BERTによる自然言語処理入門 ―Transformersを使った実践プログラミング―
- 自然言語処理とは?
- 自然言語処理の応用範囲は?
- 機械翻訳、メールフィルタ、チャットボット
- 自然言語処理はどのように発展してきたのか?
- NN (ニューラルネットワーク) とは何か?
- NN における大きなブレイクスルー
- AlexNet
- エンドツーエンド処理
- Deep NN におけるディープとは?
- 学習とは具体的にはどのような処理?
- RNN (Recurrent Neural Network) とは?
- RNN で解きたかった課題は何か?
- RNN における処理イメージ
- RNN の課題
- LSTM (Long Short Term Memory)
- LSTM の特徴、文脈考慮
- NN への文章はどのように入力するのか?
- 単語をベクトルで表現する
- ELMo と LSTM との関連性は?
- なぜ双方向の情報を使うのが効果的なのか?
- セサミストリート
- Transformers の登場
- Self-Attention とは?
- Self-Attention の計算効率利点
- Attention と Transformer との関連性は?
- BERT(Bidirectional Encoder Representations from Transformers) とは?
- エンコーダとデコーダとは?
- BERT の特徴とは?
- BERTによるニュース記事の構造化:企業名抽出
- 自然言語処理界隈はどのように進化していくのか?
- GitHub Copilot
- Recruit、ストックマーク株式会社
115 つのエピソード
すべてのエピソード
×プレーヤーFMへようこそ!
Player FMは今からすぐに楽しめるために高品質のポッドキャストをウェブでスキャンしています。 これは最高のポッドキャストアプリで、Android、iPhone、そしてWebで動作します。 全ての端末で購読を同期するためにサインアップしてください。