くりらじ静岡局から、技術屋目線で技術情報を追いかける番組をお届けします。
…
continue reading
コンテンツは iwashi によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、iwashi またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作権で保護された作品をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal。
Player FM -ポッドキャストアプリ
Player FMアプリでオフラインにしPlayer FMう!
Player FMアプリでオフラインにしPlayer FMう!
75. GitHub Copilotの裏側 と 難解なテーマをわかりやすく説明する方法 w/ AIcia_Solid
Manage episode 332524594 series 2318506
コンテンツは iwashi によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、iwashi またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作権で保護された作品をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal。
GitHub Copilotの裏側、GPT、GPT-3、Scaling Law、Multi-head Attention、難解なトピックをわかりやすくする説明する方法などについて語っていただいたエピソードです。
話したネタ- AIcia Solid Project
- GitHub Copilot とは?(補足: 本ep公開時点でGA)
- GitHub Copilot の裏側で何が動いているのか?
- GPT(Generative Pre-trained Transformer) とは何か?
- 言語モデルのパラメータとは?
- パラメータって GPT では、どのぐらいの数があるのか?
- パラメータとは数が多ければいいもの?
- Youtube: 【深層学習】Scaling Law - 大きい Transformer は強い【ディープラーニングの世界vol.38】
- 論文: Scaling Laws for Neural Language Models
- 学習の計算量と時間量
- DALL·E 2
- Transformer は並列が得意、とあるがもともとはできなかった?
- LSTM(Long Short Term Memory)
- Multi-head Attention とは?
- GPT -> GPT-2 -> GPT-3 と進化するときに何が変わった?
- GPT-3 の弱点は?
- The Google engineer who thinks the company’s AI has come to life
- GPT-3 を使う側は何をすればいい?
- Fine Tuning と Hugging Face
- YouTube: 【深層学習】GPT-3 ①-2 追加学習なしでタスクに対応する仕組み【ディープラーニングの世界vol.39-2】
- Few-Shot、 One-Shot、 Zero-Shot
- 動画でわかりやすく説明するために何を意識している?
- 数式にこもっている魂を抜き出して説明する
- 非専門領域の人にわかりやすく伝える方法
- なぜこの活動(AIcia Solid Project)を続けられている?
- (収録で間に合わなかった重大告知) 2022/7/26に書籍 分析モデル入門 が発売開始!
冒頭で "fukabori.fm の76回です" と言っていますが "75回" の間違いです。
See Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.115 つのエピソード
Manage episode 332524594 series 2318506
コンテンツは iwashi によって提供されます。エピソード、グラフィック、ポッドキャストの説明を含むすべてのポッドキャスト コンテンツは、iwashi またはそのポッドキャスト プラットフォーム パートナーによって直接アップロードされ、提供されます。誰かがあなたの著作権で保護された作品をあなたの許可なく使用していると思われる場合は、ここで概説されているプロセスに従うことができますhttps://ja.player.fm/legal。
GitHub Copilotの裏側、GPT、GPT-3、Scaling Law、Multi-head Attention、難解なトピックをわかりやすくする説明する方法などについて語っていただいたエピソードです。
話したネタ- AIcia Solid Project
- GitHub Copilot とは?(補足: 本ep公開時点でGA)
- GitHub Copilot の裏側で何が動いているのか?
- GPT(Generative Pre-trained Transformer) とは何か?
- 言語モデルのパラメータとは?
- パラメータって GPT では、どのぐらいの数があるのか?
- パラメータとは数が多ければいいもの?
- Youtube: 【深層学習】Scaling Law - 大きい Transformer は強い【ディープラーニングの世界vol.38】
- 論文: Scaling Laws for Neural Language Models
- 学習の計算量と時間量
- DALL·E 2
- Transformer は並列が得意、とあるがもともとはできなかった?
- LSTM(Long Short Term Memory)
- Multi-head Attention とは?
- GPT -> GPT-2 -> GPT-3 と進化するときに何が変わった?
- GPT-3 の弱点は?
- The Google engineer who thinks the company’s AI has come to life
- GPT-3 を使う側は何をすればいい?
- Fine Tuning と Hugging Face
- YouTube: 【深層学習】GPT-3 ①-2 追加学習なしでタスクに対応する仕組み【ディープラーニングの世界vol.39-2】
- Few-Shot、 One-Shot、 Zero-Shot
- 動画でわかりやすく説明するために何を意識している?
- 数式にこもっている魂を抜き出して説明する
- 非専門領域の人にわかりやすく伝える方法
- なぜこの活動(AIcia Solid Project)を続けられている?
- (収録で間に合わなかった重大告知) 2022/7/26に書籍 分析モデル入門 が発売開始!
冒頭で "fukabori.fm の76回です" と言っていますが "75回" の間違いです。
See Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.115 つのエピソード
すべてのエピソード
×プレーヤーFMへようこそ!
Player FMは今からすぐに楽しめるために高品質のポッドキャストをウェブでスキャンしています。 これは最高のポッドキャストアプリで、Android、iPhone、そしてWebで動作します。 全ての端末で購読を同期するためにサインアップしてください。