×
Jojonki 公開
[search 0]
×
最高の Jojonki ポッドキャストが見つかりました。 (アップデートされました 2月 2020)
最高の Jojonki ポッドキャストが見つかりました。
アップデートされました 2月 2020
百万人のPlayer FMユーザーに参加してオフラインのときでも、いつでも に関するニュースや詳細情報を把握することができます。 妥協なし無料のPodcastアプリでPodcastをスマートに。 聴きましょう!
世界最高のPodcastアプリに参加し、お気に入りの番組をオンラインで管理し、AndroidおよびiOSアプリでオフラインで再生します。 無料で簡単です。
More
show episodes
 
Leading NLP Ninjaでは最近のNLP (Natural Language Processing)に関連する論文をjojonkiが短く紹介します.気になったこと・質問・間違い等,フィードバック頂けると嬉しいです.紹介する論文は,基本的に下記の論文まとめから取り上げる予定です.https://github.com/jojonki/arXivNotes/issues Support this podcast: https://anchor.fm/lnlp-ninja/support
 
Loading …
show series
 
AAAI 2020より,多言語文埋め込みフレームワークEMUを解説しました. 今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/371 サポーターも募集中です. https://www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
ICLR 2020より,factorized embeddingとパラメタ共有によるパラメタ削減及び文順序予測タスクを採用したALBERTを解説しました. 今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/348 サポーターも募集中です. https://www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
ICLR 2020より,BERT/RoBERTaの埋め込み空間に,敵対摂動を入れるVirtual Adversarial Trainingによって,モデル性能を改善するFreeLBという手法を解説しました. 今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/347 サポーターも募集中です. https://www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
NeurIPS 2019よりDeepMindが発表した,様々な異なるタスク(テキスト分類とQA)のデータセットをepisodic memoryを利用して1モデルで学習できる手法を解説しました. 今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/326 サポーターも募集中です. https://www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第44回では,多言語で事前学習されたBERTを用いて,多言語でUniversal Dependenciesのタスクを解くモデルを解説しました. 今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/322 サポーターも募集中です. https://www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第43回では,Byte Pair Encodingを用いたサブワード正則化手法,BPE-dropoutを解説しました. 今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/302 サポーターも募集中です. https://www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第42回では,HuggingFace社のBERT, GPT-2, RoBERTaなどが気軽に利用できるTransformersフレームワークを紹介しました. 今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/295 サポーターも募集中です. https://www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第41回では,ACL 2019より要約タスクにおける"重要性"をモデル化して,Outstanding Paperを獲得した論文を説明しました. 今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/290 サポーターも募集中です. https://www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第40回では,ACL 2019よりFacebookのOpenDialKGという知識グラフを探索できる対話推論モデルを解説しました 今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/287 サポーターも募集中です. https://www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第39回では,ACL 2019 NLP for Conversational AIのBest Paperから,対話応答生成タスクにおいて,対話履歴と応答候補の因果関係に着目したリランキング手法を提案したモデルを紹介しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/283 --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第38回では,Amazonの方のACL 2019の参加レポートを解説しました 今回紹介した記事はこちらのissueで解説しています. github.com/jojonki/AI-Post-Notes/issues/2 Podcastのなかで紹介したarxivのメタ情報を簡単にコピペするChrome拡張 https://chrome.google.com/webstore/detail/arxiv-clip/enkadffnndphdjnpjamejdjlcbkkbpmp サポーターも募集中です. https://www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support…
 
第37回では,ACL 2019から,ACL2019からDSTC7のマルチモーダル対話でSOTAを獲得したMulti-Modal Transformer Networksを紹介しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/272 サポーターも募集中です. www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第36回では,IJCAI 2019から,自然言語処理を用いた最近のRLに関するサーベイ論文を紹介しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/267 --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第35回では,ACL 2019から,階層的にVAEを用いてマルチターン対話における言語生成を行う論文を紹介しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/261 --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第34回では,ACL 2019から,ニューラル対話生成モデルが,対話履歴を効果的に活用しているか調査した論文を紹介しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/254 番組への支援は,こちらからお待ちしております. --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第33回では,ACL 2019から,目的のトピックにスムーズに対話遷移できるopen-domainの対話システムに関する論文を紹介しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/242 番組への支援は,こちらからお待ちしております. --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
github上でご指摘いただきましたが,実験2のReproductionのシステムの優劣を完全に逆にして説明していることが判明しました.issueのコメント欄を御覧ください.他にも怪しくなってきた気がするのでお気付きの方はどんどんコメント頂けると嬉しいです。 第32回では,ACL 2019から,標準的なデータセットのsplitに起因するシステム比較手法の危険性を示す論文を解説しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/241 番組への支援は,こちらからお待ちしております. --- Support this podcast: https://anchor.fm/lnlp-ninja/support…
 
第30回では,NAACLのBest Short Paperに選ばれた,マルチモーダル機械翻訳におけるビジョンモダリティの貢献具合を調査した論文を紹介しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/229 番組への支援は,こちらからお待ちしております. --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第30回では,NAACLのBest Short Paperに選ばれた,マルチモーダル機械翻訳におけるビジョンモダリティの貢献具合を調査した論文を紹介しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/228 番組への支援は,こちらからお待ちしております. --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第29回では,NAACLのBest Thematic Paperに選ばれた,学習データに含まれるバイアスを軽減させる手法を紹介しました.名前の単語埋め込みと予測確率の相関関係にペナルティを与えるロス関数を提案しています. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/226 --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第28回では,NAACLより学習した重みに対する透明性・説明性について一石を投じる論文を解説しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/221 --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第27回では,2018年度の振り返りの特別回として,アンケート結果の共有,NLPのおすすめ勉強方法と教材,論文の読み方,期末の振り返りと今後について話しました. アンケートの振り返り NLPの勉強の仕方,論文の読み方 今期,来期のはなし 紹介した書籍やサイト 自然言語処理の基本と技術 Graham Neubig先生のNLPプログラミングチュートリアル 言語処理のための機械学習入門 番組への支援は,こちらからお待ちしております. --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第26回では,NLP2019のニューラルネットワークベースのシンプルな形態素解析器について解説しました. 今回紹介した論文は予稿集が公開され次第,issueを公開にします 現在視聴者の方へのアンケートを実施しているので,数分で終わりますのでぜひご協力ください. 番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第25回では,NLP2019のサブワードを利用した単語分散表現のモデルについて解説しました. 今回紹介した論文は予稿集が公開され次第,issueを公開にします 現在視聴者の方へのアンケートを実施しているので,数分で終わりますのでぜひご協力ください. 番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第24回では,BERTを利用してインテント分類とスロット抽出をjoint learningした手法を解説しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/210 番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第23回では,患者との対話を通して医療診断を行う対話システムKR-DSの解説をしました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/206 番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第22回では,Microsoft Research Blogで解説された差別的バイアスの発見と分析に記事を解説しました.github.com/jojonki/AI-Post-Notes/issues/1 番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第21回では,Googleによる双方向コンテキストを獲得した言語モデルBERTの解説をしました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/199 番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第20回では,Amazonが行った音声合成の知覚評価に関する論文を解説しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/194 番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第19回では,Googleが開発したサブワードによるTokenizer/DetokenizerであるSentencePieceを解説しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/186 番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
ep18: PyText: A Seamless Path from NLP research to production 第18回では,FacebookによるNLPのモデル化のためのフレームワーク,PyTextを解説しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/179 番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki 今年もよろしくおねがいします! --- Support this podcast: https://anchor.fm/lnlp-ninja/support…
 
第17回では,Googleによるタスク指向対話におけるユーザーシミュレーターの論文について解説しました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/180 番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第16回では,Amazonによるコンテキストを利用したトピック分類のモデルについて解説しました.今回紹介した論文はこちらのissueで解説しています.github.com/jojonki/arXivNotes/issues/162番組への支援は,こちらからお待ちしております. www.patreon.com/jojonki--- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第15回では,AAAI 2019 Deep Dialに採択された,ニューラル対話生成モデルの論文を解説しました.あのりょぼっとさんの論文でして恐縮しながら解説しました.今回紹介した論文はこちらのissueで解説しています.理解が及ばず説明が曖昧な個所がありましたが,りょぼっとさん本人にissueで細くコメントもらっていますので是非見てみてください.github.com/jojonki/arXivNotes/issues/159 番組への支援は,こちらからお待ちしております. www.patreon.com/jojonki--- Support this podcast: https://anchor.fm/lnlp-ninja/support…
 
第14回では,Facebook AI Researchによる多言語におけるNLIタスクの評価データセット及び多言語NLIにおけるベースラインを解説しました.今回紹介した論文はこちらのissueで解説しています.github.com/jojonki/arXivNotes/issues/155 番組への支援は,こちらからお待ちしております. www.patreon.com/jojonki --- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第13回では,アテンションを使わず,エンコーダー・デコーダーを統合した,機械翻訳モデルの手法を解説しました.今回紹介した論文はこちらのissueで解説しています.github.com/jojonki/arXivNotes/issues/148番組への支援は,こちらからお待ちしております. www.patreon.com/jojonki--- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第12回では,単語埋め込みを利用した編集距離を利用して,文の類似度を計算する手法を解説しました.今回紹介した論文はこちらのissueで解説しています.github.com/jojonki/arXivNotes/issues/145番組への支援は,こちらからお待ちしております. www.patreon.com/jojonki--- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第11回では,CIKMでAlibabaが発表した,Eコーマスの検索を対話的に行う対話検索のモデルをを解説しました.今回紹介した論文はこちらのissueで解説しています.github.com/jojonki/arXivNotes/issues/139番組への支援は,こちらからお待ちしております. www.patreon.com/jojonki--- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第10回では,対話応答生成モデルが,個性を反映した応答を生成出来ているかを,自動評価する手法を提案したモデルを解説しました.今回紹介した論文はこちらのissueで解説しています.github.com/jojonki/arXivNotes/issues/138番組への支援は,こちらからお待ちしております. www.patreon.com/jojonki--- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第9回では,文ベクトルをスパース化することで解釈性を与えることが出来ないか,という問題に挑戦した論文を解説しました.今回紹介した論文はこちらのissueで解説しています.https://github.com/jojonki/arXivNotes/issues/137番組への支援は,こちらからお待ちしております. https://www.patreon.com/jojonki--- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第8回では,Microsoftのスロットタギングの論文を解説しました.今回紹介した論文の解説はこちらにあります.https://github.com/jojonki/arXivNotes/issues/128前々回のエピソードを予め聞いておくと,今回の内容は分かりやすいかもしれません.https://anchor.fm/lnlp-ninja/episodes/ep6-Bag-of-Experts-Architectures-for-Model-Reuse-in-Conversational-Language-Understanding-e24tuf--- Support this podcast: https://anchor.fm/lnlp-ninja/support…
 
第7回では,EMNLP 2018でFacebookが開発したペルソナデータセット及びそのペルソナに沿ったEnd-to-end雑談対話システムを解説しました.今回紹介した論文の解説はこちらにあります.https://github.com/jojonki/arXivNotes/issues/130--- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第6回では,NAACL-HLT 2018より,Microsoftのスロットタギングの論文を紹介しました.今回紹介した論文の解説はこちらにあります.https://github.com/jojonki/arXivNotes/issues/129--- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第5回では,EMNLP2018から対話における非流暢性がSeq2Seqに及ぼす影響を調べた論文を紹介しました.https://github.com/jojonki/arXivNotes/issues/125--- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第2回ではSIGDIAL 2018でベストペーパーを獲得した,対話応答生成のモデルを説明しました.タスク指向型の対話における新しい応答生成モデルの提案になっていて面白いです.今回紹介した論文のまとめhttps://github.com/jojonki/arXivNotes/issues/123--- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
第1回ではInterspeech 2018から対話システムにおけるドメイン選択,ドメイン外発話棄却をテーマにした論文を紹介します.今回紹介した論文のまとめ.https://github.com/jojonki/arXivNotes/issues/112--- Support this podcast: https://anchor.fm/lnlp-ninja/support
 
Loading …
Google login Twitter login Classic login