ep21: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

第21回では,Googleによる双方向コンテキストを獲得した言語モデルBERTの解説をしました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/199 番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki

Om Podcasten

Leading NLP Ninjaでは最近のNLP (Natural Language Processing)に関連する論文をjojonkiが短く紹介します.気になったこと・質問・間違い等,フィードバック頂けると嬉しいです. 紹介する論文は,基本的に下記の論文まとめから取り上げる予定です. https://github.com/jojonki/arXivNotes/issues