【累計100部突破!】BERT・XLNetに学ぶ、言語処理における事前学習(第2版 電子書籍 128ページ)

近年話題のBERT・XLNetなどの言語処理における事前学習モデルについて取り扱っています。論文や著者に近しい出展の実装など、極力一次ソースを元に言語処理の基本的な内容も加筆しながらまとめた形になります。事前知識に自信のない方は下記を先にご検討いただけたら良いのではと思います。

第2版の刊行にあたって、第2章の記述の大幅の見直しを行いました。具体的にはself-attentionに関する研究[2017]、Decomposable Attention[2016]、Reformer[2020]を追記し、Transformerがより多面的に理解できるように加筆を行いました。


画像3

画像2

画像3

この続きをみるには

この続き: 371文字

【累計100部突破!】BERT・XLNetに学ぶ、言語処理における事前学習(第2版 電子書籍 128ページ)

lib-arts

1,600円

この記事が気に入ったら、サポートをしてみませんか?
気軽にクリエイターの支援と、記事のオススメができます!
19
ブログ運営してます!(https://lib-arts.hatenablog.com/)パズルや応用数学が元々強く、関連で色々と仕事を行なってます〜。ご質問あればTwitterまでお願いします!!(https://twitter.com/arts_lib

こちらでもピックアップされています

機械学習など
機械学習など
  • 2本
コメントを投稿するには、 ログイン または 会員登録 をする必要があります。