マガジンのカバー画像

トランスフォーマーを理解する

23
2017年に、Googleの研究者であるAshish Vaswaniらのチームが発表したトランスフォーマー (Transformer)のアーキテクチャは、近年におけるディープラー…
運営しているクリエイター

#ディープラーニング

トランスフォーマーの自己アテンションの理解④位置エンコーディング

本シリーズの記事リスト 第一弾 トークン数値化の歴史 第二弾 回帰による文脈伝搬 第三弾 レコメンダーと内積 第四弾 位置エンコーディング 第五弾 エンコーダ・デコーダ 第六弾 クエリとキーとバリュー 第七弾 エンコーダ・ブロックの詳細 第八弾 デコーダ・ブロックの詳細 この記事では、本題であるトランスフォーマーの自己アテンションの仕組みに触れ始めます。回帰の構造を使わずにトークンの位置関係を知る手法である位置エンコーディングを解説します。 では、さっそく

音声処理と自然言語処理

学習目標音声と言語の時系列データをモデルで取り扱うためのニューラルネットワークモデルと最新の研究成果などを理解する。 データの扱い方 RNN(リカレントニューラルネットワーク) Transformer 自然言語処理におけるPre-trained Models キーワード:LSTM、CEC、GRU、Bidirectional RNN(双方向RNN)、RNN Encoder-Decoder、BPTT、Attention、A-D変換、パルス符号変調器、高速フーリエ変換、ス