見出し画像

文脈化された転置インデックス

※こちらの記事は、2021年7月19日にRetrieva TECH BLOGにて掲載された記事を再掲載したものとなります。

こんにちは。レトリバの飯田(@meshidenn)です。カスタマーサクセス部 研究チームのリーダーをしており、マネジメントや論文調査、受託のPOCを行なっています。


従来の検索アルゴリズムの問題点

従来の検索アルゴリズムの問題点といえば、"意味"を考慮できないということが挙げられます。従来の検索アルゴリズムは、単語一致をベースとして、そのスコアリングをするのが基本だからです。そのため、単語が一致しないことによる弊害がおきます。そして、「あー、意味を考慮できたらなー」という発想に至ります。

その結果、クエリも文書もベクトル表現にして計算してしまえ!ということで近年研究が盛んに行われており、BERT(※1)が提案されて以降、教師データがあれば、うまく行くことがわかってきています。さらに、近年、最近傍アルゴリズムが進歩し、内積計算が高速化したこともあり、全件検索でも使えることが知られています。 そんな状況の中、「実は、転置インデックスのまま、文脈だけ考慮できるようにすれば、同じくらいの性能が出ます!」という論文が出ました。それが今回ご紹介する COIL: Revisit Exact Lexical Match in Information Retrieval with Contextualized Inverted Listです。この論文の何が、衝撃的かといえば、単語が一致しないことが問題だと思いきや、一致した単語の中で、文脈を考慮して順位づけできていれば、それだけで良い性能になるということを示したことです。

今回は、こちらの論文の概要と簡単な実験のご紹介をします。なお、図は特に断りのないかぎり、当該論文の引用です。

COILの概要

検索時の挙動

まず、学習済みモデルの利用シーンから見ていきたいと思います。通常の転置インデックスは下図の通り、各単語に対して、ある文書で何回その単語が出現しているか(Term Frequency(TF))の情報を格納しています。

通常の転置インデックス

一方、COILでは、TFの代わりにBERTから出力される、ある文書のある位置のベクトルを格納します。下の図はその様子を表しています。図をよく見ると、Riverにはdocid5が2回あり、2つのriverをそれぞれ分けてインデックスしていることがわかります。検索時は、クエリに含まれる単語について転置インデックスを参照し、各単語毎に格納したベクトルを取得します。また、クエリの各単語をBERTでベクトル化します。そして、転置インデックスから取得したベクトルとBERTを使って変換したベクトルの内積計算を行い、スコアを算出します。この時、スコアは、各文書毎に最大の内積となったペアを採用します。

なお、別途、CLSで文書全体をベクトル化しておきます。そして、クエリのCLS-tokenをBERTでベクトルにし、こちらの内積計算も行います。

文脈化された転置インデックス

式にすると以下の通りです。

ここで、qとdはそれぞれ、クエリと文書を表し、qiとdjはクエリと文書の単語を表します。q∩dはそれぞれに共通に現れる単語群です。vqiとvdjは、qiとdjをBERTでベクトル化したものです。stok(q,d) が文脈化された転置インデックスによるスコアです。sfull(q,d)がクエリと文書の最終スコアです。

学習時の挙動

さて、上記のような検索をさせるため、トレーニング時も同じようなスコアリングをした方が良いことが予想されます。そこで、先ほどの式で算出されるスコアを最終スコアとして、ペアワイズランキングロスで学習を行います。

なお、d+は、あるクエリqの正解となる文書、 d−は不正解となる文書で、l個あるとしています。

下図は、先行研究とのアーキテクチャの比較です。図の(d)が提案手法COILの図です。クエリと文書で同じ単語のベクトルでのみ内積をとり、その最大のものを採用しています。また、同時に、全体を代表するものとして、CLS-tokenのベクトルの内積を取っています。これは、図中(b)と同様です。

先行研究およびCOILモデル

結果

以下が結果です。COILが提案手法です。COIL-tokはCLSを使用しなかった場合です。上図(a), (b), (c) はそれぞれ、表の BM25+BERT reranker, Dense Retriever, ColBERT(※2)に対応しています。まず、MS MARCO Passage(※3)という比較的短いデータを対象とする検索において、先行研究と同等の精度が出ていることがわかります。

MS MARCO Passageでの結果

次に、MS MARCO Document(※4)というデータにおいて、先行研究を大きく上回る結果を得ることができました。ちなみに、MS MARCO Documentの場合、文書が長くなるため、ColBERTは適用できません。

MS MARCO Documentでの結果

最後に、次元の影響を調査しています。COILではたくさんのベクトルを転置インデックスとして保持するため、各単語のベクトルを通常のBERTで使用されるベクトルの次元768から線形変換で次元を削減しています。結果は以下の表の通りです。ncはCLS-tokenの次元です。0次元はCLS-tokenを使用していないと意味です。ntは、各単語の次元です。表の通り、次元を減らしても、若干の性能低下で済んでいることがわかります。一方、計算速度は、次元数を小さくするほど、速くなっています。nt=8でCLS-tokenを使用しない場合、BM25に迫る速度で計算ができています。

次元が性能と計算速度に及ぼす影響

実験

さて、COILではコードが公開されているので、手元で再現実験を行いました。再現はMS MARCO Passageで行い、評価はDev Retrievalで行いました。結果は以下の通り、論文の値には満たないものの、良好な精度でした。

MRR @10: 0.320

この仕組みは、文脈化された単語ベクトルを使っています。そこで、全く学習をしない場合どうなるかを検証しました。以下の通り、あまり性能はよくありませんでした。世の中、教師なしでうまくいくほど甘くないですね。

MRR @10: 0.125

終わりに

今回は、COILという手法を紹介しました。驚いたことに、単語のミスマッチを解消しなくても、既存手法と同等の精度が出ています。また、COILを全く学習していないBERTのモデル上でどうなるか実験を行いました。残念ながら、全く学習していない場合は、あまりうまくいかない手法ということがわかりました。BERTを使った検索のモデルは近年盛んに研究されているため、また興味深い論文があれば、ご紹介したいと思います。


  1. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. [paper]

  2. ColBERT: Efficient and Effective Passage Search via Contextualized Late Interaction over BERT Omar Khattab, Matei Zaharia [paper]

  3. MS MARCO passage: https://microsoft.github.io/msmarco/

  4. MS MARCO document: https://microsoft.github.io/msmarco/