[雑感]Local-Agentに向けて

比較的公知になっている知識の代表例が論文と特許です。

この中でも特にtext情報の処理については依然から活発に取組まれてきたものの(tfidf~bert)、今年のLLMの登場・普及によって、その活用が飛躍的に進んだことは周知のことと思います。

Fig. 1

特に論文や特許などの自然言語の処理で課題になっていたことの一つに「構造化」があると思います。この構造化に対し、LLMは有効です。目的を聞けば目的を答え、返答のフォーマット指定すればそれに沿う、きわめて従順で聡明で、その献身性には頭が上がりません。

他にも論文と特許では書かれ方に大きな違いがあったり、論文も特許も、企業や組織で表現や事象の名称に有意な差が生じたりします。それらはLLM以前の既存の手法では大きな壁となっていましたが、それらをうまい具合に丸めることにもLLMは有効です。もちろん完璧ではありませんが、それらを生産しているヒト側が完璧ではないせいで、完璧な手法は存在し得ないのかもしれません。

しかしそんな現状でも、LLMを使って論文や特許から必要な情報を抽出し、構造化し、ヒトにわかりやすくするために一覧表、系統樹やマップに出力する技術は充分に活用可能なレベルだと思います。

Fig. 2

図1のような情報処理ツールとしてではなく、情報を把握して判断することは人の負担・ストレスになるため、その点を軽減する手段の一つとして、聞きたいときに目的の情報を提示するチャットボットとしてのLLM活用があると思います。

図1の右で分類された文献群のうち1クラスタ(トピック)の~1,000件程度であれば、LLMにそれらの情報を基に答えさせることは充分可能だと思います。狭い分野と言えど~1,000件の文献を正確に把握し、正確に答えられる専門家はいない、もしくは極めて少ないため、充分に優秀な専門家と言えるかもしれません。また、狭い分野の情報は有識者や認知の高いレビューに一任し、それらのレビューを広い範囲で集め~1,000件程度の規模にした場合も、優秀な専門家と呼べるかもしれません。

余談:「専門家」の役割は人や状況によって様々で、知識を吐くだけのチャットボットを「専門家」とは呼べないという考えもあると思います。私もそう思います。「専門家」とは知識データベースではなく、知識と知恵を持って適切な判断をできる人材を指すと思います。一方で、現在の社会において「専門家」が判断を委ねられているケースは減少の一途であるのは、様々な業界でみられることではないでしょうか。つまり社会に求められている「専門家」の役割は誰かが何かを判断するための情報を出すことである、というのも間違いではないと思います。

余談で少し述べた通り、何かを判断するのは人に与えられたタスクであり、その助けにLLMや広い意味でのAIも活用したくなります。そんなツールをここではAgentと呼びたいと思います。

ヒトが何かをわかった気になるためには、個人や状況によって、テキストがよかったり、数理モデルがよかったり、2Dや3Dの画像・動画がよかったり様々だと思います。

そのため、Agentには私のために私がわかりやすいように状況に合わせて様々な形でアウトプットしてほしいですし、それに一貫性が欲しいです。つまりAgent内で知識と数理モデルと映像に一貫性があって欲しいのです。この一貫性はヒトの中で保たれていないことも多く、そのヒトが生産したデータで学習・活用するAgentでは非常に難しくなりそうです。ここには大きな壁があるように感じますが、理路整然であるために物事が停滞するのは勿体なく感じるので、私がわかった気になること優先し、そこで損なわれる一貫性は自信なさげに示してくれるくらいで許してあげなくてはいけないのかもしれません。

おわり。

この記事が気に入ったらサポートをしてみませんか?