見出し画像

ChatGPT等のAI技術の発展と弁護士実務への影響


このNOTEが書籍になりました!!

0 自己紹介と本稿の位置づけ


はじめまして、弁護士の松尾剛行です。桃尾・松尾・難波法律事務所という企業法務事務所でパートナーを務める弁護士(第一東京弁護士会)・NY弁護士です。法学博士で慶應義塾大学の特任准教授でもあります。リーガルテック、即ち法律実務において利活用されるAIをはじめとするテクノロジーを自ら利活用すると共に、2022年にはリーガルテック関係の協会である、AI・契約レビューテクノロジー協会代表理事に就任しました。

事務所公式サイト:https://www.mmn-law.gr.jp/lawyers/detail.html?id=24

Twitter:https://twitter.com/Matsuo1984

Researchmap :https://researchmap.jp/tm1984

ChatGPTに関するプロフィール: https://matsuo1984.hatenablog.com/entry/2023/04/06/083610

リーガルテックに関するプロフィール:https://matsuo1984.hatenablog.com/entry/2022/12/30/082422

Note:https://note.com/matsuo1984/

AI・契約レビュー協会公式サイト:https://ai-contract-review.org

リーガルテック について様々な論稿を公表しており、インターネット上で無料で読めるものに以下の二つがあります。

「リーガルテックと弁護士法に関する考察」情報ネットワーク・ローレビュー18号(2019年)1頁(https://www.jstage.jst.go.jp/article/inlaw/18/0/18_180001/_pdf)

「リーガルテックと弁護士法72条――第1回 弁護士法72条とAIを利用した契約業務支援サービス」商事法務ポータル(2022年)(https://portal.shojihomu.jp/archives/33427)

このようなリーガルテックに関する実務と研究の重要テーマにChatGPTのような大規模言語モデルの発展と弁護士実務への影響が挙げられます。本年3月23日のオンラインセミナー「最新AI技術と法務実務への影響~弁護士と企業法務がChatGPTを考える~」(https://legalforce-cloud.com/seminar/216)に登壇するにあたり、発表原稿を作成したものの、報告時間内での報告が現実的に不可能なくらいの長文になったことから、セミナーではそのダイジェストのみを説明し、詳細はこちらをご覧頂きたいという趣旨で本稿を公表します。

「ChatGPT・AI時代における法務部門の暗黙知〜ChatGPTの法務分野における利用に関する暗黙知の研究の一環として〜」

も公表しました。

1 はじめに

ChatGPT、BingAI、Bart等の大規模言語モデル(LLMs)による文章生成AIが、ホワイトカラーの仕事を変えると話題である。筆者も使っているGPT-4は、米国の司法試験で上位10%の成績をあげた等とも報じられている(https://openai.com/research/gpt-4)。

自民党AIの進化と実装に関するプロジェクトチームは2023年2月17日に松尾豊教授と安宅和人教授にChatGPTに関する講演を依頼した(https://note.com/akihisa_shiozaki/n/n4c126c27fd3d)。また、法律分野でも同年3月23日には「最新AI技術と法務実務への影響~弁護士と企業法務がChatGPTを考える~」(https://legalforce-cloud.com/seminar/216)が開催された。

ここで、「今」の技術水準を議論の対象としてはならないことが重要である。GoogleのBartが間違った回答をしたことによってGoogleの株価が下がったことが報道されているが、そのような現時点の技術水準で一喜一憂するのは間違っている。肝心なのは、「技術的制約」、つまり、その技術そのものに必然的に付随する制約は何かである。

このような、その時々の技術水準で物事を語るべきではない、という点を筆者はリーガルテックとの関係でも実感したところである。筆者は2018年に行った九州大学におけるゲスト講義を元に、2019年に「リーガルテックと弁護士法に関する考察」(https://www.jstage.jst.go.jp/article/inlaw/18/0/18_180001/_article/-char/ja/)を著した。その際はリーガルテック企業のNDA(秘密保持契約)レビューAI等を利用して、その技術水準を理解した。当時、いわゆるAI契約レビューサービスの自然言語処理能力は必ずしも高いとは言えなかった。当時の契約レビューサービスと現在のサービスには共通点がある。つまり、「チェックリスト」、いわば契約レビューの際に一般的に問題となる論点を網羅した論点表を準備した上で、この論点表にアップロードされた契約を突き合わせるという部分は共通している。しかし、当時の古いリーガルテックソフトウェアでは、チェックリストと適切に突き合わせられないことが多く見られた。例えば既にAという事項について規定する条文が存在するのに、「Aという事項について規定する条文が存在しない」といったチェック結果になることがあった。これは、当時の自然言語処理技術の水準がまだ低く、「表記揺れ」に対応する能力が低かったことによると推測される。

しかし、当時筆者は、「自然言語処理能力は5年で向上するから、2023年には企業法務にとって『使える』ソフトになるだろう」と予想した。そして、そのような「使える」ソフトであれば、当然のことながら「もし株式会社であるリーガルテック企業が契約レビューを実施するという話だとすれば、弁護士法は大丈夫か?」という形で弁護士法に関する疑義が出てくるだろうと考え、論文を執筆した。その当時は参考文献がほとんど何もない状態のため、大変苦労したが、筆者の「リーガルテックと弁護士法に関する考察」という論文は多くの方に引用頂くこととなり、感謝している。

これはあくまでも一例であるが、新しい技術が出現した際に、その時点の技術水準に基づき議論することに意味はない。むしろ、その技術が今後発展向上することを前提として、何が本質的な技術上の制約か、つまり、(大きなブレークスルーが生まれない限り)将来に渡って継続する制約は何かを考えるべきである。

そのような観点から、以下では大きなブレークスルーが生まれないことを前提に、2040年頃まで言えるのではないかと思われる内容を説明していきたい。

2 ChatGPTの「凄さ」と現在の限界、そして技術的制約は何か

2.1 「間違っている」という批判が、将来の技術発展を見据えた業務のあり方を検討する文脈では失当であること

上記のとおり、少なくとも、未来の技術発展を見据えた弁護士業務のあり方を検討する文脈では「ChatGPTが間違っている」、と批判することには意味はない。例えば2021年以降の知識を十分学習できていないChatGPTに対し、最新の知識を聞いても正確な答えにならないのは当然である。

そして、例えば画像生成AIが、最初は「手がおかしい」とか「ラーメンが食べられない」とか散々言われていたものの、その後ものすごい勢いで修正を掛けてきたように、今指摘されている現時点の「問題」の多くは速やかに解決することが予見できる。

むしろ重要なのは、「解決できない問題」、つまり本質的な技術的制約は何かである。

2.2 技術的特徴と今後の展望

2.2.1 総論

伝統的にはマイシン(Mycin)等のエキスパート(専門家)AIが開発されていた。しかし、そのような昔のAI(いわゆる「ルールベース」のAI。ルールベースと学習型の区別につき松尾剛行=西村友海『紛争解決のためのシステム開発法務: AI・アジャイル・パッケージ開発等のトラブル対応』(法律文化社、2022年)参照)の技術的制約は、専門知識を構造化した形で人間が教え込む必要があるところ、それが極めて面倒だということである。例えば病気診断の際の手順をフローチャートのようにコンピュータでもわかる形にして教え込むと、教えた範囲の病気診断のプロセス(だけ)は正しく回答することができるようになる。そこで、実用的なエキスパートAIを完成させるためには、膨大な専門知識を構造化された形で正確に教え込む努力が必要となる。これは技術的に不可能とまではいえないが、実現のための労力が大きすぎて、多くの分野で専門家を凌駕するAIを構築することは容易ではない。

これに対し、ChatGPT等のような、最近流行している学習型と言われる類型のAIは、機械学習で大量のデータを読み込ませて、「その質問に対する回答として、これらの既存データはどのようなものを提示する(傾向にある)か」を踏まえて「もっともらしい」回答を提示する。同じような質問をされた場合における弁護士の回答例をたくさん読み込むことで、まるで弁護士のように振る舞うイメージである。(より正確に言えば、アノテーター等による教師付学習と、強化学習が組み合わせられている。)

今は主にweb上の情報に基づき学習させていることから、法律の専門的な情報については「ツッコミどころ」満載の回答を出す。web上の法律相談結果等の法律情報は「玉石混交」ということが知られているが、このようなweb上の法律情報を学習させた以上、AIの回答の質が低いのも、むしろ「当たり前」である。今後は、学習の対象を法律書や雑誌にすることで、法律の専門知識についても「もっともらしい」回答をすることが期待される。この点は、松尾教授が「目的に特化した」学習をさせれば、法律的な見地から正しいコメントをする専用のGhatGPTを作成できる旨(https://note.com/api/v2/attachments/download/a29a2e6b5b35b75baf42a8025d68c175)指摘するとおりである。

2.2.2文書校正

英文校正やネイティブチェック、文章形式の変更(「だである体」から「ですます体」への変更等)等については、現時点でも既にAIが一定以上の性能を発揮する。ある程度粗々のものを提示した上で、それをより「それらしい」ものにするよう指示すれば、既に一定以上の品質を期待することができる。今後はますます精度が高まることが期待される。

もちろん、AIはユーザの意図を完全に読み取ることまではできないし、あくまでも「もっともらしい」だけで、必ずしも「もっとも」ではないことから、AIの提示した成果物を人間が再度確認することが必要であるが、この点は人間による校正やネイティブチェックでも類似するところがある。(但しAIが「間違えやすい」ポイントと人間が「間違えやすい」ポイントは異なっている。)

2.2.3 要約

要約は、大量の情報を処理する際に「何をじっくりと検討すべきか」を考える上で重要である。そして、書面のみならず、動画や音声もAIで要約することでき、議事録等がスムーズに作成される。最近流行している動画コンテンツには、「要するにどこがポイントなのか」というのを短時間で理解することが難しいという特徴があるところ、AIに要約してもらうことは有益である。

また、同様の能力を活かして、DDや危機管理、ディスカバリー等における、重要書類を選別し、重要部分にレッドフラッグを付けて明示するといったニーズに応えるということも期待される。

しかし、要約によって捨て去られるものにも目を向ける必要があるだろう。つまり、要約により5%の情報を取り出すということは、同時に95%の残りの情報が切り捨てられるということである。その95%の中に重要な(例えば一般に重要ではないとしても自分にとって重要な)情報が残っている可能性をどう考えるかは問題となるだろう。もちろん現在はいわゆる「不正確な要約」となる可能性が高かったものが、今後はその可能性が徐々に低くなることが期待される。但し、個人にとっての重要性という観点を含めればゼロにはならないだろう。

2.2.4 ブレスト

根拠が重要となるリサーチと異なり、抽象的でも足りる「検討すべき視点の提示」や「論点出し」等のブレストのためであれば、現在のChatGPTでも相当程度役に立つ。

興味深いのは「なりきり」をお願いすることであり、ブレストの「壁打ち」相手として誰(実在の人物、偉人、フィクションの登場人物等)を想定するかを明示し、例えばその名言やキャラクター等を明記して依頼すると、ある程度そのキャラになりきったやり取りが可能になる。現時点ではなりきりの程度はまだ中途半端であるが、今後はその程度がより高まると期待される。

もちろん、一般によく言われている視点や論点をまとめてくれるという程度のものであることは留意が必要であるが、そうであっても対話形式でのやりとりを通じて一人でブレストができる、ということには一定以上の意味がある。

なお、これと同様のものとして「司会者、賛成派、反対派」の3名を登場人物としてディベートをするよう求めると、特定の論点についての議論の大きな枠組みを容易に理解することができる。

2.2.5 リサーチ

リサーチについては、AIの回答だけに依拠するのは極めてリスキーであるものの、一般的な事項であれば、一般的回答は得られる。

現時点では、リサーチのソースがインターネット上で無料公開されているものに偏している部分に課題があるが、今後はそれ以外の資料も読み込ませることで一定の解決が見込まれる。

そして、将来的な技術発展により、法律分野を含むリサーチにおいて、「キーワードを示すと、そのキーワードの含まれるサイトのリンクとスニペットを示す」という伝統的なキーワード検索ではなく、自然言語で質問をするとその質問に対するソース内で議論されている内容を踏まえた「結論」を、かなりの精度で提示することが期待される。リンクのみが提示されるより、結論まで示されることでユーザー体験が改善する。そこで、いわゆる検索機能の代替が期待される。これがGoogleが「コードレッド」を発動した理由だろう(https://www.nytimes.com/2022/12/21/technology/ai-chatgpt-google-search.html)。

2.2.6文書作成・レビュー

雛形の生成や多少の変更はChatGPTでも行うことができるが、特定の状況を踏まえた雛形の作成や契約レビューには、少なからぬ課題がある。つまり、正確に状況を踏まえた契約を作成したり、契約をレビューするには、少しの文言の違いが生じさせ得る大きな意味の違いを踏まえなければならない。上記1で述べたチェックリスト(論点表)を利用したAIであれば、それは(現在の自然言語処理能力により実務上一般にあり得る表記揺れ等に対応していることを前提とすれば)相当程度うまくいく。

しかし、それをChatGPTのような機械学習ベースで実現するのであれば、その違いを学び、実際のデータに対しても適切に振る舞わなければならない。学習の努力を相当積み重ねればあり得る未来だが、それが学習系AIの「得意分野」か、といわれるとそうではないように思われる。もちろん、例えば企業や個人に関する基本情報を一度入力した後でそのデータを元に契約その他の書類の「書式を埋める」ような作業や、契約雛形の「ですます」を「だである」に直す作業等はAIがやってくれるようになるだろう。しかし、それと、「少しの文言の違いが生じさせ得る大きな意味の違いを踏まえたレビューをする」等とは距離がありそうである。

2.2.7 消費者への直接のサービスの提供!?

リーガルテックの世界では比較的有名なDoNotPay社でCEOを務めるJoshua Browder氏が、交通違反に関する裁判において、裁判の様子を録画するスマートグラスとヘッドセットを装着すると、AIが録画された内容を踏まえて何を述べるべきかを示す「ロボット弁護士」を開発したとされる。しかし、Joshua Browder氏は、録音録画を適法にできるか、質の問題、そして、米国版の弁護士法72条であるunauthorized practice of lawの問題を踏まえ、法廷での活用を控えたそうである(https://www.businessinsider.com/donotpay-ceo-says-risks-jail-ai-robot-lawyer-used-court-2023-1)。

もちろん、将来の一定の時期には、「データが多い」分野、例えば、法律相談サイト上に大量の回答が蓄積している一般民事の分野においては、AIが一般的な人間の弁護士と同様の成果を挙げることはあり得るだろう。その意味では、一般消費者にリーガルテック企業が直接サービスを提供する(つまり、弁護士の「代わり」にサービスを提供する)ことは、分野を限ってみれば、必ずしも全く有り得ない未来ではない。ただ、それはまさに弁護士法の改正が必要な状況であるように思われるところ、この点は、人間が契約レビュー等を行う際に、その「参考情報」を提示する、現在の契約自動レビューソフトウェアとは全く異なっている。また、具体的な応用形態(法律相談か、法廷対応支援か等)によっても、生じる問題やあるべき規制の具体的な内容は変化し得るだろう。

この問題については、以下の3点に留意すべきである。

まず、現行のリーガルテック、例えば契約レビューサービスは、チェックリスト(論点表)と突合して、機械的・形式的に比較結果を表示する技術である。そのような(法的専門性に基づく処理ではなく)言語情報に基づく処理(自然言語処理)により弁護士や法務担当者の支援を行うに過ぎない技術は弁護士法72条には違反しない。この点は既に松尾剛行「リーガルテックと弁護士法― 規制改革推進会議議事録公開を踏まえて」NBL 1234号 70頁および松尾剛行「リーガルテックと弁護士法72条 第1回 弁護士法72条とAIを利用した契約業務支援サービス」(https://www.shojihomu-portal.jp/article?articleId=18408999)等で説明している通りである。

次に、サービスにChatGPT等を利用する場合においても、例えば、適切な「プロンプト(呪文)」を容易に入力できるようにする等の、ユーザーの「支援」に留める等、適法に利用できる立て付けはあり得ることから、弁護士法の改正前でも一定のサービスの提供の可能な余地はあるということである。

更に、Do Not Pay社が集団訴訟の被告となっていると報じられており(https://www.reuters.com/legal/lawsuit-pits-class-action-firm-against-robot-lawyer-donotpay-2023-03-09/)、特に流動的なこの問題に関する最新の動きに引き続き注視すべきである。

2.3 機械学習型のAIの技術的制約とは

それでは、このように様々な可能性があるLLMs等の機械学習型のAIの技術的制約はどこにあるのだろうか。

2.3.1 根拠が分からない(不透明)なこと

まず、ChatGPTをはじめとする学習系AIが、根拠を示さない点が挙げられる。ここで、2023年初頭のChatGPTに「根拠を示せ」というと、まるで根拠のように見える架空の文献を示すことが知られているが、ここでは決してそのことを問題としているのではない。(なお、GPT4はこの部分について一部改善が見られるが、まだまだ改善の余地が大きい。)

要するに大量のデータを解析した結果、統計的に「この回答が一番もっともらしい」ということは言えても、少なくとも人間の弁護士等に求められる意味での「根拠」を示せないということが重要である。

ここで、Perplexity.aiやBing AI等、根拠を示すことを特徴とするAIも存在する。例えば、Perplexity.aiに「リーガルテックは弁護士法に違反しますか?」と聞くと、筆者の「リーガルテックと弁護士法に関する考察」(https://www.jstage.jst.go.jp/article/inlaw/18/0/18_180001/_pdf)を(5つくらいのソース中の1つとして)挙げてきた。ただ、例えば、松尾剛行「リーガルテックと弁護士法72条――第1回 弁護士法72条とAIを利用した契約業務支援サービス」(www.shojihomu-portal.jp/article?articleId=18408999)は、時期的にもより新しく、筆者の論文一つを挙げるならこちらだと考えているが、これは挙げられていない。要するに、「まるで根拠を挙げるように振る舞う」、ことはできるが、なぜそこで挙げたソースこそが他の根拠の候補よりも優れているのか、という点について説明がされないのである。

ある法的問題に関し、「ABCDE」こそが一般的に引用すべきソースだと仮定しよう。現在のAIの技術水準では(主にインターネットで無料公開された文献である)「DFGHI」を示すということが頻繁に見られる。確かにDは被っているが、それ以外は人間の弁護士は普通は引用しないということである。今後、インターネット上にアップロードされているもの以外の法律書・雑誌論文を学習させることで、「ABDFH」(ABDの3つは人間の弁護士が引用するものと同様になる)位のレベルにはなるかもしれない。しかし、結局のところ、根拠を示すAIとは言いながらも「なぜCとEよりもFやHの方が良いのか」に関する根拠を示すことは(「引用回数が多いから」とか、「影響力の大きいジャーナルに掲載されている」等の定量的な説明ならばできるであろうが、少なくとも人間と同じような根拠の示し方をするという意味においては)容易ではない。(なお、説明可能AIの技術については例えば原聡「機械学習モデルの判断根拠の説明 〜 Explainable AI 研究の近年の展開 〜」(https://www.slideshare.net/SSII_Slides/ssii2020ts-explainable-ai)を参照。)

なお、技術的には6番目以下の候補を示さることも可能であるところ、(5番目までに含まれないとしても)10番目にCが、30番目にEが表示される状況は生じ得る。しかし、下の方に表示されれば、当然注目度は下がり、AIの結果を利用する人間は普通は注目しないだろう。そこで、「100番でも1000番でも最終的にどこかに必要な文献が挙げられるからいい」という話にはならないだろう。

2.3.2 新しいこと/データが少ないことに答えられないこと

人間は、初めて問題に直面した場合であっても回答を示すことができる。筆者は2018年・2019年当時、ほとんど議論が存在しなかったリーガルテックと弁護士法の問題に関し、リーガルテック以外の領域において弁護士法はどのように解釈・適用されているか、その「他の分野」への適用結果はリーガルテックにどこまで応用でき、どこにおいて変容を迫られるか、といった検討を行い、「リーガルテックと弁護士法に関する考察」( https://www.jstage.jst.go.jp/article/inlaw/18/0/18_180001/_pdf )を執筆した。

上記の技術的特徴から分かるように、ChatGPTは、そのような人間の弁護士の行う分析過程を経て結論を導いている訳ではない。あくまでも、過去に人間の弁護士などが行った法的分析結果(例えば法律相談回答、法律系記事等)等を大量に学習させることで、その質問に対する人間の弁護士の振る舞いとして最も「ありそう」なことは何かを予測し、それを回答として提示しているに過ぎない。

そこで、過去の分析結果の枠を超えた、「新しい問題」や「データが少ない問題」については、本質的に十分な学習が不可能である以上、いかに精度が向上しても、人間を代替することまではできない。

2.3.3 本質的には「分かっていない」まま「データが多い」分野について振る舞いが上手くなっていくだけであること

そして、結局のところ、これらのAIの技術的特徴は「模倣」に過ぎない。つまり、多数のデータの学習を通じて、「弁護士ならこの場面でどのように振る舞うことが最も『それらしい』のか」ということを学習する。その結果として、素人目には「まるで弁護士のようなAIが登場した」かのように見える。

例えば、AIに判決を要約させると、確定している判決なのに、「本判決に対する控訴がされており、現在控訴審で審理中である。」等が出てくることがある。その理由は、大量に学習したケース・サマリーにこのような文章が頻繁に出現したので、この1文を加えることで、より「本物らしく見える」と考えたのだろう。

この点は、学習を進展させ、確定した場合のケース・サマリーを大量に読み込ませて覚えさせることや、一定以上の確信度に至らない場合に「分からない」と回答する等の技術的発展により、一定以上「カモフラージュ」し、分かっているように「見せかける」ことはできるだろう。

しかし、本質的に「分かっている」訳ではなく、単に「あたかも分かっているように振る舞う」だけであることから、「学習対象の多くのデータには存在したが、今問題となっている部分では異なっている」事柄に対して、その「違い」を正確に把握して、異なる(正しい)回答を提示する部分については、なお課題が残り続けるだろう。

2.3.4 操作・攻撃の可能性

AI一般のリスクにも関係するが、データに関する操作(攻撃)と、AIによる人間の思考過程に対する操作(攻撃)の二つに留意が必要である。

データの操作というのは、今後ますます多くのデータを学習することが期待されるところ、ネット上に特定の誤った見解を大量に流布させることで学習データを汚染させることができる。(MicrosoftのTayと呼ばれるAIが、悪意あるユーザによって反ユダヤ主義的な内容を学習した事件も参照。https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/)もちろん、それに対しては、ファクトチェックを行い、誤った見解を学習対象から外す等の対応はあるが、「いたちごっこ」となり、そのような「誤情報」によって間違った回答が提示される可能性を完全に排除することはできない。

また、人間がAIの回答を「鵜呑み」にする場合はもちろん、例えば「ブレスト」等におけるAIの利用によって、知らず知らずのうちに、自分の考えがAIによって偏っていくことがあり得る。例えば悲観的な人が、AIによってポジティブになる、というようなものは改善、ないしはプラスの変更と受け取られるかもしれない。しかし、例えば、本当はリスクを取ってはいけないところで無謀なリステイクをするようなキャラクターに知らず知らずのうちに変容してしまうかもしれない。

2.3.5 責任を取らないこと

AIは利用規約で免責を謳っている(例えば、OpenAI利用規約7条(b)項は「(b) Disclaimer. THE SERVICES ARE PROVIDED “AS IS.” EXCEPT TO THE EXTENT PROHIBITED BY LAW, WE AND OUR AFFILIATES AND LICENSORS MAKE NO WARRANTIES (EXPRESS, IMPLIED, STATUTORY OR OTHERWISE) WITH RESPECT TO THE SERVICES, AND DISCLAIM ALL WARRANTIES INCLUDING BUT NOT LIMITED TO WARRANTIES OF MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE, SATISFACTORY QUALITY, NON-INFRINGEMENT, AND QUIET ENJOYMENT, AND ANY WARRANTIES ARISING OUT OF ANY COURSE OF DEALING OR TRADE USAGE. WE DO NOT WARRANT THAT THE SERVICES WILL BE UNINTERRUPTED, ACCURATE OR ERROR FREE, OR THAT ANY CONTENT WILL BE SECURE OR NOT LOST OR ALTERED.」(仮訳:当社のサービスは「そのまま」提供されます。法律によって禁止されていない範囲内で、当社および当社の関連会社およびライセンサーは、サービスに関して明示的、黙示的、法的またはその他の保証を一切行わず、商品性、特定の目的への適合性、充分な品質、非侵害性、平穏な享受などの保証を含むがこれに限定されないすべての保証を否認します。また、当社は、サービスが中断されることなく、正確であること、またはエラーがないこと、あるいは任意のコンテンツが安全であること、または失われたり変更されないことを保証しません。)とする。https://openai.com/terms/)。アルゴリズムそのものを他人に害を与えるような形に設定する(当職が共同代理人の一人を務めた食べログ事件(東京地判令和4年6月16日)参照)場合はともかく、善意で「良い回答を示そう」としたものの、結果として誤った回答となる場合には免責条項の対象となることが多いと思われる。

そこで、人間としては、AIの回答を踏まえ、そのまま採用するのかそれと異なる結論とするのかについて判断をし、その結果について責任を引き受けるという役割が残るだろう。このような判断及び責任の引き受けについてAIが代替することはできないだろう。

2.3.6 コミュニケーション

きちんとコミュニケーションをして適切な情報を収集して質問を「正しいものにする」こと、相手方との駆け引き、証拠や情報に基づいて事実を認定する部分等は人間こそが得意であり、AIが劣る部分だと言われる。確かに、AIが質問に回答する場合に、AIに対してどのような質問をするかは重要であるところ、特に一般消費者からの法律相談においては、本当に知りたいこととは異なる質問が少なくとも表面的にはなされ、そこを人間の弁護士がコミュニケーションの中で補って、最終的に本当に知りたいことにたどり着くという過程があると言われるが、そのような点はまだ人間の弁護士が強いように思われる。

ただ、むしろ技術発展による、AIの「ある種の」コミュニケーション能力の急速な向上には留意が必要である。例えば、多くの人が本当はAを知りたいのにBを質問してしまい、その後のやり取りの中でAという質問に変更するならば、そのようなやり取りのログを踏まえ、Bという質問をした場合に、「関連質問」としてAを表示することは技術的に可能である。また、TPOに合わせたメール文面作成等についても少なくとも「それらしく振る舞う」という限度では既に一定以上できている。

ある種の思考実験であるが、交渉等のコミュニケーションにおける「度胸」について、AIによる支援が進むにつれて、その意味が変容するかもしれない。即ち、今後は、囲碁将棋においてAIが「最善手」を示すように、交渉等でも「相手の提案がブラフである可能性は90%なので、交渉を打ち切る素振りを見せて断固拒否することが期待値を最大化する」と言った形でAIの支援を受けて交渉をサポートしてもらうことも可能となってくるだろう。この場合、伝統的な意味における「度胸」がない人ほど、表面上は「度胸」のある対応をする傾向が生じるかもしれない。つまり、「AIの表示する最善手とされる対応」をおこなっておけば安全ということで、度胸がないからこそ、AIの言う通りにそのような「強硬な対応」をすることも出てくるだろう。ただ、本当の意味で度胸のある人は、全く逆に、AIの表示する内容を批判的に吟味し、もしかすると「不利だが相手の提案を呑む(例えば、相手は不合理であり、そのままなら裁判になるので裁判費用を考えるとその方が得)」という判断をするかもしれない。つまり、AI時代には、「度胸があるからこそ一見度胸のないように見える提案ができる」ような状況が生じ得るのである。

これらは単なるいくつかの例に過ぎないが、「コミュニケーションはいつまでも人間に残る」といった単純な話ではなく、人間がAIを利用してより良くコミュニケーションを取っていく、と考えた方が良いだろう。

3 AIの進化と将来の法律業務

3.1 AIの安易な利用にはリスクがあること

ChatGPTのようなAIは、上記のような技術的制約から、「既に多くの類似のことが言われているのであればいい感じの回答が示せるが、そうでない新しい問題や、その問題の中の(他の類似の問題と異なる)特徴的な部分に対してうまく回答できない、根拠『らしきもの』は示せても、本当の意味での人間の弁護士のような根拠の列挙はできない、操作のリスクや責任を取らない特徴を有する」という点が少なくとも一定範囲の将来に渡って続くはずである。

欧州AI規則案AnnexIII8(a)は、”AI systems intended to assist a judicial authority in researching and interpreting facts and the law and in applying the law to a concrete set of facts.”(司法当局が事実と法律を調査・解釈し、具体的な事実に法律を適用することを支援することを目的とするAIシステム)を「ハイリスク」に分類した。まさに上記のChatGPTの技術的制約から、いかに技術が進化しても、現実の法律問題の解決をChatGPTに「任せられる」状況は(技術的ブレークスルーにより上記の制約が取り払われない限り)生じないように思われる。オランダでは、社会保障や税の不正受給・ 還付等を特定するための機械学習アルゴリズム が、貧しい地域に住む人に対し不当に育児手当 を返還させる等の問題を起こしたとされ、また、日系企業が買収した英国のコンピュー ター企業が提供した郵便局システムの欠陥により 700 人以上の郵便局長らが横領や不正経理の 無実の罪を着せられたとされる事案もある(成原慧・松尾剛行「AIによる差別と公平性 ― 金融分野を題材に」季刊個人金融2023年冬号11頁以下〈https://www.yu-cho-f.jp/wp-content/uploads/2023winter_articles02.pdf〉参照)。その意味で、それを「ハイリスク」というべきかやそのリスクの高さの程度はどうかという点は兎も角、このような技術の法律実務への安易な転用がリスキーであること自体は否定できない。

なお、秘密保持やセキュリティの問題については、各組織でポリシー作って対応するしかない。その際は、エンジンを提供する企業とそのエンジンを使って具体的サービスを提供する企業双方の約款及び企業としての信頼性を踏まえて判断するべきことになるだろう。

3.2 将来における弁護士に取ってのAIの活用方法

3.2.1弁護士自身ができることの支援

1つの利用方法としては、弁護士自身ができることの支援にAIを利用するということがある。つまり、校正・ブレスト・リサーチ等については、自らがAIを用いずに実施することもできる、ということを前提に、AIに一次的なものを作成せて、それを自らが責任を持ってレビューするということである。その際には、上記の技術的制約を踏まえれば、以下のような点を踏まえたレビューを行うべきであろう。

・その対象はそのAIが大量のデータによって適切に学習できている範囲か(新しい問題やデータが少ない分野ではないか)

・(仮に対象分野そのものがポピュラーで大量のデータがあると推測されても、)その具体的な事案の特徴の中に、「学習がうまくいっている範囲」と異なっているものはないか

・根拠を挙げるAIか。根拠を挙げないのであれば根拠がないという制約にどのように対応するか。根拠を挙げるのであればその根拠は何か、根拠とされない(又は低ランクにされた)重要な文献や見落としはないか

要するに、限界はあるものの、叩き台作成作業のような、「荒い作業を効率的に行う」という範囲でAI を利用することは十分にあり得るところで、今後はますます利用が増加するだろう。しかし、それをクライアントや上司に提示する「成果物」とするためには、引き続き弁護士(や法務パーソン)よる吟味が必要だということである。

その意味では、そのような「吟味能力」(確認・検証能力)こそが、次世代の弁護士や法務パーソンにとって重要な能力となるだろう。

3.2.2弁護士自身ができないことを実施する(能力拡張)

自分自身ができないことをAIに行わせるというのは、例えば英語ができない弁護士が、AIを使って英文契約のレビューを行ったり英語でコミュニケーションする等のパターンである。確かに、今後AIの精度が上がっていくにつれ、そのような未来も全くあり得ない訳ではないだろう。

ただ、その場合には、弁護士自らが「本来どうすべきか」が分からない以上、成果物の品質の「上限」がAIの能力に依存するという点が重要である。まさに「AIが間違えれば、弁護士が提供する成果物も同様に間違える」という状況が生じるということである。そして、上記のとおりAIの誤りの可能性は常に存在し続け、また、免責条項が存在する以上、AIがいざ間違っても弁護士としてAIサービスプロバイダー等には責任を問うことはできない。

依頼者として弁護士が「自分自身ができることの効率化をするためAIを活用する」という限りは、弁護士が行うレビューが実質的である限りあまり心配する必要はないものの、「自分自身ができないことの拡張のためAIを活用する」ということには警戒が必要であろう。そこで、依頼者側として、それぞれの弁護士の業務範囲が当該弁護士ができる範囲なのかを確認するということが重要と考えられる。なお、この点については、弁護士会等において自主的情報開示ルール等が整備されるかもしれない。結果として、能力拡張は少なくとも近い未来においては主流の使い方にはならないことが想定されるところ、そうであれば、結局のところAIを活用するとしても、それが「支援」に留まるため、「弁護士自身ができること」が一定レベルにある必要が出てくることに留意が必要であろう。

3.2.3 活用方法を考えることによる業務可視化という観点

このようなAIの活用方法を考えるにあたっては、各業務をタスクベースに分解し、チームメンバーの誰がどのように行っているかを確認した上で、このタスクはAIに代替させられる、このタスクはこのようにAIの支援を受けて行う等と考えることになる。

その結果として、業務の可視化がなされ、非効率的な部分や、進め方に改善すべき部分等も発見できる。つまり、AIを使う必要がますます高まるということは、今まで「どこかでやらないといけない」と思いながら、なかなか進まなかった業務の可視化及びそれに基づく見直しの契機にもなるのである。

3.3 将来の法律業務のあり方

3.3.1 (確認・検証はするとしても)ChatGPTの回答をほぼそのまま提示するだけでは優位性を得られないこと

現代において、電車乗り換え案内をAIと考える人は少ないだろう。興味深いことに、普及率が一定の閾値を超えるとAIと呼ばれなくなる。そのような意味では、今後の普及につれ、一定の類型のAIはもはやAIと呼ばれることはなくなり、そのようなAIの利用が「読み書きそろばん」(https://note.com/api/v2/attachments/download/5fc27932fbae3effdca5426adbb5736b)のような必須の技能になる可能性がある。

このような文脈において、よく、「AI/ChatGPTを使える人材」にならないといけない、と言われる。しかし、単にAI/ChatGPTの提示する回答を簡単にチェックして提出するだけであれば、将来的には、ある意味で、「それができて当たり前」の、いわば最低限のリテラシーとなり、他人と差別化できないことになってしまうことに留意が必要である。

3.3.2アノテーターとしての業務の可能性

過渡的に需要が発生し得る業務としてはアノテーション(タグ付、教師あり学習における「正解」の作成)業務が挙げられる。ただし、その業務は、いわゆる「クラウドワーク」等で比較的安価に調達可能である。例えば、法律関係エンジンの大部分を新興国の弁護士に依頼して構築した上で、日本法とそのような一般的な法律分野の考え方の「差分」だけを、オークション形式等で安い費用を提示した日本の弁護士に依頼して支援をしてもらうと言った方向性も考えられる。

その意味では、アノテーターとしての仕事は一定時期に一定量発生すると思われるものの、「高度な知識を有する者に対する十分な報酬が得られる持続可能な仕事」にはなり得ないと考えられる。

(なお、AIプロバイダーやリーガルテック企業に対する弁護士法を含むがこれに限られない法的アドバイスをする仕事は、上記のアノテーターの仕事とは全く異なっていることに留意が必要である。)

3.3.3 プロンプトエンジニアというキャリアの可能性

ここで、少なくとも、現時点ではChatGPTに単に質問を入力するだけでは「平均的」な回答しか提供されないところ、その質問方法を工夫する、例えば「弁護士の立場から回答する」と付記することでより弁護士らしい、より望ましい回答になる可能性が高まる。このような質問の方法を工夫する人を「プロンプト(呪文)をどのように設計するか等を工夫するエンジニア」という意味で、プロンプトエンジニアと呼ぶことがある。

プロンプトエンジニアの持つ優位性は回答を引き出すコツ等のノウハウを持っていることである。1回の質問だけで終わらせるのではなく複数回やりとりをして誘導することも含め、様々なノウハウが必要である。

確かに少なくとも短期的にはそのような能力は重視されるだろうが、長期的にも歓迎され続けるかは疑問が残る。すなわち、画像生成AIにおいてもいわゆる「呪文書」等として「いい感じ」の画像を生成するノウハウが公開・共有されているように、法律関係の質問回答AIにおいても、そのようなノウハウが広く公開・共有される時代になれば、他人の公開したノウハウに依拠するだけで大きな支障はなくなるかもしれない。

例えば、ChatGPTに「〜をしてもらう上で最適なプロンプトは何?」と聞けば、最適なプロンプトが入手できる時代が来るかもしれない。また、そのような手間を掛けるまでもなく、どのような質問でも「いい感じ」に答えるAI技術が進展するかもしれない。

その意味では、法律分野のプロンプトエンジニアという仕事自体は可能性としてはあり得るものの、それが例えば2040年においても、非常に希少性の高い仕事として存続し、その能力で差別化できるものかは未知数としか言わざるを得ないように思われる。

3.3.4 AIが優位性を発揮しやすい業務分野における「戦い方」

データが多い分野は、AIが優位性を発揮しやすい。このような分野においてはますますAIの役割が大きくなり、弁護士として優位性が得られにくくなるリスクは高まるだろう。

このような領域で、弁護士に取ってのAIに関する悩みは、徐々に2023年における「将棋棋士や囲碁棋士のAIに関する悩み」に類似して来るだろう。つまりAIの提示する回答は、結論において正しい蓋然性が高い(法律分野でも少なくとも将来的にはAIの回答が「高い」と言える領域に達する可能性が高い)。しかし、それがなぜなのかは十分に説明されない(説明されても、本当にそれが本物の説明であるかや、その説明を鵜呑みにしていいのは最後のところはわからない)し、内容が本質的に間違っているとか、そもそも(理論的には正しいかもしれないが)「人間にはそれでは役に立たない」と言った意味で間違っていることもある。

そのような中で、単に「短時間で回答を提示する」というだけであればAIの方が人間よりも優位性を示し得る中で、AIをどのように業務に組み込んで活用していくかが重要な課題になるだろう。例えば、リサーチ部分を大幅にAIに委ね、部下にAIの回答の確認・検証をさせた上で、自分自身はリサーチ以外の部分で優位性を発揮すると言った割り切りが必要となるかもしれない。

結局のところ単に「もっともらしい」ことを言うだけであれば、その仕事は「ChatGPTに聞けば分かる」とされてしまうのだろう。しかし、なお、単なるもっとも「らしい」を超えた「本当にもっとも」な事実やロジックを示したり、一般論を超えた個別具体的な応用をしたり、正論(もっともなこと)を言っても動かない人を動かす等の部分においてはなおその価値を発揮する余地があると考えられる。

比喩的に言えば、Q&A本(例えば筆者による松尾剛行『広告法律相談125問』(2022年、第2版、日本加除出版参照))が全分野について揃うような時代が来ることから、「Q&A本の正しいページを検索する」という能力の希少価値が減少すること自体は否定できない。しかし、「Q&A本にはこのように書いているところ、それでは、本件でそれを実際にどのように落とし込むのか?」という点に関する能力を発揮することができればまだまだ戦えるだろう。そうすると、調べれば(又はAIに調べさせれば)分かる知識の重要性が相対的に低下する一方、法律家(法曹に限らず、企業法務を含む)らしく考える(Think like lawyer)「リーガルマインド」がまた注目されるべき時が来るかもしれない。

3.3.5 ニッチ分野を狙う戦略

これに対し、データが少なくAIの学習がしにくい分野、つまり、新しい分野、ニッチな分野こそ、今後人間の弁護士がAIよりも優位性を発揮しやすい分野となる可能性がある。

ただし、そもそもなぜそこが現時点においてニッチなのか、という点を考えるべきである。(ブルーオーシャンではなく、単なる「魚がいない池」かもしれない。)

また、「ここは新しい/ニッチだから狙おう!」として、多くの弁護士が参入すると、結局のところレッドオーシャンとなり、データも増えるので、「現時点で新しいか/ニッチか」ではなく、将来においても引き続きAIが学習しにくい分野はどこか、といった観点から検討すべきである。

3.3.6「平均的回答」ではなく、「あなた」の回答を求められるような弁護士を目指す方向性

上記のとおり、大量のデータを元に回答するAIは、いわば最大公約数的な、平均的回答になりがちである。逆に言えば、「あなたの回答」こそが知りたいと思ってもらうことさえできれば、「AIはAと言っているが、私はこういう理由でBだと思う」、というオリジナルな答えを出す部分に希少性が出てくるかもしれない。

例えば「AIが進化する中、将来の法律業務のあり方はどうなりますか?」と聞いてChatGPTが出力するのは、「平凡」な回答である。そこで、それを参考としてより高度な将来の法律業務のあり方に関する考えを提示する訳である。後輩のドラフトをレビューした経験がある方はお分かりかと思うが、「叩き台」があることで、より優れたコメントがしやすくなる。

そこで、仮に目指そうとする専門分野が大量のデータがある分野であっても、例えば、AIを「壁打ち」に使うことで論点やそれに対する「一般的な回答」を把握した上で、それを「一歩超える」回答を出す能力を磨くことが、将来において抜きん出た弁護士となるためには必要になってくるかもしれない。(但し、AIの一般的回答が何かは、依頼者も容易に把握できるはずであり、それと異なる回答である以上、なぜAIの回答がここでは採用すべきではないか、について説明責任が重くなるだろう。)

3.3.7 組織内のナレッジマネジメントと過去との連続性/切断

現時点では、ChatGPTをそのまま使うだけでは、一般的な(主にインターネット上の)情報をベースに回答するだけになる。しかし、APIの利用等で、組織内のナレッジマネジメントも可能であろう。つまり、自組織の過去の経緯を読み込ませて学習させることで、現在の状況に最も類似する過去の状況において、自組織はどのような回答を出したのかということが表示されるようになる。その意味では、組織内のナレッジマネジメントに使えるようになることが期待される。

ただし、このような過去との連続性を意識しながらも今の社会状況を踏まえて変える必要がある場合もあるだろう。そして、そのようなここは過去との連続性を持った対応をする、ここはあえて過去と切断するという判断をする部分ができることが今後弁護士としての差別化につながるのではないか。

3.3.8 善管注意義務の基準を画する可能性

最後に、AIの普及が弁護士の負う善管注意義務の基準を画する可能性についても触れたい。

一定の類型のAIについて一定以上の普及率が実現した場合、「弁護士が調査をするなら、この類型のAIをこのように利用することが必要で、それを怠ったために間違った調査をしたら善管注意義務違反」というように、いわば善管注意義務の水準を構成するかもしれない。

その意味で、仮に自分がAIを使いたくない(使わなくてもAIを使う以上の成果を上げられる)という弁護士であっても、いざ結果的に何らかの不足があった、となると、AIを使わなかったこと自体を善管注意義務違反に取られてしまう可能性があることにつき留意が必要である。(また、AIを使った場合でもあえてAIと異なる選択をする場合、依頼者に対する説明責任は重くなるだろう。)

4 おわりに

以上ChatGPTと法律業務の関係について論じてきた。本稿作成にあたっては、ChatGPTに「ChatGPTと法律業務との関係」を尋ねて「壁打ち」する等の形でChatGPT(GPT4を含む)を活用している。(流石にこの原稿をChatGPTが生み出すには至っていないし、「ChatGPTと法律業務の関係について約2万字の論考を書いてください」というプロンプトで本稿そのものが出て来る時代がもし来るのであれば、もはや、本稿における議論そのものが当てはまらなくなっている可能性がある。)
「最新AI技術と法務実務への影響~弁護士と企業法務がChatGPTを考える~」(https://legalforce-cloud.com/seminar/216)の登壇者を含む関係者各位には、検討の機会を与えて頂いたこと及び事前の議論や当日の議論の過程での示唆や啓発等を頂いた。また、早稲田大学博士課程杜雪雯様には原稿をレビュー頂いた。心より感謝申し上げる。(なお、本稿の誤りは全て筆者一人の責任である。)
なお、本稿は所属先とは無関係な筆者個人の見解であり、また、2023年3月時点の状況を元にしている。本稿が言及するAIの回答は全て筆者が経験したものではあるが、バージョンや時期の問題等で読者の皆様が同じ質問をしても必ずしも同じ回答が来るとは限らないことにご留意頂きたい。

この記事が気に入ったらサポートをしてみませんか?