見出し画像

ChatGPTのような最新AI技術とどう付き合うか?

このところ、ChatGPTが連日のように話題です。ChatGPTが2022年11月末にリリースされてからもう半年が経ちますが、IT業界の間ではもちろん一般のニュースやテレビでも連日のように取り上げられており、衰えを知りません。今週もマイクロソフト本社のイベント「Microsoft Build 2023」でChatGPTに関する施策が新しく発表され、盛り上がりを見せています。

一方、半年経つと世間の反応、傾向、課題が一通り見えてきますので、ここらで一旦自分なりにまとめておきたいと思います。


ついに一線を超えた?生成系AIが継続的に話題に!

2022年は画像、動画、音楽等の生成系AI (Generative AI)がかなり話題になりました。DALL-EやStable Diffusionといったプロンプトによる画像生成AIが夏頃に話題になりはじめ、「遊んでみると面白いね」とか「こんなものビジネスにどう役立つんだ」とか周りでも色々な意見が飛び交っていました。音楽生成AIや動画生成AIなんかも登場して、おもちゃとして利用する人も多く出てきました。しかし、2022年11月末にOpen AIが自然言語 (プロンプトと呼ばれる) で人間と幅広い質問に対して詳細に会話できるChatGPTをリリースすると、潮目が変わりました。

すでに話題になっているように、ChatGPTは「プログラミングスキルがなくても誰でもAIのチカラを引き出し、デジタル上で様々なタスクを実行してくれ、仕事の生産性を劇的に上げることができる」のです。まるでリモートで優秀なアシスタントを人類の誰もが手に入れたようです。こうなると、多くの企業も生成系AIに注目し始め、業務利用や新規サービス提供も視野に入れ、色々な形での利用を試し始めました。いままでにあったチャットBotとは次元の違う性能を発揮し、かつ英語だけでなく日本語や他の言語を問わず期待値以上の結果を返してくれるため、チャットBotとしてのエクスペリエンスも格段に向上しています。

ChatGPTは、入力文に対して続く言葉を統計的に予測して回答する「大規模言語モデル (LLM)」を仕組みとして使っています。初期リリースに使われた言語モデルGPT-3は1,750億個ものパラメータを持ち、主にインターネット上で2016年から2019年にかけてクローリングされた約570GBのテキストデータを学習しています。これに、不正確なことや非道徳的な文章の出力をなるべく排除し、生成文が人間の好みとなるべく一致するようにチューニングした改良版言語モデルが、ChatGPTの変換器に使われています。(変換器とは、ざっくり言うと "関数" のようなものです。入力が変換器を通ることで出力に変わります)

図: AIで使われる変換器とは、関数のようなもの

ChatGPTの意義をひとことで言うと、「過去に世界中の誰かが成し遂げて世界に公開した情報を、誰もが簡単に再利用・再結合できる」ようになったということです。これにより、人類は過去に世界中で誰かがやったことを "再発明" せずに活用できる、という世界規模の共同作業が自然にできるようになり、人類全体としての生産性が格段に向上することになるわけです。また、新しいアイディアの創造は人間にしかできないと考えられていましたが、「新しいアイディアは、いままで繋がっていなかった既存のアイディアの『新結合』により生まれる」ことを考えると、これはChatGPTなどの最新AI技術も得意とします。つまり、AIも創造性を持つようになってきたのです。これも驚きですね!

ChatGPTに対する世界の反応

ここで、世界がChatGPTに対してどのように反応しているかのトレンドをGoogleトレンドで見てみましょう。

「ChatGPT」という単語は2022年12月になってから、日本でも世界でも突然検索されだします。そして、その後はピーク時と比べてほぼ定常的に高い検索水準を維持しています。

2023年1月にはマイクロソフトがOpen AIへの投資を拡大してBingやOffice等、マイクロソフトのすべての製品にChatGPTを組み込むことを発表して、さらに勢いが加速します。

また、同時にChatGPTがプログラミングや情報検索など、さまざまな分野の応用例が研究されたり、司法試験の平均合格点を超える成果を出せるなど、人に匹敵する能力を発揮できる可能性が示された一方、論文試験をChatGPTでチートで回答したり、サイバー攻撃の手段に使われたり、回答にウソが多く含まれる場合がある、そして学習データのバイアスや著作権問題など、ChatGPTの暗黒面も次第に明らかになっていきます。

図: 日本と世界の "ChatGPT" の検索トレンド

また、画像生成AIであるStable DiffusionとChatGPTの注目度の違いを見てみます。日本のトレンドで比較すると、Stable Diffusionの検索トレンドに比べてChatGPTは約5倍の人気があることがわかります。また、私が過去に関わっていて当時のバズワードと言われていたRPAと比べても約10倍の開きがあることがわかります。世界のトレンドになるとこれらの差はもっと明白になります。ChatGPTの勢いが如何に凄いかがここから垣間見られます。

図: ChatGPTは他の生成系AIやバズワードと比べても継続的に勢いがある

ちなみに、ChatGPTの「地域別インタレスト」を見てみると、ChatGPTやStable Diffusionなどのキーワードの人気が相対的に高い (なんと100で最高値)のは中国です。中国はChatGPTの利用がそもそも禁止されていたり、金盾があるため国内からインターネットにアクセスできるのは一部のIT知識の高い人だけであることも影響しているかもしれませんが、それでも世界一のAI大国になりつつある中国がかなり注目している様子も伺えます。

伸るか反るか、最新AI技術にどう対応する?

さて、人類がChatGPTなどの最新AI技術を活用するに当たり、世の中では様々な否定的な意見も出てきています。これは、AIのことを知らない人々だけではなく、AIの専門家、Open AIに近い人物、Open AI自身からも出てきています。

いくつかの例を紹介します。

全ての人工知能ラボはただちに、GPT-4よりも強力なAIシステムの訓練を少なくとも6カ月は停止せよ。

米国の非営利団体Future of Life Institute (FLI) が2023年3月22日に公開、
イーロン・マスク氏等の著名人も賛同

AIのリスクに対し政府による規制面での介入が重要になる、高度なAI開発とサービス提供にライセンス制を導入することを提案

Open AI サム・アルトマンCEO、2023年5月16日の米議会上院小委員会にて

高度なAIの登場が、巨大IT企業へのデータと権限の集中をさらに進める恐れがある
ChatGPTなどのAIについて、正確性も安全性もわからない、実験的な技術
世界の全人口を実験台として利用することが許されてしまっている

Google元社員メレディス・ウィテカー氏、2023年3月 (朝日新聞)

国のレベルでもイタリア、中国、イラン、北朝鮮、ロシアなどではChatGPTの利用を禁止してしまいました。

また、ビジネスでChatGPTを使うかどうかについても企業によって対応が分かれています。大企業では、ChatGPTを使ってみて、「これは便利だ」と全社員に素早く展開をするところ、逆に「Open AIに当社の機密情報をごっそり持っていかれるのではないか」ということに気づき、利用を禁止するところ、または利用ガイドラインを作って対応しているところ、と様々です。

芸術の世界でも、「最近は、応募される絵や小説のうちAIが書いたものが増えてしまった」と、作品の公募を中止してしまうところがあったり、教育機関でも、「学生が課題や論文をChatGPTを使って解くので課題の意味がなくなった」という声が聞こえてきます。

もっとも、AIの専門家や開発者に近い人物は、競合他社を出し抜くためのポジショントークをしているため、言っていることはそのまま鵜呑みにすることはできません。しかし概して、人類はいまこの大きなイノベーションに対してどう向き合うのか試行錯誤を開始している状態と言えます。

イノベーションへの対応は歴史に学べ

皆様の中には、この新しいイノベーションをどう受け入れるべきか迷っている方もいらっしゃるかもしれません。また、世の中の大きな方針が決まるまで静観しようと思っているかもしれません。しかし、世の中の大勢が決まるまで待っていては、イノベーションによる新たなチャンスを掴むことはできません。

では、どうやって早期から対応方針を決めればいいでしょうか?実は、たいていの場合、歴史を振り返ると人類は過去に似たようなイノベーションを経験しており、都度似たような対応を取ってきています。今回の最新AI技術への対応も同様です。

前に、ChatGPTのことをリモートで優秀なアシスタントと表現しました。過去にも企業が「外部」の優秀なアシスタントを獲得したことがありました。日本では1986年に施行された「労働者派遣法」による派遣人材の活用です。この時に、外部のアシスタントにどう対応したかを考えてみれば、ChatGPTに対する向き合い方もわかってきます。

まず、ChatGPTを人格化して考えると「インターネット上の情報を学習した、うまく質問すれば回答や作業結果をくれる気は利かない無邪気で常識のない外部人材」ということになります。

外部人材については、機密保持契約を結んでいなければ、❶情報を共有すると外部にダダ洩れ、持っていれる知識も特定の企業に特化したものではないので、インターネット上に存在する真偽の怪しい情報も含め、❷一般的な情報のみ持っていると捉えることができます。また、ハイコンテキストでお互い多くを知っているという前提条件ではないため、質問の仕方も❸順序建てて逐一細かいところも指示が必要になります。また、外部人材にばかり頼っていると元からいる❹人材のスキルが空洞化してしまい、自分たちだけでは何もできなくなってしまいます。「無邪気で常識がない」という設定なので、聞けばなんでも答えてくれますが、❺倫理に反することも答えてしまうため犯罪につながらないようにする必要があります。そして、あくまでも外部人材なので❻最終的なアウトプットの責任は雇用主が取らなければならない、作業を頼むとアウトプットは出してくれるけれども❼どうしてそうなったのかは雇用主が確認して考える必要があります。

こう考えてみると、ChatGPTと付き合う際にどういうことに注意しなければいけないかについても見えてきます。ちなみに、もし本当にこういう人格の人間がいたら、「お打ち合わせ時」に不採用になっている可能性が大です。最新のAI技術は記憶力や情報処理能力など人間の力を超えている能力もありますが、"総合力" (どの項目もバランスが取れて無難な範囲に収まっている) では、まだまだ人間には敵わないのが現状です。

活用する上での7つの留意点と今後の展望

ChatGPT等の最新AI技術を活用する際の注意点を大きく7つに整理しました。これらを踏まえて、最新AI技術の活用における留意点、そして今後AI開発者に望まれることについても記載します。

情報漏洩の危険性への対策
実はこれは何もChatGPTに限ったことではなく、昔からインターネット上の検索・翻訳などに代表されるあらゆるサービスを使う際には情報漏洩のリスクが常にあります。そのため、どういう用途でどういう情報なら使ってもいいか、たとえば個人情報は絶対に流さないようにするなど、運用する上でのガイドラインが必要になります。

もしくは、2023年1月に一般提供が開始されたMicrosoft Azure OpenAI Serviceを使って、企業独自のテナントでChatGPTを使うことで、機密性を確保することができるようになっているため、企業で使う場合はOpen AIがホストしているシェアードサービスではなく、Azure OpenAI Serviceを使うことがお勧めです。

内容に虚偽がないか、盗作がないかへの対策
ChatGPTやStable Diffusionが学習に使っているデータの多くは、インターネット上に公開されているデータです。しかし、インターネット上に公開されているからといって著作権フリーでないものも多く存在します。昔、検索エンジンの開発の際にも、ニュースサイトのコンテンツや見出しの著作権が問題になったことがありました。今回は、より広い範囲のコンテンツが課題になっており、特に画像、動画、音声はテキストに比べると類似性がより容易に特定できるために、原作と類似する画像、動画、音声の生成物の著作権について現在議論が巻き起こっています。企業でこれらのアウトプットを利用する際には著作権侵害にならないかどうか、十分に注意が必要です。特に特徴のある生成物の使用は避けるべきでしょう。

また、ChatGPTには質問の内容によって得手不得手があります。たとえば、特定の人物のプロフィールを聞くと大抵不正確な答えが返ってきます。(もっとも、聞かれる立場からすると同姓同名が世の中にたくさんいるため、ハイコンテキストではない前提に立つと無理もないことなのです) また、インターネット上には医療情報等、嘘か本当か分からない情報も含め蔓延しており、ChatGPTはそれらを学習して答えていることを踏まえておきましょう。また、「悪魔の証明」と言われる類の問題に対する回答、人類の知識にない事項の回答、一般的に出回っていないことの回答、計算処理に莫大な時間がかかることの回答など、原理的に回答が困難または不可能な問題への回答も期待できません。ChatGPTの得意な分野の質問を中心に活用するのが良いでしょう。

ChatGPTが得意な質問
●人類の集合知で解決が容易な問題
●ロジカルで網羅的なアイディア出し
●プログラミング
●翻訳、文章校正、要約、文章のトンマナの書き換え
●内容の正確性は問わない創造的な文章の生成 (小説など)

ChatGPTが不得意な質問
●ファクトチェック
●特定の人物、場所、物などについての質問
●世の中に存在しないものへの質問 (あるもののように回答してしまう)
●悪魔の証明 (人類が解けない、一般に出回っていない、不可能の証明等)
●計算処理に膨大な時間がかかる問題
●情報の出所や推論過程の説明が重要になる問題
●最新情報への対応 (最新ニュースなど)
●感情に関する質問

人間であれば、「大学を出た」「TOEICで◯◯点を取った」「弁護士資格あり」等、学歴、職歴、資格取得、検定試験などで能力の試験を行うことで信頼を得ています。現在のAIにはそのような客観的な試験や資格はありませんが、今後は第三者機関によるAI能力検定に合格するなど、AIの品質保証を行うための仕組みの制定が求められそうです。

加えて、国や組織の戦略、方針の決定など、未知のものへの対応、判断が難しい課題への対応を行う際には、人間であっても一人の意見のみを信用するのではなく、様々な背景、知識を持った複数の有識者による委員会や議会を構成して議論した結果を採用します。AIの場合も、異なる学習データ、回答導出ロジック (変換器)を持つ複数の種類のAIによる委員会を構成して回答を出す仕組みを作ることで、回答の信頼性が上がる可能性があります。これは今後のAI開発の際に検討できることです。

期待する結果を得るための指示の仕方
ChatGPTに質問する際に使われる自然言語は「プロンプト」と呼ばれていますが、この質問の仕方にはだいぶコツが有ることがわかっています。つまり、同じトピックについて聞くのでも、聞き方によって回答の品質や内容にだいぶ差が出てくるのです。このトピックだけで別途記事が作れるくらい深い内容です。ChatGPTで学習された知識を逆算してうまく知識を引き出すためのプロンプトの研究が、世界中で行われています。(「プロンプトエンジニアリング」と呼ばれます。) ChatGPTを使いこなすには、このプロンプトエンジニアリングを学び、その能力を最大限に引き出すことが今後求められてくるでしょう。

たとえば、以下のような指示をChatGPTに投げかけることは効果的です。

回答のトーン: 「フォーマル/カジュアル/説得力があるように」
回答形式: 「ですます調で書いて」
回答の立場:「女性の立場で書いて」
回答の対象:「学生向けに書いて」「漢字が読めない人向けに」
回答が達成すべき目的:「読み手が楽しくなるように」
含むべきキーワード:「岸田総理という単語を入れて」
● 単語数・文字数制限:「300文字以内でよろしく」
引用:「アインシュタインの言葉を引用して」
反論の提示:「想定される反論を示して」「複数の見方を提示して」
根拠や理由の提示: 「その根拠を教えて」

ChatGPTは、一連の会話の中で、前に言われたことは覚えているため、期待した回答が得られない場合は、上記の指示を加えていくことで、期待する答えにより近づけることができます。

人間のスキルの空洞化への対策
ChatGPTの利用により、学生が論文などの文章を書くスキルや調査をするスキルがつかなくなってしまうという懸念があり、学習過程ではChatGPTを使わせるべきではないという意見があります。

ただ、一方、過去には電卓やパソコンのように、それまでは人間が自分の頭を使って行っていた作業を無意味にする道具も学習過程で導入されています。新しい道具は使えるようにしつつ、基礎学力はきちんと身につくように、新たな学習ガイドラインの制定は求められるでしょう。

その上で、いままでは大学では小論文を書かせるといった課題が多かったのですが、そのような課題は今後は減らして、よりインタラクティブにその場で回答させるようなスキルを身につけることに集中すべきかもしれません。

また、たとえば、いままで文章を書くことで給料を得ていた人々は、今後失職の脅威にさらされる可能性もあります。新しい道具の登場にあわせた社会のリスキリングも世界レベルで必要になってくるものと思われます。過去のイノベーションを見ると、イノベーションは必ず浸透し、使わないというオプションはいずれなくなってしまいますので、それを想定して早めにリスキリングを開始することが必要になります。

倫理・犯罪への対策
ChatGPTの学習データの中には、コンピュータ・ウィルスのプログラムの作り方や、さまざまな犯罪の実行方法なども含まれていることが分かっています。素の状態だとAIはこれらの情報を悪気なく回答してしまいます。そこで、AI開発者は倫理に反するような回答は候補から除いたり回答しないというロジックを入れたり学習データから除いたりして対応するのですが、中にはプロンプトエンジニアリングでうまくそれらの制限を解除する「ジェイル・ブレイク (脱獄)」の方法を開発しているユーザーもいます。

この手の犯罪行為はイタチごっこになるのですが、時間をかけて対応方法を開発・実装することで、人類が安心してAIを使えるようにすることが開発者には今後求められます。

アウトプットの責任の所在
現在ところ、AIが出力したアウトプットは人間が再度チェックをして責任を保つ必要があります。前述のような異なる複数のAIに相互チェックさせるような手法でチェックの手間を減らすことはできるかもしれませんが、それでも最後に責任を取るのは人間です。いまはまだ法律上AIが責任を取るような仕組みはありません。

これは自動運転でも課題に挙がっています。2023年4月からレベル4 (限定領域(特定の場所・時間)における運転の完全自動化)が解禁されましたが、これにより自動運転中の運転者責任はなくなり特定自動運転主任者 (車両に乗っている必要なし) の運行供用者責任が問われる、ただしハッキングにより事故が起こった場合は政府による保障事業でカバーする、ソフトウェアの不具合の場合は製造責任者がカバーする等、ルール作りも含め、今後の実証実験も含めて全面解禁に向けてまだまだ試行錯誤が続いています。

自動運転以外のAIについても同様に、製造者責任になる場合、運用者責任になる場合、使用者責任になる場合、保障機構でカバーする場合等、AIのアウトプットについて責任が取れる社会の仕組みの整備がAI普及のカギになってくる時が来ると思われます。

アウトプットを説明できるか
AIが何かの判断をするといった使い方をする場合、判断結果だけではなく、どうしてその判断に至ったのかの説明を求められる場合が多くあります。ディープラーニングは何百もの層になっているニューラルネットワークを変換器に使っている関係上、判断の過程がブラックボックスになりがちであり、結果の説明をすることは得意ではありません。ChatGPTに「その理由を教えて」と聞くと、回答の内容をより詳しく解説してくれることがあるので、聞いて見る価値はあります。しかし、「その出典を教えて」と聞いても「20XX年までの一般的な情報を基にしており、具体的な出典を示すことはできません」と返ってくることが多いようです。

私が所属している富士通では、グラフ構造を使った機械学習技術 (DeepTensorKnowledge Graph)、あり得ない可能性の組み合わせを排除し可能性のある重要な組み合わせを素早く漏れなく計算する技術 (Wide Learning)を使って、AIのアウトプットをできる限り説明可能にする取り組みを行っています。この辺も、より汎用的に説明可能にしていくためにさらなる研究が求められています。

いかがでしたでしょうか。ChatGPT等の最新AI技術に興味があるけれどもまだ踏み込めてない方が何を検討すべきかについて少しでも参考になれば幸いです!

最後までお読みいただきありがとうございました!では、また!

関連記事:


この記事が気に入ったらサポートをしてみませんか?