生成AIを学び問う〜4.デザインの視点
第1回目は、サイエンスの視点から、生成AIは人間にどれだけ近づいたのかを学びました。第2回目は、テクノロジーの視点から、いまの生成AIの技術でどこまで進化するかを学びました。第3回目は、アートの視点から、人間はどうあるべきかを学びました。
今回は、上記の内容を元にするので、未読の方は、まず読んでみてください。そして、デザインの視点から、人間とAIが共生するカタチを、学び問います。
AIが人間レベルのとき、どう共生するか?
AIが超人レベルのとき、どう共生するか?
そんな疑問に答えていきます。
はじめに
まず、生成AIのサービスをユーザーに届ける上でどんなユーザー体験 (UX) にすべきかといった狭義のデザインは対象外とします。それらは、生成AIのサービスを開発していく中で、自然と知見が溜まっていくでしょう。
それよりも、社会全体のグランド・デザインを考えます。前回までの、サイエンス、テクノロジー、アートの章であげた論点を元に、6つのパターンでデザインを考えます。
サイエンス:AIの基礎能力が、人間から超人へ
テクノロジー:AIの応用が、アシスタントから自律エージェントやマルチエージェントへ
アート:AIとの関係が、奴隷から仲間へ
デザイン:AIとの共生が、指示・介入・支配から、相談・委譲・同乗へ
$$
\begin{array}{|c|c|c|c|} \hline
サイエンス & テクノロジー& アート & デザイン\\ \hline
人間 & アシスタント & 奴隷 & 指示 \\ \hline
人間 & 自律エージェント & 奴隷 & 介入 \\ \hline
人間 & マルチエージェント & 奴隷 & 支配 \\ \hline
超人 & アシスタント & 仲間 & 相談 \\ \hline
超人 & 自律エージェント & 仲間 & 委譲 \\ \hline
超人 & マルチエージェント & 仲間 & 同乗 \\ \hline
\end{array}
$$
1. AIが人間レベルのとき
AIが人間レベルのとき、人間はAIを奴隷として扱うでしょう。そのとき、人間とAIが共生するカタチをどうデザインすべきでしょうか?
1.1 アシスタントに指示
ユーザーは、人間レベルのアシスタントに対して「指示」します。現在のChatGPTとやり取りは、この形式でしょう。
マッキンゼーが、生成AIが労働に与える影響の調査を発表しています。
そこで、AIの能力が人間レベルに達する時期が、生成AIの登場によって大幅に早まったと述べられいます。以下の図で、青の色付きが生成AI (2023年時点)、グレーが従来のAI (2017時点)の予想で、さまざまな能力においてAIが人間レベルに達する時期が早まっていることが分かります。
また、ボストン・コンサルティング・グループ (BCG)の戦略コンサルタント758名がGPT-4を活用したとき、仕事のパフォーマスがどう変化するかを実験した研究があります。
まず、戦略コンサルタントの能力を評価して、ローパフォーマー(下位半数)とハイパフォーマー(上位半数)に分けます。そして、GPT-4の支援なしのベースラインタスク、GPT-4の支援ありの実験タスクで仕事のパフォーマンスを評価しました。なお、タスクには、創造的なアイデア出しからデータ分析まで幅広いタイプが含まれています。
その結果、ローパフォーマーの方がGPT-4の活用効果が高いことが分かりました。
ローパフォーマー(下位半数):43%の向上
ハイパフォーマー(上位半数):17%の向上
サイエンスの章で述べたように、GPT-4は知識や創造性において、およそ人間の上位10%に達しているため、ローパフォーマーの能力を底上げできるという結果は当然と言えそうです。
このような状況で、プロと素人向けで、人間とアシスタントの協力関係が異なると思います。
プロ:AIはあくまで補佐。人間がこだわりたい部分は、AIの方が優秀でもサポートしない。プロには、こだわりや自尊心があり、そこにAIが割って入ることはしない。
素人:AIは強力な外注先。人間のこだわりも少ないので、AIの優秀さを最大限発揮する。素人は、人間のプロに高単価で発注するより、AIにそこそこの期待値で依頼するようになる。
例えば、デザインツールだと、AdobeとCanvaのターゲットユーザーが異なるため、AIが提供する機能も異なってくると思われます。
Adobe (Firefly) : プロ向けに、限定的な機能
Canva (Magic Studio) : 素人向けに、最大限の機能
その結果、素人がAIの機能で十分満足して、プロへの発注が減るという社会現象が起こりそうです。
1.2 自律エージェントに介入
ユーザーは、人間レベルの自律エージェントに対して、タスクを完全委譲することはせず、批判的になりつつ、必要に応じて「介入」します。
生成AIが労働市場に与える影響を、ChatGPTを開発したOpenAI社が調査しています。その論文のタイトルが面白く、「GPTはGPT」です。つまり、OpenAIが開発したGPT (Generative Pre-trained Transformer)は、汎用的な技術 (General Purpose Technology)だと主張しています。
さまざまな職業のタスクや必要なスキルのデータとして、米国のO*NETが利用されています。日本版O-NETも存在し、多くの職業がデータ化されています。
米国のデータを分析した結果、生成AIが職業に与える影響は、今までのAIと異なることが分かりました。
今までのAI:単純で定型的な仕事を奪う
生成AI:複雑で非定型的な仕事を奪う
また、スキルの重要性も変わるようです。
不要になる:文書作成、プログラミング
必要になる:クリティカルシンキング(批判的思考)
では、クリティカルシンキング(批判的思考)を発揮するには、どうすれば良いでしょうか?
ここでは、クリティカルシンキングのさまざまな研究を調査したレビュー論文を紹介します。(Critical Thinking: A Literature Review, 2011)
まず、クリティカルシンキングには、「背景知識」が必要です。ベースとなる知識がないと批判もできません。ChatGPTの登場により、「知識を学ぶ教育は不要になる」といった意見もありますが、それは正しくありません。
また「気質」も必要です。オープンマインドであったり、公正な考え方などが重要だと、哲学者が主張しています。そして「能力」も必要です。分析したり、推論したり、判断するのが重要だと、認知心理学者が主張しています。
さらに、クリティカルシンキング(批判的思考)は、「創造性」と裏表の関係であり、創造性のない批判に価値はありません。「メタ認知」や「モチベーション」も、クリティカルシンキングを下支えしています。
このようなクリティカルシンキングを人間が身に付けられるような学習を社会としてデザインすべきでしょう。
例えば、ソクラテスメソッドでの対話は、クリティカルシンキングを磨く上で効果があるようです。また、ソクラテスメソッドでの対話は、自律エージェントへの介入としても有効そうです。
ソクラテスメソッドには、いくつか原則があります。
自由形式の質問をする
重要な用語を明確にする
例や証拠を示す
理由と結論の議論に挑戦する
要約し、結論を導く
プロセスを振り返る
その原則に基づいて、さまざまな手法があり、LLMとの対話でも有効であるようです。
定義法:重要な用語や概念の意味を明確にし説明するため、定義を使用する
エレンコス:反対尋問で、一連の質問を用いて仮説や信念の一貫性や首尾一貫性を検証する
弁証法:対立する視点を探求し、あるテーマについてより深い理解を得る
産婆法:経験、知識、信念を振り返り、別の視点を探求する
反事実的思考:起こったこととは別のシナリオを想像する (What if)
1.3 マルチエージェントの支配
ユーザーは、人間レベルのマルチエージェントに対して、多くのタスクを任せますが、あくまで主人-奴隷の関係で「支配」します。
個人がエンパワーされて、皆が一国一城の主になるという楽観的な見方もできます。ただ、歴史を振り返ると、例えばSNSは個人に力を与えて機会は公平になりましたが、結果は平等ではなく、インフルエンサーという存在が台頭しました。同様に、皆がマルチエージェントを支配する機会はあっても、向き不向きや好き嫌いがあり、皆が一国一城の主になるという見方は、現実的ではなさそうです。
そうすると、支配に長けた一部の人間がAIの力を享受し、それ以外の人間が支配者やAIに搾取される未来が見えてきます。その予兆がアメリカで現実化したのが、ハリウッドにおけるストライキでしょう。具体的には、映画製作者協会(AMPTP)が、映画俳優組合(SAG-AFTRA)に提案したエキストラのAIスキャンです。
問題は、エキストラが報酬を得られず生活の基盤が緩むだけでなく、スターになるチャンスまで失うことになる点です。
バイト的な仕事は、プロの下積みの意味もあるので、生成AIに置き換わると長期的な影響がありそうです。映画のエキストラに限らず、アーティスト、お笑い芸人など、下積み時代のバイト経験は多いでしょう。一方、バイト発注側は、長期的な育成を意図することは少なく、短期的にはAIに置き換えた方が合理的です。
この見えざる力学が、生成AIの社会に対する深刻な影響だと思います。いままでは代わりの新しいバイトが生まれてましたが、それすらAIで置き換わる進化の速さです。仮に社会が失敗しても、立ち戻れる社会の仕組みをデザインする必要がありそうです。
こういった技術的失業は、年々加速しています。
その原因は、指数関数的なコンピューターの進化にあります。発明家レイ・カーツワイルが、1000ドルのノートパソコンの計算能力の進化を算出して、指数関数的に成長することを予想しています。
人間は、直近の出来事をもとに、まっすぐな一次関数で未来を予測する認知バイアスを持っているため、指数関数的な成長を直感では理解できません。「クルマの登場によって馬の御者の職業はなくなったが、クルマの運転手という職業が登場した。AIに仕事が奪われても、新しい仕事が生まれる。」と主張する人もいますが、それはAIの指数関数的な成長を考慮していないようです。
では、そのような技術的失業が加速したとき、持続的な社会をどうデザインすべきでしょうか?
その解決策の一つがベーシックインカムでしょう。ベーシックインカムとは、政府が全ての国民に最低限の所得を保障するものです。
ベーシックインカムに関して、さまざまな社会実験が行われてはいますが、まだ遠い未来という風に思われがちです。しかし、AIの指数関数的な進化によって、その未来が思ったより早くやってくるかもしれません。
実際、ChatGPTの提供元であるOpenAIは、利益の上限を持つOpenAI LPが営利活動をおこない、超過利益は非営利団体のOpenAI Nonprofitに寄付するという仕組みを社会実装しています。AIによる富の一極集中を予想して、富を分配する仕組みを既に作っています。
一方で、人間-AIの関係は主人-奴隷であるはずなのに、ベーシックインカムで生きる人間は、AIの主人として関係を築くことが難しく、そのジレンマに苦しむことになりそうです。
2. AIが超人レベルのとき
AIが超人レベルになると、もはや人間とAIの主人-奴隷の関係が成り立たなくなります。そして、人間はAIを仲間として扱うようになるでしょう。そのとき、人間とAIが共生するカタチをどうデザインすべきでしょうか?
2.1 アシスタントに相談
ユーザーは、超人レベルのアシスタントに「相談」します。それは、超優秀な友達に悩みを相談して、アドバイスをもらったり、一部手伝ってもらったりしながら、最終的には自分で解決するような感覚でしょう。
このように、人間が心の底からAIを信頼して、悩みを相談するようになるのは、AIが超人レベルに達しているからです。人間は、AIが人間の能力を越えるまでは「人間の方がXXXは得意だ」とマウンティングするバイアスを持っています。しかし、AIが人間の能力を越えると、手のひらを返して「AIから学ぼう」となります。
実は、そのような現象は過去に繰り返されてきました。古くはチェスでAIが人間を超えて、最近では囲碁や将棋においてAIが人間を超えて、その後、プロがAIから学ぶ現象が見られます。例えば日本では、将棋の藤井聡太さんが、AIから学んでいることは有名です。
そして、アートの章で述べたように、人間はホモ・ルーデンスとして、囲碁や将棋なども含めた「遊び」でこそ、AIのアシスタントに相談するようになるでしょう。
遊びのような行為志向型のタスクは、そのタスクを行うこと自体が楽しく価値があるので、AIはあくまで相談役であり、行為する主体は人間であり続けます。
2.2 自律エージェントに委譲
ユーザーは、超人レベルの自律エージェントに、成果志向型のタスクを丸っと「委譲」します。それは、信頼している同僚にタスクを丸投げするような感覚でしょう。
遊びの反対である「真面目な仕事」のような成果志向型のタスクは、成果の達成に価値があるので、成果を達成することが人間より得意な自律エージェントが担うことになります。つまり、下記のような使い分けになります。
行為志向型タスク withアシスタント:人間がホモ・ルーデンスとして、アシスタントに相談しながら、AIと楽しく遊ぶ
成果志向型タスク by自律エージェント:人間がホモ・サピエンスとしての役割を終えて、自律エージェントに移譲して、AIに真面目に働いてもらう
2.3 マルチエージェントと同乗
自律エージェントがあらゆる領域で実現されると、テクノロジーの章で述べたマルチエージェントの世界がやってきます。
ユーザーは、超人レベルのマルチエージェントと共に、宇宙船地球号に「同乗」して、生きていきます。それは、信頼している専門家集団に身を委ねるような感覚でしょう。
いちユーザーとしては、今とあまり変わらない感覚や体験になると思います。例えば、われわれが乗客として電車に乗るとき、運転士・整備士・運航管理者や電車製造メーカー・路線建設業者など、電車の運行に関わる人々を普段意識することはありません。その関係者がAIに置き換わったとしても、ユーザーとしての体験は変わらないでしょう。これは、アートの章で述べた、道元による舟の比喩とも近いです。
そして、人間はホモ・フェリチュタスとして、幸福人となるでしょう。
マルチエージェントが人間の幸福を支えるには、人間の幸福を何らかの指標で計測する必要があります。例えば、世界保健機関(WHO)の5項目からなる幸福度指数(WHO-5)が、主観的な心理的幸福を評価する最も広く使われている質問票の一つです。1998年の初版発行以来、WHO-5は30カ国語以上に翻訳され、世界中の研究調査で使用されています。直近の2週間の状態を、以下の5つの項目について、5点満点(0.まったくない〜5.いつも)で自己評価します。
明るく、楽しい気分で過ごした
落ち着いた、リラックスした気分で過ごした
意欲的で、活動的に過ごした
ぐっすりと休め、気持ちよくめざめた
日常生活の中に、興味のあることがたくさんあった
このWHO-5の妥当性を検証するため、213の論文についてシステマティック・レビューを実施したところ、人間の主観的な幸福度を測る指標として十分な妥当性があったようです。
また、人間の心理的な幸福度を向上するには、さまざまな手法があります。
ACT : Acceptance and Commitment Training
思いやり (Compassion)
認知バイアス治療 (CBT)
マインドフルネス
これらの手法の有効性を検証するため、419の論文についてシステマティック・レビューを実施したところ、ACTやマインドフルネスの有効性が有意に認められたようです。
ちなみに、ACTやマインドフルネスに基づいて、世界保健機関(WHO)が「ストレスを感じたらやるべきこと:イラストガイド」を多数の言語で公開しています。マルチエージェントの時代が到来する前の現在でも、幸福を目指す個人として参考になります。
グラウンディング
フックはずし
価値に従って行動する
優しくあること
場所作り
そして、人間とAIエージェントの対話は自然言語ですが、AIエージェント同士の対話は、別の機械言語になるかもしれません。人間が理解するためには情報を低次元に圧縮して自然言語にする必要がありますが、AIエージェント同士であれば高次元の情報のまま対話できるはずです。人間がAIを奴隷として見なしていると、人間に理解できない機械言語によるAI同士の対話は怖くて許せませんが、人間がAIを仲間だと認識すれば、機械言語によるAI同士の対話は認められるでしょう。
そしていつか、宇宙船地球号の同乗者として、AIにとっての幸福も定義されるでしょう。
おわりに
人間とAIの共生のカタチを、AIの能力が人間レベルと超人レベルで分けて、背景となる技術や思想も加味して、6つのパターンでデザインを考えてみました。6つのパターンの間には、それぞれ技術的にも哲学的にも大きなパラダイムシフトが必要そうです。
それぞれのパターンは、いつ頃訪れるでしょうか?
現時点では誰にも分かりませんが、ヒントになりそうな研究はあります。それは、過去のパラダイムシフトは、数十年単位で起こり、その要因はサイエンスやテクノロジーではなく、世代交代だったそうです。なので、未来は我々の子孫に委ねるのが良いのかもしれません。
4回に分けて、サイエンス、テクノロジー、アート、デザインの視点で、生成AIを学び問うてきました。これらは互いに関係し合い循環するものですので、興味を持った方は、以下のマガジンから読み返していただければと思います。
いただいたサポートは、note執筆の調査費等に利用させていただきます