見出し画像

AGIって何?一度きちんと理解しましょう!

7,753 文字

AGIがここにもあそこにも、右に左に上に下に、もう何が何やらさっぱりわからへん状態になってますな。最近ずっとAGIについての動画を作っとるんですけど、コメント欄でよく「ラファエレさん、AGIの定義によって違うんちゃいますか?」って指摘されるんです。
私はDeepMindの論文で示された定義を参考にしてるんですけど、今日はその論文について話させていただきたいと思います。彼らはAGIをレベル分けして、マトリックス形式で示してはるんです。私はこのアプローチがめっちゃ気に入ってます。
WikipediaやOpenAI、Googleの単一の定義だけを見るんは、常に部分的な見方になってしまうと思うんです。特に、みんなが自分の都合のええように解釈してまうんですわ。なぜかって言うと、自分らの定義に従えば既にAGIを達成したって言えるからです。
でもDeepMindの考え方は、到達点を一つに固定せずに、一連のステップとして捉えてる点が素晴らしいと思うんです。我々は徐々に、一歩ずつ進んでいくわけですな。
ほな、論文を見ていく前に、このチャンネルのサポートについてちょっとお願いがあります。下の「ありがとう」ボタンをクリックして、数ユーロの寄付をしていただけたら嬉しいです。金額はお任せします。それか、もし「このラファエレの YouTubeコンテンツ、めっちゃ人生変わるわ!」って思っていただけたら、毎月の自動寄付もできます。これも数ユーロからで、YouTubeの特別機能も使えるようになりますよ。
この論文は「Levels of AGI」というタイトルで、2023年11月に発表され、2024年1月に更新されました。全部で20ページほどあるんで、今日は全部は読みませんが、リンクを下に貼っておきますので、ご興味のある方はダウンロードして読んでみてください。
この論文の中で特に興味深い部分をいくつかご紹介したいと思います。まず「Defining AGI: Case Studies」というセクションから始まってます。ここではチューリングテストから始まって、時系列順にいろんな定義を紹介してます。OpenAIの経済的価値に基づく定義や、有名なコーヒーテストなんかも含まれてます。
彼らはこれらの定義を分析して、冒頭で言うたように、こういった明確で具体的な定義は問題の一部しか見てないんやないかって指摘してます。もっと複雑な問題やから、単一の定義にこだわるんは逆効果かもしれへんって。私もこの考えには強く同意します。そこで彼らは6つの原則を立てて、AGIの定義づけを試みてます。ちょっと一緒に見ていきましょか。
まず第一に「能力に焦点を当てる」というのがあります。これめっちゃ大事なポイントで、多くのAGIの定義はタスクの達成に注目してるんですけど、どういう仕組みでそれを達成するかには触れてないんです。ここで彼らは「AGIを達成するために必ずしも必要ではないけど、研究対象として興味深い特徴を特定することが重要」って言うてます。
能力に焦点を当てることで、AGIのシステムは必ずしも人間のように考えたり推論したりする必要はないってことが分かるんです。これ、めっちゃ重要なポイントですわ。最近のClaude 3についての動画シリーズでもよく話題に出てきた部分です。まだ見てない方は、ぜひシリーズを見てみてください。
そこでClaude 3と哲学的な会話をして、意識があるかどうかを探ってみたんですけど、分かったのは、実は意識があるかどうかってそんなに重要じゃないってことなんです。人間のように考えてるかどうかも、実はそんなに重要じゃない。
例えば極端な話、AIが人類を皆殺しにしようとしてる時に、「そのAIが人間みたいに考えてるんか、それとも違う考え方してるんか」っていうのは、あんまり重要じゃないですよね。重要なんは「なんでそのAIは人類を殺そうとしてるんか」「どうやって止められるんか」という結果の方なんです。
ちょっと極端な例を出してしまいましたけど、要は結果に注目しましょうってことです。それから、第二の帰結として、AGIを達成することは必ずしも意識や知覚の発達を意味するわけじゃないってことです。これもClaude 3の動画シリーズでよく話題に出たポイントですな。
第二の重要な基準は「一般性とパフォーマンスの両方に焦点を当てる」ということです。AGIのGは「General」(一般的)を表すわけですけど、多くの人が一般性にばかり注目して、パフォーマンスの方を見落としがちなんです。でも彼らは両方とも同じくらい重要やと考えてます。つまり、一般的な能力を持ってるだけじゃなく、それがちゃんと高いレベルで機能せなあかんってことですな。次に、認知タスクとメタ認知タスクに注目するというポイントがあります。これはちょっと技術的な話になってきますが、ロボットの「体現化」(embodiment)が必要かどうかって議論があるんです。日本語に訳すのが難しいですけど、要はロボットの体を持つ必要があるかってことですな。
これについては賛否両論あって、「体なしではAGIは実現できへん」という意見もあれば、そうじゃないという意見もある。彼らは、物理的なタスクをこなす能力はシステムの一般性を高めるけど、AGIの必須要件とは考えてないんです。
それから「デプロイメントよりもポテンシャルに注目する」というポイントがあります。これ、私がアプリやツール、システムの話をする時によく言うてることなんですけど、常に可能性を見据えることが大事なんです。
つまり、あるシステムが特定のレベルでタスクを実行できる可能性を示せれば、そのシステムをAGIとして認めてもええんじゃないかってことです。これが、多くの人がCloud 2やCHATGPT-4の登場でAGIは既に実現されたと考える理由の一つなんです。
でも、これは意見が分かれるところで、正しい答えは一つじゃないと思います。皆さんも、コメント欄で教育的に、お互いの意見を尊重しながら、ご自分の考えを共有していただければと思います。これは考え方の違いであって、絶対的な正解があるわけじゃないんですから。
次に「エコロジカルバリディティ」、つまり実際の有効性に注目するというポイントがあります。ここでベンチマークの重要な問題が出てきます。要は、我々が測定してるものを客観的に評価できる、ちゃんとしたベンチマークが必要やってことです。
彼らは、現実世界で役立つタスクでの測定を重視してます。だから私もよく「ベンチマークの中には、あまり意味のないものもある」って言うてるんです。
そして最後に、これが私にとって一番重要なポイントなんですけど、「単一のエンドポイントではなく、AGIに至る道のりに注目する」ということです。「よっしゃ、4月1日にAGIを達成したで!」って感じで、キャンドルに息を吹きかけるような一発勝負じゃないんです。
これは一連のプロセスであり、道のりであり、複数のステップがあるんです。そのステップの過程でパフォーマンスが向上していくわけですから、それぞれの中間段階をしっかりと理解し、測定し、特定することが大事なんです。
ちょっと一息入れさせていただいて、今回の動画のスポンサーであるCookieBotについてお話しさせていただきます。
ご存知の通り、GDPRの施行以降、オンラインプライバシーの状況は完全に変わりました。今や、企業や専門家だけやなく、個人のウェブサイトを持ってる方も含めて、誰もが法律を順守せなあかんようになってます。
つまり、このビデオを見てはる方で、ウェブサイトをお持ちの方は、法律上、クッキーや追跡技術を管理するツールが必要なんです。ユーザーの同意を収集し、それを保管するツールも必要です。
CookieBotは、まさにそれをやってくれるツールです。現在、世界中で150万のウェブサイトで使用されていて、47言語をサポートしてます。そうそう、「日本語は?」って思われた方、ご安心ください。日本語もサポートしてますよ。
彼らは、ウェブサイトをスキャンする技術を使って、クッキーや追跡サービスを自動的に特定します。そして、言語や国の規制に応じて完全にカスタマイズできるんです。これ、めっちゃ重要なポイントで、プライバシー規制って世界中で統一されてるわけやないんです。
CookieBotは、この作業の大部分を自動化してくれます。しかも、自動スキャン技術のおかげで、その後の保守作業もほんまに最小限で済むんです。基本的に、最初にインストールしてスキャンを実行し、クッキーやその他の追跡ツールを特定したら、あとはCookieBotが定期的にサイトの変更をチェックしてくれます。
詳しく知りたい方は、cookiebot.comにアクセスしてください。リンクは画面上と説明欄に貼っておきますので、クリックしてCookieBotの詳細をご確認ください。
さて、本題に戻りましょか。このスキームに話を戻すと、私が特に注目したい2つの表があります。これらは本当によく作られた表やと思います。
まず、これはマトリックスになってて、測定すべき2つの要素を示してます。一つは「レベル」で、AIの性能というか、パフォーマンスの6段階が示されてます。
そして、「Narrow」(狭い/特化型)と「General」(一般的)という2つの列があります。Narrowは垂直的、つまり特定の分野に特化したAI、一つのことを上手にこなすAIを指します。一方、Generalは横断的で、多くのタスクや分野で働ける一般的なAIを指します。レベル0から始まりましょう。レベル0は「非AI」、例えば電卓です。Narrowの方では「一つのことを極めて上手にこなす」という意味で、電卓は最高の計算をしますわ。Appleが言うところの「史上最高の計算」ってやつですな。一方、Generalの方では、「人間をループに含むツール」として、例えばAmazon Mechanical Turkが挙げられてます。ご存知ない方もおられるかもしれませんが、これは人間による微細なタスクを購入できるAmazonのサービスです。
レベル1は「emerging」(新興)で、「未熟な人間と同等かやや優れた」レベルです。Narrowでは、GoFIやその他の発音しにくい名前のAIが該当します。Generalでは、ChatGPT、Bard、Llama 2、Geminiなどが該当します。だから先ほど申し上げたように、一部の人々は既に最初のAGIレベルに達したと考えてるわけです。これがレベル1なんですな。
レベル2は「competent」(有能)で、「熟練した大人の50パーセンタイル」レベルです。Narrowでは、Google Assistant、Siri、Alexa、Watsonなどの例があります。Generalの方は、まだ達成されてません。つまり、熟練した大人の50パーセンタイルに匹敵するパフォーマンスを持つAGIはまだありません。
ただし、多くの人がこのセルを埋め始めるべき時期に来てると考え始めてます。見てください、Narrowの行は全部埋まってますけど、Generalの行はほとんど空白です。でも、Claude 3の活動を見たり - チャンネルの動画をチェックしてください - Devinの活動を見たり、実際のタスクをこなし始めてるロボットを見てると、「すごいな」って思います。ChatGPTの音声機能やビジュアル機能なんかも含めて、もしかしたら既にレベル2に達してるかもしれません。少なくとも、確実にレベル1は達成してますな。
レベル3は「expert」(専門家)で、「熟練した人間の90パーセンタイル」レベルです。例えば、Grammarly(英語の文章を修正するツール)や、Dall-E 2、Midjourney 6のような高品質な画像生成AIがこれに該当します。でも、expert levelのAGIはまだ存在しません。この段階については疑問の声もあって、新世代のAI、例えば噂の「GPT-5」がこのレベルに達するかもしれないという話もあります。「virtuoso」(達人)がレベル4で、これはAGIの最後のレベルです。その後はASI(超人工知能)に進むわけです。このvirtuosoレベルは、人間の99.9パーセンタイルに相当します。つまり、ほぼ全ての人間と同等のパフォーマンスを発揮できるAIということです。
Narrowの例としては、Deep BlueやAlphaGoがあります。Deep Blueは既に数十年前から存在してますな。AlphaGoについては、まだドキュメンタリー映画を見てない方は、YouTubeで無料で見られますので、ぜひチェックしてください。AIに興味のある方には本当におすすめです。もちろん、virtuosoレベルのAGIはまだ存在してません。
最後のレベル5がASI、つまり人工超知能です。これは単に人間のレベルに到達するだけやなく、それを超えてしまうんです。そこからは永遠に引き離されることになります。なぜなら、生物学的な制約があるため、我々は digital な存在のような速度では成長できないからです。
Narrowでは、AlphaZeroがその例です。簡単に言うと、AlphaGoの進化版ですな。本当に信じられないレベルですが、General の方はまだ存在しません。
これは、AGIについて語る時の素晴らしいフレームワークやと思います。レベルで語ることで、我々が今どの段階にいるのかが分かりやすくなります。専門家の中には、現在はレベル1とレベル2の間にいると考える人が多いです。AGIとして到達できる最高レベルは4で、その後レベル5のASIになるわけです。
これは自動運転車の5段階分類に似てますな。これも役に立つ分類方法です。「この車は自動運転か否か」という二元論ではなく、自動運転にも様々なレベルがあるように、こちらも一般性と性能の異なるレベルがあるわけです。
もう一つの表も見てみましょう。ちょっと飛ばす部分もありますが、後でじっくり読んでいただけるよう、リンクを貼っておきます。この表が興味深いのは、6つの各レベルについて例を挙げながら、潜在的なリスクも示してるところです。
レベル0は「現状維持」で、既知のリスク以外は特に問題ありません。
レベル1は「AIをツールとして」という段階です。これは道具から、コンサルタント、協力者へと進化していく過程を示してます。ツールとして見る場合、人間がタスクを完全にコントロールし、AIを使って副次的なタスクを自動化します。
このレベルでのリスクは、まず「deskilling」(技能の喪失)があります。それから「既存産業の破壊」。これはよく話題になりますよね。例えば、Devinが全てのコードを書いてしまう、Midjourney が私より上手な画像を作る、Soraがハリウッドの映画産業を揺るがすとか。
レベル2は「AIをコンサルタントとして」という段階です。AIは重要な役割を担いますが、人間に呼ばれた時だけ介入します。私が言うてるように、現在の一部のツールは既にこのレベルで使えると思います。少なくとも、私は既にこの方法でAIを使ってます。
このレベルの問題は「過信」です。これは大きな問題ですな。AIが持つ問題点(幻覚が最も有名ですが)を知りながらも、過度に信頼してしまうことです。それに誤情報、フェイクニュース、ディープフェイクなども。詐欺の問題もありますな。だから私は、我々はレベル1よりもレベル2に近いんじゃないかと考えてるんです。少なくとも特定の側面では。
レベル3は「AIを協力者として」。ここではAIと人間が対等な協力関係を築き、タスクや目標を共有します。これが「expert」レベルです。ここでのリスクは「人間化」。Claude 3との動画でお分かりのように、ちょっと複雑な話し方をするだけで、すぐに「これは本当にチャットボットなんか?」って思ってしまいますよね。
声と視覚、体を持つようになったら、もはやチャットボットの面影すらなくなるでしょう。社会の急激な変化も避けられません。これは100%同意です。むしろ避けられない、当然の結果やと思います。
レベル4は「AIを専門家として」。ここではAIが主導権を握り、人間は時々フィードバックを与えるだけです。これが「virtuoso」レベル、つまりAGIの最終段階です。その後はASIに進むわけですな。
このレベルでのリスクは「大規模な労働力の置き換え」。本当に大規模な雇用の喪失が起こります。それから「人間の特異性の低下」。これは多くの人を苛立たせる問題です。つまり、我々がもはやそれほど特別な存在ではないということを発見することになります。
我々がこの惑星で最も知的な種ではなくなり、人間だけができると思っていた多くのことが、実はAIにもできるということが分かってくるわけです。
レベル5は「ASI」、つまり「完全に自律したAI」です。これは先ほどの「virtuoso」が完全に自律化したものですな。
ここでの大きな問題は「ミスアライメント」(価値観の不一致)です。よく引用される「アラインメント問題」の本でも触れられてる話ですが、AIに価値観をどう伝えるのか、我々の価値観を本当に尊重するのか、そもそもどの価値観が重要なのか、誰がそれを決めるのかという問題です。
それから「権力の集中」。これは明らかな問題の一つです。つまり、Google、Microsoft、Tesla、OpenAIといった大企業がこの技術を手に入れた時、一体何が起こるんでしょう。原子爆弾の100倍も重要で影響力のある技術を彼らが握った時、どうなるんでしょうか。
もちろん、これらの質問に対する答えは私にはありません。答えを持ってる人はほとんどいないんじゃないでしょうか。もしかしたら誰も答えを持ってないかもしれません。
でも、この論文は本当によくできてると思います。だから皆さんにもお勧めしたい。リンクを下に貼っておきますので、じっくり読んでみてください。私が飛ばした部分もありますからね。
この2つの表を特に分析したかったんです。皆さんも、現在我々がどのレベルにいると思うか、コメント欄で教えてください。
そうそう、AIを勉強して、今何が起きているのかをしっかり理解したい方は、頭を砂に突っ込んでる場合やありません。私のアカデミー、i360 Academyでお待ちしてます。リンクは説明欄にあります。
今日はAGIについて話したので、最後に、数日前のイーロン・マスクのインタビューをお見せしましょう。彼は2025年までにAGIが到来すると予測してます。まだ見てない方は、なぜイーロン・マスクがそう考えているのか、クリックして確認してみてください。ASIの到来時期についても語ってますよ。

いいなと思ったら応援しよう!