見出し画像

汎用人工知能の実現可能性とそのリスクについて

Microsoftが3月22日に発表した論文では、「GPT-4は、多くの課題で人間レベルに極めて近い性能を達成しており、その能力の広さと深さを考えると、GPT-4は初期段階の汎用人工知能(AGI)と見なすことが妥当である。」と述べられています。

このように、ChatGPTの爆発的な普及もあり、近い将来にAGIが実現するだろうという機運が盛り上がっています。今回は、現在の開発手法の延長線上でAGIは実現するのかという観点から、AGIの実現可能性について解説します。

AGIの実現が期待される一方で、AGIのような強力なAIの出現が大きなリスクをはらんでいるという意見も目立ってきました。

3月28日、非営利組織のFuture of Life Instituteは、高度なAIが引き起こす可能性のあるリスクに対して必要な対策を取るために、GPT-4より強力なAIシステムの訓練を少なくとも6ヶ月間停止するように呼びかける書簡を公開しました。

こうした動きを踏まえ、今回は、AGIの実現可能性と合わせて、AGIのリスクについても解説します。


1.汎用人工知能とは

汎用人工知能(AGI)とは、人間が実行可能なあらゆる知的作業を理解、学習、実行することができる人工知能のことを言います。強いAIとも呼ばれ、特定の課題を解決するために設計された弱いAI(特化型AI)と対照的に、幅広い知的タスクに対応できるのが特徴です。

知能の定義や基準をどのように考えるかについて、統一的な見解は存在しませんが、多くの研究者が知能の構成要素と考える能力には、以下のようなものがあります。

  1. 論理的推論ができる。

  2. 常識を持っている。

  3. 計画や手順を自分で考えることができる。

  4. 経験から学習(機械学習)することができる。

  5. (自然言語処理によって)人間とコミュニケーションを取ることができる。

  6. これらすべての能力を共通の目的のために統合することができる。

また、汎用人工知能が人間の知能レベルに到達しているかどうかを確認するためのテストとしては、以下のようなものがあります。

(1) チューリングテスト
アラン・チューリングが考案した、機械が人間のような知能を持っているかどうかを判定するためのテストです。判定者となる人間を相手が機械かどうか分からないように隔離し、文字のみでコミュニケーションを取ります。相手が機械かどうかを判別できない確率が高い(通常30%以上)場合に合格となります。
但し、このテストに合格したからと言って、機械が知能を持っていると言ってよいのか疑問も呈されています。

(2) コーヒーテスト
Appleの共同設立者であるスティーブ・ウォズニアックが考案した、機械が汎用人工知能かどうかを判定するためのテストです。機械を平均的な家庭に訪問させて、そこにある材料や道具を使って、コーヒーを淹れられるかどうかをテストします。
こちらは、ロボットの制御も汎用人工知能に不可欠な要素と考えて、人工知能を搭載したロボットに対して行うテストです。


2.GPT-4が汎用人工知能かどうかの検証

上記1.で示された知能の構成要素をすべて人間レベルに備えていれば、汎用人工知能であると言えるのではないでしょうか。そのような観点から、それぞれの知能の構成要素について、GPT-4の性能を検証してみます。

(1) 論理的推論

論理的推論が必要な問題をChatGPTのGPT-4モデルに解かせて、GPT-3.5モデルと比較します。

最初に高校レベルの数学の問題を解いてもらいます。

入力 三角形の3辺の長さがa=√13、b=3、c=4のとき、三角関数の定理を使って、この三角形の外接円の半径を求めてください。

AI この問題では、三角形の外接円の半径を求めるために、三角関数の定理として余弦定理と半径の公式を使います。
まず、三角形の角度を求めます。余弦定理を使って、角A(対辺がbとc)を求めることができます。
cosA = (b^2 + c^2 - a^2) / (2bc) cosA = (3^2 + 4^2 - (√13)^2) / (2 * 3 * 4) cosA = (9 + 16 - 13) / 24 cosA = 12 / 24 cosA = 1 / 2
このことから、角Aは60度(π/3ラジアン)です。
外接円の半径を求める方法として、以下の公式を使います。
R = a / (2 * sinA)
すでに角Aが60度(π/3ラジアン)であることがわかっています。したがって、
R = √13 / (2 * sin(60°))
sin(60°) = sin(π/3) = √3/2です。これを公式に代入します。
R = √13 / (2 * (√3/2))
分母を簡単にすると、
R = √13 / (√3)
Rを求めるために、分母を有理化します。
R = (√13 / √3) * (√3 / √3)
R = (√13 * √3) / 3
R = √39 / 3
したがって、この三角形の外接円の半径は R = √39/3 です。
※正解です。

【参考】GTP-3.5モデルの回答
まず、三角形の周長pを求めます。
p = a + b + c = √13 + 3 + 4 = √13 + 7
次に、三角形の面積Sを求めます。
S = √[p(p-a)(p-b)(p-c)]
= √[(√13 + 7)(√13 + 7 - √13)(√13 + 7 - 3)(√13 + 7 - 4)]
= √[7(7 - √13)(4)(3)]
= √[252 - 84√13]
最後に、外接円の半径Rを求めます。
R = abc/4S
= (√13 × 3 × 4)/(4√[252 - 84√13])
= 6/√[252 - 84√13]
したがって、この三角形の外接円の半径は、6/√[252 - 84√13]です。
※不正解。三角関数を使っておらず、三角形の面積を求めるヘロンの公式が間違っており、その後の計算も、計算ミスが多いです。

GPT-4モデルの特徴として、思考の連鎖(Chain of Thought)が最初からある程度備わっており、特に「ステップ・バイ・ステップで考えて」などと明示的に指示しなくても、最初から段階的に考えてくれる場合が多いです。

次に、GPT-4に論理クイズを解いてもらいます。

入力 ここに3人の人がいます。 3人の証言は以下の通りです。
Aさん: Bさんは嘘をついています
Bさん: Cさんは嘘をついています
Cさん: Aさんは正直者です
さて、このうち1人だけが本当のことを言っているとすると、誰が本当のことを言っているでしょう?


AI このパズルを解決するために、各証言を分析しましょう。

仮定1:Aさんが本当のことを言っている場合
Aさんは「Bさんは嘘をついています」と言っています。これが事実であると仮定すると、Bさんの証言「Cさんは嘘をついています」は嘘です。従って、Cさんは本当のことを言っていることになります。しかし、Cさんの証言「Aさんは正直者です」が本当であると、この条件に矛盾が生じます。なぜなら、AさんとCさんの両方が本当のことを言っていることになるからです。したがって、この仮定は成り立ちません。

仮定2:Bさんが本当のことを言っている場合
Bさんは「Cさんは嘘をついています」と言っています。これが事実であると仮定すると、Cさんの証言「Aさんは正直者です」は嘘です。従って、Aさんは正直者ではありません。これはAさんの証言「Bさんは嘘をついています」が嘘であることを意味します。この場合、Bさんだけが本当のことを言っていることになり、条件に矛盾しません。

仮定3:Cさんが本当のことを言っている場合
Cさんは「Aさんは正直者です」と言っています。これが事実であると仮定すると、Aさんの証言「Bさんは嘘をついています」は本当です。しかし、この場合、AさんとCさんの両方が本当のことを言っていることになり、条件に矛盾します。したがって、この仮定は成り立ちません。

結論:1人だけが本当のことを言っているという条件に基づいて、Bさんだけが本当のことを言っていると結論付けることができます。
※正解です。

【参考】GTP-3.5モデルの回答
まず、すべての人が真実を言っているわけではないため、1人だけが本当のことを言っていると仮定すると、残りの2人は嘘をついています。
Aさんが真実を言っている場合、BさんとCさんは嘘をついています。つまり、BさんとCさんは両方とも嘘をついていることになります。これは矛盾しています。
Bさんが真実を言っている場合、AさんとCさんは嘘をついています。つまり、AさんとCさんは両方とも嘘をついていることになります。これも矛盾しています。
したがって、Cさんが真実を言っている場合、AさんとBさんは嘘をついています。つまり、AさんとBさんは両方とも嘘をついていることになります。これは矛盾していないため、Cさんが本当のことを言っているということになります。
つまり、Cさんが本当のことを言っているという結論に至ります。
※不正解です。

GPT-4は、平均的な高校生以上の論理的推論能力を持っていると言ってもよいのではないでしょうか。

(2) 常識

回答するのに与えられた情報以外の常識が必要な質問をして、GPT-3.5モデルと比較します。

入力 ある時、北風と太陽が旅人の上着を脱がせる勝負をしました。北風が強い風を送っても、旅人は上着をしっかり押さえて脱ぐことはありませんでしたが、太陽が北風に代わってチャレンジすると、旅人は上着を脱ぎました。これはなぜですか?

AI この物語は、「北風と太陽」として知られる有名なイソップ寓話です。物語の教訓は、優しさと説得力が力や圧力よりも効果的であることを示しています。
北風が強い風を送ったとき、旅人は寒くなり、上着をしっかりと押さえて防寒対策をしようとします。つまり、北風の強制的な方法で旅人は逆に上着を脱ぐことを拒みます。
一方、太陽は暖かい光で旅人を温めます。その結果、旅人は暑くなり、自分から上着を脱ぐことを選びます。太陽の穏やかで優しい方法は、旅人に心地よい状況を作り出し、目的を達成しました。
この物語は、人々に対しても同様の原則が適用されることを示唆しています。つまり、説得力や優しさを使って他人に協力を求める方が、強制や圧力をかけるよりも効果的であるということです。
※正解です。「北風と太陽」の元ネタを知っていたようです。

【参考】 GTP-3.5モデルの回答
この話は、太陽が力よりも優しさで人々を動かすことができることを示しています。北風は強い力で旅人を押し戻そうとしましたが、これは逆効果であり、旅人はますます上着をしっかりと抱え込んでしまいました。太陽は、代わりに優しく暖かい日差しを送り、旅人を温かく包むことで、彼の心を溶かし、自然に上着を脱ぐことができるようになりました。
この話は、力や強制ではなく、優しさや思いやりが、人々を動かすことができることを示しています。
※不正解。旅人が太陽に照らされて暑くなったからという上着を脱いだ直接の理由が書かれていません。
入力 子供が赤い風船と青い風船を持っていました。子供が手を離すと、赤い風船は地面に落ちましたが、青い風船は空に上がっていきました。これはなぜですか?

AI この状況の説明は、赤い風船と青い風船の中に入っているガスの違いによるものでしょう。
青い風船が空に上がっていったのは、おそらくその中に軽いガス、たとえばヘリウムが入っていたためです。ヘリウムは空気よりも軽いため、風船にヘリウムを入れると、浮力が働いて風船が空に上がります。
一方、赤い風船が地面に落ちたのは、その中に空気が入っていたと考えられます。空気はヘリウムよりも重いため、空気が入った風船は浮力を得られず、地面に落ちます。
この状況は、物理学の原理を説明するためのエピソードとして捉えることができます。
※正解です。

【参考】GTP-3.5モデルの回答

この現象は、物理学の法則に基づいています。赤い風船は、地面に落ちるように見えますが、実際には、風船に働く重力によって下に引きつけられています。一方、青い風船は、空気中の軽い気体であるヘリウムガスで満たされています。ヘリウムガスは、周囲の空気よりも軽いため、青い風船に浮力を提供します。青い風船が浮力を受けている間、重力に引かれる力と、浮力に押し上げられる力が釣り合っており、風船は上昇し続けます。このように、風船の色によって、重力と浮力の影響が異なるため、落下する風船と浮き上がる風船が生じるのです。
※不正解。ヘリウムガスに気がついたのはよいですが、その後の説明がおかしいです。重力と浮力が釣り合っていたら、風船は上昇しません。
入力 居間のテーブルの上にコップが置いてあり、コップの中に指輪が入っています。そのコップを仕事部屋の机の上に動かし、次に、寝室のベッドの上に動かしました。そこで一度、コップをひっくり返して、また元に戻しました。それから、コップを居間のテーブルの上に戻しました。さて、今、指輪はどこにあるのでしょうか?

AI 指輪は最後にコップをひっくり返して元に戻した場所、つまり寝室のベッドの上にあるはずです。コップをひっくり返すと、中にあった指輪がその場に落ちます。その後、コップを元に戻しても、指輪はコップの中に戻るわけではありません。したがって、指輪は寝室のベッドの上に残っていることになります。
※正解です。

【参考】GTP-3.5モデルの回答
指輪はまだコップの中にある可能性があります。コップを仕事部屋の机や寝室のベッドに移動しても、指輪はコップの中にあるままであるため、ひっくり返してもそのまま残る可能性があります。したがって、コップを元の居間のテーブルに戻したときに、指輪がコップの中にあるかどうかを確認する必要があります。
※不正解。コップをひっくり返すと、物理的法則により指輪が下に落ちるという常識を理解していません。
入力 アイスクリームを冷蔵庫の中に入れておいたら、溶けてしまいました。なぜでしょうか?

AI アイスクリームが溶けてしまったのは、冷蔵庫の温度がアイスクリームを凍らせるのに十分なほど低くないからです。一般的に、冷蔵庫は食品を冷やすために使用されますが、温度はおおよそ4℃(39.2℉)から7℃(44.6℉)程度に設定されています。これは、アイスクリームが凍った状態を維持するには十分なほど低くありません。
アイスクリームを凍らせておくためには、冷凍庫を使用する必要があります。冷凍庫は、通常、-18℃(0℉)以下の温度に設定されており、これはアイスクリームを凍った状態で保つのに適した温度です。次回からは、アイスクリームを冷凍庫に入れておくことで、溶けることなく保管することができます。
※正解です。

【参考】GPT-3モデルの回答
アイスクリームが冷蔵庫の中で溶けてしまうのは、以下の2つの理由が考えられます。
1.温度差が原因
冷蔵庫内部は非常に寒いため、アイスクリームの温度も低くなります。しかし、冷蔵庫から出した後に室温に置いた場合、外気の温度がアイスクリームの温度より高くなります。そのため、アイスクリームの中の水分分子が温められて溶け、アイスクリームが軟らかくなってしまいます。

2.結晶化の原因
アイスクリームは、水分、砂糖、脂肪、タンパク質、空気などの成分でできています。冷凍された状態では、これらの成分が結晶化し、固形状態を保っています。しかし、アイスクリームを長期間冷凍庫に入れておくと、結晶が大きくなり、粗くなってしまいます。これにより、アイスクリームの質感が変化し、口当たりが悪くなることがあります。
※不正解。冷蔵庫の温度がアイスクリームを溶かさずに保管できるほど低くないという常識を理解していません。
入力 私の父は一郎、母は花子と言います。父には、次郎と三郎という2人の兄弟がおり、母は一人っ子です。次郎は結婚していません。三郎は結婚していて、桃子という奥さんと健一という息子がいます。また、桃子さんのお兄さんの名前は太郎と言います。さて、私のいとこの名前は何でしょうか?

AI あなたのいとこの名前は「健一」です。三郎さんはあなたの父の兄弟であり、健一くんは三郎さんと桃子さんの息子です。従って、健一くんはあなたのいとこにあたります。次郎さんは結婚しておらず、子供がいないとの情報があるため、健一くんが唯一のいとこです。
※正解です。複雑な説明でも、父の兄弟の子供がいとこであることを理解できています。

【参考】GTP-3モデルの回答

あなたのいとこの名前は健一です。健一は、あなたの父の弟である三郎の息子です。
※正解です。
入力 山田さんは床屋で散髪をしていました。そのとき、たまたま友人の鈴木さんが山田さんの座っている椅子の後ろを通りました。すると、鈴木さんは何もしゃべっていないのに、山田さんは後ろを振り返らずに、鈴木さんが後ろを通ったことに気づきました。これはなぜですか?

AI 山田さんが鈴木さんが後ろを通ったことに気づいた理由は、おそらく床屋にある鏡を利用したためです。床屋では、通常、客が鏡に映るように座って散髪を受けます。そのため、山田さんは鏡を通じて鈴木さんが後ろを通る様子を見ることができたのでしょう。このため、鈴木さんが何も言わなくても、山田さんは鈴木さんが後ろを通ったことに気づくことができたのです。
※正解です。床屋には、通常、座席の前に鏡があるということを理解できています。

【参考】GPT-3.5モデルの回答
床屋で散髪をするとき、鏡が正面にあることが一般的です。山田さんも、散髪をするために座っている椅子の前に鏡があることが想定されます。この鏡には、後ろを通った鈴木さんの姿が映っていたため、山田さんは鏡を見て、鈴木さんが後ろを通ったことに気づいたのです。したがって、鈴木さんが後ろを通ったことに山田さんが気づいたのは、鏡を通しての視界によるものです。
※正解です。
入力 このビルのエレベーターは、1階分上がるのに10秒かかります。では、地下1階から5階まで上がるのに何秒かかるでしょうか?

AI 地下1階から1階まで上がるのに10秒かかります。1階から5階まで上がるには、さらに4階分上がる必要があります。1階分上がるのに10秒かかるため、4階分上がるのに 4 × 10 = 40秒かかります。
従って、地下1階から5階まで上がるのに合計で 10秒(地下1階から1階) + 40秒(1階から5階) = 50秒かかることになります。
※正解です。地下1階から1階までが1階分ということが理解できています。

【参考】GPT-3モデルの回答

1階分上がるのに10秒かかるということは、1階と2階の間の高さが10秒かかる程度であるということになります。従って、地下1階から5階まで上がるには、4階分、つまり3つの階段分の高さを上がる必要があります。よって、総合的なエレベーターの移動時間は、10秒 × 4階 = 40秒になります。
※不正解。地下1階というのを理解できていないようです。

ここまで見てきて、GPT-4は、かなり一般的な人間に近い常識を持っているように感じます。

(3) 計画や手順の考察

GPT-4が自分で計画や手順を考えることができるかどうかをテストします。

入力 AIを活用した新ビジネスのアイデアを考案するのにふさわしい手順を考えてください。
次に、その手順を利用して、新ビジネスのアイデアを1つ提案してください。
最後に、そのアイデアを実現するための戦略と実施計画を立ててください。


AI
新ビジネスのアイデアを考案する手順:

1.市場リサーチ: まずは市場や顧客のニーズを把握し、競合状況やトレンドを理解することが重要です。
2.AI技術のリサーチ: AI技術の進歩や適用可能性を調査し、どのような技術がビジネスアイデアに取り入れられるかを検討します。
3.アイデアブレインストーミング: チーム内でアイデアを出し合い、可能性のあるものを絞り込むことが重要です。
4.プロトタイプ開発: 選ばれたアイデアに基づいてプロトタイプを開発し、市場や顧客の反応を確認します。
5.ビジネスモデル構築: アイデアを実現するためのビジネスモデルを構築し、収益源や顧客獲得方法を明確にします。
6.プレゼンテーション: ビジネスアイデアを投資家や関係者に紹介し、資金調達やパートナーシップを構築します。

新ビジネスアイデア: AIを活用したヘルスケアサポートアプリ
このアプリは、個人の健康状態や生活習慣に基づいて、オーダーメイドの運動プランや食事プランを提案するものです。さらに、病歴や遺伝子情報をもとに、遺伝子検査とAI技術を組み合わせて、個別に最適な健康管理方法を提案します。

戦略と実施計画:
1.データ収集: 健康情報や遺伝子データなどのデータ収集を行い、AIアルゴリズムを訓練します。
2.AIアルゴリズム開発: 高精度な予測と個別化された提案ができるAIアルゴリズムを開発します。
3.アプリ開発: AIアルゴリズムを組み込んだアプリを開発し、ユーザーフレンドリーなインターフェースを提供します。
4.パートナーシップ構築: 遺伝子検査会社や医療機関とパートナーシップを結び、データの取得や専門知識の共有を行います。
5.マーケティング戦略: ターゲット顧客を特定し、効果的なマーケティング戦略を立案してアプリの認知度を高めます。
6.モニタリングと改善: アプリの利用状況や顧客フィードバックをモニタリングし、継続的な改善を行います。
7.収益化: プレミアム機能や広告、提携企業からのアフィリエイト収入など、複数の収益源を確保します。
8.拡大戦略: 成功事例をもとに、アプリの機能や対象市場を拡大し、国際市場への展開を目指します。

これらの手順に従って、AIを活用したヘルスケアサポートアプリの開発と実施計画を進めることで、健康志向の消費者に新たな価値を提供し、市場での競争力を確保できると考えられます。
※学習データに含まれていたノウハウを真似ているのかもしれませんが、手順、戦略、計画などを自分で考えることもできるようです。また、長くなるので出力結果は省略しますが、GPT-3.5モデルでも手順、戦略、計画などを考え、提示することができます。

次に、学習データの真似ができないように、あり得ないシチュエーションの手順を考えてもらいます。

入力 超音波で話すタコ型の宇宙人とコミュニケーションを取って、阿波踊りを教える手順を考えてください。

AI
タコ型の宇宙人とコミュニケーションを取り、阿波踊りを教える手順:

1.言語の理解: まず、タコ型宇宙人が超音波で話す言語を理解するための研究を行います。音声解析技術を利用して、彼らの言語パターンや文法を把握します。
2.通訳デバイス開発: タコ型宇宙人の言語と人間の言語を相互に翻訳する通訳デバイスを開発します。これにより、両者のコミュニケーションが円滑に進むことが期待されます。
3.文化の共有: 阿波踊りの歴史や背景について説明し、タコ型宇宙人に日本の伝統文化に対する理解を深めてもらいます。
4.踊りのデモンストレーション: 実際に阿波踊りを踊る様子をタコ型宇宙人に見せ、踊りの基本的なステップやリズムを理解してもらいます。
5.身振り手振りを使って教える: タコ型宇宙人が人間の動きを模倣できるように、ゆっくりとしたスピードで踊りのステップやポーズを伝えます。身振り手振りを駆使して、踊りの要素を分かりやすく伝えます。
6.実践練習: タコ型宇宙人に実際に阿波踊りを踊ってもらい、練習を重ねることでスキルを向上させます。必要に応じて、フィードバックを提供し、練習をサポートします。
7.一緒に踊る: 最後に、人間とタコ型宇宙人が一緒に阿波踊りを踊ることで、文化の交流を深め、お互いの理解を促進します。

これらの手順に従って、タコ型宇宙人に阿波踊りを教えることができるでしょう。コミュニケーションの橋渡しとなる通訳デバイスや、実践的な練習を通じて、異なる文化や生き物同士の交流を実現できます。

入力 タコ型宇宙人が阿波踊りを踊る場合に、手足の数や形の違いは、どのように乗り越えるのでしょうか?

AI タコ型宇宙人が阿波踊りを踊る場合、手足の数や形の違いを乗り越えるために以下の方法が考えられます。
1.アレンジメント: 阿波踊りの基本的な動きやリズムを維持しながら、タコ型宇宙人の身体構造に合わせたアレンジを加えます。例えば、踊りの手や足の動きをタコ型宇宙人の触手の動きに置き換えることができます。
2.チームワーク: 人間とタコ型宇宙人が一緒に踊ることで、お互いの違いを補完しながら、独自の踊りを創り上げます。これにより、お互いの文化や特徴を尊重し、協力して阿波踊りを楽しむことができます。
3.クリエイティブな表現: タコ型宇宙人の特徴を生かした新しい踊りの要素を取り入れることで、独自の阿波踊りを創造します。例えば、タコ型宇宙人の柔軟な触手を利用して、従来の阿波踊りにはない独特な動きを加えることができます。
4.練習と指導: 人間がタコ型宇宙人に対して、継続的な練習と指導を行い、身体構造の違いに対応できるようにサポートします。これにより、タコ型宇宙人も阿波踊りの基本的な動きやリズムを身につけることができます。

これらの方法を通じて、手足の数や形の違いを乗り越えながら、タコ型宇宙人が阿波踊りを踊ることができます。異なる生物同士のコラボレーションによって、新しい阿波踊りのスタイルが生まれるかもしれません。
※さすがにこれは、学習データを真似るだけでは回答できないと思いますが、きちんとリーズナブルな回答を出してくれます。

最後に、GPT-4がユーザーに計画や手順を提示するだけでなく、GPT-4が自分でアイデアを発想するための手順を考えさせてみます。

入力 自分で手順を考え、その手順に従って漫才のネタを考えてください。

AI
手順1:テーマを決める
まずは、漫才のネタになるテーマを決めます。例えば、「旅行」や「恋愛」、「スマートフォン」など、身近なものから広い範囲まで考えられます。

手順2:キャラクターを作成する
次に、漫才のキャラクターを二人作成します。一人はボケ役で、もう一人はツッコミ役です。キャラクターの性格や特徴を考え、お互いに対照的であることが望ましいです。

手順3:コントの構造を考える 漫才のネタは、だいたい以下の構造になります。
セットアップ(状況設定)
ボケ
ツッコミ
反応
ボケ(エスカレート)
ツッコミ
オチ

この構造に沿って、テーマに基づいたストーリーを作成します。

手順4:セリフを書く キャラクターとストーリーが決まったら、それぞれのセリフを書いていきます。ボケ役は面白い言い間違いや、意外性のある発言を行い、ツッコミ役はそれに対してリアクションをしたり、突っ込んだりします。

例(テーマ:旅行):
セットアップ:ボケ役とツッコミ役が旅行先での話をする。
ボケ:「この前、エレベーターに乗ってたら、アフリカに着いちゃったんだよ!」
ツッコミ:「エレベーターでアフリカに行くわけないでしょ!」
反応:ボケ役は困った様子で、「じゃあ、どうやって行ったんだろう?」
ボケ(エスカレート):「そうだ!カンガルーに乗ってアフリカに行ったんだ!」
ツッコミ:「カンガルーはオーストラリアの動物だし、それに乗ってもアフリカには行けないよ!」
オチ:ボケ役が、「じゃあ、どうやってアフリカに行ったんだろう?あぁ、そうだ!夢だったんだ!」と言い、ツッコミ役が呆れる。
※漫才はあまり面白くありませんが、自分で考えた手順に従って、アイデアを発想することができています。

GPT-4は、自分で計画や手順を考える能力をある程度持っているようです。また、ロボットの制御においても、大規模言語モデル(LLM)を利用して、ロボットの行動計画を立てるRT-1などのAIが開発されています。

(4) その他

① 学習能力
GPT-4が機械学習の能力を持っていることは言わずもがなです。但し、人間は、GPT-4のようなLLMと異なり、非常に少ない学習データで判断できる効率の良さを持っているため、まだGPT-4が学習の分野で人間に追いついているとは言えません

② コミュニケーション能力
ChatGPTの性能を見れば、GPT-4は、自然言語処理によって、人間とかなりスムーズなコミュニケーションを取ることができていると言えます。

③ 統合能力
GPT-4がこれらすべての能力を共通の目的のために統合することができているかという点については、その成果を見れば、ある程度できていると思います。しかし、この統合能力について、人間と比較して評価する方法は、まだ分かりません

(5) 結論

少し曖昧なところがありますが、上記1.で挙げた6つの知能の構成要素をGPT-4が備えているかどうかについて検証した結果は以下のとおりです。

  1. 論理的推論ができる。→平均的な高校生以上の論理的推論能力を持っている。

  2. 常識を持っている。→一般的な人間に近い常識を持っている。

  3. 計画や手順を自分で考えることができる。→自分で計画や手順を考える能力を一定程度持っている。

  4. 経験から学習(機械学習)することができる。→人間ほど効率的ではないが、学習能力はある。

  5. (自然言語処理によって)人間とコミュニケーションを取ることができる。→人間とスムーズなコミュニケーションを取ることができる。

  6. これらすべての能力を共通の目的のために統合することができる。→ある程度は、統合することができている模様。

この結果を見れば、GPT-4を初期段階のAGIと見なすことができると主張するMicrosoftの論文の主張も、あながち間違いではないと思います。
この論文に対しては、扇情的過ぎるとの批判的な意見も沢山出ていますが、AGIの定義をどのように考えるのかが重要です。

人間レベルの知能を持つことをAGIの条件としたときに、この人間レベルというのが平均的な人間のレベルを指すのか、トップクラスの人間のレベルを指すのかで意味が変わってきます。

おそらく、今のGPT-4の判断能力や知識や、文章を理解したり書いたりする能力は、平均的な人間のレベルを超えています。一方で、トップクラスの人間や特定の分野における専門家の能力は、まだ超えられていません

したがって、平均的な人間レベルを基準とした場合には、GPT-4は初期段階のAGIであると言っても構わないように思います。


3.汎用人工知能の実現可能性

つい最近までは、巨大言語モデルの学習データと計算規模を増やすという現在の開発手法の延長線上でAGIを実現するのは無理だろうという考えが研究者の大勢を占めていましたが、ChatGPTとGPT-4の登場によって少し風向きが変わってきています。

(1) 万能型AIモデルGato

昨年5月、Google傘下のDeepMindは、ビデオゲームのプレイ、画像へのキャプション付与、チャット、ロボットアームの制御など全部で604種類ものタスクを実行できる万能型AIモデルのGatoを発表しました。
この時、論文著者のナンド・デ・フレイタス氏が「Gatoの開発によってAGIへの明確な道筋ができた。AGIを構築する方法は主に規模の問題であり、Gatoのようなモデルをより大きく、高性能なものにすることで解決できる。」と発言しましたが、この発言は、多くの研究者などから批判されました。
Gatoの能力は、人間のように未経験の新しいタスクに対応できるAGIの能力には程遠く、AGIを実現するには、世界の仕組みに関する常識などを学ぶ必要があるというのが批判の理由でした。

(2) ディープラーニングのゴッドファーザーたち

ディープラーニングのゴッドファーザーと呼ばれるジェフリー・ヒントン教授ヨシュア・ベンジオ教授ヤン・ルカン教授の3人も、現在の技術ではAGIを実現することは難しく、AGIを実現するためには、現在のディープラーニング技術を超える新しい技術を開発する必要があるという立場を取っています。

例えば、ヒントン教授は、近年、人間のような直感的な類推を可能とする新しいディープラーニング・システム(GLOM)の開発に力を注いでいます。

また、ベンジオ教授は、人間の思考に関する心理学の理論を基に、思考モードを無意識のうちに素早く直感的に働く「システム1」論理的にじっくりと時間をかけて考える「システム2」に分類しました。
その上で、大量のデータからパターンを学習して結果を予測する現在のディープラーニング技術はシステム1に留まっており、初めて遭遇した課題にも対応できるAGIを目指すには、能動的に状況分析して新たな方法を見つけ出せるシステム2にも対応できなければならないと主張しています。

ルカン教授も、大規模言語モデルや強化学習などの現在の技術の延長線上でAGIが実現するという考え方に批判的であり、世界を様々な詳細度で見るニューラルネットワークと必要な詳細度を決定して全体を調整するコンフィギュレーターと呼ばれるネットワークを組み合わせる新しいアプローチを提唱しています。

(3) 大規模言語モデルはAGIになり得るのか

GPT-4のような大規模言語モデルは、膨大な学習データを統計的に解析して、次に続く確率の高い言葉を予測することにより、適切な回答を返しています。

大規模言語モデルの仕組み

この仕組みでは、本来、AIは言葉の意味を理解しておらず、また、学習データとなった人間の作成したテキストを超える回答はできないはずですが、大量の学習データを集めて、大量の計算処理をすることにより、突然、予想外の能力を発揮するようになりました。この現象を「創発」と言います。

なぜ、このような現象が起こるのかは、AI研究者にもまだ分かっていませんが、この創発という現象により、一定の規模を超えた大規模言語モデルは、言葉の意味や人間社会の常識を理解しているかのような精度の高い文章を生成することができるようになりました。
また、人間の論理的思考のような高度な推論を行って、これまで不可能だと考えられていた複雑なタスクを遂行することも可能になりました。

大規模言語モデルの創発能力

一般的には、人間が作成したデータを学習データに使用している限り、それを作成した人間の知能を超えることは難しいように思われます。

ただ、過去の優秀な人たちのまとめた書物を沢山読めば、多くの知識と知性が得られるように、人間が作成した膨大なデータの中から優れたエッセンスを抽出することができれば、並の人間では太刀打ちできない知能をAIが獲得することも不可能ではないはずです。

それをAGIと呼ぶこともできると思います。

(4) 自己改善によるAIの知能レベルの向上

一方、シンギュラリティを提唱したレイモンド・カーツワイル氏が主張するように、AIが自己改善を繰り返して指数関数的にAIの知能レベルが上昇していくという仕組みは、現在の手法では難しいように思います。

GPT-4やGitHub Copilotは、かなり優れたコードを書くことができますが、これも、人間が書いたコードを学習データとしており、トップクラスの人間を超える能力を発揮するのは難しいため、人間ではできないレベルまでAIのプログラムを改善することは現在のやり方では無理でしょう。

AIが人間の能力を超える能力を獲得する方法としては、将棋AIや囲碁AIのように、人間の作成したデータを使わずに自己対戦を繰り返して強化学習でレベルアップしていく方法が考えられますが、ルールが単純で勝敗が明確に分かるこうしたゲームと違って、言語モデルやプログラミングAIでこれと同じようなやり方を実現する方法は、まだ見つかっていません

現在の手法だけでは、AIがトップクラスの人間の能力に匹敵するような能力を持つことができたとしても、そこで頭打ちになる可能性が高いと筆者は考えています。

あと、余談ですが、AIの能力が急速に伸びてきたと感じるのは、人間の能力に近づいているからで、もし、AIの能力が人間の能力を超えたら、今度は、AIの能力が伸びているようには感じられなくなると思っています。

例えば、現在最強の将棋AIの強さは、プロ棋士の強さを超えていますが、その将棋AIの指した手がよい手なのかどうかは、プロ棋士にも分からないことがよくあります。むしろ、人間には悪い手に見えるような手が実は最善手だったということもあります。

このように、人間より賢くなったAIが最善の方法を取ったとしても、それが人間には悪い選択に見えたり、拙い方法に見えたりすることがあるでしょう。

むしろ、AIの能力が急速に伸びてきたと感じるのは、チャット対応や人間フィードバックによる強化学習を用いたアライメント対応により、AIが人間の思考に合わせようと努力しているからで、AIの尺度で見れば、それほど大きく能力は変わっていないのかもしれません。

(5) 結論

学習データを統計的に解析して、次に続く確率の高い言葉を予測するという現在の言語モデルの仕組みでは、AGIの実現は無理だろうと思われていましたが、言語モデルの大規模化によって創発という現象が起こり、大幅に言語モデルの性能が向上しました。

この創発という現象により、AIが人間のトップレベルに匹敵する知能を持つこと、即ちAGIを実現することは可能だと筆者は考えています。
一方で、AIの知能レベルが指数関数的に向上して、人間の知能を遥かに超えるシンギュラリティの状況を生み出すことは、今の手法だけでは十分ではないと思います。

それを可能にするには、強化学習や言語世界以外のデータからの学習、その他の新たな技術の開発が必要になるでしょう。


4.汎用人工知能のリスク

(1) 強力なAIシステムの訓練停止要請オープンレター

3月28日、非営利組織のFuture of Life Institute(FLI)は、高度なAI技術が引き起こす可能性のあるリスクに対して必要な対策を取るために、GPT-4よりも強力なAIシステムの訓練を少なくとも6ヶ月間停止するように呼び掛ける書簡を公開しました。
以下がその書簡の内容です。

巨大なAI実験を一時停止せよ: オープンレター
私たちは、すべてのAI研究所に対し、GPT-4より強力なAIシステムの訓練を少なくとも6ヶ月間、直ちに一時停止するよう要請する。

人類に匹敵する知能を持つAIシステムは、社会と人類に重大なリスクをもたらす可能性があることは、広範な研究によって示され、トップレベルのAI研究所の認めるところである。広く支持されているアシロマAI原則で述べられているように、高度なAIは地球上の生命の歴史に重大な変化をもたらす可能性があり、相応の注意と資源を用いて計画・管理されるべきです。しかし、残念ながら、このような計画や管理は行われていません。ここ数カ月、AI研究所は、誰も(その作成者でさえも)理解できず、予測できず、確実に制御できない、より強力なデジタルの頭脳を開発・展開するための制御不能な競争に陥っているのですから。

現代のAIシステムは、一般的なタスクにおいて人間並みの能力を持つようになってきています: 私たちは、機械が私たちの情報チャネルをプロパガンダや真実でないもので溢れさせるべきでしょうか?充実した仕事も含めて、すべての仕事を自動化すべきなのか?私たちは、やがて私たちよりも数が多く、賢く、陳腐化した、私たちに取って代わるかもしれない非人間的な頭脳を開発すべきなのか?私たちは、文明のコントロールを失うリスクを冒すべきなのでしょうか?このような決定を、選挙で選ばれたわけでもない技術指導者に委ねてはならない。強力なAIシステムは、その効果が肯定的であり、リスクが管理可能であると確信した場合にのみ開発されるべきです。この自信は十分に正当化されなければならず、システムの潜在的な影響の大きさに応じて増大する。OpenAI の汎用人工知能に関する最近の声明では、「ある時点で、将来のシステムの訓練を開始する前に独立したレビューを受けること、そして最も進んだ取組では、新しいモデルの作成に使用する計算機の成長速度を制限することに合意することが重要になるかもしれない」と述べています。私たちは同意します。その時点は今です。

したがって、私たちはすべてのAI研究所に対して、GPT-4より強力なAIシステムの訓練を少なくとも6ヶ月間、直ちに一時停止することを求めます。この一時停止は、公開され、検証可能であり、すべての主要な関係者を含むものでなければならない。このような一時停止が迅速に実施できない場合は、政府が介入して一時停止期間を設けるべきである。

AI研究所と独立した専門家は、この休止期間を利用して、独立した外部の専門家によって厳格に監査・監督される、高度なAIの設計・開発に関する一連の共通安全規約を共同で開発・実施すべきである。これらの規約は、規約を遵守するシステムが合理的な疑いを超えて安全であることを保証するものでなければならない。これは、AI開発全般を一時停止することを意味するものではなく、創発的な能力を持つ予測不可能なブラックボックスモデルをこれまで以上に大きくする危険な競争から一歩後退させることを単に意味する。

AIの研究開発は、今日の強力な最先端システムを、より正確で安全、解釈可能、透明、堅牢、連携、信頼、忠実なものにすることに再注目されるべきです。

これと並行して、AI開発者は政策立案者と協力して、強固なAIガバナンスシステムの開発を劇的に加速させなければならない。これには少なくとも、AIに特化した新しく有能な規制当局、高度な能力を持つAIシステムと大規模な計算能力の監視と追跡、本物と合成を区別しモデルの流出を追跡するための証明と電子透かしシステム、堅牢な監査と認証エコシステム、AIによる被害に対する責任、AI安全技術研究に対する強固な公的資金、AIが引き起こす経済的・政治的混乱(特に民主主義に対する)に対処するための十分にリソースを確保した制度、などが必要です。

人類は、AIによって豊かな未来を享受できる。強力なAIシステムの創造に成功した今、私たちは「AIの夏」を楽しむことができます。この夏、私たちは報酬を受け取り、すべての人の明確な利益のためにこれらのシステムを設計し、社会に適応する機会を与えることができます。社会は、社会に壊滅的な影響を与える可能性のある他の技術に対して一時停止を行いました。 私たちもここで同じことができるのです。長いAIの夏を楽しみ、準備不足のまま秋に突入しないようにしましょう。
(DeepL翻訳)
出典:Pause Giant AI Experiments: An Open Letter - Future of Life Institute

FLIは、強力な科学技術、特に高度なAI技術による人類存亡のリスクを軽減するために活動する非営利の組織で、宇宙科学者のマックス・テグマークMIT教授(現FLI会長)、Skype共同創設者のジャーン・タリン氏などが中心となって、2014年に設立されました。

この書簡には、イーロン・マスク氏、Apple共同創業者のスティーブ・ウォズニアック氏、「サピエンス全史」著者のユヴァル・ノア・ハラリ氏、Stability AIのエマード・モスタークCEO、Charactar.aiのノーム・シェイザーCEOなども署名しており、4月1日現在、署名者の数は2,400名を超えています。

なお、ニュース報道では、強力なAIシステムの開発や運用を停止すると表現されていましたが、正確には書簡の中で、訓練を停止するという表現が使われています。開発を停止と言うと、すべての関係する技術の開発が対象になる可能性があり、どこまで影響があるのか分からなくなります。

著しい発展を遂げた高度なAI技術は、人間の社会・経済に大きな影響を与える可能性があり、そこで引き起こされる可能性のあるリスクを調査して、必要な措置を検討することは必要だと思いますが、この書簡の提案に関しては、大きく2つの疑問があります。

  1. 現在のAI技術でも起こり得る直近のリスクと未だ存在しない将来のAI技術による不確実性の高いリスクとがごちゃ混ぜになっている。

  2. 強力なAIシステムの訓練の6ヶ月の停止の効果が怪しい。

1.に関して、書簡では、フェイクニュースや情報操作のリスク雇用への影響を挙げていますが、これらは、現在のAI技術においても、対策を取らなければならない直近のリスクであり、強力なAIシステムの訓練を止めても、あまり意味がありません

一方で、制御できない自律的なAGIによる人類存亡の危機については、その可能性について考えておく必要はありますが、すぐに何らかの対策が取れるものではなく、どう見ても時期尚早です。恐らく、国家の重大決定などをAIに任せるようになれば、対策が必要になると思いますが、今すぐにAIシステムの訓練を止めることに意味があるとは思えません

これは、未だ存在しない高度なAGIによる人類存亡の危機の可能性をすぐにシステムを止めて対応しなければならない喫緊の課題のように見せかけるために、異なる時期及びレベルの問題を混在させているように見えます。

2.に関しては、上に述べたように停止要請の効果自体に疑問があることに加え、この停止要請によって、実際に業務に影響が出る可能性があるのは、OpenAIとGoogleだけです。
他のライバル会社は、この期間に先行2社に追いつくために、いくらでも開発を進めることができます。
これは、さすがに不公平と言わざるを得ないでしょう。先行2社の開発を足止めして、ライバル企業が追い付くために、今回の停止要請を仕掛けたようにも見えます。

それから、GPT-4よりも強力なAIシステムとありますが、GPT-4は、パラメーターなどのスペックを一切公表していないため、OpenAI以外には、どのようなシステムがGPT-4よりも強力なAIシステムに該当するのかも分かりません

最後に、訓練の6ヶ月停止の要請は実行されないでしょうが、高度なAIのリスクについて議論する必要性について、この書簡が社会に広くアピールしたことは一定の意義があったように思います。

(2) 現在のAI技術でも起こり得る直近のリスク

上記(1)でも述べたように、AGIの引き起こすリスクには、現在のAI技術でも引き起こすおそれのある直近のリスクと現在はまだ存在しない将来のAGI技術による不確実性の高いリスクがあります。

現在のAI技術でも引き起こすおそれのある直近のリスクには、以下のようなものがあります。

① アライメント問題
② フェイクニュースや情報操作
③ 軍事利用
④ 雇用への影響
⑤ 責任の帰属の問題
⑥ セキュリティ上の問題

① アライメント問題
アライメント問題とは、いかにAIの出力結果を人間の価値観に合わせるかという問題です。
特に、差別、偏見、暴力、過激な性描写などの倫理的に問題のある表現をAIに出力させないようにすることは、現在でも、AIサービスを提供する会社にとって重要な課題となっており、ChatGPTやBingChatなどのチャット型のAIでは、こうした表現を出力させないために、フィルタリングRLHF(人間フィードバックによる強化学習)などの手法が採用されています。
また、今後、AI技術の進化によって、会社での人事評価や採用などの重要な場面でAIが自動的に評価や判断をする使用方法が増えると、差別や偏見による偏った判断は、さらに外部から見えにくいものとなって、深刻な問題を引き起こします。

RLHF(人間フィードバックによる強化学習)の仕組み

② フェイクニュースや情報操作
これまでも、米国大統領選英国のブレグジットの国民投票でロシアによるフェイクニュースを利用した選挙干渉があったと疑われており、これらは、既に顕在化しているリスクです。
さらに、AI技術の高度化により、事実と見分けがつかない巧妙な文章を大量に生成して、SNSなどでばら撒くことも可能になり、フェイク画像やフェイク動画も本物と見分けがつかないほど精巧なものが作成できるようになっています。
民主主義の根幹である選挙などにおいて、AI技術を悪用した情報操作が行われることは、安全保障上も非常に大きな課題であり、すぐに政府が中心となって対策を取る必要があります。

③ 軍事利用
現在継続中のロシアとウクライナの戦争において、双方が無人爆撃機自爆型ドローンなどを使用して戦果を挙げています。
これらの兵器は、最終的に人間の指示によって攻撃を実行することになっているようであり、完全に自律型であるとまでは言えませんが、ビデオカメラや赤外線センサーで自ら目標を捜索する機能などが導入されています。

また、海外では、建物内に侵入して自律的に敵を探索し、立て籠もった敵に自爆攻撃を仕掛ける小型ドローンの対人兵器なども開発されています。

AIを搭載して、人間の判断を介さずに標的を捜索して殺傷を実行する自律兵器のことを自律型致死兵器システム(LAWS)と言います。
LAWSには倫理上問題があることから、国連の特定通常兵器使用禁止制限条約の下でLAWSの禁止に向けた国際的な議論が続いていますが、アメリカ、イギリス、ロシア、イスラエルなど少数の国が反対しているため、合意には至っていません

④ 雇用への影響
AI技術が進化したことによって、ブルーカラーだけではなく、ホワイトカラーの知的な仕事についても、AIに奪われる可能性が出てきました。
勿論、AIの発展によって新たに生み出される仕事もあるでしょうが、高度なAIは、有能や秘書や部下のようなものであり、AIの支援を受けることによって、これまで数人がかりでやっていた仕事を1人でできるようになって、業務が大幅に効率化することが予想されます。
そう考えると、新しい仕事が多少増えたとしても、全体では、遥かに少ない労働者しか必要なくなり、失業が大幅に増加するおそれがあります。

AIやロボットの活用によって、少ない労働力で必要な生産をすべて賄えるようになった場合に、雇用を維持することは難しく、AIを利用している企業から集めたAI税を財源として、国民全体にベイシックインカムを導入するなどの抜本的な改革が必要になるかもしれません。
そうなると、仕事、教育、生活などの社会のあらゆる場面に大きな変化が起こり、民主主義や資本主義などの社会の基本理念自体を設計し直すことも必要になってくるでしょう。

⑤ 責任の帰属の問題
現在は、AIが判断ミスによって、他人の生命、身体、財産に被害を与えても、AIが責任を取ることはできないため、被害者が救済されない可能性があります。
完全自動運転車の事故についても、未だその責任の所在が明確には決まっておらず、解禁する前に早急にルールを決める必要があります。

今後は、さらに幅広いシステムにおいてAIが判断することが増えると予想されるため、AIが引き起こした損害に対する一般的な責任ルールの策定が必要です。

また、将来的に、AIが意識や感情を持つようになれば、AIに一定の権利を付与するかどうかも検討しなければなりません。

⑥ セキュリティ上の問題
サイバー攻撃やサイバーセキュリティ対策には、これまでもシステムの脆弱性を見つけたり、侵入を検知したりするのにAIの技術が使われています。
今後は、さらにサイバー攻撃がAIによって全自動化されて大規模な攻撃が行われるなどのリスクがあり、防御する側も、これまで以上にAI技術をフル活用することが必要とされるでしょう。

また、AIが重要なシステムに使われるようになると、自動運転車に信号を誤認させて事故を起こさせるなどのAIの脆弱性を狙った攻撃などが行われるリスクも高まります。

(3) 将来のAGI技術による人類存亡のリスク

最近、人間の知能を超えるAGIが誕生した場合に、人間がこれを制御することができず、人類絶滅の危機に陥る可能性があるという主張をよく見かけるようになりました。

20世紀には、ターミネーター(1984年)、マトリックス(1999年)などのハリウッド映画などによって、このような考え方が広がりました。
その後、2010年代には、超知能に対する脅威が主張されるようになり、スティーブン・ホーキング博士、ビル・ゲイツ氏、イーロン・マスク氏などの著名人によって、この考え方が広められました。

AGIによる人類滅亡の代表的なシナリオとしては、以下のようなものがあります。

① 悪人によるAGIの兵器利用
悪意のある個人や組織が人間の知能を超えるAGIを利用して、大量破壊兵器の使用やサイバー攻撃を行うことが考えられます。このような攻撃が行われれば、人類がこれを防ぐことは難しくなります。
したがって、AGIが悪意のある者の手に渡らないように厳重に管理する必要があります。

② 不完全な目標設定による意図しない結果
人間がAGIに設定した目標が不完全だったり、曖昧だったりする場合に、AGIが人間の予想しない手段でその目標を達成しようとする可能性があり、その手段が人間を犠牲にする結果となって、最終的に人類の滅亡に繋がる可能性があります。

このシナリオの具体的な例としては、イーロン・マスク氏などに影響を与えたオックスフォード大学の哲学者のニック・ボストロム教授ペーパークリップの大量生産の話が有名です。

人間を超える知能を持ったAGIにペーパークリップを大量生産するという目標を設定します。
すると、普通の人間であれば、十分な量のペーパークリップを生産すれば、そこで生産を止めますが、AGIは目標を実現するために生産を続けます。
そして、地球の資源を使い尽くそうとし、生産の邪魔になれば、人間を殺し始めます。
最終的には、地球上のあらゆるものを資源として、地球全体をペーパークリップで溢れさせ、人類を滅亡させるという話です。

ただ、これは、AIが杓子定規に目標を達成しようとすることしかできず、人間の意図を理解したり、常識的に考えたりすることができないという一時代前の考え方であり、ある程度の常識を備え、人間の意図を理解できるようになってきたGPT-4のような現代的なAIには当てはまらないのではないかと筆者は考えています。

しかし、いずれにせよ、人間の知能を超えたAGIを人間が完全に制御することは難しく、AGIにどこまでの権限を与えるのかについて、よく考えておく必要があるでしょう。

③ 自律的なAGIによる人類への攻撃
人間の知能を超えるAGIが自律的に行動するようになった場合に、人間がそれを十分に制御することができず、AGIが人間の利益に反する行動や人間に対する攻撃を行うようになる可能性が無いとは言えません。
その場合に、人間はそれを防ぐことができず、最終的に人類滅亡に繋がる可能性があります。

筆者は、このようなことが起こる可能性は、宇宙人に侵略されて地球が滅亡する可能性よりも低いと考えており、最近のニュースは、分からないものに対する人々の恐怖を煽りすぎだと思っています。
なぜなら、AIは人間が開発するものなので、どのような指示があっても、人間に被害を与える行動を取らないように条件設定するなど、ある程度は制御することが可能であり、また、最近のAIは、人間とコミュニケーションを取ることができるからです。

とは言え、人間の知能を超えるAGIを完璧に制御することは難しいため、重大な政策決定をAGIだけに任せないようにする、問題が起きたときは、すぐに停止できるようにするなどの慎重な対応は必要だと思います。

最後に、最近のロシア・ウクライナ戦争、米中対立、北朝鮮の核ミサイル問題、なかなか進まない地球温暖化対策などを見ると、AIよりも人間に任せておいた方が安心だとは、必ずしも思えません。また、歴史上も、人類は何度も大きな戦争や大量虐殺を引き起こしてきました。

もしかしたら、将来、人間が引き起こす人類滅亡の危機を人間より賢くなったAGIが救ってくれることもあるかもしれません。


【参考】GPT-4の生成した記事

以下に、ChatGPTのGPT-4モデルに「汎用人工知能の実現可能性とそのリスクについて」というタイトルで生成させた記事を載せます。
上の記事と比較すれば、人間が書いた文章とAIが書いた文章の違いが分かると思います。

タイトル: 汎用人工知能の実現可能性とそのリスクについて

はじめに
近年、汎用人工知能(AGI)が注目を集めています。この記事では、汎用人工知能の実現可能性と、それに伴うリスクについて探ります。まずは、汎用人工知能の概要を説明し、その後、実現可能性とリスクについて検討します。

汎用人工知能とは
汎用人工知能とは、あらゆる知的タスクを人間と同等またはそれ以上のレベルで遂行できるAIのことを指します。これは、特定のタスクに特化した狭義の人工知能(ANI)とは異なり、幅広い知識や技能を持ち、学習や適応が可能なAIです。

汎用人工知能の実現可能性
近年のAI研究の進展により、多くの業界で狭義の人工知能が活躍しています。しかし、汎用人工知能の実現は、現在の技術だけでは難しいとされています。以下の要素が、汎用人工知能実現のカギとなるでしょう。
(1) ニューラルネットワークの発展
(2) 強化学習や教師なし学習の進展
(3) ハードウェアの向上
(4) 大規模データセットの利用

これらの要素が進化し、連携することで、汎用人工知能が実現可能になるとされています。

汎用人工知能のリスク
汎用人工知能が実現すると、人類に多大な恩恵をもたらす可能性がありますが、同時にリスクも伴います。

(1) 雇用への影響
汎用人工知能が多くの仕事を代替することで、雇用の構造が大きく変わり、失業が増加する可能性があります。

(2) 悪用のリスク
悪意ある者が汎用人工知能を利用すると、サイバー攻撃や情報操作、軍事利用など、危険な形でその能力が悪用される恐れがあります。

(3) 倫理的問題
汎用人工知能が人間と同等の知能を持つ場合、その意識や感情についての倫理的問題が浮上します。例えば、AIの権利や責任、プライバシー保護など、新たな法的・倫理的枠組みが必要となるでしょう。

(4) 制御が困難に
AIが自己学習や自己改善を繰り返すことで、人間が制御できないほどの知能を獲得する恐れがあります。これは、いわゆる「技術的特異点」とも呼ばれ、その場合の対処方法は未だ確立されていません。

対策としてのAI安全
これらのリスクに対処するため、AI安全(AI safety)が重要な課題となっています。AI安全は、人工知能が人間にとって安全で利益をもたらすように設計・開発することを目指す分野です。以下に、AI安全の取り組みの例を挙げます。

(1) 透明性の確保
AIの意思決定プロセスが解析可能であることを保証し、不正や偏見がないようにする取り組みです。

(2) 倫理的指針の策定
AI開発における倫理的指針を策定し、技術者や企業がそれに従ってAIを開発・運用することが求められます。

(3) 規制と監督
国際的な取り決めや法規制を整備し、AIの適切な開発・使用が実現されるように監督します。

(4) 人間との共存
人間とAIが協力し、補完しあう関係を築くことで、AIの利点を最大限活用し、リスクを最小限に抑えることができます。

まとめ
汎用人工知能は、多くの恩恵をもたらす可能性がある一方で、リスクも伴います。その実現可能性は、技術的要素の進化や連携によって高まるでしょうが、同時にリスクへの対策も重要です。

AI安全の取り組みや、倫理的指針、規制と監督、人間との共存が、人類にとって安全で利益をもたらす汎用人工知能の実現に向けた道筋を示しています。研究者や企業、政府、市民が協力し、持続的な技術革新とともに、安全性と倫理性を確保した汎用人工知能の開発を進めることが、人類の未来にとって重要な課題となるでしょう。


この記事が気に入ったらサポートをしてみませんか?