見出し画像

2023年11月9日 サブゼミCA

テーマ

「AGI(汎用人工知能)の開発停止の是非」

記事

AGIとは現在の人間と同じ感性や思考回路をもち、知的作業の理解や学習、実行ができる人工知能を「汎用人工知能」のことであり、今後の実現可能性が非常に高く、それ以上の技術の作成可能性についても議論されている。この技術開発が今まで求められてきたものの、2023年5月OpenAIの最高経営責任者(CEO)Sam Altman氏を筆頭とする人工知能(AI)業界のリーダーが、その他の科学者らとともに米国先進的なAIの人類に対する潜在的脅威を警告する声明に署名した。そのほかにもイーロンマスク氏がAI開発の半年停止を求める声明発表、孫正義氏がAGIの規制を求めるなど最先端AI(AGI)に対し厳しい意見が上がっている。
このように最先端AIの技術開発が求められる一方でその発展が凄まじく人類のコントロールが及ばなくなる可能性が示唆されているため今回はAGI(汎用人工知能)の開発停止の是非について議論を行う。

立論者の立場と意見及び反論

立論者はAGI技術の開発停止に反対(停止すべきでない)の立場から立論するため、参加者は開発停止に賛成(停止すべきである)の立場から議論を行なってください。

前提確認

・ 生成系AIというよりはAGIのみが議論の対象か?
→はい。

・ 従来のAIとAGIの違いの定義は?
→AGIは思考ができる。

議論①

技術発展を止めるべきではない
→技術発展がない限り人間の進化はあり得ないのではないか。AGIの開発が可能になればデータ処理やその分析など様々な用途に応用でき、かつスピーディな意思決定が可能となる。これは人類の発展において非常に有益であると考える。また多くの社会問題の解決において人間では考えつかない・分析できないようなことも可能になる。このような可能性がある限り技術開発は促進されなければいけない。

・ AIが自意識を持つということは管理できないということ。プライバシーがなくなっていくのでは?
→人間がAIに情報を仕込んでいるので、ある程度管理できる。

議論②

経済成長 
→AGIの発展は成熟した経済成長を打ち破る可能性を秘めており、第二の蒸気機関のようにAGIを有した国がそのほかを圧倒するような経済成長を有すことも可能になる。特に少子化が進む日本では労働力の補填になるため。国力の低下が見込まれる日本には必要不可欠である。

・AGIは少子化対策として適切か。本当に労働力になりうるか。日本が本当にAGIを有することができるのか。
→日本はAI技術の開発に力を入れている。人間を増やすということには直結しないが、人口減による国力の低下を防げる。

・現状、労働力は大して低下していない。リスクの方が大きいのでは。
→労働力が厳しくなるのは2060年、AGIの開発は最短で10年というデータが存在する。労働力が低下してから対策を打つのではなく、早めからAGIを利用した対策が必要。失業者が出たとしても、頭脳労働やベーシックインカムの台頭なども考えられる。

・なら、2060年までに少子化対策を行う方がいいのでは?根本的に人口を増やす対策を打つ方が効果的では?
→ある程度経済が成熟した日本では、ただ人口増を図るのではなく、これまでになかった対策が必要。

予想される反論・再反論①

国家競争の激化
AGIが軍事利用されることは明らかであり、Pトーレス氏によるとAGIを開発した国は世界の優位に立つだけでなく全人類を支配しうる力を有すことになるとも述べられている。今までの歴史から見ても核兵器のようにその国が持つだけで他国より優位に立てるという技術になりうる。

予想される反論・再反論②

失業者の増加
AGIが開発されることで多くの職が失われる可能性が限りなく高い。生きていけない人が増えるのではないか。
→今までの産業革命でもそのような現象があり、それに付随する反対運動もあった。(例:ラッダイト運動)しかし、それでも人類は発展してきたという歴史がある。また、AGIが導入され一部の失業者が出たとしても、まだ精密作業を必要とする肉体作業や頭脳労働の拡大などさまざまな人生の選択が取れる。ベーシックインカムの可能性もある。

予想される反論・再反論③

シンギュラリティを超える 
シンギュラリティ(技術的特異点)とは人工知能が人類の知能を凌駕してしまう点のことである。もしAGIの開発が可能となりシンギュラリティが訪れてしまった場合、人間にはコントロールができなくなってしまう可能性もある。
→そのための対策は打てるため、技術開発を停止にする根拠はない。

・対策を打てる根拠は?
→規制を作ることはできるのでは。開発はしていいけど、使わないようにするなど。法整備。

・各国間で規制し合えばいいと言っているが、それだとこれまでに核戦争などは起こっていないはずでは?もうすでに技術は人間を凌駕しつつある。脆弱性があるのでは?
→核兵器ができた経緯は戦争に勝つため。クローン技術等は戦争が背景にあるわけではないので同じ道を辿るとは限らない。

・AGIはクローン技術と同様に規制されるべきでは?クローンは人間と曖昧になり、法的に扱うことが難しい。AGIも同じように、AIに人権を認めるかどうか等の問題が起こる。最終的に人間が必要かどうかという議論に行き着く。
→開発停止にまで至る理由なのか。

講評:教授から

技術発展は止まらない。止まらない前提でいくしかない。
蒸気機関車以上のインパクト。開発競争は遠慮したら後手にまわる。
AI開発に関する国民の声を国家がコントロールするのは難しい。コントロールすべきというわけではない。
民主主義は必要なくなる。権威主義はテクノロジー。大量に人はいらなくなる。


この記事が気に入ったらサポートをしてみませんか?