見出し画像

サム・アルトマンは何者なのか(上)

38歳のサム・アルトマンが世界の注目を集めています。彼は今年すでに2度も来日、岸田首相や自民党議員らと懇談し、そして慶應大学などでも講演しニュースに大きくとり上げられました。

彼の名前を有名にしたのは対話型AIサービスの「Chat GPT」です。これまでのコンピュータと違い、流ちょうな文章でどんな質問にも答えるChat GPTは、昨年末から世界で爆発的な普及を果たしました。

サム・アルトマンはその人工知能の研究機関「OpenAI」の共同設立者であり、さながらChat GPTの伝道師のような役割も果たしています。

しかし彼の活動はそれに留まりません。彼はAIのもたらす功罪と、その対策としての公平な富の分配(UBI=後述します)を考え、一方で長寿の実現と永遠のエネルギー、核融合の開発にも挑戦しています。彼は21世紀のレオナルド・ダビンチを目指しているのか、あるいは新たな世界制覇を狙っているのか。その多彩な活動現場から彼の実像に迫ります。


(岸田総理と面談したサム・アルトマン NHKから)

アルトマンの日本重視

Chat GPTが公開されたのは2022年11月末でした。そしてサム・アルトマンが公開後最初に訪れた国が日本です。そこからアルトマンが日本を重視しているとの見方ができます。

サム・アルトマンの一度目の来日は2023年4月で、岸田総理と面会し、自由民主党の「AIの進化と実装に関するプロジェクトチーム」の会合にも出席しました。NHKのインタビューなどで、アルトマンは「日本はAI革命全体を推進する中心になりえる国の一つで、人々が創造性を持ってChat GPTを使っていることは素晴らしい」と賛辞を送りました。

そして自民党の会合では、Chat GPTにおける日本関連の学習データのウェイト引き上げや、政府の公開データの分析支援など、日本のニーズに合わせ、OpenAI社のノウハウや技術を積極的に提供する7つの提案も行いました。

2度目の来日は2023年6月で、企業関係ほか慶應大学などでも講演し、学生たちとの意見交換もしました。
アルトマンは大学ではAIの将来と教育の在り方、雇用への影響、倫理・法的問題などを取り上げ、日本の若い研究者、学生への研修や教育の提供も約束しました。

Open AI

日本詣での背景

彼は何故日本を重視しているのでしょうか。その要因の一つは、日本が諸外国に比べAIに対して柔軟かつ寛容な状況にあり、研究開発や市場開拓が進めやすいことにありそうです。

Chat GPTに対する各国の現況を眺めてみます。
まず注目を集めたのがイタリアでした。イタリアは2023年3月、Chat GPTの一時的な使用禁止に踏み切りました。理由は個人情報保護法に違反する疑いがあることや利用者の年齢確認の仕組みがないことなどでした。

高度な言語処理能力を得るために、Chat GPTは世界中の膨大なデータを収集します。そのために個人情報やクレジットカード情報も含まれます。

イタリアの当局は、これらの情報収集を正当化する根拠がないとして違法認定をしました。当局はChat GPTが子供の教育に不適切な場合もあると考え、使用にあたっての年齢制限を加えていますが、その年齢確認の方法がないことも、規制根拠になったようです。
このイタリアで生まれた規制の波は広がりつつあります。

欧州連合(EU)の欧州議会は6月に包括的な人工知能(AI)規制案を採択しました。
この規制はChat GPTなど生成AIを提供する企業に、AIで制作された資料であることの表示や、著作権で保護されたデータを取り込んだ場合の公表、EUのデータベースへの登録などを要求します。

米国もAIの規制案の検討を始めています。中国はアクセス規制を実施。ロシアもアカウントの作成が禁止されています。

このように、何らかの規制を加えつつあるのが世界の潮流です。今のところ、Chat GPTなどAIの利用にあたってオープンな姿勢を示しているのは日本とインドのみの状況です。

このような状況下で「国会答弁でも使用を」(西村経済産業大臣)と国挙げての積極姿勢を示す日本はかなり突出しており、アルトマンが日本詣を行うのも納得できます。

OpenAI発足

アルトマンは今日本だけなく、“Chat GPTの伝道師”として世界各国を巡っています。ただし彼はOpenAIの発足にあたってはその共同設立者の一人でしかありませんでした。

OpenAIは2015年、以下のような著名なテクノロジー業界のリーダーや研究者によって設立されました。
・ビーター・ティール
・イーロン・マスク
・グレッグ・ブロックマン
・ジョン・シュルマン
・その他

設立の目標は、人類全体に利益をもたらす汎用人工知能(AGI)を普及・発展させることでした。汎用人工知能とは人間の知的活動全般が可能なAIです。設立者の中心でCEOになったサム・アルトマンは特に「AIの可能性とその危険性を十分理解し、技術の公平な普及」を目指しました。

これらの趣旨は大きな支援を受け、初期の段階でまず豊富な投資資金が集まりました。それに優れた専門家の結集による強力な技術基盤がOpenAIの強みになりました。

当初、OpenAIは非営利団体でした。そして計画を進めるにつれ、AI開発には莫大な経費が掛かることもはっきりしてきました。この状況下で競合するgoogleは多額の投資をしOpenAIに差をつけ始めました。

ここで共同設立者の一人、イーロン・マスクが経営を自分にまかせるように提案します。彼は10億ドルの資金援助を約束していましたが、googleへの巻き返しには自分がCEO になるべきだと主張したといいます。

しかしこの申し入れには共同設立者やOpenAI幹部の賛同がなく、イーロン・マスクは取締役を退任、資金援助も1億ドルで打ち切られました。

このために資金対策が必要になったアルトマンたちは、2019年に組織を営利法人に転換し、同年Microsoftとの技術提携に踏み切ります。
そしてMicrosoft社は同年に10億ドルを投資し、2023年に入って、今後複数年で数十億ドルの追加投資をする計画を公表しています。

OpenAIのChat GPTはなぜ爆発的な普及をしたのか。これを探ると、アルトマンのAIに対する取り組みの歩み、考え方が見えてきます。

Chat GPTとは

まず、そのChat GPTとはどういうものでしょうか。
Chat GPTは2022年11月にリリースされたAIサービスです。そしてこれは、「トランスフォーマー」という大規模言語モデルを基礎にしています。

大規模言語モデルとは、大量のテキストデータなど巨大なデータセットとディープラーニング(深層学習)技術を使った言語処理システムで、人間に近い自然言語理解と生成を可能にしました。

大規模言語モデルの原理はいろいろな説明がありますが、スティーヴン・ウルフラムはその著書「Chat GPTの頭の中」で、「そこまで出力された内容の順当な続きを出力しようとする試み」としています。

「順当な続き」を得るために、「億単位のウェブページなど」を参考に「人間が書きそうだと予測される」ものを絞り込むシステムだと説いています。

一つの文章の途中まで来て、この後にどのような単語が続くのが順当か。その候補の単語が選択され、各単語の続く確率が示されます。そして利用する側からの指示や命令(プロンプト)に基づき続く文章が生成されるのです。

ただこの場合、確率の高い単語ばかりが選ばれるのがベストではないとウルフラムは指摘します。確率の最高の単語ばかり選んでいると、単調な文になりクリエイティビティがなくなる、という現象を紹介し、その理由はまだはっきりしていないと言います。そして確率のランクの低い単語を使う頻度を決めるパラメータの重要性も説いています。

Chat GPTの爆発的な普及には、大規模言語モデルの「トランスフォーマー」によるパラダイムシフト(劇的な変革)がありました。

トランスフォーマーの説明も難解になりますが、一つの特徴として、それまでの言語処理が、連続する単語を順番に処理し、次にどのような言語が来る可能性が高いかを予測する逐一処理だったのに対し、文章を一度にすべて処理し単語間の関係性を理解するという並列処理を可能にしたことにあります。これにより単語間の関係性や文脈に理解がより深まることになります。

トランスフォーマーは2017年にGoogleが発表し、その性能が段違いに高いことが注目され「基盤モデル」としてその研究と開発が進みます。
そして2018年になると、OpenAIはこのトランスフォーマーをベースに「GPT-1」というモデルを発表しました。

GPTとは「Generative Pretrained Transformer」という英語表現の略称です。「インターネット上での文章などデータを事前学習したトランスフォーマー」というアーキテクチャに基づくという意味です。

GPT-1は約8000万ページ分のウェブテキストから学習し、12種類の自然言語処理をするという高い性能を示し、パラメータ数(※)は1億7500万でした。
まだ文章生成における文法や論理の乱れが残りました。

※パラメータ数=モデルの生成テキストの表現力を示す指標係数にはパラメータ数が使われます。この数値は確率計算を行うための係数の集合体で、数値が大きいほど表現力は高まります

OpenAIはその後改良を加えたGPT-2を製作、これをベースに対話型のChat GPTを開発しました。GPTが事前学習を完了した「基盤モデル」とすると、Chat GPTは対話という目的に調整特化した「特化型モデル」と言えます。

そして2020年、さらに改良したGPT -3 をベースにしたアップデートしたChat GPTを発表しました。GPT-3 は約45億ぺージ分のウェブテキストから学習していると言われ、パラメータ数は1750億と1000倍になっています。この段階でChat GPTは人間との自然な会話が可能になりました。

GPT-3になると、対応できるタスクは大きく広がり、人間の知識や思考、感情も模倣する事が可能になりました。この時点であらゆる分野の情報生成が可能にはなりましたが、まだ偏見や虚偽情報の生成・拡散、著作権やプライバシー侵害という問題は残っていました。

そしてChat GPTが一般公開された2022年11月には、さらに改良されたGPT-3.5がベースになりました。Chat GPTはその後基盤モデルをGPT-4 へとバージョンアップを続けています。

GPT-4は約180億ページ分のウェブテキストから学習しているといわれ、人間の知識の森羅万象に対応できる基盤モデルとなりました。(GPT-4のパラメータ数は安全上と競争面から非公開とされています)

=以降(中)に=





この記事が気に入ったらサポートをしてみませんか?