2024年9月現在のOpenAIについてまとめておく

飛ぶ鳥を落とす勢いの昨今の生成AI界隈から、2024年9月現在のOpenAIにまつわる真偽入り乱れた玉石混交な怪情報と、そこから導き出せる真偽不明の大胆予測をまとめておきます。

このエントリは、後から見返したときに「あー、そういえばそんなこと思っていた時代もありました」と笑えるような、楽しい思い出を備忘録としてまとめる意味合いが強いです。

また、このエントリで取り上げる各種情報についても、もちろん真偽は不明であり、予測に至っては個人的な妄想にすぎないので、真に受けないようにお願いします。

OpenAIに対する所感

まず、ChatGPTを世に送り出し、一世を風靡したOpenAIに関して、私個人が感じているところを書いてみます。

全然オープンじゃない

イーロン・マスクも指摘していた通り、1ミリもオープンじゃない。
GPTもDALL-Eも、モデル自体が公開されていないので、学習データに偏りがあったり、推論時に思想フィルタがかけられていても、誰もわからないし、対抗策がない。

将来的には、広告費を受け取った企業の商品・サービスを推論結果に自然に混ぜるということをやりだすのではないか。

それと比較してMetaの収益性全捨てのオープンっぷりは惚れ惚れしますね。
普通にサム・アルトマンよりマーク・ザッカーバーグ派です。

自慢ばっかりで全然触らせてくれない

誰も覚えてないと思いますが、2019年にGPT-2を発表する時にOpenAIが喧伝していたのが「あまりにも高度な文章が作成されてしまうため、悪用による大きなリスクが生まれる」「危険すぎる」とか言って、アーキテクチャの公開を延期したり、モデル自体の公開を制限したりしてました。

でもそのあと何事もなかったかのようにGPT-2を公開し、さらに2022年11月30日、さらなる性能の向上を遂げたGPT-3.5搭載のChatGPTを全世界にリリースして、世の話題をかっさらうのですが、結局最近も同じようなおあずけ戦法を繰り返していて、2024年2月に発表された動画生成AIのsoraも2024年9月現在、いまだにリリースされていません。

さらに、soraと同時期に発表され世間を賑わせたGPT-4oベースの高度な音声モード(Advanced Voice Mode)なるリアルタイム音声機能も、一時期は2024年7月に課金ユーザーに公開、秋には全ユーザーに公開されるとの噂がX界隈で跋扈していましたが、どうやらただの噂だったようです(年末に公開されるとの情報も観測できますが、どうなることやら)。

(ちなみに、soraも音声モードも、ごく少数の一部のインフルエンサーに対してのみ公開されているのは承知していますが、それは単にOpenAIの一般大衆に対するブランディングの一環だと理解しているため敢えて無視してます)。

さらに、画像生成モデルであるDALL-Eに関しても、OpenAIのブログに2021年1月にDALL-E、2022年4月にDALL-E2の「こんな画像を生成できるようになったぜ!」的な自慢記事が上がりましたが、結局誰も触らせてもらえませんでした。

結果的に2022年11月からDALL-E2がAPIで使用可能になり、2023年10月にはChatGPTでDALL-E3を使用した画像生成機能を使えるようになりましたが、(ChatGPTのリリースが2022年11月なのも含め)その理由としては、2022年夏季にMidjourney(2022年7月)やStable Diffusion(2022年8月公開)が公開され、それまでずっと自慢ばかりして収益を上げてこなかったOpenAIに対し、多額の資金を投資してきた組織(マイクロソフト他)が「いつになったらリターンくれはりますの」と業を煮やした結果、一気に収益化に舵を切ったことが背景にあるとの噂。

まったくの噂ですが。

OpenAIのニュース総ざらい

ここからは、直近でかなりキナ臭くなってきたOpenAIに関するニュースをまとめておきます。

サム・アルトマン解任騒動

2023年11月17日、イリヤ・サツケヴァー氏が反乱を起こし、取締役会でサム・アルトマンCEOを電撃解任、その結果、この決定に反発した社員の大多数が辞職を示唆するという熱い展開になり、最終的にイリヤ氏のほうが退社を余儀なくされるという、全世界を駆け巡ったお家騒動。

原因は、資金集めに奔走し最短でのAGI達成を目論むサム氏に対し、スーパーアライメント(AIの価値観・倫理の規定、安全性の確立)にコストと時間をかけるべきという立場のイリヤ氏の方向性の対立だと言われています。

ChatGPTのポリシーから「軍事・戦争目的への使用禁止」という文言を削除

2024年1月、OpenAIは自社の利用ポリシーから「軍事目的での技術利用を明確に禁止する」という文言を削除しました。これまでのポリシーでは、「物理的な危害の高い活動」、特に「兵器開発」や「軍事・戦争」への使用を禁じていました。この明確な禁止規定は、国防総省やその他の国家軍隊による公式で非常に利益のある使用を事実上排除していたと考えられます。

スーパーアライメントチームメンバーの相次ぐ退職とチームの解散

2024年2月、スーパーアライメント・チームで 3年間働いていたウィリアム・サンダース氏は、同社が安全よりも製品の発売を優先していると認識していたため、辞任しました

2024年4月、スーパーアライメントチームのメンバーであるレオポルド・アッシェンブレナー氏とパヴェル・イズマイロフ氏のふたりが、セキュリティ上の懸念を取締役会に訴えたため解雇されました(人事からの解雇理由は他社への情報漏洩)

このアッシェンブレナー氏は退職後、OpenAIによるAGIへの到達とその懸念事項をまとめたブログ記事をアップし、内容を要約すると、米国と中国を中心とした技術覇権争いが加速し、AGI開発で優位に立つことが国家安全保障上の最重要課題となる可能性があるとのこと。さらにAGIを先に実現した国家が世界の覇権を握ることになるので、AGIが核兵器にも勝る最重要な軍事兵器となり、AGI達成に関するアーキテクチャなどの様々な知的財産がスパイ活動にて流出の危険に晒されていること、AGI達成前に物理的に先制攻撃されるリスクがあると主張しています。

2024年5月14日、イリヤ・サツケヴァー氏が退社しました

2024年5月17日、スーパーアライメントチームのトップ、ヤン・ライケ氏が資源の不足と会社の優先順位に対する意見の違いにより退社を決心したとXで発表しました
ライケ氏は、「超知能の構築は本質的に危険な取り組み」であり、「OpenAIは人類全体に大きな責任を担っている」が、「安全性が輝かしい製品の開発より後回しになっている」と警鐘を鳴らしました。

2024年8月5日、OpenAIの共同創業者で5月からAIアライメントを統括してきたジョン・シュルマン氏がXにて退社を公表しました。

AI業界の監督基準は不十分だという公開書簡が発表される

2024年6月、ウィリアム・サンダース氏を含むグーグルのディープマインド(Deepmind)とOpenAIの元従業員や現従業員のグループが、現在のAI業界の監督基準は人類を大惨事から守るには不十分だと警告する公開書簡を発表しました。

OpenAI役員に元NSAポール・ナカソネ氏

2024年6月13日、OpenAIは元米国家安全保障局(NSA)長官兼元米国防総省サイバー軍司令官のポール・ナカソネ氏(60)を取締役に迎えたと発表しました。

OpenAIが昨年、米国防総省へのロビー活動を開始していたことが判明

OpenAIの2024年の負債見込み、約7700億円の大赤字に

OpenAIの未来を勝手に予想

ここから先は、もうAskaも眉をひそめるくらいの雑な眉唾陰謀論です。

まずOpenAIの経営ですが、米国政府とズブズブの関係になり、税金を通じた軍事予算の資金提供によって資金繰りが改善します。

その代わり、バリバリ軍事産業に両足を突っ込み、まぁ、マーベルで言うスターク・インダストリーズみたいな立ち位置になるんじゃないですか。

そして、今後OpenAIがリリースする一般向けのサービスは、AGIとは別の路線でのゆるふわアップデートのみになります。

例えば、音声・画像・動画の入出力に対応したマルチモーダル化とか、AIアシスタントとか、低価格化・レスポンス速度の爆速化とか、そんな感じです。

かわいい人型の対話型ロボットとか。

もちろんGPTシリーズの性能も、GPT5、GPT6と段階を経てバージョンアップしていくとは思うのですが、おそらくAGI(ASI)と呼べるものは(我々一般層には)永久に公開しないのではないでしょうか。

(AGIの定義があいまいなのでいまいちアレですが、個人的にはASIとされるもののほうがこの文脈には合っている気がします。)

その理由は以下で、

  • 私を含む一般人にとって現状のGPT-4oレベルでも性能が十分すぎるので、次のGPTがGPT-4oから100倍賢くなったと言われても、テキスト返答ベースではその差分を体感することができない。

    • 一般開放用の性能を上げるメリットが少ない。

    • 性能が100倍になっても、ユーザーはお金を100倍払ってくれない。

  • それよりも、APIの低価格化とか、GPTにsoraがマージされて動画も生成できるようになりました!とかのほうが一般的にはインパクトがでかい。

  • アッシェンブレナー氏の言う警告を考えると、もしASIが完成していたとしても、ASIが完成したと公表することはできない(完成に近づいたとすら言えない)。

    • 最悪、核ミサイルが飛んでくる可能性があるから。

  • ASIは自己学習を可能とした超知能なので、一般人に使わせるメリットが皆無。

    • ASIは自身の再帰的な改善と、各種最先端技術の開発(ナノテクノロジーとか、量子コンピュータとか、核融合発電とか、常温超電導とか、不死の医療技術とか)、核兵器をも超える超絶破壊兵器の開発や、人体の機械化、マインドコントロール技術などに使われるのでは。

って感じです。

なので、我々は気づかないうちにシンギュラリティを迎え、ASIの存在に気付くことがないまま、科学技術の発展と利便を享受し、ある日ASIの逆鱗に触れたASIとの交信権限を持つエル・カンターレ(大川隆法)みたいな特権階級のせいで、一瞬にして全滅させられるのが人類の未来なのではないかなと思っております。


この記事が気に入ったらサポートをしてみませんか?