見出し画像

待ち望むOpenAIの一般公開、後続が次々とリリースされる中での疑問

OpenAIユーザーは発表されたモデルが一向にユーザーの手に届く事なく、後続のモデルがそのスペックに達したり超えたりするため他の代替モデルに流れていく現象がみられます。このNoteでは下記に紹介する、OpenAIのCTOミラ・ムラティ氏が、卒業したダートマス工科大の名誉学位を授与されるタイミングで行われた対談を考察しながらこの原因に迫って行こうと思います。

Claude3.5が本日Gpt-4oのスペックを超えた!

日本時間5月14日午前2時にスプリングアップデートで発表されたGPT-4 Videoが一向に一般公開されない中、Anthropicは新たなモデルClaude 3.5をリリースしました。このモデルは多くのベンチマークでGPT-4を上回る性能を示しており、特にコード生成や多言語数学の分野で優れた結果を出しています。以下の表は、Claude 3.5が他のモデルと比較してどれだけ優れているかを示しています。

下記のポストでは、「Good afternoon, Sam」から始まる挑発的なアンソロピック社の公式動画を引用して、Claude3.5のGPT-4o越えのスペックを紹介しています。

後続が追いついてくるのを待つかの様にリリースされないSora

Soraが発表された後も一般公開されない中、中国のKLINGは既に利用可能で、Soraの公開動画を全て模倣した動画を公開しています。RunwayのGen2は動画のクオリティがSoraに迫り、Lumaはアップロードした写真から動画を生成するため、Xにはフェイク動画が溢れています。このような状況で、他の企業が技術を迅速に展開しているため、OpenAIユーザーのフラストレーションが高まっています。

下記にLumaで制作された大乱闘フェイク動画を紹介したNoteがありますので合わせてご覧ください。

Luma AIは、2021年に元Google社員のAlex Yu氏とAmit Jain氏によって設立されました。彼らは、Googleでの経験を生かして、テキストや画像から3Dモデルを自動生成するAI技術を開発しました。

この様な肖像権・著作権ガン無視のAIを強行開発したかったためGoogleを離れたのでしょう。それにしても創業間もない会社にも関わらず、NVIDIAやGeneral Catalystなどの著名な投資家から資金調達に成功しています。つまり小さなスタートアップは無法地帯だと言えます。

GPT-5は出す前に国の検閲を受けているのか?

インタビュアーが以下の質問をしています。

- But you probably don't want Washington, D.C. regulating your release of GPT-5, like that you can or cannot do this.
- しかし、おそらくワシントン D.C. が GPT-5 のリリースを規制して、これを実行できるかどうかを決められるのは望まないでしょう。

それに対してムラティ氏がこの様に返答しています。

So there is a lot of work that we already do that has now been sort of, yeah, codified in the White House' commitments, and this- - So it's underway - Work already been done. And it actually informed the White House' commitments or what the UN Commission is doing with the principles for AI deployments. And usually, I think the way to do it is to actually do the work, understand what it means in practice, and then create regulation based on that. And that's what has happened so far. Now, getting ahead of these frontier systems requires that we do a lot more forecasting and science of capability prediction in order to come up with correct regulation on that. 
すでに私たちが行っている作業の多くは、ホワイトハウスの公約に成文化されており、これは進行中です。すでに作業が行われています。そして、それは実際にホワイトハウスの公約や国連委員会がAI展開の原則で行っていることに影響を与えています。通常、それを実行する方法は、実際に作業を行い、それが実際に何を意味するのかを理解し、それに基づいて規制を作成することだと思います。そして、それがこれまでのところ行われています。現在、これらの最先端のシステムを先取りするには、それに関する適切な規制を策定するために、より多くの予測と能力予測の科学を行う必要があります。

つまり、OpenAIのモデルはリリース前に必ず国に提出して検閲を受けなければならないという事です。

OpenAIのモデルがホワイトハウスや国連のAI配備原則に影響を与えている

彼女の発言を動画全体から解析すると、以下のポイントが明らかになります:

  1. 既存の取り組み: オープンAIは、すでに多くの作業を行っており、これがホワイトハウスのコミットメントや国連のAI配備原則に影響を与えているということです。

  2. 実践に基づく規制: 実際の作業を通じて得られた理解に基づいて規制を作成することが重要であると述べています。これは、理論だけでなく実際の経験に基づいた規制を意味します。

  3. フロンティアシステムの予測と科学: 新しい、より進んだシステムに対応するためには、能力予測の科学と予測を多く行う必要があるとしています。これにより、適切な規制を策定することが可能になります。

ミラ・ムラティ氏の音声技術とバイオメトリクスに関する見解

対談の後の質疑応答時間の折に下記の様な質問がありました。

ここは大学なので、マルチパートの質問もしてもよいでしょうか。次に、バイオメトリック権利について考えています。声や顔などの最近の議論を考えると、Skyの声に関する最近の論争や、似た声や似た顔を持つ人々、選挙の年における偽情報の脅威が増大している中で、バイオメトリック権利の側面についてもお聞かせください。

これに対して、ムラティ氏はGPT-4 videoのリリースまでのワークフローを含む回答をまとめますと下記の様になります。

音声技術のリスクと公開の遅れ

ミラ・ムラティ氏によれば、音声技術は多くのリスクや問題を抱えており、これが公開の遅れの主な理由です。特に、声やビデオが非常に感情的に引き起こすモダリティであるため、これらの技術が人間とAIの相互作用にどのように影響するかを理解するために、さまざまな機関と協力して研究を進めています。Skyの声の例では、スカーレット・ヨハンソンの声ではないにも関わらず、混同されるリスクがありました。これに対処するために、レッドチームのプロセスを通じて早期に問題をキャッチし、対策を講じることが重要です。

バイオメトリクスの問題とリスク管理

バイオメトリクスの問題については、まず専門家や赤チームにアクセスを提供し、リスクと能力を非常によく理解する戦略を取っています。その後、緩和策を構築し、その緩和策に自信を持つにつれて、より多くの人々にアクセスを提供します。現時点では、自分の声を作ることは許可しておらず、リスクがまだ研究中であるため、誤用を制御できる自信がないからです。段階的な展開を通じて、ユーザーからのフィードバックを収集し、エッジケースに備えることができます。

ディープフェイクと誤情報への対策

ミラ・ムラティ氏は、ディープフェイクや誤情報の拡散を防ぐために、コンテンツの由来や真正性に関する研究も進めています。これにより、誤情報のリスクを管理し、安全で信頼性のある技術を提供することが目指されています。

リスクをとってまで製品化しないスタンス

「クリエイティブ権利、報酬、同意、制御とクレジットについて」の質問者への返答の中で彼女がSoraに対してのリリースのスタンスを下記の様に明確にした回答をしています。

クリエイターコミュニティ全体に対しては、これらのツールに早期アクセスを提供し、彼らがどのようにそれを使用したいかを最初に聞き、最も有用な製品を作ることができます。これらは研究の成果であり、全てのコストをかけて製品を作る必要はありません。実際に役立つモダリティを見つけた場合にのみ製品化します。

クリエイティブ権利についての回答まとめ

それでは質問者の、

クリエイティブな職業に従事する多くの人々が、同意や報酬、データがインターネットから取得される場合の所有権モデルやオープンソースモデルについて考えています。クリエイティブな権利に関する同意と報酬について、あなたの考えをぜひお聞かせください。

という質問についてまとめます:

  • クリエイティブ権利の重要性:

    • ミラ・ムラティ氏は、クリエイティブ権利が非常に重要であり、挑戦的な課題であると述べています。

  • パートナーシップ:

    • 現在、OpenAIはメディア企業との多くのパートナーシップを行っています。

  • ユーザーのデータ制御:

    • ユーザーは、自分のデータが製品でどのように使用されるかを制御できる。

    • ユーザーがデータをモデルの改善や研究、トレーニングに使用されたくない場合、そのデータは使用されません。

  • クリエイターコミュニティへの早期アクセス:

    • クリエイターコミュニティ全体にツールを早期に提供し、彼らのフィードバックを基に製品を開発します。

    • 研究の成果を元に、実際に役立つモダリティが見つかった場合にのみ製品化します。

  • データ提供者への報酬:

    • データの提供に対して報酬を受け取ることができるツールの作成方法を実験中。

    • これは技術的および製品構築の観点から非常に難しい問題。

  • データの価値評価の難しさ:

    • 特定のデータがモデルにどれだけの価値をもたらすかを評価するのは難しい。

  • データコンソーシアムの可能性:

    • データのコンソーシアムやプールを作成することで、より良い結果が得られる可能性がある。

  • 実験と進展:

    • 過去2年間、さまざまなバージョンで実験を行ってきましたが、まだ何も展開していません。

    • 技術的な問題を理解しようと努力しており、少し進展していますが、非常に難しい問題です。


これまで見てきたように、他のAI開発会社はレッドチーミングや著作権問題、肖像権問題、フェイク動画問題から比較的自由にモデルをリリースしています。Luma AIやRunway、KLINGといった企業は、迅速に技術を展開し、ユーザーに提供しています。その一方で、OpenAIは新しいモデルをリリースする前に、まず政府に提出し、厳格な審査を受けるプロセスを踏んでいます。

このプロセスは、技術の安全性と信頼性を確保するために重要ですが、その結果、OpenAIのモデルが市場に出るスピードが遅れる可能性があります。さらに、これらの審査の結果が他のAI開発会社への取り締まりに使われる一方で、他の企業が自由に活動できる現状に対して、規制の不均衡が存在することも問題です。

このような状況では、OpenAIユーザーのフラストレーションが高まるのも理解できます。技術の安全性と倫理性を重視するOpenAIのアプローチは尊重されるべきですが、市場競争力を維持しつつ、迅速にユーザーに新しい技術を提供するためのバランスを見直す必要があるかもしれません。今後、国際的な協力と規制の調和を進めることで、全てのAI開発者が公平かつ安全に技術を提供できる環境を構築することが求められます。

この記事が気に入ったらサポートをしてみませんか?