見出し画像

ChatGPTの生成画像にC2PAメタデータを導入:透明性の向上と生成元の明確化を目指す

OpenAIはChatGPTのチャットと、APIを使って生成されるDALL-Eの画像全てにC2PA仕様のメタデータを導入しました。これにより、ソーシャルプラットフォームやコンテンツ配布者を含む、誰もがその画像がOpenAIの製品によって生成されたものであることを確認できるようになりました。

下記は公式のXポストによりされた告知です。

また、この事を詳しく解説している公式ページもリリースされました。

ディープフェイクや偽情報の問題に対処することを意図

OpenAIがChatGPTやAPIで生成された画像にC2PA(Coalition for Content Provenance and Authenticity)の仕様に基づくメタデータを含めると発表したことは、デジタルコンテンツの透明性と信頼性を向上させる重要なステップです。C2PAはデジタルコンテンツの起源と歴史を証明するための業界標準を確立することを目的としており、生成されたコンテンツがどこから来たのか、どのように変更されたのかを追跡できるようにすることで、ディープフェイクや偽情報の問題に対処することを意図しています。

Microsoft copilotやBing cipilotの生成画像はどうなる?

Microsoftが提供するBing Copilotやそれに組み込まれるDALL-E 3などの製品に同じようなメタデータの統合が適用されるかどうかは、MicrosoftとOpenAIの間のパートナーシップや具体的な技術的実装に依存します。OpenAIとMicrosoftは密接に協力しているため、OpenAIのこのようなイニシアチブがMicrosoftの製品にも波及する可能性はありますが、具体的な対応についてはMicrosoftからの公式な発表を待つ必要があります。

Microsoft Copilot本人の答弁ではまだ含まれないとのこと

OpenAIは、ChatGPTAPIで生成された画像に、C2PAによるメタデータを追加しました。これにより、画像がOpenAIの製品により生成されたものであることを示し、実際の写真ではないことを確認しやすくなります123。

しかし、私の生成画像については、現在のところC2PAのメタデータは含まれていないようです。C2PAは、コンテンツの来歴情報の標準化を行う団体であり、画像の信頼性を高めるために重要な役割を果たしています。

Microsoft Copilot

C2PAとはどんな技術?

C2PA は、発行者、企業などが、その出所や関連情報を検証するためにメディアにメタデータを埋め込むことを可能にするオープンな技術標準です。C2PA は AI で生成された画像だけを対象とするものではありません。同じ標準が、メディア コンテンツのソースと歴史 (または出所) を証明するためにカメラ メーカー、報道機関などでも採用されています。

C2PA は偶然または意図的に簡単に削除できてしまう

C2PA のようなメタデータは、出所の問題に対処する特効薬ではありません。偶然または意図的に簡単に削除できます。たとえば、今日のほとんどのソーシャル メディア プラットフォームでは、アップロードされた画像からメタデータが削除されており、スクリーンショットを撮るなどの操作によってもメタデータが削除される可能性があります。したがって、このメタデータが欠落している画像は、ChatGPT または API を使用して生成された場合とそうでない場合があります。

C2PA はファイル サイズをわずかに重くする

以下は、このデータの追加によって画像サイズがどのように変化するかを示す例です。

  • API 経由の PNG で 3.1MB → 3.2MB (3% 増加)

  • API 経由の WebP で 287k → 302k (5% 増加)

  • ChatGPT 経由の WebP で 287k → 381k (32% 増加)

これによる遅延への影響はごくわずかであり、画像生成の品質には影響しません。

肉眼では確認できません

下記は、GPT-4のGPTストア上にある、「DALL-E」で生成した画面ですが、下記にその説明を書いてくれました。
「では、実際そのC2PA(Coalition for Content Provenance and Authenticity)の仕様がどこに入っているのか肉眼で確認できるのかやって見たいので、かわいい花の妖精さんを描いてみて。」と筆者のチャットから返された画像とコメントがこちらです。

なぜOpenAIは自ら責任を持とうとするのか?

多くのAI生成コンテンツ提供企業は、生成されたコンテンツに関する著作権違反やその他の法的問題について、利用者が責任を持つべきであるという立場を取っています。このような方針は、企業が提供するツールを使用してユーザーが作成したコンテンツに対する法的責任から企業を保護する目的があります。これは、技術の使用方法とその結果に対する責任をユーザーに委ねることで、企業自身は技術提供者としての役割に集中できるという考え方に基づいています。

しかし、このアプローチには複数の課題があります。例えば、AIによって生成されたコンテンツが既存の著作物を侵害している場合、個々のユーザーがその著作権の複雑さを完全に理解しているとは限りません。また、AIが生成したコンテンツの広範な利用が普及するにつれて、著作権違反のリスクを管理するための明確なガイドラインや業界標準の必要性が高まっています。

今後画像生成AIはどうあるべきか

AIの発展に伴い、著作権法も進化し、新しい技術の使用に適応する必要があります。同時に、AI技術提供者は、ユーザーが法的に安全かつ責任ある方法でコンテンツを生成できるように支援するための方策を講じることが重要です。これには、ユーザーに対する教育やガイダンスの提供、著作権に敏感なコンテンツの生成を避けるための技術的なフィルタリングの強化などが含まれます。


この記事が気に入ったらサポートをしてみませんか?