見出し画像

Technology of Watermarks Relies on Roots of Demand of Them


The article for thinking

ワタシさんは生成AI問題を考えながら、ディープフェイク解決のために、画像にインビジブルなウォーターマークが入ればいいなあってズウッと思ってたんですよねェッ!
(ムレスナティーパッケージポエム風)

Why Big Tech’s watermarking plans are some welcome good news

Big Tech is throwing its weight behind a standard that could add a “nutrition label” to images, video, and audio.

なぜビッグテックのウォーターマーク計画は、ある種喜ばしい良いニュースであるか。

ビックテックは画像、動画、音声へ“栄養成分表示”を加えるかもしれない基準に、最大限の技術力と資本、影響力を注ぎ込んでいる。

Googleやメタ、ニセ画像排除へタッグ 「AI製」判別:日本経済新聞

生成AIによる偽コンテンツの対策を始めたメタ。それでも見逃されるものとは | WIRED.jp

Meta Will Crack Down on AI-Generated Fakes—but Leave Plenty Undetected | WIRED

Overview - C2PA

こちらの記事を読んだ内容のまとめと分析になります。

予備知識

Coalition for Content Provenance and Authenticity(C2PA、コンテンツの来歴と真正性のための連合)とは

The Coalition for Content Provenance and Authenticity (C2PA) addresses the prevalence of misleading information online through the development of technical standards for certifying the source and history (or provenance) of media content. C2PA is a Joint Development Foundation project, formed through an alliance between Adobe, Arm, Intel, Microsoft and Truepic.

https://c2pa.org

オンラインでの誤情報の蔓延をメディアコンテンツのソースとヒストリーの証明を技術的基準を開発することで決着させるための組織。
C2PAはAdobe、Arm、Intel、Microsoft、Truepicの連盟による共同開発財団プロジェクトである。

調べた感じ、日本企業ではソニーやCanon、NHKなども加盟しています。

技術部分の詳細と問題点はこちらが分かり易い記事。

最初に作られた機器(スマートフォンのカメラなど)、編集を加えたツール(フォトショップなど)、最終的にはそれが投稿されたソーシャルメディア・プラットフォームの情報が、画像に記録されることを意味する。 時と共にその情報がある種の歴史を作り出し、そのすべてが記録されていく。

編集履歴も全部残す、生成AI時代にC2PAは「当たり前」になるか?

つまり、画像の編集とアップロードのヒストリが画像そのものに残せる技術。
生成AI画像であっても、加工編集の履歴が残ると言うものです。
私は既に10年前のパッケージ版Adobe CS6とSAI2のヘビーユーザーなんですが、こちらで画像編集するとヒストリは消えてしまいそうですね……。もしくは画像を開かない気がします。
パソコンはWindowsなのでMicrosoftがOSをアプデしてくれたら対応されるのではと思いますが。
関係ないですが、AdobeはCS6を新しいパソコンにインストールするためのログインサポートを昨年で終了しています。AdobeがC2PAの創立メンバーであれば、終了するのは無理のないことかもしれません。逆に言えば古いイラストソフトはやはりヒストリを消してしまうと言うことになります。

ビジョンは壮大だ。C2PAの関係者も、全世界的にとは言わないまでも、採用例が増えていくかどうかに真の成功がかかっていると認める。 彼らはすべての主要コンテンツ企業がこの規格を採用することを願っている。
そのためには使いやすさが鍵だとトゥルーピックのイブラヒム副社長は語る。「SSL暗号化と同じように、インターネット上のどこにあっても同じ形で読み込みと取り込みができるようにしたいところです。オンラインでより透明なエコシステムを拡大していくには、そのような方法が求められます」。

編集履歴も全部残す、生成AI時代にC2PAは「当たり前」になるか?

いずれXも対応するように思います。むしろ、マンモスSNSほどその技術的対応はしっかりされると予測できます。

ですが、これの記録はプロトコルにされると言う部分に問題があります。
膨大な社会的インフラの作り替えが必要になります。古いデバイスでも対応され、問題なく利用できるようにしながら、OSのアップデートやプラットフォームの整備関連アプリケーションの連動と、記録技術を簡単には書き換えられない形で残せるようにしていかなくてはなりません。
まるで、アフターコロナの世界を望むように。各社の技術力の粋と結束が求められます。膨大な費用も必要でしょう。 OpenAIに世界のGDPの7%である$7Tを与えている場合ではありません。

本題

各社の技術的解決方針

META

On February 6, Meta said it was going to label AI-generated images on Facebook, Instagram, and Threads. When someone uses Meta’s AI tools to create images, the company will add visible markers to the image, as well as invisible watermarks and metadata in the image file. The company says its standards are in line with best practices laid out by the Partnership on AI, an AI research nonprofit.

Why Big Tech’s watermarking plans are some welcome good news

Facebook、Instagram、Threads上のAI生成画像にラベル付けを行う。
画像に可視のマークを加えると同時に見えないウォーターマークを加え、イメージファイルにメタデータを加える。
METAが言うには、パートナーシップAIによって策定されたベストプラクティスに沿う。このパートナーシップAIは非営利である。

METAに関しては情報が多くて長くなるので後でもう一回書きます。

Google

On February 8,Google announced it is joining other tech giants such as Microsoft and Adobe in the steering committee of C2PA and will include its watermark SynthID in all AI-generated images in its new Gemini tools.

Why Big Tech’s watermarking plans are some welcome good news

2月8日、GoogleもC2PA運営委員会へ参加。
全ての新しいGeminiによる生成画像にSynthIDと言う技術を埋め込みます。

公式サイトを見た感じ、画像に加えて音楽にも埋め込みが可能。そして、人間にはimperceptible=感知できないものであるようです。
音に関しては、一次元的な音の波形から、特定の音の頻度を二次元的に抽出したスペクトラグラムにウォーターマークを仕込み、一次元の音に戻します。
ノイズの追加、MP3へのコンバージョン、スピードアップや減速でもウォーターマークは失われません。

To help identify AI-generated images, SynthID is available to a limited number of Vertex AI customers using the Imagen suite of our latest text-to-image models that use input text to create photorealistic images.

https://deepmind.google/technologies/synthid/

AI生成画像の特定を助けるために、SynthIDはGoogleのテキストをフォトリアリスティックな画像につくる最新のt2iモデルであるImagenを使うVertex AIの顧客に限られます。
と言うことは、最新モデル以外はフォトリアリスティックな画像を生成できなくなる、と言うことでしょうか。それともそのまま?
技術的には、ピクセル画像にそのまま人間の目には見えないウォーターマークを仕込むようです。これこそが、私が「こうすれば解決するのでは?」と思っていたことなので、技術的に実現可能性のある話を知れたのは大変喜ばしいですね。

We designed SynthID so it doesn’t compromise image quality, and allows the watermark to remain detectable, even after modifications like adding filters, changing colours, and saving with various lossy compression schemes — most commonly used for JPEGs.

https://deepmind.google/technologies/synthid/

画像のクオリティに妥協することなく、ウォーターマークを追跡可能な形で残します。
フィルターを追加したり、色を追加したり、最も有名なJPEG形式などのさまざまな非可逆圧縮を通して修正した後でも残るそう。

SynthID can scan the image for a digital watermark and provides three confidence levels for interpreting the results for identification. If a digital watermark is detected, part of the image is likely generated by Imagen.

https://deepmind.google/technologies/synthid/

デジタルウォーターマークが突き止められれば、その部分の画像はImagenによって生成されたものになるそう。つまりGoogleの独自規格というわけですね。

OpenAI

OpenAI too announced new content provenance measures last week. It says it will add watermarks to the metadata of images generated with ChatGPT and DALL-E 3, its image-making AI. OpenAI says it will now include a visible label in images to signal they have been created with AI.
These methods are a promising start, but they’re not foolproof. Watermarks in metadata are easy to circumvent by taking a screenshot of images and just using that, while visual labels can be cropped or edited out. There is perhaps more hope for invisible watermarks like Google’s SynthID, which subtly changes the pixels of an image so that computer programs can detect the watermark but the human eye cannot. These are harder to tamper with. What’s more, there aren’t reliable ways to label and detect AI-generated video, audio, or even text.

Why Big Tech’s watermarking plans are some welcome good news

OpenAIもまた、Chat-GPTとDALL-E3が生成する画像のメタデータにウォーターマークを追加する予定。また、それが生成AIによるものだと言う信号として、可視のラベルを含むことも予定しています。
ですが、これらの手法は期待のできる始まりではあるも、絶対確実なものではありません。メタデータに含まれるウォーターマークはスクリーンショットを撮れば簡単に剥がせます。可視のラベルはクロップやトリミングで取り除けます。
GoogleのSynthIDのようにコンピュータプログラムが追跡できるが人間の目にはできないように、ピクセルをわずか変更させる手法の方が望みがあります。なによりも、動画や音声、テキストでさえもラベル付けするための確実な手法はありません。
公式発表では2月12日から埋め込みが開始されています。

People can use sites like Content Credentials Verify to check if an image was generated by the underlying DALL·E 3 model through OpenAI’s tools. This should indicate the image was generated through our API or ChatGPT unless the metadata has been removed.

Metadata like C2PA is not a silver bullet to address issues of provenance. It can easily be removed either accidentally or intentionally. For example, most social media platforms today remove metadata from uploaded images, and actions like taking a screenshot can also remove it. Therefore, an image lacking this metadata may or may not have been generated with ChatGPT or our API.

https://help.openai.com/en/articles/8912793-c2pa-in-dall-e-3

これは困難を解決する銀の銃弾ではありません。
これは偶然または、意図的に取り除かれます/くことができます。
現在の多くのソーシャルメディアプラットフォームではC2PAのようなメタデータをアップロードすることで取り除いてしまいますし、スクリーンショットでも同じく取り除かれます。

メタデータへの埋め込みの技術は予想通り期待するようなものではなさそうですが、 OpenAIはこれに続いて公式ページでkey to increasing the trustworthiness of digital information.デジタル情報の信頼を高める鍵としてユーザーに認識されることを望む。と綴っています。
まあそんなの勝手に外れるなら普通知らないうちに、もしくは人によってはあえて外しますよね。面倒じゃない限り。

本題の掘り下げ:META

関連記事

Meta expands AI image labeling to include AI-generated content from other platforms

METAの不可視なウォーターマークについてのニュース記事。
良いニュースとそれでも残る懸念と。

What’s New Across Our AI Experiences

2023年12月6日のMETAのブログ。
releasenote的な奴ですかね?
アップデートされた機能について書かれているんですが、一番最後に「Invisible Watermarking, Red Teaming and More to Come」と透かしについての技術的言及があります。

Labeling AI-Generated Images on Facebook, Instagram and Threads

2024年2月6日の記事。

この記事を書いたのは、METAのGlobal AffairsのPresident、つまり、国際対策室長ということになるのでしょうか。グローバルな視点でMETAの戦略について書かれていると考えてよいと思います。
ここで面白いのは、執拗に”synthetic content”=「合成コンテンツ」と繰り返し記述していることですね。
この記述は生成AI関連のニュース記事などを追っていると頻繁に目にしますが、記者やクリエイターが使っているのは見ても、テック側が使っているのは初めて見たように思います。

記事の内容のまとめ

可視ラベリングの追加
Facebook,とInstagram、Threadsに投稿された画像コンテンツに対しては自動的に追加するための機能を構築中(2024年2月6日)、その他のコンテンツについてはMETAからラベリングの要求があり、それに違反するとペナルティが課されるそうです。
画像コンテンツについては、METAの生成AIコンテンツ以外に対しても適用される予定です。

We’re taking this approach through the next year, during which a number of important elections are taking place around the world. During this time, we expect to learn much more about how people are creating and sharing AI content, what sort of transparency people find most valuable, and how these technologies evolve. What we learn will inform industry best practices and our own approach going forward.

Labeling AI-Generated Images on Facebook, Instagram and Threads

いくつもの重要な選挙が実施される翌年を通してこのアプローチを実施します。この期間に私たちは盛り沢山のどれだけの人がAIコンテンツを生成し、シェアしているかを知ることができると予期しています。どのような種類の透明性が人々が最も価値があると考え、そしてどのようにこれらのテクノロジーが変わっていくかを知るでしょう。私たちが習うことは産業にベストプラクティスと私たち自身のアプローチを前進させることを知らせます。

EU AI Actへの対応も考えると急ピッチで対応しないといけないのですが、もう少し前倒しにできた方がいいですね。
別のニュース記事では今年の夏ぐらいに対応を強化して行くとあったように思うので、もしかしたらこのブログを書いたのが2023年なのかもしれません。

When photorealistic images are created using our Meta AI feature, we do several things to make sure people know AI is involved, including putting visible markers that you can see on the images, and both invisible watermarks and metadata embedded within image files. Using both invisible watermarking and metadata in this way improves both the robustness of these invisible markers and helps other platforms identify them. This is an important part of the responsible approach we’re taking to building generative AI features.

Labeling AI-Generated Images on Facebook, Instagram and Threads

フォトリアリスティックな画像が私たちMETA AIの機能をもって作られた場合、私達は人々にAIが含まれていることを知らせるためにいくつかの手段を講じます。あなたが画像の上に見ることができる可視のウォーターマークと不可視のウォーターマークと画像ファイルに埋め込まれたメタデータの両方を。この不可視のウォーターマークとメタデータ両方を用いることで、不可視のウォーターマークの堅牢さと他のプラットフォームがそれを特定することを助けます。これは生成AI機能を設計し作るに置いて責任のあるアプローチの一部となります。

In the coming weeks, we’ll add invisible watermarking to the imagine with Meta AI experience for increased transparency and traceability. The invisible watermark is applied with a deep learning model. While it’s imperceptible to the human eye, the invisible watermark can be detected with a corresponding model. It’s resilient to common image manipulations like cropping, color change (brightness, contrast, etc.), screen shots and more. We aim to bring invisible watermarking to many of our products with AI-generated images in the future.

What’s New Across Our AI Experiences

来たる数週間(英語時間感覚だと8~10週間くらいに思います)のうち私たちは透明性と追跡可能性の向上のためMETA AIの経験として不可視のウォーターマークを画像に追加します。これら不可視のウォーターマークは深層学習モデルによって適用されます。これは人間の目には感知できない一方、不可視のウォーターマークを対応モデルは突き止めることができます。またこれは画像の操作に弾性があり、切り抜きや色変更(明るさやコントラストなど)、スクリーンショット等々に耐性があります。私たちは不可視のウォーターマークを将来、AI生成画像による私たちのコンテンツの多くに導入したいと考えています。

We’re also continuing to invest in red teaming, which has been a part of our culture for years. As part of that work, we pressure test our generative AI research and features that use large language models (LLMs) with prompts we expect could generate risky outputs. Recently, we introduced Multi-round Automatic Red-Teaming (MART), a framework for improving LLM safety that trains an adversarial and target LLM through automatic iterative adversarial red teaming. We’re working on incorporating the MART framework into our AIs to continuously red team and improve safety.
Finally, we continue to listen to people’s feedback based on their experiences with our AIs, including Meta AI.
We’re still just scratching the surface of what AI can do. Stay tuned for more updates in the new year.

What’s New Across Our AI Experiences

私達はまた、レッドチームに投資を続けており、レッドチームは私たちのカルチャーの一部に長年なっています。仕事の一部として私たちは私たちのプロンプトで私達がリスクのあるアウトプットを生成する予期可能性についてLLMモデル生成AI研究と機能のテストを推し進めます。近日私たちはマルチラウンドオートマティックレッドチーミング(複数回にわたり自動的に繰り返される外部攻撃シミュレーション的調査)を導入します。これはLLMの安全を改善するフレームワークであり、敵対モデルをトレーニングし、自動的に反復的に敵対的な外部攻撃シミュレーションによってLLMをターゲットにしています。
ついに私たちは彼らのMETAのAIを含む私たちのAIに関する経験に基づいて人々のフィードバックを反映させ続けます。
私達はいまだAIができることの表層をひっかいているに過ぎません。さらなるアップデートを来年には期待してください。

展望

SNSプラットフォームとして期待できること。

Since AI-generated content appears across the internet, we’ve been working with other companies in our industry to develop common standards for identifying it through forums like the Partnership on AI (PAI). The invisible markers we use for Meta AI images – IPTC metadata and invisible watermarks – are in line with PAI’s best practices.
We’re building industry-leading tools that can identify invisible markers at scale – specifically, the “AI generated” information in the C2PA and IPTC technical standards – so we can label images from Google, OpenAI, Microsoft, Adobe, Midjourney, and Shutterstock as they implement their plans for adding metadata to images created by their tools.

Labeling AI-Generated Images on Facebook, Instagram and Threads

Partnership on AI(PAI)と言うフォーラムを通して生成AIコンテンツの追跡の基準作りの取り組みを行っている。
また、METAの不可視のウォーターマークはIPTCメタデータと(画像そのものに施す)不可視のウォーターマークの両方を採用しており、PAIのベストプラクティスに沿う。
私達は産業を牽引するツールを作っており、これは不可視のマーカーを、特に、C2PAにおける”AI生成”情報とIPYCの技術的基準のスケールで特定する。それにより私たちはGoogleやOpneAI、Microsoft、Adobe、MidjourneyやShutterstockからの画像をラベリングできる。彼らは彼らのツールにより作られた画像にメタデータを追加する計画を実践するからだ

各社がPAIの基準やC2PAの基準に従うため、METAのプラットフォームで画像にラベリングが可能になるようですが、C2PAのメンバーを確認したところMidjourneyはいないんですよね。なので、規格については直接Midjourneyに確認する必要はありそうです。

At the same time, we’re looking for ways to make it more difficult to remove or alter invisible watermarks. For example, Meta’s AI Research lab FAIR recently shared research on an invisible watermarking technology we’re developing called Stable Signature. This integrates the watermarking mechanism directly into the image generation process for some types of image generators, which could be valuable for open source models so the watermarking can’t be disabled.

Labeling AI-Generated Images on Facebook, Instagram and Threads

同時に私たちは不可視のウォーターマークを取り除いたり変更したりすることが難しくなる方法を模索している。例えば、METAのAI研究機関FAIRは最近不可視のウォーターマーク技術に関しての研究を共有した。私たちはStable Signatureと呼ばれる技術を開発している。これは直接画像生成プロセスにウォーターマークを入れ込むメカニズムを導入する。いくつかのタイプの画像ジェネレーターに対応しており、オープンソースモデルにとってもウォーターマークが無効にならないので価値のあるものになるだろう。

背景

なぜ各社はこの取り組みを行うのか、それはどの程度十分なのか。

As the difference between human and synthetic content gets blurred, people want to know where the boundary lies. People are often coming across AI-generated content for the first time and our users have told us they appreciate transparency around this new technology.

Labeling AI-Generated Images on Facebook, Instagram and Threads

METAのClegg氏は、「人間と合成コンテンツの違いがあいまいになったので人々はどこに境目があるのか知りたがっている。最初にAI生成コンテンツに出会った人々と私たちのユーザーは私たちに新しいテクノロジーに関する透明性に感謝していると教えてくれます」とブログでつづり、この技術が人類にとって大事な一歩であること、信頼のある情報が得られるプラットフォームとして大切な取り組みであることを繰り返し述べています。

METAのこの発表の半時間後追随するようにOpenAIからもメタデータへのウォーターマークの埋め込みの発表がありましたが、何とも付け焼刃感がぬぐえません。
この各社の動きは今年の1月、バイデン大統領の声に真似た音声でロボコールから、「州予備選挙に投票しないように」という呼びかけがあったことで加速しています。

ただし、こちらのニュース記事によると、METAの現在のポリシーの形態は

“The Board is concerned about the Manipulated Media policy in its current form, finding it to be incoherent, lacking in persuasive justification and inappropriately focused on how content has been created, rather than on which specific harms it aims to prevent (for example, to electoral processes),” according to the Board.

Meta expands AI image labeling to include AI-generated content from other platforms

一貫性がなく、正当性の説得力に欠け、METAが阻止しようと目的にしている特定の危険(例えば選挙の過程)に対してよりもむしろ、どのようにコンテンツが作られたかに不適切にフォーカスしていると委員会から懸念されています。
また、外部の監督機関であるTPP(Tech Transparency Project)の理事であるKatie Paul氏からは、その社内のガバナンスに対する不信の指摘があります。

However, researchers already are finding evidence of harmful generative AI content slipping through made with Meta’s own tools. One new report showed examples of using Meta’s own tools to create ads targeting teens with harmful content promoting drugs, alcohol, vaping, eating disorders and gambling. The report, released by Tech Transparency Project — part of the nonpartisan watchdog Campaign For Accountability — also showed additional examples of making generative AI ads approved by Meta that violate the platform’s policies against violence and hate speech.

According to Katie Paul, TPP’s director, the ads in question were approved in less than five minutes. That’s a lot faster than the hour it took for TTP’s non-AI ads to be approved when it conducted similar research in 2021. Given Meta’s previous problems with using AI for content moderation and fact-checking, Paul also wondered if there’s enough evidence yet to know if AI detection of generative AI content will be effective across the board. She said TTP’s researchers have already found examples of AI-created political ads in Facebook’s Ads Library that aren’t properly labeled as using AI.

“If we can’t trust what they’ve been using all of these years to address these critical issues, how can we trust the claim from companies like Meta when it comes to forward-looking AI and generative AI?” Paul said. “How are they going to make their platforms safer using thatkind of labeling for their content?”

Meta expands AI image labeling to include AI-generated content from other platforms

METAは自分はきちんとやっているといいますが、未成年にとって危険なものが生成できたり、暴力や暴力的なスピーチによりプラットフォームのポリシーを侵害するものが散見されています
Paul氏が言うには、広告の承認が五分もかからずになされている事は早すぎるとのことで、AI生成に対するAIの追跡が全体的に効果的になされているのか知るのに十分な証拠があるといえるのか疑問だとのこと。METAのドキュメントでは100,000の子どもの性的なハラスメントが日常的にそのプラットフォーム(FacebookとInstagram)で見られたり、Facebookの広告にもまだ問題のあるものが見られるそうです。
こういった調査が入るのは今回が初めてではなく、「もし、METAがここ数年これらの重大な問題の解決のために使ってきたものを信用できないなら、どのように私たちはMETAのような企業の主張を、将来性のあるAIと生成AIに関して、信用すればいいでしょう? 彼らはどのようにプラットフォームをコンテンツにこのようなラベリングすることでユーザーにとって安全にできるでしょうか?」とPaul氏は語ります。

やはり、METAの言っていることは、Hype=誇大広告である可能性は否めません。
取り組みを行っていることは大変すばらしいですし、プラットフォームの使命としてユーザーに信頼できる情報を提供していることに価値を見出していることも評価できます。
そしてここまで自己のSNSの信頼性を声高に主張できることは、他の企業の競争心に火をつけ、透明性を確保するための技術開発の加速を促してくれるでしょう

Stable DiffusionがOSSで世界にばらまかれた後、危険性が高すぎるとして一部でのみ公開されていたDALL-EやImagenが一般公開され、Chat-GPTも爆発的な人気を得ました。これにより各社の競争が激化し、大量学習の大量資源消費が加速し、ついには半導体を世界のGDPの7%の寄付によって高度化したい、シリコンバレーを改革したいという思考に行きついたのではないかと思っています。

私は、この各社の血で血を洗うような争いが、透明性や保護の技術開発にも効果を発揮することを願ってやみません。

まとめ

この三社の比較からわかるのは、Googleの技術力の高さです。Googleのみ唯一音声にも対応しています。
METAは独自規格の開発を進めていますが、どれくらい信用のおけるものかはわかりません。
MicrosoftがOpenAIに高額な投資をしたように、また、リリースするモデルに関する情報を追いかけた感じ、振興技術である生成AIにはOpenAIの方が強いのかなと思いますが、Googleに比べると OpenAIのそれは、遥かにお粗末です。同時に投稿先としてのメジャーSNSを運用するMETAはMETA独自規格のウォーターマークが埋め込まれた画像の判定能力の角度の噛み合わせ技術が高度でなくても、自分で作ったものを自分で認識すれば良い分、役に立つものになるのかなと思います。

EUのAI Actで求められる、Transparency Obligationにどれだけ対応できるかで、モデルがリリースできるかどうかの命運が決まりますし、どれだけ汎用性の高いものを作っていけるのか、利用されやすいのかも分かれるのは明らかです。

自分たちでめちゃくちゃにひっくり返したおもちゃ箱に、おもちゃをきちんと片付けられる企業の技術が必要になるわけで、頭の痛いことにマッチポンプが過ぎるんですよね。

『Why Big Tech’s watermarking plans are some welcome good news』の記事の筆者によると、たとえ OpenAIのようなウォーターマークでも、悪用への抑止効果は期待できると言うことです。そうだったらいいなと思います。

ん?あれ?
そう言えば他にも有名な生成AI企業としてのMidjourneyとか、SNSとしてのXってどうなるんだろう???

Elon Musk and…

その頃、XとMidjourneyは。

スクショ引用だけして無言のポスト。
Elon MuskってOpenAIを揶揄するのが好きだなぁと思います。

Sam Altman
Soraが何ができるのか見せてあげたいです。あなたたちが見たい動画のキャプションをリプライしてください。私たちはそれを作り始めます!
DogeDesigner
非営利のオープンソース企業を営利目的のクローズドソース企業に変える男が見たい。

DogeDesigner
速報:𝕏はMidjourneyとパートナーシップの可能性について話し合った。

DogeDesigner
𝕏は近日、プラットフォーム上のAI生成画像にラベリングを始める予定だ。

Elon Muskの肉声による情報。
確実に何かは起きます。

  • 技術的に可能かわかりませんが、過去に投稿された画像含めてラベリングされると面白いことになりそうですね。

  • Midjourneyは人材規模的に、OpenAIと同じようなウォーターマークしか入れられないように思うので、Xとタッグを組むことで、EU規制に対する生き残り戦略を図ろうとしているのかなと思います。

  • あれほど大量に恣意的に、クリエイターの画像を収集して学習させた企業がC2PAに参画できる余地がどれほどあるのか疑問です。

  • おそらくですが、Xが自ら画像生成をするわけではないと思います(Midjourneyと手を組む意味がない)。Midjourneyから直接Xへ生成画像をポストできるようになるのではないでしょうか。まあ今までもディスコード生成だったはずなので、ディスコードの画像をポストするのはそんなに手間とも思えないんですけど……。学習させるとはいってないのがポイントですね。

ところでStabilityAIはどうしたんでしょうね……。

よし!!!
解散!!!!!!!

この記事が気に入ったらサポートをしてみませんか?