見出し画像

ChatGPTとAdobe Fireflyを組み合わせた作品制作の問題点について

 表題の件についてご質問いただきましたので回答いたします。

 例えば、ChatGPTでアイデア出して、Adobe Fireflyにラフスケッチを大量に出力させて作品を制作する場合は、複数の知的財産権侵害リスクを冒す可能性が非常に高いと言えます。

1.表題のシステムを組み合わせる際の特許関連や、ChatGPTとAdobe Fireflyのインタフェースとなるプログラムの著作権問題を確認する必要があります。

2.ChatGPTは生成されるストーリーが著作権侵害を回避するための様々な工夫を施していますが、著作権侵害を完全に回避することは極めて困難です。ChatGPTは著作権のある文章をそのまま表示することはありませんが、類似した表現が著作権侵害と見なされる可能性があります。また、特定のキャラクターや固有の設定を使用すると、そのキャラクターや設定の著作権を侵害する可能性が一段と高まります。

3.Adobe Fireflyが生成する画像などの著作権、肖像権、商標権などの知的財産権侵害リスク回避も、実際にはそれほど簡単ではありません。著作権保護に関する国際条約としてはベルヌ条約が有名ですが、著作権の範囲や有効期限の定義は各国の著作権法によって異なります。そのため、一か国の著作権法をクリアできたからと言って、他のベルヌ条約同盟国や、非同盟国の著作権問題をクリアしたことにはなりません。

 これらの前提知識を考慮したうえで、AI倫理の観点から考慮すべき点は以下のように多岐に渡ります。

(1) 透明性と解釈可能性:AIの決定過程は、多くの場合ブラックボックス化します。AIがどのようにして結論に至ったのかを理解することは難しく、著作権問題を引き起こす可能性があります。ブラックボックスについては、以下の記事でもさわりの部分を言及していますが、ブラックボックスが生じる原因の究明だけでも、最低で半年間以上掛かると思います。また、シンプルなモデル(アルゴリズム)でブラックボックス化の原因が解明ができたとしても、MoEのように複数のエキスパートシステムを組み合わせているAIでは、10年経ってもブラックボックス化する原因が究明できない可能性もあります。更には、原因解明と問題の回避策は別問題なので、ブラックボックス化問題の解決は極めて困難です。これは自動車などの自動運転で事故が発生する原因がわかっていても、事故の回避策が確立できたことにならないのと同じことです。

ブラックボックス(AI・深層学習):AIや深層学習の文脈での『ブラックボックス』は、そのAIがどのように判断を行っているか、あるいはなぜ特定の出力を生み出したのかが明確に理解できないという問題を指します。AIは大量のデータを学習し、複雑なパターンや関係性を捉える能力を持つため、人間が直接その内部の動作を把握することが困難であるという特性からこのように呼ばれます。このブラックボックスの問題は、AIの『透明性』、『公正性』、『責任所在』など、AI倫理における重要な問題と関連しています。

バイアスと公平性:AIは学習データのバイアスを反映します。これは意図せずとも、公平性に対する問題を引き起こす可能性があります。AIを使用する際は、その学習データが公平であり、利用目的に適しているかどうかを評価することが重要です。

プライバシーとセキュリティ:AIは大量のデータを処理し、そのデータはユーザのプライバシーを侵害する可能性があります。また、AIシステム自体がセキュリティの脆弱性を持っている可能性もあります。データの取り扱いやAIの保護についての考慮が必要です。

責任とアカウンタビリティ:AIが間違いを犯した場合、その責任はどこにあるのか? この問いは、AIがワークフローに組み込まれた場合、必ず考えるべき問題です。

 また、具体的な作業において効率的にAIを活用するためには、以下のような前提知識が必要となります。

AIの能力と限界の理解:AIは強力なツールですが、万能ではありません。特定のAIが何を得意とし、どのような課題に対して効果的であるか、そして何ができないのかを理解することが重要です。

データの重要性:AIの性能は、基本的にその学習に使ったデータの質と量によって決まります。そのため、適切なデータを収集、整理、管理する能力が重要となります。

持続的な学習とアップデート:AIは常に学習し続けることが可能で、新しいデータや状況に対応することができます。そのため、AIのパフォーマンスを維持または向上させるためには、定期的なアップデートや再学習が必要となる場合があります。
 
コラボレーションの重要性:AIは単体で作動するだけでなく、人間と共同で作業を行うことも可能です。この『ヒューマン・イン・ザ・ループ』のアプローチは、AIが持つ限界を補完し、より高品質な出力を得るために有効です。したがって、人間とAIがどのように協働できるかを理解することが重要です。

 これらの観点を念頭に置くことで、AIを倫理的かつ効果的にワークフローに組み込むことが可能になります。それぞれの業界や用途によって具体的な実施方法や考慮すべき点は異なるかもしれませんが、これらは一般的なガイドラインとして役立つでしょう。

 上にリンクした記事のタイトルの『著作権問題を解消した』の部分は、AI倫理的にも法的にも正しい表現とは言い難いと思います。せめて『著作権問題を軽減した』くらいまでしか言えないはずです。

 例えば、一個の円形自体には著作権はありませんが、AIが三つ円形を合成して、かの有名なネズミのシルエットにしてしまうと大問題です。一個の菱形にも著作権はありませんが、菱形を三つ並べると、鉛筆会社と総合商社間の商標権問題のように大問題になるでしょう。
 鶴の家紋も著作権フリーですが、航空会社と酒造業者と観光会社で裁判沙汰になったりします。
 要するに著作権フリー材料のみを生成AIが組合わせても、それだけでは誰かの知的財産権を侵害していないことにはなりません。

 よってAdobe Fireflyでも著作権侵害が発生する可能性があります。Adobe Fireflyは、AIを使用して画像を生成できるサービスですが、その画像が第三者の著作権を侵害している可能性は否定できません。例えば、Adobe Fireflyを使用して、第三者の著作権で保護されている画像を複製したり、改変したりした場合は、著作権侵害に該当する可能性があります。

 パロディーやコラージュ作品の著作権問題にしても、法律家としての法的なアドバイスではなく、AI無知倫理学上の一般論として非常に困難な問題だと筆者は認識しています。

フォトコラージュの諸問題̶
著作権,技術,社会倫理上の問題を中心として̶
鈴木 康平*,松縄 正登**
* 筑波大学情報学群知識情報 · 図書館学類‚ ** 筑波大学図書館情報メディア系

 Adobe Fireflyで著作権侵害が発生した場合の著作権侵害の責任の所在は、AdobeとAdobe Fireflyのユーザで争われる可能性があります。Adobeは、Adobe Fireflyのサービスを提供する立場にあるため、一定の責任を負う可能性があります。一方、Adobe Fireflyのユーザは、Adobe Fireflyを利用して画像を生成した立場にあるため、一定の責任を負う可能性があります。最終的には、裁判所がAdobeとAdobe Fireflyのユーザの責任の所在を判断することになります。

 Adobe Fireflyでは、著作権侵害を防ぐための措置を講じていますが、100%の侵害を防ぐことはできません。Adobe Fireflyを使用する際には、著作権侵害に該当しない画像を生成するよう注意する必要があります。
 
 Adobe Fireflyは、Adobeが開発した画像生成AIです。Fireflyの特徴は、『著作権の問題をクリアし安心して使える』ことと、『Adobe CCソフト内で使用できる』ことです。

 Fireflyは主にAdobe Stockの許諾のあるコンテンツを使用して学習しています。Adobe Stockの画像は、著作権者がAIの学習データとして使用することを許諾したもの、オープンライセンスの作品、または著作権期限が切れたものだけを使用しています。

 さらに、Fireflyは『CAI(Content Authenticity Initiative)』というシステムを使用しています。これにより、生成されたコンテンツにCAIに準拠した証明書が付加され、CAI対応ツールで生成AIの有無や編集者などを確認することが可能です。また、Adobe Stockでは『Do Not Train』タグを使用して生成AI学習利用を制限することも可能です。

 これらの措置により、Adobe Fireflyは著作権侵害の可能性を最小限に抑えています。ただし、Adobe Stockに素材を投稿するクリエイターが著作権を無視したものを投稿する可能性が完全にゼロではないため、100%完全なクリーンデータと断言することは不可能です。

 日本の企業にこういった生成AIに関する基礎知識が著しく欠如している原因は、日頃、AI無知倫理学会が『AI無知』の第一人者として批判している松尾豊教授の法律知識の著しい欠如が問題だと思われます。

この記事が参加している募集

AIとやってみた

この記事が気に入ったらサポートをしてみませんか?