AIによる炎上のリスク回避と将来展望(前編) ~炎上事例から学ぶ対策方法~
ピラミッドフィルム クアドラ(以下:クアドラ)は2023年10月27日(金)に、生成AIと法律をテーマにしたウェビナーの第2回を開催。
前回は生成AIを利用したコンテンツ制作の可能性と法的リスクをテーマにお届けしましたが、今回は「AIと社会的炎上」をテーマに、生成AIのリスクを炎上事例から探り、どういった対策が考えられるのか、失敗から学ぶ回避戦略を法律専門家と共に解説していきました。
今回も第1回に引き続き、プロデューサー溝渕和則と塚本貴洋が登壇。
生成AIを法的観点で解説していただくのはタイラカ総合法律事務所の平山先生です。
noteでは本ウェビナーでお伝えした内容を前後編の2回に分けてまとめていきます!
本ウェビナーの趣旨
まず、改めて本ウェビナーの趣旨をご説明します。
日々、進化の一途を辿る生成AI。しかし最近では、AIが原因で社会的炎上を引き起こす例も見受けられます。
今回は、AIが発端となって起きてしまった炎上事例を通じて、一体何が問題だったのか、どのような対策を講じれば良かったのかを考えていきます。
また現在、AIをどのように使っていくべきか、世界中でそのルール作りが行われています。
国や業界団体が作っているガイドラインを見てみると、それぞれに特色があり、目指しているものも異なっています。これらについて比較し、解説していきます。
※今回お伝えする内容は、2023年9月時点の情報になります。
社会的炎上とは?
本題に入る前に、そもそも社会的炎上とは何かをご説明します。
社会的炎上とは、具体的にはネット上や現実世界での議論や批判が一気に広がり、大きな波紋を引き起こす現象を指します。特定の人物、企業、製品などに対する公の関心が高まり、それがネガティブな意見や非難として爆発するかたちです。
一方で、社会的問題を浮き彫りにし、議論を起こす機会にもなり得ます。そのため、社会的炎上はただ避けるだけでなく、どのように対応すべきなのか考えていく必要があるでしょう。
AIによって引き起こされる社会的炎上の代表例
では、AIによって引き起こされる社会的炎上とは、具体的にどのようなものがあるのでしょうか。代表例を4つご紹介します。
1つ目は「誤情報の拡散」。
AIが誤った情報を広めてしまうと、社会全体の意見を操作し、特定の集団や個人を攻撃する道具にもなり得ます。
2つ目は「著作権侵害 / 人権侵害」。
AIが生成したコンテンツが他者の著作物を不適切に使用している場合、現行の著作権法では侵害の対象になり得ます。
また、個人のプライバシーや名誉を侵害してしまい、法的な問題に巻き込まれる危険性もあります。
3つ目は「疑惑による炎上」。
法律的には問題なくとも、AIが生成したコンテンツに対する過激な煽りが、批判や炎上を引き起こす可能性があります。これも社会全体の意見を大きく左右する危険性をはらんでいます。
4つ目は「セキュリティリスク / 詐欺や偽造」。
AIによって不適切に機密情報を公開されたり、その情報が外部の者によって改ざんされる危険性があります。
AIの利用は大きなメリットをもたらしますが、同時に様々なリスクも伴うことも改めて理解しておかなければなりません。
実際に起きた炎上事例
ここからは実際に起きた炎上事例から、何が問題だったのか、どのような対策を講じるべきだったのかを法的観点で解説していきます。
①誤情報の拡散事例 1
2023年5月に東京・銀座で開催されていた着物イベント「銀座今昔きもの大市」のポスターの事例です。
このポスターに描かれている着物の着方が「左前」であることが、一部の人々から「死に装束」を示唆するとの批判を受け、炎上しました。
イベント運営会社はこの指摘に対し、あえて反論し、「着物はもっと自由でいい」という立場からポスターの修正を否定。
これは、着物の伝統的なルールや規範を超越した、新たなファッション表現だという主張しました。
また、このポスターのイラストについては、AI生成の可能性が指摘されており、レンポジサイト「Adobe Stock」の素材使用を疑われたそうです。
今回は新たなファッション表現のため問題ないという主張ですが、物議を醸さないために、どのような対応をとるべきだったかなど、注意すべきだった点はあるのでしょうか?
②誤情報の拡散事例 2
日本赤十字社東京都支部で開催予定だった関東大震災100年記念展示で、AIを用いた「新証言」生成プロジェクトに対しての炎上事例です。
結果的に展示は中止となりましたが、この展示では、関東大震災をテーマにした絵画に描かれた被災者20人を肖像画に生成し、「新証言」を作成するという試みがなされていました。
ただ、SNS上では「新証言」の表現方法に対する懸念の声が上がり、一部からは「歴史のねつ造だ」といった厳しい批判も寄せられ、世間の反応を受け、日本赤十字社は展示を急遽中止する決定を下したそうです。
このように歴史的な出来事を扱う場合には、AIによる解釈や再現がどの程度許容されるべきか、という議論が必要となるでしょう。
過去の事実を折り曲げる可能性がある、非常にセンシティブな話題ですが、注意すべきだった点はあるのでしょうか?
AIを使うことにより、世間からの注目を集めやすくなりますが、逆に悪目立ちをして、こういった炎上に繋がってしまったのかもしれません。
今回は最新テクノロジーを使いたいという思いがあった上でのプロジェクトだったと思います。しかし、厳しい目で見る方がいる以上、AIを使って今までにはない表現ができるというメリットと、AIを使ったことによって反発が生まれるというデメリットの両方を考慮し、AIを使うことが適切か検討する必要があるでしょう。
③著作権侵害の事例
スシローが、AIによって生成された寿司の画像をX(旧Twitter)に投稿したことで、一部のユーザーから批判の声が上がり、炎上した事例です。
「AIが考える究極のサーモン寿司」投稿キャンペーンの一環として、スシローが投稿した画像に対し、他者の著作物を無断で改変し、商業的に利用しているという行為に批判が噴出しました。
画像生成AIは、ネット上の素材(イラストや写真など)を学習し、画像を作成しているため、著作権フリーの素材ではない限り、著作権を侵害する可能性があります。
商用利用可能なツールを使用していれば、問題ないかもしれませんが、スシローが公開した画像には、誰かの著作物と認識できるサインが含まれていたようです。
もしこの著作物の権利者(著作権者)が侵害を訴えたら、法的な問題に発展する可能性があります。
第1回ウェビナーでもお伝えした通り、AIが生成したコンテンツに関する著作権法はまだ明確ではなく、グレーな部分もある中で、このような事例が増えるにつれて、法的な枠組みの整備が急務になってくるでしょう。
また、企業側もAIを活用する際には、既存の著作権法を尊重し、許可を得るなどの配慮も必要になると思います。
こういった事例は今後増えてくることが予想されますが、注意すべき点はあるのでしょうか?
④人件侵害の事例
画像生成AI「MidJourney」の開発チームが、偽の「トランプ前大統領逮捕」画像を大量生成し、X(旧Twitter)で公開したユーザーに対して、利用禁止処分を下しました。
投稿者は、オランダの調査報道機関「ベリングキャット」の創設者で、MidJourneyを用いてトランプ氏が逮捕される状況を想定した約50枚の画像を生成して投稿。
投稿は520万回以上閲覧され、これを受けて、MidJourney社は「逮捕」や歴代大統領の名前を含むプロンプトの使用を禁止しました。
彼の言い分としては、「MidJourneyの能力を確認するため、様々なプロンプトを試した」と述べており、「投稿した画像に対する反応の多くは肯定的だった」と語っているそうです。
そもそも有名人を用いて生成した偽画像で利用禁止処分を受けるのであれば、なぜAIは有名人のデータセットを用いて学習しているのかというAIの盲点を指摘しています。
法的・倫理的、両方の問題を引き起こす可能性があると思いますが、注意すべき点はあるのでしょうか?
⑤疑惑による炎上の事例
『ポケモンGO』特設サイトのページ背景において詳細部分が、生成AIの特徴に一致すると指摘をされた事例です。
この疑惑に対して、開発元のナイアンティック社は「アート制作に様々なツールとソフトウェアを使用している」と回答し、明確にAIの使用を否定しなかったことから、さらに議論が深まりました。
ユーザーの反応は賛否両論で、AIの使用自体は問題ないが、昨今のAI生成反対派が過激化している現状を考慮すると、AIを使わない方が良いとの意見があったり、一方でAI使用によって困る人が本当にいるのか疑問を呈する声も上がったようです。
また、AIの使用を隠すべきではないと指摘するユーザーもいたり、透明性の重要さが訴えられました。
さらに、ナイアンティック社がAIを使用する背景には、経営状況やスタッフ不足が影響している可能性もあるなど、違った角度からの噂も浮上しているそうです。
新たな手法を導入する際には、ユーザーの理解と信頼を得るためにも、透明性を担保することが重要なのでしょう。
今回のケースは法的に問題ないとは思いますが、透明性部分において注意すべき点はあったのでしょうか?
こういったAIを使ったコンテンツ制作をする場合、炎上というリスクがある中で、もしもの際にどう対応するのか、ある程度の指針は考えておくべきなのかもしれません。
⑥セキュリティリスク / 詐欺や偽造による炎上事例 1
Microsoft社が2023年2月に発表した新バージョンの検索エンジン「Bing」に「ChatGPT」が改良されて組み込まれているのですが、この新たなAIが、機密情報を暴露してしまう可能性が明らかになりました。
問題となったのは、「プロンプトインジェクション攻撃」という手法で、AIに対して敵対的な入力を行うことで、基本的な設定や制限を回避し、本来は出力されないはずの回答を得る方法です。
この攻撃により、Microsoft社が最初にAIへ指示した内容や秘密のコードネームが公になりました。
具体的には、スタンフォード大学の学生がBingのAIに対してプロンプトインジェクション攻撃を仕掛け、AIのコードネームが「Sydney」であることを特定。このコードネームがどれほど重要かは分かりませんが、コードネーム自体は開発者のみが使用する内部的なものにも関わらず、外部に流入したことが問題となっています。
また、AIに対してさらなる質問を重ねることで、Microsoft社がAIに与えた初期プロンプトの詳細な内容までがオープンにされてしまったとのことです。
この事件は、AIのセキュリティとプライバシー保護の課題を浮き彫りにしました。便利な一方で不適切な使用や攻撃に対する脆弱性も持っているということです。
わざと攻撃を与えて、機密情報を引き出すという行為は罪に問われるかと思いますが、こういう脆弱性の問題は、直接自分たちに関係なくとも、気になってしまう話題ではないでしょうか。
こういったケースの場合、攻撃を与えた個人に対して損害賠償を請求することは可能なものでしょうか?
⑦セキュリティリスク / 詐欺や偽造による炎上事例 2
紙幣の画像とプロンプトを使用して、画像生成AI「Stable Diffusion」で偽札を生成し、それをイベントや通販サイトで配布した事例です。
作者はもちろん、鑑賞者も共犯として巻き込まれるなど、AI開発者、作者、鑑賞者間の責任の所在が曖昧になる可能性がありそうです。
そもそも紙幣のようにみえる偽造であれば当然罪に問われると思いますが、このケースの場合、注意すべきだった点はあるのでしょうか?
前編のまとめ
ここまでいくつかの炎上事例から、注意すべき点を解説していきましたが、改めて炎上対策を3つのポイントに絞ってまとめていきます。
まず、AIの開発や運用プロセスの透明性を確保する必要があります。
そこを明らかにすることで初めて、ユーザーや社会全体から信頼を得ることができます。
次に、公正で倫理的なAI利用を実現するためにはガイドラインが必要になってきます。
これは主に国が策定し、AI倫理委員会などを設立することで達成できるでしょう。
最後に、AIの影響は広範囲であるため、多様な視点からの意見が必要です。
利用者や専門家などの多様なステークホルダーを巻き込むことで、公正なAI運用が可能となります。
これらの対策は、リスクを最小限に抑えるために欠かせないものとなるでしょう。
今回の前編記事では、AIによって引き起こされる社会的炎上とその対策についてお届けしました。
後編では国内外のAIガイドライン策定の動きを解説していきます。後編もぜひご覧ください!
また、本ウェビナーの録画データは以下からご視聴いただけます。ぜひご覧いただけますと幸いです!
▼お問い合わせはこちらまで
株式会社ピラミッドフィルムクアドラ レポート事務局
pfq_report@pfq.co.jp
タイラカ総合法律事務所
info@tairaka.jp
(この記事の内容は2023年11月20日時点での情報です)
この記事が気に入ったらサポートをしてみませんか?