見出し画像

著作者人格権侵害の深刻なリスク

“リスクの伝道師”SFSSの山崎です。本ブログではリスクコミュニケーション(リスコミ)のあり方について毎回議論をしておりますが、今回はこれまでも何回かとりあげてきた著作者人格権侵害のリスクについて議論したいと思います。まずは、以下の記事をご一読いただきたい:

日本テレビ 芦原妃名子さんが亡くなったことを受け、社内特別調査チームを設置へ
 日テレNEWS NNN 2024年2月15日 20:05

 https://news.ntv.co.jp/category/society/e43749d0df654f11ab6872360d4e5a06

昨年テレビドラマ化された「セクシー田中さん」において、原作者である漫画家の芦原妃名子さんが、ドラマの脚本について進行中の原作漫画のストーリーから極力外れないよう、日本テレビに対して要望を出し、結局ドラマの完結する第9話・第10話では芦原さんご本人が脚本を書くことで、問題は解決したように見えたとのこと。

ところが、本件についてSNSで、原作者の著作者人格権をドラマの脚本でどの程度尊重すべきかの議論が白熱し、その中には当事者である原作者・脚本家・日本テレビに対する誹謗中傷のような投稿もあったのだろう。その後、1月29日に原作者の芦原さんが自死して発見されるという最悪の結末を迎えたわけだ。芦原さんに心よりご冥福をお祈りするとともに、ご遺族に謹んでお悔やみ申し上げたい。

漫画は静止画であり、テレビドラマの実写映像とは明らかに性質が異なる。またドラマの放映時間には限りがあることを考えると、脚本家による原作ストーリーの修正はやむを得ないはずだ。だからこそ、原作者と脚本家/テレビ局の制作担当者が協議して、事前に原作からの変更点について許諾を得ておくべきだし、実際日本テレビからもそうしていた旨の発表がされている。ただテレビ側としてはキャストに合わせた面白い脚本にしたいところなので、原作からどんどん外れた脚本の提案も出やすい環境と想像する(原作と違う事の驚きが視聴者に与える効果もある)。

そうなると原作者も、せっかく自作の漫画が全国放送で放映されて知名度があがるとなると、テレビ局側の提案を拒否しづらくなってくるのだろう。結果として、原作とかけ離れたストーリーが展開され、ある意味脚本家のオリジナル・ドラマのようになってしまうと、原作者にとっては連載中の漫画においても、テレビの脚本を意識せざるを得なくなり、著作者人格権が著しく傷つけられてもおかしくない。

もちろん芦原さんが自死にいたった原因が、SNSで展開された別の議論にあった可能性もあるが、少なくとも原作とは異なるドラマの脚本により、芦原さんの著作者人格権が侵害を受けていたことが発端となった自死であることは否定できないだろう。彼女が自分の命を絶つという決断にいたったということは、著作者人格権侵害のリスクがより深刻であることを物語った事件と思う。日本テレビでは、社内特別調査チームを結成したとのことなので、今後の対応として、原作者の著作者人格権をどのようにして守りながらドラマの脚本を制作するのか、方向性が示されることを期待したい。

著作者人格権侵害については、昨年より筆者が警鐘を鳴らしているのが、チャットGPTなどの生成AIを不用意に使用することのリスクだ。

生成AIのリスクをどう解消する?! ~チャットGPTは明確な著作権侵害
 SFSS理事長雑感 2023.05.16

 https://nposfss.com/c-blog/risk_chatgpt/

たとえば、大手企業の広報紙を毎月何十万部刷っており、有名なライターさんに巻頭言のエッセイをお願いしたとしよう。あがってきた執筆原稿が非常にユニークな内容で、すぐに採用して掲載したのだが、広報誌を全国に配布した後に、あるミュージシャンよりクレームが入ったという。そのライターの巻頭言は自分の書いた曲の詞とアイデアがまったく同じで、文面については作為的に修正した後が見えるとの苦情だ。

そのクレームについてライターに問い正したところ、エッセイの大半はチャットGPTで作成した文章とのこと。当該ミュージシャンの詞を故意に剽窃したわけではなく、チャットGPTがネット情報を学習したうえで、たまたまそのミュージシャンの詞に近い文章が出力されたに過ぎないとの言い訳であった。会社としては青天の霹靂で、そのミュージシャンに対して示談金をもって解決しようとしたが、広報誌すべての回収とともに、著作者人格権侵害に対する慰謝料を請求され、対応が難しいなら週刊誌にこの話を持ち込むと言われたという。

上述のストーリーはすべてフィクションだが、生成AIを利用したことで、このようなトラブルが起こる可能性は十分ありえるし、実際、すでに生成AIによる著作物に対して著作権侵害で訴訟が起きているという。なぜ生成AIによる成果物には、深刻な人権侵害のリスクがあるのか。

それは生成AIそのものに人格がなく、著作者に対するリスペクトも善意もないからだ。しかも、自分自身で発案・発想した著作物はなく、あくまでプロンプトに入力された単語をもとに、ネット上にある著作物を学習して、市民が喜びそうな、また科学者が納得しそうな文章を勝手に切り貼りして作成しているわけで、生成AIの機能自体が著作者人格権を明きらかに侵害しているのだ。

しかも、上述のミュージシャンの詞の事例のように、同じプロンプトを入力した場合には、いろいろな学習の結論として、最終的な成果物が最も市民に受けのいい文章として、当該ミュージシャンの詞を微妙に修正した文章を選択してしまう可能性が高い。市民にとって心地よい文章は、制作者サイドにとっても最適解に見えるので、そこに落とし穴があるわけだ。

前半で述べた芦原さんの事件のとおり、著作者人格権侵害は想定以上の深刻なリスクとなりうることを肝に銘じる必要があるし、生成AIに関しても、その成果物を公の場所で不用意に使用することは、著作者人格権侵害のリスクがあると心得たいところだ。

以上、今回のブログでは、著作者人格権侵害のリスクについて議論しました。SFSSでは、食の安全・安心にかかわるリスクコミュニケーションのあり方を議論するイベントを継続的に開催しており、どなたでもご参加いただけます(非会員は有料です)。

◎SFSS食の安全と安心フォーラム第26回(2/12、ハイブリッド開催)
 開催速報:消費者の安全・安心につながる食品表示とは

  https://nposfss.com/news/sfss_forum26/

               【文責:山崎 毅 info@nposfss.com

この記事が気に入ったらサポートをしてみませんか?