見出し画像

AI と著作権に関する考え方について(小学生向けバージョン)

2024年2月29日に文化庁の著作権分科会法制度小委員会がまとめた「AIと著作権に関する考え方について(素案)」。
Claudeを使いながら整理しました。
ChatGPTのGPTsを使って元に近いテーストで整理したものがこちらです。

背景・関係者からの様々な懸念の声について

  • コンピューターがすごく進化して、AIという技術ができた。

  • AIを使うと、文章や絵などを自動でつくることができるようになった。これを「生成AI」という。

  • でもこのAIを使うと、他の人の作った文章や絵の権利を侵害してしまうかもしれない。

  • そこで、国や専門家が、AIと著作権の関係を話し合い始めた。

  • 話し合いでは、AIを使う人や、作者、AIを作る会社など、みんなが懸念していることが出た。

  • 作者は、勝手に作品を使われたり仕事を奪われたりするのが心配。

  • 会社は、利用者が悪さをしても会社が責任を取らされるのが心配。

  • 利用者は、うっかり権利を侵害したり、非難されたりするのが心配。

  • こうした懸念から、AIと著作権の関係をもっと話し合おうという意見が出ている。

  • 話し合いを通じて、みんなが安心できるルール作りが必要だという考えになった。

開発・学習段階における「非享受目的」に該当する場合

  • 著作権法には、作品を勝手に使っていい場合のルールがある。

  • 作品を楽しむためでなく、コンピューターが学習するために使うのはOK。

  • AIが作品を学習するのも、コンピューターの学習のため。

  • だから作品を勝手に使わずに、AIの学習に使ってもいい。

  • でも、作品を楽しむためにも使う場合は、作者の許可が必要。

  • 学習のために使うか、楽しむために使うかで、ルールが変わる。

  • みんなが納得できるよう、使い方の目的をしっかり考えることが大切。

検索拡張生成(RAG)等について(開発・学習段階)

  • AIを使って、データを検索し、質問に答えを作る技術がある。

  • このAIを開発・学習する時、他の作品をコピーしたり、データベースを作ったりする。

  • データベースには、インターネット上の作品の内容を変換したデータが入る。

  • これらは、AIを学習させるためで楽しむためではない。

  • だから、作者の許可なしでもAI開発のために使っていい場合がある。

  • でも、作品を楽しむ目的も含まれると、許可が必要になる。

  • 目的によって、作品を使ってもいい場合とだめな場合があることを理解する必要がある。

著作権者の利益を不当に害することとなる場合について(開発・学習段階)

  • 作品を勝手に使っていいルールにも例外がある。

  • 作者の利益を不当に害する場合は、許可が必要。

  • 作者の利益とは、作品を売る機会を失うことも含まれる。

  • 作品そのものを使わないでも、作風が同じだと許可が必要になることもある。

  • まとめられたデータベースに作品が使われると、作者の利益を害することがある。

  • 作者が技術で作品の使い方を制限している場合は、それを回避するのはだめ。

  • 作者の利益を害するかどうかは、場合によって違う。はっきり分からない時は許可を取ることが大切。

  • 作者と利用者が納得できる関係を築くことが必要。

アイデア等が類似するにとどまるものが大量に生成されることについて(開発・学習段階)

  • AIで作った作品が、アイデアや作風が似ているだけだと、著作権を侵害していない。

  • でもそれらが大量に作られると、本物の作者の作品の需要がなくなる。

  • 本物の作品が売れなくなると、作者の利益を害することになる。

  • アイデアは誰でも使えるが、作者の生活を奪うことはだめ。

  • 似ているだけの作品でも、作者の売り上げに影響が出る場合があることを理解する必要がある。

  • 作品を作る目的が違うからといって、作者への影響を無視するのは正しくない。

  • お互いの立場を理解し、WinWinの関係を築くのが大切だ。

著作権法第30条の4の対象となるかについてのポイント

  • 著作権法には、作品を勝手に使っていい場合のルールがある。

  • そのルールでは、作品を楽しむためでなく、学習などのために使う場合は許される。

  • 例えば、プログラムを解析したり、美術品を試しに複製したりするのはOK。

  • 作品を楽しんだり利益を得たりする目的がないからだ。

  • 使い方を見て、作品を楽しむ目的が含まれるかどうかで判断する。

  • 楽しむ目的がないかどうかが、大切なポイントだ。

  • 作品を使う理由をしっかり考え、作者の権利を尊重することが必要。

生成・利用段階の階類似性の考え方について

  • AIで作った作品が、もとの作品に似ているかどうかを判断する基準がある。

  • その基準は、もとの作品の核心的な特徴がAIの作品から感じ取れるかどうか。

  • 人間が作った作品とAIの作品とで、この基準は同じ。

  • 毎回、その作品自体の特徴をしっかり見て判断する必要がある。

  • 似ているようでも、核心的な特徴が違う場合はOK。特徴が同じ場合はダメ。

  • 作品ごとに違う判断基準を当てはめるのが大切だ。

生成・利用段階の依拠性の考え方について

  • 作品が似ている場合、作者が元の作品を知っていたかで判断するのが依拠性。

  • AIの場合、利用者が元の作品を知らないのに似た作品が作られることがある。

  • この場合、元の作品に依拠したとは言えないのに、似た作品ができてしまう。

  • 従来の依拠性の考え方では、AIの特殊な場合に判断が難しい。

  • AIならではの依拠性について、新しい考え方が必要になる。

  • 利用者の認識の有無だけでなく、生成過程も考慮する等の検討が重要。

侵害に対する措置について(生成・利用段階)

  • AIで作った作品がもとの作品を使いすぎていた場合、作者から訴えられることがある。

  • 訴えられることは3つあって、作品の使い方を止めること、お金を支払うこと、罰金を払うこと。

  • お金や罰金は、AIの使い方を知っていてわざと使った場合にだけ発生する。

  • 使い方を知らずに使っていたら、止めるだけでお金や罰金はない。

  • でも、知らずに利益を得ていた場合はその利益を返す必要がある。

  • AIを作った会社も、使い方を管理しないと訴えられることがある。

  • お互いを思いやる気持ちが大切。作者の許可を取るのが一番安全。

侵害行為の責任主体について(生成・利用段階)

  • AIで作った作品がもとの作品を使いすぎていた場合、だれが責任を取るのかが重要。

  • 原則はAIを実際に使った人が責任を取る。

  • でも、AIを作った会社も、使い方を管理しないと責任を取らなければいけない場合がある。

  • 会社が「このAIは危ないかも」と思っていながら、何もしなかった場合は責任を取るべき。

  • 会社がAIの危なさを防ぐ努力をした場合は、そんなに責任を取らなくてもいい。

  • 責任の所在は状況によって変わる。だから事前に十分注意する必要がある。

  • お互いを思いやる気持ちが大切だと思う。

生成AIに対する指示の具体性とAI生成物の著作物性との関係(生成・利用段階)

  • AIに作品を作る具体的な指示をどうするかで、その作品の扱い方が変わる。

  • 指示がアイデアレベルで、作品の中身を具体的に示していない場合、その作品には著作権はない。

  • 作品の著作権の有無は、人間がどれだけ創造的に関わったかで個別に判断する。

  • 創造的関わり方とは、作品の詳細な指示、生成の試行回数、選択の工夫など。

  • 人間が作品を創造的に修正した部分には、通常著作権が認められる。

  • つまり、人間の関わり方次第で、AIの作った作品の扱いが変わる。

  • お互いの権利を守るため、人間の役割は大切だと言える。

この記事が気に入ったらサポートをしてみませんか?