生成AIイラストを巡る議論に思うこと-技術と責任の観点から

生成AI、特にイラストへの利用に関する議論が盛んです。

大規模なパブリックコメントの募集に加えて、先日は経済産業省からAI事業者に対するガイドラインが公開されるなど、官民問わず動きが活発になってきています。

この話題に関して基本的には積極的無関心を貫いているのですが、たまに覗くと議論とは程遠い地獄絵図が展開されているのを見ます。
一部の極端な発言を全体の発言と拡大解釈して晒し上げたり、相手の思考や人格を憶測で断罪するのはもう論外として、大部分はただ互いの無理解をなじるだけの悪口選手権が飛び交っています。
このままかっこいい罵倒台詞大会を対岸から眺めているのもいいのですが、本来議論すべき問題からどんどん遠のいているように見えるので、自分なりに論点を整理していきたいと思います。

まず、当たり前ですがAIによるイラスト生成と、デジタルを含むイラスト作成技術には、従来と同じ点もあれば抜本的に異なる点もあります。
一部が同じだからまったく同じだと主張するのも、一部が違うからまったく違うと主張するのも、全て強弁であり詭弁です。

また、現行ルールの話と今後あるべきルールの話は別です
現行の法規制がこうだからといって、今後もそのルールもそれに乗っ取るべきではありません。
現在の著作権法およびその解釈についての話と、今後の著作権が考慮すべき問題は分けて考える必要があります。
ルールはその制定によってどのような実害が発生するのかというリスクをベースに語るべきもので、そこに現行の理念を当てはめる場合はその正当性から審議する必要があります。

一方で、どんな個人の理念があろうが現行法に違反していない範囲での利用は咎められるものではありません。現状では、公開されているイラストを学習データとして使用することそのものは合法と解釈されています。
出力結果に問題がある場合はもちろん現行法の範囲で咎められますが、出力結果の具体的な問題を指摘できないのにAIの利用そのものを咎めるのは私刑にしか当たらないでしょう。
そのステップを踏み越えて、単なる倫理で裁こうとするのであれば、行き着く先は過剰な自治と分断された村社会で、再現性のあるルール作りからはどんどん離れていくでしょう。
少なくとも、具体的なリスクを指摘できないAI利用にすら、魔女狩りのように糾弾されている現状は健全な状態とは思いません。

これらの問題は「学習」や「盗用」などのワードが関わってきます。
しかし、用語の定義や用法というものは裁判で確定していない限りは、自分側に都合の良いように解釈することは簡単です
お気持ちの話をするだけであれば、いくらでも水掛け論を吹っ掛けることができます。
結局のところ、どういった問題が発生していてどういった解決が望ましいかを見ていく必要があると思っています。

1%のリスクと100%のコスト

先ほど、明確に個人の権利を侵害している場合は、現行法の範囲でも対処が可能であると話しました。

AIを推進する人も反対する人も、ディープフェイクや児童ポルノの生成を始めとした明確な悪意をもって生成された画像や、特定の人物の名誉や権利を侵害する目的で生成された画像に対しては使用されるべきではないという点についてはほぼ同意されていると思います。
生成AIの問題というとイラストの問題ばかり取り上げられがちですが、実害という面で考えるとこちらの方が緊急性は高いとも言えます。
とはいえ、この2つの問題は地続きになっています。

また、いくつかの生成モデルで「同一性保持権に抵触するレベルで学習データほぼそのままな出力が出てくる」「特定個人の歌声そのものの音声が無断出力される」といった点も指摘されています。
結局のところ、悪意の有無など関係なく、誰がいつ他者の権利を侵害するのか利用者本人ですら予想もつかない領域に現在のAIは達していると言えます。

これらのケースに対してはもちろん現行の著作権法や名誉棄損などで対応可能なので、AI利用の議論の俎上には上らないという意見も見受けられますが、本当にそうでしょうか。

重要なのは、どこまでコンテンツ作成が機械化されようとも、それを取り締まり裁判を行うのは人間であるということです。
100人のうち1人が悪質な違反を行っているのと、10000人のうち100人が悪質な違反を行うのとでは、負担が違います
さらに、AIのブラックボックス化により、各種問題画像が生成された時に問題の原因を追跡する難易度も跳ね上がっています。
この物量の問題は無視するべきではないでしょう。

AIの登場は人を害するためのコストを極限まで下げたと言えるでしょう。
その結果、この1%の違反がかける負担は明確に大きくなっています。

既にいくつかのサイトで生成AIによる商品でリストが埋め尽くされる事態が発生してAI作品の出品が禁じられているように、AIによって生成コストの下がった作品群を管理することは物理的に困難です。
AIによって作品生成のコストが大幅に下がり、無責任な作品の出品が横行した結果、他の人が背負わなければならないコストが拡大していくことはひとつの課題でしょう

現在の著作権法では表現の発展を目的として著作権は親告罪となっており、このルールを変えるべきではないと考えます。
しかし、現行の著作権のルールは、生成する側も十分なコストを支払っており、著作者が十分に管理可能な数の作品しかないという前提の上に成り立ってきたルールです。
このコストというのは必ずしも単独の作品制作の手間だけではなく、その技術を獲得するために習得してきた時間的コストも含まれます。
生成する側のコストが下がる一方で、管理する側のコストが変わらないのであれば、どこかで特異点が発生します。
それを防止するために、具体的な違反の定義など線引きを定めたルール作りは必要となるでしょう。
ある技術が大衆化するにあたって、それまでなあなあで運用されてきたルールを厳格化するということはよくあることですね。

もしかしたら、これらの版権管理もAIによって機械化してしまえばよいという考え方もあるかもしれません。
あるいは発生するリスクに対して保険を掛ければ十分という考え方もあるでしょう。
問題ある画像の検出から必要な裁判まですべて自動化してしまって、また、AIの利用者側もリスクに対して保険をかければ解決する。
このシステムの導入は技術の発展によって可能なのでしょうか。

人間にしかできないこと

版権管理や訴訟に関して、AIの活用によってある程度の簡便化は可能だと思います。
しかし、現状のAIには絶対に出来ない仕事というものがあります。
それが責任の伴う決定を下すということです。
保険をかけるにしても、被保険者の信用は利用者の信用があることが前提となります。

AIの主要な活躍先として期待されている分野として、医療や自動運転があります。
現在もAIの活用先として盛んな投資が行われているホットな分野です。
実際にこれらの技術の発展は目覚ましく、一部の領域では人間を上回る精度を出すこともあります。

では、病気の診断や薬の提供、あるいは人を乗せた運転を100%AIに委ねることができるか? となると話が変わってきます。

現在、自動運転の業界では、その自動化のレベルによってレベル0から5までの段階が設定されています。
レベル2までは常に運転者が周辺の状況に目を光らせ、必要とあればハンドルを握ることが要請されます。
現行ルールの範囲で限定的に使用が認められているレベル3の自動運転でもシステムからの要請に応じて人間にハンドルを委ねることが求められます。
つまり、最終的な責任は運転者が担っていることが必要となっています。

AIも投げ出すような緊急事態でいきなりハンドルを握らされたペーパードライバーが、適切に事故を回避できるかというと非常に怪しいとは思いますが……それでも最後の責任は人間がとることになっています。
責任をとることこそ、人間に残された重要な役割なのです

医療でも同様です。
がん診断などの分野では、いまやAIの方が精度が高いケースもあります。
ですが、たとえ診断までのプロセスの99%をAIが担っていたとしても、最終的には医師免許を持った医師がその結果を解釈して診断を下すことが求められています。

同じ内容を伝えるにしても、医師免許を持った人間がchatGPTの内容を読み上げるのと、ズブの素人がchatGPTの内容を読み上げるのでは重みが違うというわけですね。

これは、何を命を預かる領域に限った話ではありません。
実際、エンジニアたちはchat-GPTでも答えられる程度の知識をわざわざ時間をかけて学習したという証明である資格や学歴を得るために躍起になっています。
それは、責任能力を持っていると外部に証明することに意義があるからにほかなりません。
結局、ただ技術を利用するだけの人が「責任はとるから!」と言い張っても、誰も信用はしてくれないのです。
人間が手綱を握っているという前提においてリスクある技術は初めて利用を受け入れられるのです。

コストの低下という面だけを見たのであれば、生成AIの登場は便利なデジタル描画ツールの登場と本質的には変わらないように見えます。
しかし、それはレベル3の自動運転と同様、人間が手綱を握れる領域に限っての利用ならばという前提条件がつきます。
そこを越えてAI任せにしてしまった場合、その責任を負うことが困難となるからです。

ここが旧来の描画ツールとAIの大きく異なる点です。
従来の創作で名誉棄損や権利侵害などの問題が発生した場合、基本的には違反した"人"を裁けば問題は解決しました
たとえ99%の工程を機械がやってくれるようなシステムであっても、問題箇所を作成して最後のワンボタンをクリックしたのが、あくまでその人自身の意志によるものであると言えたからです。
例えば、権利的にアウトな背景素材を使用したとして、その画像を持ってきたのも貼り付けたのも本人の責任を問うことができます。
では、AIの場合に同じ基準を適用することはできるでしょうか?
というより、責任を負えると断言して利用できるでしょうか?

従来の創作においては、あくまで何を創作するかという意思決定の大部分が人に委ねられていました。
しかし、創作の大まかな方針は決定できてもその細部まで考慮することは現状できません。
一方で、生成物に対する責任はその細部に至るまで生じます。
そのようなリスクを持ったものを「基本的には問題ないはず」と無責任に乱用した場合、信用を得ることは難しいでしょう。

先ほど、リスクある行為には保険をかければよいという話をしましたが、保険を掛けるにはリスクを見積もるための信用が不可欠です
その技術を扱うにおいて生じるリスクやそれに対する対応策について学習し、時にそれを説明できるという証明が信用に繋がります。
人が時間をかけて理解・学習したという事実は、誰かが責任を負わなければならない社会においては非常に大きな役割を持ちます。
これを「特権」と呼ぶのであればその通りだと思います。

結局のところ、技術にはリスクが伴うものでそれを利用するには責任を取るに足る信用が必要という他の技術とは変わらないシンプルな話です。
この信用を得るために、人は学習を行い証明を行うのです。

ところで「学習」という言葉が出てきましたが。人間と同様経験から学習しているにもかかわらず、AIの学習ではなぜこういった信用を創出するのことができないのでしょうか。
そこには「学習」という言葉の内容に踏み入っていく必要があります。

学習という言葉について

人間もAIと同様、他人の創作からアイデアを学習しているのだから、やっていることは同じでしょ? という議論を時々見かけます。
しかし、AIの”学習”と人間の”学習”は本当に同一視してよいものでしょうか。
その差異がAI単独では信用を得られない理由ともなっています

人間の学習は機械と違って完璧ではありません。
記憶違いもありますし、そもそも覚えた先から次々と忘却していきます。その点では、人間の学習は機械の学習に比べて劣っているとすらいえるでしょう。

しかし、それでも人間が学習したという事実が貴ばれる理由は説明能力にあります
ある一つの判断を下す際に、ベースとなる理論があって、それに基づいた判断を下す。
その理論は文章に起こすとシンプルなことも多いですが、その背景の一つ一つが地道な実証実験によって証明されてきた知識の積み重ねです。
よく科学の世界では「巨人の肩の上に立つ」という表現が使用されますが、この先人たちによる議論と証明の歴史、それを踏まえるという前提が信用に繋がっているのです。

人が絵の模写をするなど経験から学習するときも、単なる模倣を行うわけではありません。
言語化できるかどうかは人によりますが、どのようなプロセスでその創作物を生成し配置するか、その方法論を取り込むことが人間の学習です。
つまり、説明を再構成可能な形で記憶することが人間の学習であると言えます。

一方で、現在のAIの学習はこの過程をなぞるわけではありません。
背景にある法則や議論は考慮せず、とにかく結果をよりよく近似するための複雑怪奇な近似の理論を膨大なトライアンドエラーの末に構築します。
ざっくりとしたことを言えば最強の天動説は作れるが地動説は作れないのが今のAIです。
とはいえ、精度の面ではこういったアプローチの方が高い精度を出すことはもはや珍しくはなく、だからこそAIの利用が急速に進んでいるともいえます。

このアプローチの弱点は大きく分けて2つあります。ひとつは判断の根拠を説明できないこと。
一応、根拠をある程度出力する方法がないわけではないですが、それでも「相関がある」程度の事しか言うことはできず、その判断の背後に実証や理論の裏付けがあるわけではありません。
むしろ、AIの本質はふんわりした相関の総体であるとも言えます。
どこまでいっても断言する根拠に乏しいのがAIの決定に信用を与えにくい理由です

もう一つの弱点は、未知の領域に対する汎用性です。
AIを学習させるにあたって、理論を教えこむといったことはできず、膨大な数の結果を読み込ませます。
この時、データの乏しい領域については結果を教え込ませることができず、何が出てくるかわからない状態となっています。
人間がレアケースに対処する場合に行っている"類推"や"推論"というプロセスを現在のAIは無視しています。
その類推の結果、未知の出来事に対して判断を誤ったとしても、人間の場合はその判断する過程をトレースできるため、その判断責任を追及することが可能になります。
つまりは一番トラブルの発生しやすいレアケースに対してAIの信用は急速に落ちます。

一応言及しておきますが、絵の情報そのものがニューラルネットワークの中に圧縮して保存され、パッチワークになっているという見方は誤解です
厳密にいえば、過学習が発生して何らかの形で元画像の情報が符号化されており、元の画像をほぼそのまま復元できてしまう可能性もなくはないです。ですが、そのことを証明するのは極めて困難です。
その場合でも100%の情報が残っているというよりは、01の符号になったほんの一部分が共通しているという範囲にとどまる可能性が高いでしょう。これをアイデアという単語で同一視してよいかは極めて微妙な問題です。
ここからさらに突き詰めようとすると、同一性とは何か? 二つの画像のちょうど中間の場合は? という話になってくるのですが、話題が逸れてくるのでこれ以上深くは立ち入りません。

とにかく、AIの中身はブラックボックス化しており、使用者本人ですらもその結果に対して説明をすることが困難です。
正確には、部分的には説明できたとしても、全ての根拠を網羅することは事実上不可能です
言語化できない不確かなものを運用して、悪意か事故か他者の人権を阻害するものを生み出す。
それを使う側の責任と言い切ることは簡単でしょう。
ですが、制御しきれないものを運用するといって信用を得ることは難しいではないのでしょうか。

さらに生成AIモデルは制作に関わっているのが利用者個人のみではありません。一度作成したモデルはシェア可能であり、さらにそのモデルをベースとした追加学習を行うことも可能です。
学習データを全て自前で用意しない限り、どこでどのような過学習が発生したかをトレースすることは難しい。
特定個人に酷似したポルノ画像がバラまかれた時、どこまでさかのぼって差し止めを要請すればよいのか、どのように再発防止をするのか、その対処を完全に行うことは可能でしょうか

少なくとも、生成物の責任をブラックボックスの学習データに仮託して言い逃れできるような状態では、AIそのものを禁止するという議論が出るのもやむなしと考えます。

技術の普及と危険性

ここまで、AIは自らの振る舞いに対して説明責任を果たすことが難しいという話をしてきました。
技術的に誤解の見られる発言は多々あれど、基本的にはそのことがAIへの不信や攻撃に繋がっていると言えるでしょう。

これに対する最もナイーブな解決手段は、自動運転のように人が手綱を握れる範囲での運用にとどめることです。
そのためには学習データの取得元を全てログとして保存することが求められたり、一定以上知識や経験のある人による検証が要請されたりと、最大限説明性を担保するための努力が必要となります。
これを面倒と思う人も多いでしょうが、技術を運用するにあたって知識のある人間がそれを制御しているという事実は信用を得るためには不可欠です。
これは何も安全性の問われる分野に限った話ではなく、製品の開発や経営の意思決定など、価値と損失が表裏一体である限り、技術が価値を生み出す際に避けては通れない問題です。
それを保証するために資格や免許という制度が存在することもあります。

そのため、AIの導入はなんだかんだ人間が手綱を握れる範囲の運用に落ち着くケースが多いのですが、画像生成AIの分野はそれらの議論を無視してひとつ跳びに完全自動化された生成物が出回っているように見えます。
というのも、芸術という分野は良し悪しという主観的な尺度で価値が決定される上に、直接権利侵害になるケース以外は責任を問われにくいからです
単に見向きもされない駄作を生み出す範囲では、その責任を問われることはないので。
だからこそ都合よくハックされているとも言えます。

ですが、そもそも創作という行為が危険性の塊なんですよね。
一線を越えた二次創作や名誉棄損、悪質なポルノなど、創作行為は常に他者を傷つける可能性を孕んだセンシティブなものです。
もちろん、それらを守るために著作権や肖像権を始めとしたルールが存在し、名誉棄損に対しては罰則が存在します。
ですが、それらのルールは先述したように最大限表現の自由を担保するために比較的緩めのルールによって回ってきました
少数のコミュニティで運用されている間はそれでよかったかもしれませんが、AIを無制限に解禁して創作に携わる人口が爆発的に増えた場合、これまでと同じような仕組みを貫くことは難しいでしょう。

自動車の普及に伴って道路交通法が整備され運転免許制度が確立されたように、技術の普及にあたってはその危険性を抑えるために規制が行われます。
表現は容易に人を傷つける力を持っているからこそ、表現の抱えるリスクについてはAIと関係なくとも、今一度見つめなおす必要があるのかもしれません

技術の登場によって人の仕事が奪われるのは当然だという見方もあると思います。
たしかに、程度の問題はあれAIの登場による市場の変化は避けられないでしょう。そんな中で、人が手綱を握れる範囲でのAIの活用を認めるというのは、AIのポテンシャルを大きく抑えるという消極的な解決策です。
その手綱を解き放った時、市場の前提は完全に変わり破壊的イノベーションが訪れます。
しかし、それと同時にモラルハザードをもたらしたのでは社会全体としては損失でしょう。
破壊的イノベーションはその社会的責任を問われることとセットなのです。

長々と議論してきましたが、強調したいこととしては技術は使用者の理解度と責任を問われること、表現行為に伴うリスクをいま一度見直すことの2点になると思います。
これはAIに限らず当たり前の事ではありますが、特に動作に人の手を離れる領域の多いAIだからこそ、より綿密に議論されるべきことでしょう。

既存の秩序は何のために存在し、どのようなルールで運用されてきたか。
守られるべき秩序を維持するためには、制度に対してどのような改定や変更を行うべきか。

そういった面での議論が活発化することを祈るばかりです。


この記事が気に入ったらサポートをしてみませんか?