なぜ人は生成AIに学習されることに嫌悪感を抱くのか言語化してみる
はじめに
はじめまして。リツといいます。どうぞよろしくお願いします。今回が初めてのnote投稿になるので、読みづらい部分があると思いますが、最後まで読んでいただけると幸いです。
◇はじめに②(追記2024/3/24)
この記事が私が想像していた以上に拡散されています。自分の考えを多くの人に伝えることが出来て嬉しい限りです。しかし、拡散されていくと同時に、私の語彙力のなさも相まって想定外の解釈が生まれているのも現在発見しています。記事のまとめになりますが、私がこの記事で伝えたいのは、
1、人間の感情・直感を大切にしよう
2、道具の便利な部分だけではなく影の部分にも目を向けよう
3、互いの考えを反映させるために、パブコメ以上にしっかりとした話し合いの場を作ろう
この3つを念頭に置いて読んでいただければあまり解釈違いは起こさないと思います。
また、多くの誤字脱字、伝わりにくい表現等の指摘をいただきましたのでそこについても訂正しました。皆さんありがとうございます。この時たしか寝不足で書いていたので許してください。
◇筆者はどんな人か
まずは簡単に自己紹介を。といってもどこにでもいるような一般人としかいえません。特に何もせずぼーっと生きてます。数学関連の話題とイラスト(主に東方)鑑賞をするためにツイッターを利用しています。今回の生成AI問題については、裏方さんの事件から関心を持ち始め、真剣に考えるようになりました。
◇筆者のスタンス
私のスタンスは、「生成AIによる無断学習は禁止」です。これは、学習元のビッグデータ、そして、Loraなどの追加学習の両方に対してです。無断で学習されない権利を求めています。
◇この記事の内容
このnoteでは法律云々の話をするつもりは一切なく、ここ一ヶ月ほどこの問題に触れて感じたことを考察する内容になります。いわば、長文のお気持ち表明です。
お気持ち表明と書いてしまうと、「お気持ちなんかいらない!」という人が絶対に現れますが、そう焦らずに聞いてください。この世の法律というのは人間の感情なしにはできません。殺人罪だって人が死んだら悲しいという思いがなければできないものです。こう言うと、「殺人罪は、人が減ることで社会全体の利益が〜」などという方も出てきますが、利益が減るということをデメリットに感じるのも人ならではの感情という機能があってこそです。別にすべてを感情で決めろと言っているわけではないですが、お気持ちを表明することにはある程度意義があると思います。
この記事で言いたいこと
先に、このnoteで一番主張したいことを書いておきます。それは、
「現在のAIを取り巻く法・倫理は技術者の考えのみで出来上がっているものであり、まずはデータ提供者の意見も聞く態度や意識、環境が必要である」
ということです。
ここからは、現在のAIに関する法律・倫理がいかに技術者寄りになっていてそれのどこが問題なのかを考察していこうと思います。
本当はツイッターで呟こうとも思いましたが、拡散力がないし、課金してないので長文を何ツイートにも分けて書くと読みづらいと思いnoteに書くことにしました。とても長くなると思いますが、最後まで読んでいただけると幸いです!
ついでに多くの人の意見を知りたいので拡散していただけると幸いです。
嫌悪感について議論する意義
さて、本題に入りましょう。最近私はツイッターでこのような会話をよく見かけます。
まず、最初に言っておきたいのが、これはあくまで一例であってすべての規制派推進派がこう思っているわけではないということだ。僕が一番嫌いな人間は主語が大きい人なのでそこには気をつけていきたい。また、このnoteで主語が大きいと感じる表現はなるべくしていないつもりだが、そう見えてしまった場合は、「きっと◯◯という集団の中でもこういう人のことを指してるんだな」と考えを巡らせてスルーしてほしい。揚げ足取りが続くと話が進まない。
特に、ケース1と2についてはよく見かけるといった印象。「自分の子供をハンバーグにしろと言われて素直に差し出すわけがない」という規制派の意見に対して、「まだお子さんは隣にいますよ」といったように、ケース1・2そのままではなく、例えを否定されるといった事例のほうが多い気がする。
さて、これを見てどう思っただろうか。
私は、この会話を見て、言語化できないモヤモヤする何かを感じた。それもそのはず、確かに生成AIは何も奪ってはいない。作品を作る技術が創作者から失われたわけでもなければ、データを消されたわけでもない。また、学習というのは人間もやっていることである。実際、これに具体的な反論があまりできていないせいで、推進派の中には「結局努力を認めてほしいだけ」「努力してないのが嫌なだけの老害」と考えている人も少なくない。
しかし、しかしだ。何かがおかしいと感じる。実際、自分がもし創作をしたとしても僕は絶対に無断学習を拒否したい。普通に自然人が模写したなどだったら全然許可するのだが、AIに対する嫌悪感は消すことができないと考えている人は多いはずである。別に本当に盗まれていないはずなのに機械に学習されるとなると盗んでいるように感じる。
そこで、私はこの違和感を言語化するべきだと思った。いいかえれば、生成AIは私達から何を奪っていくのかである。言語化することで、より規制するべき理由を明確に表現することができ、規制派の考えを政府に反映させることにつながると考えた。よってこのことについて議論することはとても有意義だと考えた。ここからはこの件について私なりの見解を書いていく。
自然人による学習と機械による学習の相違点
まずはここから考えていきたい。自然人の言う学習と機械の学習の違いについて私が考えるのはこの3点である。
大量生産の容易さ
不特定多数が利用できる点
思考のルートの不明瞭さ
①大量生産の容易さ
これに関しては相違点としてはわかりやすいものであるが、私はそこまで問題視していないのでここでは取り上げない。一つ言うなら、この性質によって違法とされるものが、無造作に大量に生産することができてしまう。少し前に問題になった馬娘問題についても、手書きならばある程度の部分まで自浄作用が働くところを、大量生産されればそれも難しくなる。いずれにせよ、運営の言うことを聞かない絵師は手書きAI関わらずなくなるべきだ。
②不特定多数が利用できる点
自然人が学習したものは、その人のみが自分の力として身につける。それに対して、機械による学習は、機械が得た情報を不特定多数に広げてしまう。この違いは小さいようで結構大きく、誰でも利用可能なことが没個性化に繋がる可能性があり、このことは問題視するべき点であると考える。詳しくは後でまとめて説明する。
③思考ルートの不明瞭さ
今回の話は主にこの点にフォーカスを当てていきたい。
自然人の学習は、完成品から原作者について様々な考察をしながら進めるものである。そのため、同じ表現方法を学んで得ても、その表現に至るまでのプロセスは異なるかもしれない。例えば、この部分の書き方はAという効果のために〜と考察していたとしても、実際作者は別の効果のためにその表現を入れているかもしれないし、はたまたそんなことは意識していないかもしれない。
しかし、AIの場合はその表現方法をあらゆる面、著作者が意図して書いてるところから無意識のうちに描き込んでいる所、癖まであらゆるものを学習してしまう。
以上の点が、私が考える自然人とAIの違いだ。この違いによって生まれるAIだけに感じる嫌悪感の正体とはなんだろう。これについて、私はクローン技術に似ている部分があると感じた。
無意識の複製〜生成AIとクローン技術
よく、生成AIを銃や薬物などで例える人が多いが、前述の通り私はクローン技術に例えるのが一番いいと考える。その理由について説明する。
ここで質問です。あなたはクローン技術でコピーされることに何故生理的に嫌悪感を示す人がいるのかを明確に、具体的に言語化できますか?
たぶんできない、できると言った人でも「倫理的に…」「人間の尊厳が…」という答えしかできないだろう。じゃあ、倫理的ってなんだよ。人間の尊厳ってなんだよ。って感じ。
もしくは「そもそも問題ないだろ」って答える人もいるかもしれない。たしかに、天才のクローンを作り思考の効率を上げたり、筋肉がすごい人をコピーして肉体労働をやらせたらその分世界の発展に貢献できる。もしかしたら、大谷翔平選手を9人コピーしたら最強の球団ができるかもしれない。しかし、野球選手は球団のために自分のクローンを作るのは許してくれるだろうか。野球選手から自然人が野球の技術を見て学ぶのは全然許してくれるだろうが。
しかし人類はそれをしようとしない。そっちのほうが効率的で合理的なのに。まあ、コスト面が〜とか、戸籍とかそっち系の法律上〜の反論はあるかもしれないが仮に10円でクローンが作れるようになり、戸籍なども問題ないとなったとしてもたぶんクローンは規制されたままだろう。(戸籍に関する法律ができてるならクローンも合法になっているだろ!というツッコミはさておき)
こんな例を上げて結局何が言いたいのか。それは、この「言語化できない倫理」これこれこそが生成AIをクリエイターが嫌う倫理と同じものだと考える。
自分の個性・アイデンティティ、しかも自分ですら気がついてない無意識でやっていることまでもが、いつの間にか知らないうちに誰かに使用される。そのことに人間は恐怖する。この恐怖を勝手に「無意識の複製」とでも呼んでおこう。
よく、生成AIと写真・活版印刷は同じであると言っている人がいるが、写真や活版印刷はそっくりそのまま複製するものである。しかし、生成AIはそのままの複製ではない。無意識までもを複製する。
法解釈や著作権では語れないものが無意識の複製にはある。これこそが言語化できない嫌悪感であり全ての問題の根源であると考える。しかし、推進派は一生理由を求めるばかりで一向に話は合わない。
では、生成AIを問題ないと言っている人間、特に技術者の方の中で、クリエイターがこのような恐怖を抱いているということを知っているという人はどれくらいいるだろうか。
言ってしまえば、そういう人たちの考えは技術の発展のために人から遺伝子を無断で奪いクローンを培養するのと変わらない。この無意識の複製に対する理解の差がこの問題を引き起こしているのだ。
しかし、これを聞いた技術者が、「じゃあその恐怖心を無くすように理解させよう!」とはなってほしくない。無意識の複製に対する恐怖心は当事者以外には完全には分からないものだからだ。
《結論》生成AIを人権問題として捉えるということを強く主張したい
よく、規制派の方は全分野のクリエイターが考えるべき問題と言っているが僕はそれは違うと思う。私はこの生成AI問題は、創作をしてるしていないに関わらず、全人類が関心を持つべきものだと考えている。
なぜなら、今回の件で作られた基準は今後の新技術ができたときの基準として使われる、すなわち技術のためなら人のアイデンティティはどこまで犠牲になっていいかの基準になってくると思っている。もし、生成AIに無断で学習させることがまかり通ってしまえばいつかは、声、指紋、もしかしたら人間そのものまで技術のために共有されることが許されてしまうかもしれない。大袈裟だ、こじつけだと思われるかもしれないけれど私は本気でそう考えている。
今後もし、ネットを通じて私たちの体自身に干渉できる技術ができたとしたら、私たちの体の情報、指紋・DNA・性質すべてを技術のために無償で提供しなければいけない社会が来るのだろうか。それとも、そうなってから人類は自分の人権が知らず知らずのうちに脅かされていたことに気付くのだろうか。
規制派の中でも薄々感づいている人はいるのではないだろうか。著作権という観点からこの問題を攻めていくのには限界があり、現実的に考えて著作権法にAIの内容を組み込むことは難しいことであるということに。
『生成AIは人権問題』
私は、今後もこのことをパブコメなどで政府に伝え続けていきたい。 また、技術者の方々には、学習元との話し合い、学習元となるクリエイターの立場強化を求める。今の生成AIを取り巻く構造は技術者とデータ提供者の不平等を埋めるところから始めるべきだ。
生成AIはこの数年間、私たちに生活の質と今後の未来への希望を与えてくれたのは事実である。しかし、それと同時に影の部分も見つかり始めている。
今の状況はまるで植民地時代みたいだ。その当時、ヨーロッパの人々はアメリカの植民地化によってさまざまな恩恵を得られた。今後の発展に希望を見出したことだろう。しかし、その裏には奴隷という影の部分が隠れており、最終的にアメリカはボストン茶会事件を発端にアメリカは独立を成し遂げた。
今立ち上がらないでどうする。一生技術的奴隷のままでいるのか。奴隷が当たり前になってしまった社会で、いつのまにかAIのためならイラスト・文章・翻訳物を読み込むのは当たり前になってしまった社会で、反論できないままでいるのか。すでにできてしまった社会規範を疑問視することは何も悪いことではない。それは歴史が証明している。
そのためにも、私はこの新たな人権を主張し続けたい。
この問題が解決し、再び利用者、データ提供者を含む全ての人々が生成AI技術に希望を見出せるようになることを心から望む。
ここまで読んでくれてありがとうございます。僕も、まだまだ考えが至らぬ点も多くあると思うのでぜひコメントやらツイッターやらでみなさんの意見をぜひお聞かせください。本当に最後まで読んでいただきありがとうございました!
P.S.(2024/3/21)
最近、才能の民主化というお話が出てきましたが、私が問題提起したかった部分はまさしくそれです。(原文の民主化の使い方が分かりづらく解釈が分かれるところですが、私はあの原文の民主化を社会全体の共有財産化をという意味で捉えています。)この共有財産化こそが今回の生成AI問題の根本です。いい問題提起をありがとうございます。その認識の差を言いたかったのです。
この記事が気に入ったらサポートをしてみませんか?