見出し画像

生成AIの学習の共有は個人情報保護に反してる。EUヨーロッパの法規制もそれを言っている。

一般的に、日本の法律で「個人情報保護法」というのがありますが、これは企業がアンケートなどで入手した個人情報を勝手に他人に渡すな」という法律です。

個人情報とは、氏名や生年月日や電話番号などいろいろありますが、その中でも、絶対に企業が他人に渡してはいけない厳禁の情報というのがあって、それは「センシティブ情報(繊細な情報)」といい、例えば「その人の政治思想、信念、性癖、病歴」などは絶対に漏らしてはいけない、最高の防備で守れとなってます。

で、その個人情報保護法は超有名な先進のIT企業でも厳しく遵守されていて、別に「古臭い企業」とか「人権にうるさい企業」とかじゃなく、普通に企業コンプライアンスとして一般的にルール化されています。

したがって、最近の生成AIのニュース記事で「何億枚のオタクの絵を学習しました!(ドヤッ)」とか「何億枚の大学の論文やニュース記事を学習しました!(ドヤッ)」とか見かけて、
技術者の観点としては「は?」「なんだそりゃ?個人情報の学習の量を競ってるのか?」としか思えない。

簡単に言えば、例えば「昨日、一般人のAさんが××というエロ本を買ったという情報を、全世界に共有します」というのと同じなのね。

で、今の日本企業はそういう情報は「センシティブ情報」として、他人に絶対に漏らしてはいけない最高の防備の対象となってる。

しかし、「生成AI」の界隈ではいとも簡単にそのセンシティブ情報が漏洩されてる。
おそらく「皆に嫌われてるキモいオタクの性癖の絵なんか漏洩しても、ギャハハwで笑って許されますよw」みたいになってるのだと思う。
しかし、現実には、「一般人の顔がヌード女優の顔を生成AIですげ替えされて広められ、人権侵害のディープフェイク」として世界的に大問題となってる。

キモいオタクの絵が全世界に生成AIでばらまかれるのと、
一般人の顔がヌード女優と合成されて全世界に生成AIでばらまかれるの、
地続きですからね。どちらも「センシティブ情報(性癖など)」なのですから。

最近、EUヨーロッパで生成AIの法規制が可決されて話題になりましたが、その内容というのが「ソーシャルスコア(社会的地位などのスコア化)」を生成AIで扱うことについての法規制という内容でした。
普通の一般人からすれば「なに言ってるのかわかんねーよ!難しすぎだろ!」だと思う。
これは要するに、「個人情報保護法におけるセンシティブ情報(政治思想・性癖・病歴)を絶対に他人に漏らすなという法規制」を「生成AI」にも同じことを繰り返し言いますよ?、という法律だと思います。

つまり、例えば「Aさんが過激な政治思想を持ってるとして、それを生成AIの無断学習と称して、全世界でAさんを危険人物として情報共有するのは法規制する」という内容だと思う。ソーシャルスコアというのはそういうこと。

最近の生成AIは、性癖や政治思想や病歴などを「これは学習だから!共有情報だから!無断学習は無罪だから!全世界で情報共有だ!ヒャッハーwww!」と先進のIT企業が暴走してるので、
「もう一度言いますよ?個人情報のセンシティブ情報(政治思想・性癖・病歴など)は他人に絶対に漏らすなと。分かりましたか?イエス?ノー?」とヨーロッパの国々は言ってる。

なぜヨーロッパの国々はそれを言うか?第二次世界大戦の時に、世界中でそれをやって「こいつらの人種は危険人物どもだ、劣等民族だ」とやりまくって、罪の無い無実の人々を牢屋にぶち込んだり、迫害した、しかもヨーロッパではそれを何百万人もやってて一番有名でしょう。そういう歴史があるからだと思います。

もちろん、経済競争における、EUヨーロッパのいつもの「非関税障壁」という理由もかなり大きいとも思いますけどね。

しかしまあ、そのあたりが日本のニュース記事でもほとんど触れられなくて、どうやら「それよりオタク絵の絵柄の無断学習禁止だろがー」みたいになってますが、まあそれも間違いでは無いです。
なぜなら、「オタクの性癖も個人情報のセンシティブ情報の一つだから」です。
だからヨーロッパの生成AIの法規制は「オタクの絵柄という性癖の情報」を、さらに上の法律で包括的にそれも当然に守りますよ、というものだと思います。

したがって、最近のニュースで「日本政府はEUヨーロッパと歩調を合わせて法規制を」という記事が出てますけど、ヨーロッパは「個人情報のセンシティブ情報の保護を法規制しょうとしてる」ということを踏まえて、じゃあオタクの絵の絵柄をどう「センシティブ情報(性癖)」とからめていくか?を考えれば、おそらくなんらかの道筋や理解ができそうだと思う。

ネットを見ると、古参の漫画家がAI推進でーなどの声が見られるけど、それよりも、EUヨーロッパの生成AIの法規制に「オタクの絵をセンシティブ情報として法規制に便乗して乗せられないか?」を考えるのも、戦略的に一つの方法ではと思う。実際、センシティブ情報ですし。

例えば、具体的に、EUヨーロッパでは「ヌードの写真」は「個人情報のセンシティブ情報にあたるか?」というのが真剣に議論されてると思う。
そうすると、「実在人物のモデルのヌードの絵画」って「センシティブ情報なの?」が同時に真剣に議論されているはず。
そして、「モデルが存在しないヌードの絵画」はどういう「センシティブ情報」に当たるか?もおそらく真剣に議論されてる。
問題は、オタクの二次元の絵を「いかにエロなどの表現を守りながら、個人情報の情報共有(情報漏洩)を法規制するか」という非常に難しい議論になると思う。

今のところ、日本政府の生成AIの法規制のニュース記事やそれに関する資料を散見してみても、「なんか絵柄とか無断学習にフォーカスされすぎてるなあ」という感じはしてる。

ヨーロッパの議論と、日本の議論で食い違ってるというか、次元が違うくらいの感じがする。

この記事が気に入ったらサポートをしてみませんか?