責任あるAI推進基本法(案)に対する意見

このような提案がありまして、論拠とか書いていたら長くなってしまったのでこっちにまとめます。

規制については市民の意見を取り入れる旨が示されており、パブコメではありませんが意見することも意味があると思います。

意見の骨子

④義務遵守状況の報告義務と監督
⑤罰則等
について。
まず、現状の規制案については、以下の5点が不十分になることが危惧されるため、具体的なリスクと対策について提示しますのでご検討いただきたく。
❶悪意(嫉妬、愉快犯など)による軽率かつ執拗な犯人の大量発生
❷生成AIは被害数、被害者数が莫大になりうる
❸敵性国による司法手続き飽和攻撃の手段になりうる
❹責任者の不明化、希薄化
❺闇バイトを使った情報操作攻撃
それぞれの根拠と具体例については長くなるので後述します。
結局のところ、生成AIは「事件数、検証すべき作品数がけた外れに多くなる」「一般的な著作権侵害よりはるかに容易、深刻な被害を小学生でも出せる」「生成AIをまともに利用しようにも、末端利用者がクリーンさを検証しづらい」「生成AIを ”利用していない”ことの証明が難しい」点が深刻です。よって、3つのスタンスを法運用に導入すべきと思います。
1.マイナンバー的なシリアル値を、生成AIと生成AI作品の「開発」「公開」「販売」に必須とする
2.シリアル値はいわば全人類の生得的生成AI利用免許とし、違反したらペナルティ
3.生成AIの包括的規制と事例ごとの規制の二段構えとし、司法判断を容易にする

1.については、マイナンバーそのものをやり取りするのは色々問題なので、マイナンバーと紐づけられた別のプチマイナンバーのようなものを登録し、運転免許と同じく「有効/無効」だけ返すサーバーを用意するのがいいと思います。これはより安全にワンタイムマイナンバーにしても良いかと思います。「責任あるAI推進基本法(案)」の特定デジタルプラットフォームにも必要と思います。
2.については、ブラックリスト方式とホワイトリスト方式のどちらにするかという判断が必要ですが、僕の意見としては、「生成AIで迷惑電話応答を設定する高齢者」のような、利用者登録するほどの動機もスキルもないライトユーザーを考え、「違反しない限りはライトな利用はできるが、違反したら履歴登録され制限される」ブラックリスト方式が良いかと思います。
3.ですが、これは商標や意匠の運用を真似るものです。つまり、商標法は違反すれば即有罪ですが、商標法ではシロでも不正競争防止法では有罪、という風に「形式による容易な司法判断ができる第一規制」「事例ごとに検証が必要な第二規制」を段階的に用いるものです。生成AIによる犯罪は、年間数十万を超えるような莫大な事例を覚悟しなければなりません。しかも検証すべき作品数もいくらでも増やせる。システム的に新しく法規制しなければ、とてもさばききれないかと思います。

以上、一市民からの意見です。以下、提案の根拠と具体例です(長い)。

根拠及び具体例

❶悪意(嫉妬、愉快犯など)による軽率かつ執拗な犯人の大量発生
悪意の多さと恐ろしさについて、もっと注意すべきです。例えば、絵を描くという能力はわかりやすく称賛されやすいため嫉妬を受けやすいものです。それに加えて、「絵柄」はほとんど個人認証に近いレベルで認識されます。視点を変えれば、嫌がらせをしたい絵師の絵柄をまねて下品、違法、その他品位を貶める作品を多数投稿すれば、多くの人は疑いません。それはこれまでもあったものですが、そのためには絵柄をまねるために練習したり、自分で手を動かして出来の悪いコラージュを作るのが関の山でした。多くの人間にとっては「手間>悪意」でした。生成AIというツールはこういった「嘘をつく犯罪」を非常に簡単に実行できるため、これまで潜伏していた潜在犯が多数出現することが予想されます。一次創作の中には、二次創作でエログロを表現することを明確に禁じている作品も多数あり、絵柄をまねて出品されては裁判の範囲も膨大になり得ます。また、嫉妬などネガティブな感情で犯罪に手を染める輩はとにかく執拗であり、そのための専用ツールなどを準備したり複数アカウントで並行して攻撃することも考えなくてはなりません。加えて、原作者に寄せた絵柄で数万件の絵を投稿すれば、もはや原作者が誰なのかの判断から難しくなります。
❷生成AIは被害数、被害者数が莫大になりうる
についてはいまさら説明の必要はないと思いますが、司法システムの方で予防および再犯防止する工夫が必要です。平成28年の知財関連犯罪は594と発表されていますが、生成AIがなければ人力による著作権侵害などたかが知れていますから、司法機関も年間1000件も捌く能力があればよいでしょう。しかし、❶に示したように生成AIは事件発生件数を激増させます。年間10000件、しかも作品数は無尽蔵に増加しうるとなれば、現状の司法システムではソフト/ハード両面で対応しきれません。
❸敵性国による司法手続き飽和攻撃の手段になりうる
これもまた未対応に思います。一般的に、他国の知的財産権は無視した方が国としては儲かります(信用など度外視しての短期的な儲けではありますが)。他国の産出したマスカット品種に対して律儀に使用料を払っても、自国は一切儲からないばかりか、生産量も制限され価格も高くならざるを得ないのですから、「お互いに知的財産権を守る」ことを軽視するなら無視した方がいいわけです。このように、日本の知的財産権を守るシステムは、他国にとってほとんど価値がないばかりか、パンクしてくれた方がありがたい、という見方もできます(もちろん、日本人が他国の知財を侵害するような事例ではその限りではありませんが)。つまり、日本という国の競争力をジリジリと削ぐ、という意図で生成AIが使われる事例も考えなくてはいけません。
❹責任者の不明化、希薄化
AIが永遠にできないこと、それは責任を取ることです。人間の場合、究極の責任の取り方として「命」があるわけですが、AIにそんなものはありません。わかりやすい例でいえば、自動運転車が事故を起こした場合、AIではなく製造会社が「製造物責任」という形で責任をとるはずです。これは言い換えると、現状の日本国内では「人間が運転する車で〇国大統領を轢き殺せば危険運転致死で人間が服役」だが、「自動運転車が暴走して〇国大統領を轢き殺せば製造物責任法で金で解決」です。テロリストが自動運転の会社を立ち上げ、自動運転AIに細工をして暗殺に利用したとしても、証拠がなければ金銭的な責任しか生じないのです。生成AIも同様の問題があります。つまり、違法な生成AI用のツール及び違法なデータセットをネット上に放流した場合、そしてそれを利用した犯罪において誰が責任を負うのか。責任割合は?これらについても対応する必要がありますが、放流された違法ツールになるとやはり事案数が激増しそうです。
❺闇バイトを使った情報操作攻撃
株価や為替などは、事件で変動します。そして嘘による相場の操作は生成AIにより容易になります。例えば、「〇〇という企業が反重力装置を開発して公園で実証実験をした」というフェイクニュース。100人くらいを闇バイトで雇って一人1万円を渡し、ばらばらの指定時間に100通りに作られたフェイク動画を投稿するように指示する。一時的に株価は跳ね上がるでしょうから、そこで売ったお金が100万円を超えれば儲かります。企業によっては数十億数百億も不可能ではない、となれば動機としては十分です。

この記事が気に入ったらサポートをしてみませんか?