生成AIと刃物と

コンピュータは道具だと、ずっと思っていたし、今でもそう思っている。
コンピュータと言うと過剰反応される方もいらっしゃるけれど、道具に過ぎないと私は考えている。

ただ、生成AIになって、ちょっと立ち位置を変えないといけないんだろうか?という気が、少しして来た。というよりも、評論家的に「AIってのはね!」なんて語っている場合じゃない、とにかくすぐにも使って、使いこなして、仕事のどの部分に使えるか見極めないと、何となくSEという仕事の看板上、問題がありそうな気がして来た。

ざわざわしたのは、このニュース。

そこまで来たか、と思ったのは、これ。

ベルギーでは去年、架空のキャラクターとの会話ができる対話型AIサービスを使っていた男性が6週間やり取りを続けたすえ、みずから命を絶ったケースが報道されました。

https://www3.nhk.or.jp/news/html/20240525/k10014459361000.html

そして、今日のニュース

ニュースといえば、時々テレビやラジオで見聞きしていたのは、「男は、刃渡18cmの包丁で」なんていう辺り。ドキッとして反応しちゃう。私が事務所で「気分転換の料理」に使っているのは、刃渡20cmと15cmの、ごくありふれた包丁。(15cmの方は、実はほとんど使っていない、使い分けるほどのウデがない。魚は切り身で買ってくるし、、、。)

ところが、ニュースで「刃渡なんcm」なんていう形容表現がついたとたんに、なんだかすごい凶器のように感じてしまう。確かに包丁は、こういう言い方をすると語弊があるかもしれないけれど、凶器としてはかなりグレードが高い(凶器度が高い!?)ような気がする。
ニュースで聞く「金属バットや鉄パイプを手にした男たちが、、、」っていうあの「凶器準備集合」みたいなニュースの、金属バットは、スポーツ用品、でしょ?凶器ではないはずなのに、「凶器準備集合」って、なんで?

鉄パイプ、工事現場の足場に使うような奴は、はっきり言って私は持ち上げるのがやっとの気がする。箸より重いものは持ったことがないし。今時、水道管は塩ビが多い気がするし、この鉄パイプだけは想像しきれないんだけれども、どう考えたって、本来的には金属バットは「凶器」じゃないでしょ?と思うんだが、、、。
ただなぁ、、、。医用工学をやっていて、生体工学の勉強なんかもして来て、その気になったら全てのものが凶器にできるな、なんて考えたりもしたことがあるんだけれども、普通は、シャープペンやボールペンを「凶器」だと思っている人はいないと思うし。

結局、「道具」が道具として本来の目的のために使われるか、凶器になるかは、すべて使い手次第、凶器にするのは使い手の責任、ということになるんだろうか。「刃物」のレベルならば。

AIの場合、生みの親と育ての親と、両方が必要になる。生みの親は、言ってみればハードウェアを提供して利用可能にしてくれているサービスが該当すると思う。そして、AIに学習用のデータを提供するのが「育ての親」ということになるんだろうか。で、その育ての親が悪ければ、AIはとてつもなく粗悪な代物になってしまう。生みの親より育ての親の方が数十倍責任が重いように感じる。
で、その「悪い育ち方をしたAI」が、社会に悪影響を及ぼした場合、その責任はどこにあるんだろうか?

人間の子供の場合、接する周囲の人たちから知識や経験を吸収して学習するから、「環境」がとても大事だということはよく言われている。
テロ集団のボコハラムに誘拐された子供は、殺人マシンとなるような教育を受けるらしい。その洗脳を解くのもかなり時間がかかると聞いている。その場合、殺人マシンとなってしまった人にどのくらい責任があるんだろうか?一番責任があるのはおそらく、ボコハラムだと思う。

AIのサービス提供者を仮に、ServerのSを取ってS社とする。このS社が、不特定多数が「育ての親」となることを容認した結果、AIが悪い育ち方をしたなら、もし、そのAIが訳のわからないことを言い出して、社会を混乱させたら、その結果の社会的責任はS社が負うことになるような気がする。

生成AIは、ほとんど去年、今年に急に話題になっているから、まだ事例も出揃わない一方で、急速に「サービス提供事業者」が増えているらしい。
どうもニュースの感じから、例えばサービス提供のS社が、A社、B社、C社の三社にサービスを提供した場合、AI本体の学習にA社、B社、C社のデータをごちゃ混ぜに使うのか、それとも、A社が使うAIはA社が育て、B社のデータはB社、C社のデータはC社と、育ての親を切り分けたとすると、この場合、単純に学習データが三分の一程度しか集まらないから、育つのも遅いかも知れないけれど、育ったAIが誤った出力をした結果による損害の責任は、A社のものはA社、C社のAIではC社と、育ての親の側に責任が移る、そんな気がする。
こういうのは法的にも、きちんとしておかないと、後が大変じゃないんだろうか?

SNSでフェイクを拡散しました。それによって混乱が起きた。その場合、フェイクが拡散されているという指摘を受けても記事を放置したならば、その責任はSNSの運営会社に行く、と、私は理解しているんだけれども、どうもそういう判例が出ていないのか、まだ法的な解釈などが確立していないのか、明らかに、フェイクであっても自分に都合のいい記事は拡散させたいSNSの運営会社もある、みたいだし、個人的には、最近私は、SNSは「質」が気になって、若干敬遠気味。
AIも、それに近い事態に陥るんだろうか。

人間の子供の場合、成人して「大人」になったら、もはや「どういう育ち方をしたか」にかかわらず、責任はその人本人が負うことになる。(恨むんなら、親を恨め、っていうケースもありそうだけどなぁ、、。)ところが、AIは「大人」にならない。どれほど擬人化された言動をしても、AIそれ自体は、財産権を持っているわけでもないし、損害賠償しようがない。
ということは、AIが「殺人教唆」をしたりしたなら、一義的には、その責任は生みの親、つまり、サービス提供会社に行く、ということだろうか。育ての親が誰なのか、明確になっている場合には、「育ての親」の側に責任がいきそうな気がするけれど。

単なる「道具」だったら、こんな議論は起きない気がする。
と考えて来てみたけれど、、、
いや、ちょっと待てよ?やっぱり、単なる「道具」で、AIがどんなおバカな結論を出したとしても、責任はそれを間に受けたユーザが負うことだけは変わらない?っていうことになる、その可能性もあるな、と思ってしまった。

だとすると、AIが出したこんな答えを間に受けた「犯人」が逮捕されました、みたいな、かなりおバカなニュースが今後は溢れることになるのかも。
AIが吐き出した文面が、実はかなり「慇懃無礼」だったりなんかして、それをそのまま顧客に流して大失敗した、なんていう社員が出てくると、「部長、AIがこんな文章を出して来たんですが、このまま顧客に流しても大丈夫ですか?」みたいに、経験を積んだベテラン社員に結局最終確認をお願いするようになったりして。そうすると、今まで以上に仕事が増えるベテランとか出て来たりなんかして、、、。どうなるんだろうな?もし、サービス提供側も、AIにデータを食わせた「育ての親」も責任を負わないとすると、結局、AIの出した答えを判断できる程度に、AI以上に正しい判断力がないとAIを使えない、ということは、起きてくるんだろうか?だったら、使う意味ないじゃんか。

どれほど「まるでヒトみたい」な反応をしたところで、所詮は、プログラムと計算回路の塊ですからね、、、。AIも。

なんか、ちょっと、ザワザワした。
なんて、こんなまるで評論家みたいなページを書いているけれど、とにかくプレーヤーとして実際にAIを使う側に飛び込んでいって、それなりにノウハウを身につけていかないと、サバイバルできないかもなぁ、、、。

テレビやラジオのニュースでの「刃渡18cm」が「AI」に置き換わったとして、流れてくるニュースが、鳥肌が立つようなものではなく、笑えるようなものであって欲しいと願う。
あれこれ考えた挙句の私の結論は、やっぱり「道具」、なのかも知れない。

この記事が気に入ったらサポートをしてみませんか?