見出し画像

AI技術の進化で、人間が影響を受けちゃう時代が来るんだろうね

いろんな自治体でChatGPTが業務に導入されるニュースが流れ始めて久しい。私自身はまだChatGPTを使ったことはないんだけれど、noteのCXOの深津さんが投稿している、ChatGPTに感情を持たせる実験が興味深い。

かなり昔のネタで恐縮だが、40年ほど前の米ドラマ「ナイトライダー」に出てくる自動運転可能な車(であり、そこに搭載された人工知能である)、ナイト2000(K.I.T.T.)と主人公マイケル・ナイトとの軽妙なやりとり思い出してしまった。

AIに人権をという話は、いろいろなところで指摘されているけど、この実験を見ながら私は、今後のAI規制を考えるにあたり、SF作家アイザック・アシモフ(1920-1992)のロボット3原則のことを思い出した。わかりやすく意訳すると、大まかに言ってこんな感じ。

①ロボットは人間に危害を加えてはならない(人間に危害が及ぶのを見過ごしてもならない)。
②ロボットは人間の命令に服従しなければならない(人間に危害を加える命令は除く)。
③上記①②に反しない限り、ロボットは自己を守らなければならない。

SF的に言えば、人類を敵認定するなということだし、今風に言えば、AI搭載殺人兵器を作っちゃならん、ということだと思うが、ChatGPTのような生成AIの進化を見ると末恐ろしくと思えてくる。

また、深津さんの投稿の後半で、AIとのやり取りの中で人間の感情のほうが影響を受けてしまう、という話が出てくるのだが、これは悪用されたら本当に厄介。この観点でも、AI規制は重要だろう。危害を加えてるわけじゃないから、アシモフのルールでは対応しきれないだろうし。

この四半世紀、インターネット社会の歩みとともに、SNSやメールなど、ヴァーチャル空間の向こうにいる「人間」同士のコミュニケーションが当たり前になった。面と向かってなら決して言わないであろう、相手への配慮や想像力が欠如した誹謗中傷が問題視される一方で、そうしたヴァーチャル空間を介した言動は、受け取る側の感情を確実に揺さぶってくる。

明らかな生身の人間同士でもそうなのに、人格を模したAIも、人間と同じような自然なコミュニケーションを取り始めたら、AIだとわかっていたって人間側の感情が影響を受けることは必然だろう。

ああ、怖い世の中に向かっているとしか思えない。

この記事が気に入ったらサポートをしてみませんか?