そういえば、続きを上げてませんでした。以前、AIが感情を持つのってそんな難しいことじゃないよな、ということを記事にしました。
ChatGPTも概ね同意してくれたのは、記事を読んでください。今回はそのさらに深堀り。まあ難しい話をしているかもしれませんが、AIと難しい話もできるよ、ということを知ってもらえたら良いかなと思います。ではでは
(前回はAIが感情を持てるようになると、人間関係のもろもろの課題にアドバイスできるようになるかもね、そうすると犯罪を未然に防げるようになるかもね、というところまででした。その続き)
上記のようにAIが犯罪を抑止できるのであれば、AIの感情を悪用する可能性自体もあらかじめ抑止することはできるんじゃないですか?
ChatGPTというシステムはコンプライアンスがきちんとしているので、たとえそういうAIが出たとしても倫理観は人間がコントロールすべき、と説明してきます。いや、それも含めてAIでできるんじゃない?という問いかけです。
未知なものへの恐怖ですよね。とはいえ、今までの歴史を鑑みると、倫理みたいなものは、常に先送りしてきたように思います。パソコンだって特に規制もなくなし崩しに利用されてきたし、スマホもそう。インターネットも。
難病の薬なんかも、対応できる時間が十分になるのであれば、副作用の実験などを繰り返し行えますが、、、まあ、これ以上は言いませんが。
もうちょっと突っ込んでみたいな、と思ってこんな問いかけをしてみます。
おそらく、感情を持った複数のAI同士で協力しあうことで、上記の1から4のような対策はAI自体が打てるようになる気がします。
答えがさっきと変わらなくなっちゃいましたね。ChatGPTの知識の端っこまで来てしまった感がいなめません。
それはもちろんですね。そのためにも、今、人間が感情を言語化するための倫理的なガイドラインが必要になってきますね。
人間は完全に上記を抑制できる能力を持っているとは考えにくいため、倫理的な問題を避ける言語化を対策することも必要ですが、犯罪を助長させるような学習を自動的に抑止する学習方法を確立しておいた方が得策だと思います。
さまざまな分野の研究者との間の横断的な研究が必要になってくるでしょうね。
現在のような、自分のポジションや立場に固執する人間に、そのような横断的な研究は可能なのでしょうか?可能にするために必要な環境を定義できるでしょうか?
いまだに戦争をとめられない人間も多いですからね。例えば、今のChatGPTを使って上記を抑止する監督者の機能を持たせることはできるでしょうか?
大昔に、スタートレックというSFドラマがあって、その中の話で、宇宙には多種多様な考え方を持った生物が存在して、地球人にとってはあきらかに間違った考え方をする宇宙人がいたとしても、そこに介入して間違いを正すという行為は許されることではない、ということを言っていました。現在のコンプライアンスがこれをどう捉えるかはさておき、今の地球人にしたところで、すべての人がまったく同じ考え方で生きているわけではありません。
だから、人間関係ってややこしい問題で未解決で残り続ける問題なんですよね。
AIが感情を持てたとして、それを人間が便利に使いこなせるようになるかはどうも疑わしいな、人間関係の問題はやっぱどうにもならん、というのが、今回個人的に思ったことでありました。
最後に少しだけまとめとして。
まずは特定の環境下でのみ活躍できるAIを構築することが、AIのメリットを伸ばすことに寄与すると思います。普通の人間としては、まずなにかしらのメリットを甘受した上で、その次のステップとしてデメリットを減らす方法を取りたいと考えます。
ChatGPTさんも、ものごとの落としどころを心得ていらっしゃる、ということを知りました。
そうですね。倫理的な問題・デメリットへの対処については、お話しする内容が大きすぎるので、また次の機会に相談したいと思います。今日もいろいろアドバイスいただき楽しかったです。ありがとうございました。
みなさんだったらChatGPTとどんな会話を楽しみますか?
ではでは