AIとの付き合い方
ChatGPTがブレークしたことで、AIの話題で持ちきりなこの頃ですが、そもそもAIと、どのように付き合っていけばいいのでしょうか。
知りたいことがあれば、会話調で答えてくれますが、それが妥当な内容かどうかはわかりません。結局、答えが使い物になるか確認する方法があれば良いのですが、どのような方法で答えを導き出したのかは教えてくれません。もちろん答えを見つけるよりも、答えを確認するほうが容易なことが多いので、役には立つわけです。
そういう意味では「自己責任」で、AIを使うのであれば何も問題はありません。でもAIがコモディティ化して、あらゆる状況で使われるようになれば、そうとも言っていられません。検索エンジンだって、検索結果を使うのは自己責任ですが、結果自身には新しい情報がある訳ではなく、既にあるものを教えてくれるだけです。検索エンジンの責任は、どのように検索するかではなく、結果として表示してよいかどうかの判断です。
AIの場合はAI自身が結果を示すので、結果に責任は発生します。その意味で、どのようにして結果を導き出したかはどうでも良いわけです。あとは、どのくらい結果を信用できるのかということです。これがわからないと自分で責任を引き受けるのも難しいです。
そういえば、どうして機能するかはわからなくても結果に責任があるものを思い出しました。そうです医薬品です。当然、どのような働きがあって結果が出るのかの説明はありますが、その働きが解明されているのかといえば、必ずしもそんなことはありません。そもそもそれは、どうでも良いのです。製造会社が効果の確認を行い、その効果の程度と結果からお役所がお墨付きを与え、どう利用すれば良い効果が得られ、逆に悪い効果についても注意喚起されます。そのうえで必要に応じて専門家(医者)が使う許可を与えた上で、ようやく使えるわけです。
AI自身が責任を取ることが出来ず、どのようにして結果が出せるのかの説明が出来なくても、充分な試験を行い妥当な結果が出ているのであれば、一定の制限の下で、その結果を信頼して使うことはできるのでしょう。特に理解できていないことをAIに判断させるには、結果を確認することが難しく利用者が責任を取りようがないので、このような方法しか無いのかもしれません。
もちろん民間薬のように、どうして効くのかはまったくわからなくても、効果が信じられているものもあります。AI も、ある程度までは、よくわからなくても信じて良い範囲はあるでしょう。モノによっては特に処方箋がなくても注意書きに従えば良い AI もあるのかもしれません。でも非常に重要な判断をさせるのであれば、専門家が問題を判断し、AI を使っても良いと決め、決まった使い方のみが許されるなんていうことになるのかもしれません。
似たような話は人に代わって自動車を運転させる時にも出てくるでしょう。充分に確認された環境で、確認済みの使い方をしたときのみ、責任を取ってもらえますが、それを逸脱すれば自己責任です。どうやらポイントは、AIが出してきた結果に対して、誰がどのように責任を取るべきなのか、そもそも取れるのか、ということなのかもしれません。
人には感情があるので、AIに対して、どのような感情を持つのか、持ってよいのかで、付き合い方が決まっていくように思えます。もちろんAIも感情の「ようなもの」を示すでしょうが、それを感情と解釈してよいのかは人間が決めるしかありませんしね。いやいや、楽しい世の中になったものです。
せっかくなので、ChatGPTにも聞いてみました。
ヘッダ画像は、いらすとや さんより
https://www.irasutoya.com/2018/03/ai.html
この記事が気に入ったらサポートをしてみませんか?