【仕事】AIは信頼するけど、信用まではしない
最近ChatGPTのネタばっかりですみません…盛り上がっちゃって(笑)。
正確さはまだまだこれから
もう話題持ちきりですね、ChatGPT。すぐに熱が冷めそうかなと思っていたら、GPT-4がリリースされたり、Googleが対抗で「Bardをリリースしてきたり、対話型のGenerative AIの話題は尽きない感じです。
しかしChatGPTがすごいのは、気遣ってくれたり、謝ってくれたりと、実は裏側には人間がいるんじゃないかって思うくらいの会話をしてくれます。
気持ち良く会話ができて、自分の役に立てば、チューリングテストや中国語の部屋とか「本当に知性があるのか?」というのは正直どうでもよいのかもしれません。
ここまで自然な会話ができるAIが出てきても、完璧なわけでもなく、むしろ人間だって間違うわけで、そういう意味だと正確度の期待値は人間を超えないけど、自分の役に立つことをアウトプットしてくれるなら、AIも期待して信頼できる相手なのかもしれません。
まさにAIは「信頼するけど、信用しない」
以前、こんな記事を書きました。
この記事の引用ですが、これは上司による部下への仕事の任せ方という文脈で書いています。
でもこれって、ChatGPTのような対話型AIにも同じ事が言えるんじゃないかと。
ChatGPTがすごいというのは多くの人が感じていることで、テクノロジーのブレイクスルーになってこれまでの検索だったり、仕事の仕方も変わりそうだという期待はあるはずです。
しかし、ChatGPTのアウトプットが本当に正しいのか?ある思想の元のバイアスがかかったものではないのか?という疑念の部分は信頼だけでは払拭できません。やはり最後はAIの回答を採用するか?ダブルチェックをするか?は人間に委ねられている部分になります。
そこが「信用」の部分ですよね。質問に対してどう応えるかについてはChatGPTを”信頼して”任せている、しかし、その結果が本当に信頼おけるものかの根拠はわからないので”信用しない”。
これからの時代に上手にChatGPTなどAIを自分の仕事仲間やパートナーとして、一緒にやっていくなら、上司が部下に対して取っている「信頼はするけど、信用はしない」「信用してないから、最終的な確認と判断は人間自身がやる」というスタンスが重要になってくるのではないかと感じています。
この記事が気に入ったらサポートをしてみませんか?