生成系AIの嘘を受け入れられるのか?
ども、かにかまトマトです。カナダでアプリとかを作ってます。
生成系AIの話なんですが、これからこういう問題ってもっと出てくるだろうなと思ったニュース。
最近企業のホームページとかに、お問い合わせのチャットシステムとか見たことがあると思います。
あれは人が向こうにいる場合もあるのですが、最近はどんどん生成系AIが勝手に会話して回答してくれるパターンが増えてきています。
エアーカナダもそれで、コンタクトセンターの問い合わせにチャットボットを使っていて自動で問い合わせに対して返事を回答するようになっています。
ただ今回そのボットが間違った回答をしてしまい、それが原因で返金賠償という形になったという記事。
おそらくチャットボットには生成系AIが使われているのではないかという推測みたいだ。
また記事では、別の例で企業の従業員向けハンドブックにChatGPTが使われていて、ハラスメントの記載が全く抜けてしまっていたみたいなのも紹介しています。
*
これからカスタマーサポートなんかはどんどん生成系AIに置き換わるだろうと予想される。
たぶんエア・カナダも生成系AIを使ってるんでしょう。
ChatGPTなんかの生成系AIはめちゃくちゃ便利だし、時代を変えてしまうくらいのポテンシャルがある技術だと思います。
今までやってきた業務をかなり効率化し、生産性を爆上げすることが出来ます。
でも、今の生成系AIはシレっと嘘をつきます。
しかも、あたかもそれが本当で事実であるかのように嘘をつきます。
我々が情報の1次ソースにたどり着く前に、納得させてしまえるだけの説得力をもって嘘をついてくるのが問題です。
僕も普段からエンジニアとして、インターネットの中を浮遊している身としてはできるだけ情報のソースがどういったものでどこから来ているのかを意識しているつもりです。
じゃないとXや検索でも有象無象すぎて変な刺激の強いニュースに踊らされてしまいそうで。
それでもなかなか1次ソースまでたどれなかったり、めんどくさくなることはしょっちゅうあります。
気をつけててもフェイクニュースを信じてしまったり、フィッシングの詐欺サイトに誘導されかけたりとかもあります。
普通にカジュアルにインターネットを使ってる人が騙されるのは無理もないのかもしれません。
それが生成系AIになると、もっと難易度があがります。
こうなると生成系AIが出す100回の回答のうち2,3回は嘘をつきますってのを、許容できるかどうかにかかってくるような気がします。
どこまでそのAIの間違いを許容できるか、どのジャンルなら間違いを許容できるか。
人だってよく間違うので、それを考えたら許容すべきなのかもしれませんが、果たして人間がAIのミスを受け入れられるのでしょうか?
結局、それをチェックするために人間が全部チェックしたりする仕事ができたりするのかもしれません。
*
なんか今の生成系AIって自信満々の優秀な新入社員みたいだなと思う。
業務もテキパキやってスゴイ優秀。
仕事も早いし教えたらなんでもすぐできるようになるし、よく知識も持っている。こいつのおかげで圧倒的に仕事が効率よく片付いた。
でもたまにミスをする。
そして自信満々なので、自分がミスするとも思ってないし注意しても反省もしない。さらにガンガン突き進む。
上司側のこちらとしてはなかなか厄介だ。
常に監視するわけにもいかないし、かといって全部の仕事を任せるのはどうかと思うし。でもなんでもこなせるだけの能力はありそうだし・・・。
みたいな感じか。
あっという間に上司の僕を追い抜くのだろうか。
というわけで
じゃあ、やっぱり生産性AIは使わないのかっていうとそれも難しくて、一度手に入れた技術を手放すわけにはいかないわけです。
はたして人間がAIの嘘を見抜けるチカラをつけることは可能なのでしょうか?
そしてなにか問題があった時にどこまで許容できるのか。
個人的にはその技術や行き先にはとても興味がありますし、もっと進化するのを期待しております。
でもたまに生成系AIはまだ嘘をつくってのを頭に入れて使わないとなぁって思ったりしています。
ではでは。
この記事が気に入ったらサポートをしてみませんか?