見出し画像

『「カスハラ」生成AIで再現、新興が対策テック 離職防ぐ』~【新しいweb3ビジネスのアイディアのタネ】2023.10.17


■「カスハラ」生成AIで再現、新興が対策テック 離職防ぐ

顧客や取引先による著しい迷惑行為「カスタマーハラスメント(カスハラ)」。激高する客を生成AI(人工知能)で再現するなど、スタートアップが先端技術で研修や抑止するサービスを広げる。心理的な負担で離職が起きると、コールセンター業界では1人あたり80万円超の損失が出るとの試算もある。働き手が足りない中、デジタル技術での解決策に迫る。

電話の音声会話でカスタマーサポートをするコールセンターは、かけてくる人も受ける人も人間です。しかもサポートが必要な状況に陥っているお客さんは怒っていることが多くなりがちで、それに応対しなければならないオペレーターは大変なストレスを感じます。

この電話オペレーター業務をAIで支援することでストレスを低減するソリューションが日経新聞に改めて紹介されていました。

ChatGPTの登場である程度の「会話」ができるようになった現在、究極的にはコールセンター側をすべてAI応答で無人化、というより「非人化」することが進むと思いますが、人間が応対する場合でも、AIがさまざまなサポートをすることができます。


NGワードや大声を検知して警告しカスハラ防止

北海道大学発スタートアップのティ・アイ・エル(TIL、東京・千代田)は音声をその場で文章に変換してチェックするシステムを開発した。消費者や取引先が企業に悪質なクレームや理不尽な要求をする「カスタマーハラスメント(カスハラ)」が様々な業界で問題になっている。開発したシステムは事業者が顧客と1対1で接する場面でカスハラやトラブルが起きるのを防ぐ。

2019年11月というChatGPT流行以前から、AIを使ったコールセンターでのカスハラ(カスタマーハラスメント)防止のソリューションは登場しています。

ここでは、電話口で声を荒らげたり暴言を吐くと自動検知して警告するシステムが紹介されています。

このシステムは現在ではGPT-4を採用し、コールセンターのカスハラ防止以外の用途にも拡大しています。

TILは独自開発されたボイスレコーダーデバイスとソフトウェアによって、現場でのコミュニケーションを全てテキスト保存します。
あらかじめ設定された禁止語句や大声などをAIが検知するとオペレーションセンターへ自動通報し、訪問先や密室でのトラブル発生を防ぎます。

コールセンターに設置された電話にも物理的に挟めるようにするためか、専用のボイスレコーダーデバイスを使うのが独特ですが、「訪問先や密室でのトラブル発生を防ぐ」とし、コールセンター以外の場所でも「大声や暴言」を検知できるようにしています。


会話内容の検索や要約

テキスト保存されたデータは担当者・日時・場所・単語等によって検索ができ、事故対応時のエビデンスとして活用することが可能です。

声を自動でテキスト起こしして内容をAIが解析するという流れなので、検索ができるのも特徴です。

単語などでの検索ができるのはもちろんですが、ChatGPTに要約させたり、ピンポイントのキーワードだけでなく文脈から幅広く検索することも可能になるはずです。


顧客・オペレーター双方の「感情」の可視化

ChatGPTに「お客さまの感情を“Angry(怒り)”“Stress(緊張)”“Joy(喜び)”“Aggression(攻撃的)”“Upset(動揺)”の5つで分類してください」とお願いすると、顧客が怒っている接客場面が抽出できます。その要因として、社員側の「応対マナー」の評価を行ってもらい、それが問題ない場合のみを精査することで、低コストでカスハラの可能性がある場面を抽出することが可能になるのです。

こちらはIdein社の「AIマイク」というソリューションです。

専用のAIマイクというデバイスを設置して会話内容を記録、その内容をChatGPTに感情分析させて可視化することができます。

カスハラの未然防止という観点では、感情的に電話をかけてきた人も、眼前に「あなたは怒っています」と表示されれば少し冷静になるかもしれません。(逆上する人もいるかもしれませんが。)そのようなリアルタイムに見せる使い方は提示されていませんが、あとから振り返ることで、顧客側だけでなくオペレーター側にも「応対マナー」の問題がなかったかを検証できるようにしています。

怒っている人を落ち着かせることが上手なオペレーターのテクニックを学ぶことに役立ちそうです。


法律を守った販売行為が行われたか判定

「法律を守った販売行為が行われたか判定してください」など、現場で違法となるような不正販売が行われているかを抽出することもできます。ある業界を想定したテストで、さまざまなテキストログを元に検証した結果では、顧客が渋々納得して帰るようなスクリプトでも正確に検知ができました。

強引な勧誘が問題になるケースはたびたび報道されます。自社は報道されるような不法な営業はしていないと胸を張れるように、適法なスクリプトで営業されたかどうかを後から証明することが企業に求められるケースもあります。

法律の改正に合わせて適法・違法の判断軸を変えられるのかには課題があるかもしれませんが、ChatGPT登場以前では通話内容の法律判断をするなんて考えられませんでしたから非常に画期的です。


自然な会話か、敢えてボットか

最終的にはコールセンターがAI化、非人化するだろうと考えていますが、まるで人間かのようなAIオペレーターが出るようになるのはもう少し先かもしれません。

先日、自動車保険の諸手続きの中でWebで完結しない内容のものがあり、コールセンターに電話しました。

よくある自動音声と、目的別の番号を押して分岐していくアレが冒頭にあった後、人間のオペレーターにつながるのかと思いきや、相手がAIだったことに驚きました。

ただし、人間同士の会話と違い、音声認識させることを強く意識しながらゆっくり明瞭に声を「吹き込み」、その内容をAIが認識して応答を音声で返す、というやり取りでした。

きちんと声も内容も認識はしてくれたのですが、ちょっと複雑な手続きだったため、結局は人間のオペレーターに交代となりました。もっとシンプルな内容だったらAIオペレーターで完了していたはずです。

このやり取りは、かなり強く相手がボットであることを意識させられました。しかし、AIが人間らしいしゃべり方をしていたら、こちらもAIに認識させやすいしゃべり方をしていなかったはずです。

今のAIはまだまだ「上手な検索」のような入力の仕方を意識しなければならないのが現状で、その現状に合わせて敢えてボットっぽい応対の仕方をすることで、こちら側もボットに合わせた入力を促す、というのは現状のベターなUXかもしれません。

完全に自然な会話がAIとできるようになったら、むしろ暴言を吐く人も増えるかもしれないなと考えると「ディストピア」感があります。

今はコールセンターにおける人間の役割は高いので、AIでストレス低減はまだまだ求められる期間は続くだろうと思います。


この記事が気に入ったらサポートをしてみませんか?