見出し画像

AIと信頼: UX観点から、AIの信頼をどう担保するか - AIプロダクトに関わるデザイナーの新たな役割より-

先日「AIプロダクトに関わるデザイナーの新たな役割」でお話させていただきました。

↑の内容については近いうちまとめますが、今日は質疑応答の中で出た「AIと信頼」について、備忘がてら簡単に整理しておこうかと。

問: UXの観点から、AIへの信頼をどう担保するか?

ブラックボックスと捉えられているAIに対しては、「信頼」というテーマがつきもの。
イベントの中では、「AIと信頼」というテーマに関して、大きく3つのアプローチをお話しました。(meceじゃないですが…笑)

納得感のある説明をつける
② 「AIの提案」という構造を見直し、AIをサポートの位置づけとする
判断を促すのではなく、「訴求」する

①に関してはイメージが付きやすいと思うのですが、特に②、③についてはUXデザイナの腕の見せどころな気がしています。

それぞれ、簡単に解説していきます。

①AIの提案に対し、納得感のある説明を付与する

これが一番定番ですかね。AIの提案に対し説明を付ける形です。この分野は研究もどんどん進んでいますし、いずれ納得感のある説明は実現できるかもですね。

学習データの一部を用いて精度を提示する、SHAP等用いる、ローデータを見せるなど、様々な方法があるかと思います。
とはいえこのアプローチは、UX的な観点からするとやりようは少ないかもしれません。

「AIの提案」という構造を見直し、AIをサポートの位置づけとする

ユーザは「ブラックボックス」により解釈された結果を受け取ると、「本当にこれが正しいのか」という疑いを持ちがちです。

ただ、逆に「ユーザが考えた検討事項」を、AIがサポートする位置づけとなると、そこに対して「疑い」は持たなくなるケースも多く見られました。

③ 判断を促すのではなく、「訴求」する

また、YoutubeやTikTokのように、「複数提案する前提で1つ1つの提案確度を高めていく」アプローチも有効です。その際は、「選択させる」のではなく、「訴求する」という方向性で持っていくとイメージが付きやすいかもしれません。特に情緒的なサービス等がイメージ付きやすいかもしれないですが、意外に応用範囲は広い気がしています。

色々あるけど、小手先ではなく、「曖昧さを前提とした価値定義を行う」ってことがとても大事

「100%の精度を前提とせずにサービスデザインを行うこと」がAIプロダクトにおいては非常に大切。
セミナーのメインコンテンツでお話した話なので、詳しくは別途まとめます。
※ 概要についてはBiz/Zine(ビズジン)さんでまとめていただきましたので、ご興味ある方は下記見てってください。

従来のソフトウエアが人間による指示・命令を前提とし、人間に解釈できる解像度でロジックを定義して活用するものであるのに対し、AIは人間に解釈できない解像度で物事を理解し、把握し、解釈してサービスに活かしていける力を持っている。だが、AIが十分にその力を発揮するためには、人間側がロジックで定義しきれない曖昧さを受け入れ、AIに委ねる姿勢を持つ必要があると西藤氏は言う。
 「口座見守りサービス」は、ソフトウエアとAIの力により、連携した口座の異常なお金の動きを検知することで、その人が詐欺被害にあっていないか、認知症の疑いがないかに気づくことができるというプロダクト。将来データが十分に集まれば、AIが詐欺や認知症を特定することも可能かもしれないが、デザイナーとしては「100%の精度を前提としない曖昧な状態で何を価値とするか」を考える必要がある。
そこで「口座見守りサービス」では、単に詐欺や認知症の疑いということに止まらない、違和感・変化を検知するプロダクトとして検討を進めた。

長々読んでくださりありがとうございます。もう少しラフに学びを適宜つぶやいたりも(たぶん)するので、Twitter(K_Nishito)も是非。

この記事が気に入ったらサポートをしてみませんか?