見出し画像

「AI相談システム監修心理職セミナー」を作りたい

こちらの記事が某所で話題にあがっていました。 「『摂食障害の相談、生成AIで代替できぬ』失職した米心理相談員の警告」

そこで、「相談AI監修心理職セミナー」作りたいねという話。

元記事は2023年3月末のものですかね。なぜか12月に日本語で出たんですね。
National Eating Disorders Association phases out human helpline, pivots to chatbot

https://www.npr.org/sections/health-shots/2023/05/31/1179244569/national-eating-disorders-association-phases-out-human-helpline-pivots-to-chatbo?fbclid=IwAR2a3jU6y-_zHsl8b5ktrn4s-BxJzacFk0rwi9b2lyLaB65GYvgp0_ikrTA

これは完全に米国摂食障害協会(National Eating Disorders Association )の勇み足ですね。英文記事によると使われたチャットボットのTessaはルールベースのものだったようで、起こした問題も、痩せて骨が見えてうれしいとか、今後しばらく食べないといった否定すべき発言を応援してしまったということで、CBTのルールベースのチャットボットを開発している人であれば当然直面する問題への対処ができていなかったという低レベルなものです。 試しに、GPT-4に同じ質問をしてみたら、Tessaのような過ちは起こしません。

https://chat.openai.com/share/d90454b1-6777-4634-b69b-fb8afc0518aa…

とはいえ、コンピュータ・エージェント、いわゆるAIは、医療、福祉、教育、どの分野においても、人間の特に専門家の代替ではなく、あくまで補助ツール出るというのが、学術的な見解、特に倫理面での議論の結論です。理由としては、技術的に代替できるものではないし、責任の所在や、人間性の軽視につながるという点があります。

https://www.tandfonline.com/action/showCitFormats?doi=10.1080%2F0144929X.2023.2286528

今更こんな記事を日本語にしてどーすんだというのが正直なところで、こういった、AIの不適切発言を経て開発されたのが、ChatGPT等の最近のLLMベースのチャットボットでしょという話です。

今懸念されるのは、相談AIが実用に耐えうるレベルに来ているので、心理職の監修を経ずにサービス提供できてしまう状況です。現にGPTsを使えば、誰でも、相談AIが提供できてしまいます。また、心理職の監修を受けようという善良な企業も、監修できるレベルの心理職がいないし、そういった心理職をスーパーバイズする仕組みもありません。ここが大きな問題で、LLMの仕組みを理解したスーパーバイザークラスの心理学者を増やす必要があります。

こういった取り組みに関心のある方は、ぜひ、「心理系AIなんでも開発部」にご参加ください。


(同)実践サイコロジー研究所は、心理学サービスの国内での普及を目指しています! 『適切な支援をそれを求めるすべての人へ』