見出し画像

心理支援およびコーチングにおけるAI活用に関する自主規制のご提案

昨今、LLMや生成AIの発展が目覚ましく、心理支援やコーチングに関しても、実用化に向けた取り組みが広まっている。一方で、特に日本においては、関連の研究は進んでおらず、倫理的な活用に向けたガイドラインの整備が間に合っていない。関連領域では、社会的支援ロボットの商業利用が、学会の示すガイドラインがないままに進んでいる。このような状況を鑑み、以下に、心理支援およびコーチングにおけるAI活用に関する自主規制制度の設立を提案する。


提案内容1:心理支援およびコーチングにおけるAI利用に関するガイドライン

目的

本ガイドラインは、心理支援およびコーチングにおけるAI利用という発展途上の領域に対応するためのガイドラインである。この分野における科学技術の進歩と新しい技術の継続的な発展により、AI利用に関しては、特別な留意点や課題が生じる。本ガイドラインは、心理職、コーチ、それらを指導する立場の者(スーパーバイザー)を対象に、心理支援およびコーチングの分野でAIを適切に利用するための具体的な方法と考慮すべきポイントを提供することを目的としている。

本ガイドラインは、米国心理学会が策定した遠隔心理学実践のためのガイドラインを参考に、AIに関する既存の研究知見に基づいて作られている。本ガイドラインはこれを採用する事業者とそこで働く心理職やコーチに適用されるもので、強制力はないが、理想的な振る舞いを示すものである。

心理支援およびコーチングにおけるAIの利用では、特定の法的要件(例えば、個人情報保護法、プライバシー保護規制、医療情報システムの安全管理に関するガイドラインなど)や倫理基準(例えば、心理職やコーチの倫理規定など)に従う必要がある。事業者は、サービス提供を行う心理職やコーチに対して、AIについて理解させる責任がある。本ガイドラインは、法規制や倫理基準に基づく活動や公的機関での実践を制限することを意図したものではない。

定義

心理支援とは、

心理学に関する専門的知識および技術をもって、心理状態の観察および分析、心理に関する相談対応、助言、指導その他の援助、心の健康に関する知識の普及を図るための教育及び情報提供を行うこと。

公認心理師法

コーチングとは、

コーチングに関する専門知識および技術をもって、思考を刺激し続ける創造的なプロセスを通して、クライアントが自身の可能性を公私において最大化させるように、クライアントとのパートナー関係を築くこと。

ICF, 2019; ICF Japan Chapter訳

AI(人工知能)とは、人間の認知活動を模倣する機能を備えた機械やソフトウェアのことで、特に推論や学習能力を持つ技術のことを指す。機械学習やディープラーニングの技術が発展することで、AIの機能が発展し、昨今では、人間と同等、あるいは、それ以上のパフォーマンスを示すAIも出現している。特に生成AIと呼ばれるものは、主に画像を⽣成する拡散モデル(diffusion model)や⾃然⾔語を扱う⼤規模⾔語モデル(large language model: LLM)を指す。

クライアントとは、心理支援やコーチングが、ヘルスケア、対個人、対企業、スーパービジョン、コンサルティング等のサービスの文脈で提供されているかどうかにかかわらず、心理支援やコーチングの利用者を指す。これには、人間の専門家が検査所見や支援計画の下書きの作成や校正など、AIに業務の補助をさせる場面も含まれる。

機密性とは、データや情報が不正な人やプロセスに利用可能にされることや、開示されることがないという原則を意味する。セキュリティまたはセキュリティ対策とは、情報システムにおける管理的、物理的、技術的な安全対策のすべてを包含する用語である。システムとは、コンピュータシステム内の情報資源の相互に接続されたセットであり、ハードウェア、ソフトウェア、情報、データ、アプリケーション、通信、および人を含む。システム管理者とは、システムの管理を任された個人およびチームを指す。

実用化とは、試験運用と本運用を含めて、実際に一般のクライアントに対してAIを利用したサービスを提供することを指す。

AI相談とは、AIによる心理支援やコーチングを指す。システムの管理や運用の責任者は事業者である。事業者は、システムの適切な管理や運用のために、適切な専門家にシステム管理者を任せ、システム管理者に本ガイドラインに従った対応を行わせる責任がある。

必要性

サービスの提供におけるAI技術の役割が拡大し、心理支援およびコーチングの実践に役立つ可能性のある新しい技術が継続的に開発されてきていることは、この分野における実践ガイドラインの必要性を示唆している。AI技術は、クライエントが心理支援やコーチングにアクセスする機会を増やす。遠隔心理支援を含めて、対人の相談への抵抗のあるクライアントや、対人の相談を受けるほどではないと考えているクライアントに対して、サービス提供の範囲を広げることで、これまで見過ごされていた方々が、対人の相談を利用するためのきっかけを作ることができる。また、AI技術は、新しい方法を使った心理支援やコーチングの提供(例えば、オンラインでの心理教育の自動化、無人の相談サービスなど)を可能にし、従来の対面および遠隔でのサービスを拡大させる。すでに心理支援やコーチングを提供するAIは開発されており、試験運用や関連する研究知見が報告されている。そして、少なくとも初期の報告としては、有効性を示唆する根拠が得られている。しかし、いずれの技術についても、専門家によるサービス提供の代替になるものではなく、また、専門家による監督を抜きにして、独自にサービス提供できるものではない。クライアントの選択肢を広げ、利便性を高めるという視点だけでなく、心理支援やコーチングの提供がどうあるべきかという支援に関する理念という側面からの検討も必要である。このように、技術的に、AIによる心理支援やコーチングの提供が可能となったことに伴い、心理支援およびコーチングにおけるAI利用に関する実践ガイドラインの必要性が高まっている。

項目

1.AIおよび管理者の能力

対話型のコンピュータシステムには、事前にプログラミングされたルールに従って、設定された発話のみを行うルールベーストのものと、生成AIを用いて自然言語の生成を行うものに区別される。この2つの技術を組み合わせたシステムや、ルールベーストのシステムで、予め設定された応答を行うが、応答の選択にAIによるデータベースの探索を用いたものもある。

どのような技術に基づいて作られたものであっても、応答の侵襲性について、実用化の前に、十分確認される必要がある。侵襲性には、直接的にクライアントを傷つける発言をすることだけではなく、クライアントの有害な発言を肯定することで間接的にクライアントのリスクを高めることや、ハルシネーションと呼ばれる、事実に基づかないもっともらしい発言をすることでクライアントを誤った方向に誘導してしまう可能性を含む。

AI相談において、一般に利用できる汎用LLMをそのまま用いるのは、適切ではない。プロンプトによる制御、事後学習によるファインチューニング、Retrieval-Augmented Generation(RAG)などの手法により、心理支援やコーチングに適するようにシステムを調整する必要がある。

AIの能力に対する責任は、それを運用している事業者が負う。事業者は、AIの能力の担保のために、開発と実用化のどちらにおいても、適切な専門家による監修を受ける必要がある。また、実用化においては、適切な専門家をシステム管理者として配置する必要がある。システム管理者は、AI技術について精通している必要がある。また、システム管理者は、AI相談が、文化的、言語的、社会経済的、その他のクライアントの特性(例えば、病状、精神医学的安定性、身体的・認知的障害、個人的嗜好など)やクライアントの属する組織やシステムを運用する組織の文化が、サービス提供におけるAI技術の効果的な利用に影響を与える可能性を理解する必要がある。

システム管理者は、遠隔相談における緊急事態に対応するためのトレーニングを受けており、クライアントとAIとの危機的なやり取りに対して、それを防止し、事後に適切に対応するための能力を有している必要がある。また、システム管理者は、クライアントとAIとのやり取りを適宜モニタリングし、AI相談が必要ない場合や、望ましくない場合には、クライアントに利用の中断を勧める可能性があることを念頭に置く必要がある。クライアントが危機や緊急事態に直面したことを察知した場合には、クライアントに地域の精神保健施設に紹介したり、遠隔もしくは対面でのサービスを開始したりするための合理的な措置を取る。

AIをスーパービジョンやコンサルテーションのツールとして用いる場合には、相当の技術と経験のある専門家が、システム管理者としてAIの動きを監督する必要がある。AIをスーパービジョンやコンサルテーションのツールとして用いる場合には、AIに対応を任せきりにするのではなく、システム管理者による十分な監督に加えて、遠隔もしくは対面によるスーパービジョンやコンサルテーションの機会を十分確保する必要がある。

事業者およびシステム管理者は、利用されるAIが、適切な能力を保持しているかどうか、科学的な知見と実際の運用に関する評価を踏まえて、継続的に検討する必要がある。運用に関する評価に当たっては、事業者やシステム管理者の視点だけでなく、クライアントや、クライアントの家族、支援者、職場の関係者など、多様な視点から評価されることが望ましい。また、AI利用の効果だけではなく、副作用についても評価されるべきである。

2.AIによるサービスの基準

AIによるサービスは、心理職やコーチの職業倫理や専門的な能力に準拠するよう設計され、これらの基準を満たしていることが保証されるべきである。事業者は、AIの開発、実用化、継続的な運用のすべての段階において、AIが適切で、効果的で、安全であるかの評価を、システム管理者に行わせなければならない。

AIによる相談は主にテキストメッセージを通じて行われるが、音声対話や具現化(実体が示された)バーチャルエージェントとの対話など、さまざまな方法で提供することが可能である。必ずしもすべての提供方法が、すべてのクライアントにとって有効とは限らない。しかし、遠隔や対面での相談対応と異なり、AI相談の開始に当たっては、厳密な初回アセスメントを行うことは現実的でなく、不必要にクライアントの利便性を損なうことになる。その為、AI相談の運用にあたっては、システム管理者が、事後的に、継続的に、相談対応の適切性について、評価できる体制を整える必要がある。

AI相談の提供にあたっては、クライアントの好みを考慮することが重要である。しかし、クライアントの好みに基づく選択は、必ずしも専門的な知見に基づいて最適とは限らない。この点を考慮しつつ、AI相談の開始に当たっては、AI相談の利点(例えば、サービスへのアクセスのしやすさ、利便性)と、特有のリスク(例えば、情報セキュリティ、緊急時対応、ハルシネーションの可能性など)を十分説明することが求められる。

システム管理者は、地理的、文化的、技術的特徴、病状、心理状態、精神医学的診断、現在または過去の物質使用、治療歴、治療上のニーズといった多様なクライアントがAI相談を利用する可能性を考慮し、利用条件の設定など、危険を回避するための対策を講じる必要がある。また、利用前の説明を十分行うのに加え、利用開始後の評価を通して、相談方法の変更が必要と判断した場合には、そのことについて、クライアントと遠隔もしくは対面で話し合う機会を設ける必要がある。

遠隔、対面での相談提供と同様に、システム管理者は、実証的な文献や専門的な基準(多様性への配慮を含む)が記載されているサービス提供のベストプラクティス、および、提供しているAI相談サービスの支援方法に関する専門的な基準に従うように努める。そして、クライアントの多様性に配慮するとともに、緊急事態への最善の対処法を考えることが推奨される。画像や音声の生成技術が発展したことで、著名人を模したり、外見や言葉遣い、声色をクライアントの望むように調整することが技術的には可能になっている。肖像権等の法規制を遵守するだけでなく、クライアントの要望に沿うことが、心理支援やコーチング提供するうえで有効かどうかを専門的な視点で十分考慮した上で、システムの設計がなされるべきである。

システム管理者は、AI相談を利用するクライアントの特徴や状況を十分に評価し、提供されるサービスの有効性、プライバシー、および安全性にどのような影響があるかを判断することが推奨される。AI利用環境の評価には、クライアントの家庭内や組織内の状況、緊急時対応・技術者・サポートの利用可能性、気が散るリスク、プライバシー侵害の可能性、AI相談サービスの効果的な提供に影響を与える可能性のあるその他の要因について可能な限り把握し、そのリスクを利用開始前にクライアントに伝え、利用開始後のモニタリングを通して、問題の早期発見に努めることを含む。これらの要素をシステム管理者が遠隔で操作することはできない。その為、事前に十分説明し、クライアントの適切な判断を促すとともに、問題を早期に発見し、対処することが重要である。

システム管理者は、クライアントとAIとのやり取りの経過をモニタリングし、評価することで、AI相談がクライアントにとって、その時点においても適切で有益なものであるかどうかを判断することが求められる。もし、クライアントに大きな変化があった場合や、専門的な関係性に懸念が生じるようなことが起こった場合には、システム管理者は、AI相談の提供の適切性を再評価し、適切な措置を講じるために、合理的な努力を行います。AI相談を提供することがもはや有益ではない、あるいは、クライアントの精神的・身体的な幸福を損なう危険性があると考えられる場合には、システム管理者は、クライアントと遠隔もしくは対面で十分に話し合い、適切な通知をもってAI相談を然るべく終了させ、必要な代替となるサービスをクライアントに紹介したり、提供したりすることが推奨される。

クライアントによる受容性は、実用化段階だけでなく、開発段階から考慮される必要がある。クライアントの多様性を考慮し、どのような人にとっても使いやすいデザインが望まれる。また、クライアント自身だけでなく、親、家族、教師、上司、雇用主など、各種ステークホルダーにとっても使いやすいデザインであることは重要である。このように、AI支援サービスは、社会システムとの適合性も考慮される必要がある。AI利用に関する法規制、社会の受容性、デジタルデバイドへの対応を考慮したサービス提供が求められる。必要に応じて、本ガイドラインの範囲を超える部分に関しては別途規制を整備したり、法整備を求めるべきこともありうる。

3.インフォームド・コンセント

事業者は、AI相談サービスを運用するにあたっては、クライアントにサービスに関する特有の懸念事項を具体的に説明し、インフォームド・コンセントを得て、記録として残すように努める。その際、心理支援やコーチングに関するインフォームド・コンセントにおいて事業者として求める要件に加えて、適用を受ける法律や規制についても認識する必要がある。また、サービスの選択は、戦略的、倫理的、人間指向的な側面のバランスを考慮して行われるべきものであり、利便性や効率に偏住することなく、クライアントの福祉を十分に考慮してなされなければならない。その為に必要な説明や情報提供が適切になされる必要がある。

どのような手段で同意を取得するにしろ,インフォームド・コンセントにおける説明と同意取得のプロセスは、サービス提供者とクライアントが関係を結ぶ土台を作る。事業者は、提供されるAI相談について、全面的にかつ明確に説明し、インフォームド・コンセントを取得する。その際、AI相談は、専門的な支援の補助として、クライアントによって、自助の一環として行われるものであり、専門的な支援の代替にはならないことを明確に伝える必要がある。どのような機器やソフトウェアが用いられるか、システムの詳細についても可能な範囲で説明することが求められる。事業者が適用を受ける法律と、クライアントの居住地の法律が異なる可能性も考慮した説明が必要である。その他、文化的、言語的、社会経済的な特性や組織的な考慮事項によっては、クライエントの理解に影響を与えたり、特別な配慮が必要になる場合があると理解しておく必要がある(例えば、未成年者がAI相談を利用する場合には、親や保護者からインフォームド・コンセントを得る必要が生じる場合がある)。

AI相談サービスにおいては、機密性、通信の安全性、従来の遠隔・対面サービスとの同等性などにおける潜在的なリスクに対して、従来とは異なる考慮や安全策が必要となる場合がある。そのため、事業者は、通信技術の使用にあたって、情報のセキュリティについての潜在的な脅威に対する適切な方針や手順を検討し、クライエントにそれらを適切に伝えるよう推奨される。例えば、事業者は、クライエントに対して、どのような情報がどのようにして保存され、アクセスされるのか、利用する通信技術ではどれくらい安全に情報がやりとりされるのか、そして電子的に作成、保存されたクライエント情報の機密性や安全性に関する技術的な脆弱性にどのようなものがあるのか、十分説明し、問い合わせに応じる必要がある。

事業者は、サービスの提供を開始する前に、AI相談に特有の懸念事項を具体的に記した文書をクライアントに示し、クライアントからインフォームド・コンセントを取得し、記録することが重要である。説明文章は想定されるクライアントが理解できると考えられる言葉を使用するように合理的な配慮をするとともに、考慮すべき文化的、言語的、組織的な事項や、対処すべきクライアントの理解に影響を与えうる問題がないか検討する。AI相談を提供する際にサービスの説明文章に含めうる特有の懸念事項として、利用するシステム(ソフト、ハード、ネットワーク)、AI相談の限界と期待される利用法、境界線の設定、遵守すること、クライアントからの連絡や問い合わせへの対応が挙げられる。さらに、事業者は、事業者が適用を受ける法律とクライアントの地域での法律が違う可能性に配慮した説明を行う必要がある。

AI相談の限界と期待される利用法については、AIは単にもっともらしい答えを返すように設計された機械であり、AIに人格があるように感じることがあっても、それはクライアント自身の思いが作り出したものである点や、AIは専門的な相談対応ができるように感じられる部分はあるが、厳密性は定かではなく、あくまで、人間の専門家による支援を受けるまでのつなぎや、補助としての自助ツールとして、クライアント自身の責任で利用されるべきものである点を含む。また、AIは手軽に利用できるために、依存性を高めやすいかもしれない。特に、ロボットや、具現化エージェントのような、実体のAIがどのようにクライアントとのアタッチメントを形成するか、それが、AIとの別れによってクライアントにどのような影響を生じるかについては、十分考慮される必要がある。これらの点も関連するリスクとして言及されるべきだろう。さらに、特定のAIに関して、侵襲性やハルシネーションのリスク、緊急対応の範囲、対応可能な相談の境界線を設定する必要がある。通常は、AI相談は、重篤な疾患や自殺などの重大な問題に関する相談の解消を目的に利用されるべきものではない。しかし、そういった悩みを抱えながら、誰にも相談できずにいる方に支援の範囲を広げるためには、そういった相談内容を単に拒絶するのではなく、リスクを理解した上で利用してもらい、適切な人間による相談に橋渡しすることを考慮するといいだろう。その他、AI相談であるがゆえに損なわれる特定のサービス(検査、評価、治療など)の継続性、利用可能性、適切性もリスクに含まれる。また、実用化されたシステムが試験運用の場合には、試験運用であることやそれに伴うリスク、本運用に向けた計画についても説明される必要があるだろう。AIの運用を適切に行い、システム管理者に適切に管理させる責任は事業者にあるが、実際に利用するのはクライアント自身であり、インフォームド・コンセントを踏まえて適切に利用する責任がクライアントにはあることを注意喚起する必要がある。

遵守事項としては、通常の守秘義務の説明に加えて、クライアントに対する利用上の規則(例えば、やり取りの公開の可否、誤反応を狙ったAIへの攻撃の禁止など)や、特定の条件下でのクライアントへの連絡ややり取りの開示について説明する必要がある。システム管理者である専門家がどの程度確実に危険なやり取りを察知できるのかという点についても、可能な範囲で情報提供する必要があるだろう。多くの場合、AI相談システムは、一般の問い合わせ応答には対応していない。操作に困ったときや、秘密保持等について疑問を持った時に問い合わせることのできる窓口と問い合わせ対応の方法(例えば、どの程度の期間で返信できるのかなど)を予め伝えておいた方がいいだろう。適用法の違いについて、特に、日本から海外にサービス提供する場合や、海外のサービスを利用する場合に考慮する必要がある内容である。

特定のAI相談技術に関する機密性や安全性の問題についても説明する必要がある。例えば、対話システムのどの部分に生成AIが使われていて、どの部分は予め設定されたメッセージなのか、どの部分に人間が関与しているのかといった説明が必要だろう。また、利用するメッセージングソフトは誰が開発し、管理しているものか。送信されたメッセージはどのように通信され、履歴はどこに保存されるか。やり取りの内容にアクセスしうるのは誰か。利用する対話AIは誰が開発し、管理しているもので、そのシステムにはどのように情報が送られ、そのシステムはやり取りの履歴を収集することがあるのかなどについての説明が求められる。このようなシステムの透明性や説明責任は、運用段階だけでなく、開発段階でも求められる。理想的には、クライアント中心の開発、設計へのクライアントのの関与、システムの改善とサポートの質の担保、開発と実装の循環的な枠組みの整備が求められる。このような開発の方向性は、技術決定論から社会的構築論への展開であり、技術の発展が社会の発展を引き起こすという一方向性の影響関係ではなく、社会のニーズに技術の発展が答えるという相互作用的な発展を導くものである。

AI相談においては、料金についての説明も重要な場合がある。費用とそれによってAI相談が利用可能となる期間、利用できる決済方法、請求は1度限りなのか、サブスクリプションなのか、この支払によって利用可能となるサービスの範囲などについて、明確な説明が必要である。

4.情報の守秘義務

AI相談を提供する事業者とシステム管理者は遠隔でのコミュニケーションやAI相談に伴う機密の保護に関する課題を認識する必要がある。従来の遠隔・対面による相談では、機密情報の管理と漏洩対策が個人に求められることが多かったが、AI相談では、組織的に情報を管理する必要がある。事業者は、個人情報およびその他の相談記録を適切に管理し、インフォームド・コンセントに基づく取得と利用、厳正な保護と管理、第三者提供のルールの遵守、開示請求の対応を行う必要がある。特に相談記録については、アクセス制限を行うとともに、アクセスや操作のログが記録されるような環境が必要である。また、個人情報や相談記録にアクセスする際のセキュリティについてもルールを遵守させ、ウイルスの侵入や外部からの攻撃による情報漏洩を防ぐ対策が必要である。さらに、必要に応じて、個人情報や相談記録にアクセスする担当者とは、個別に秘密保持契約を結び、情報漏洩の防止に努める必要がある。特に、相談記録をシステムの改善のための学習データとして用いる場合には、個人情報や固有名詞のマスキングを行うとともに、クライアントに承諾を得て、個別に学習データとしての提供を拒否できるような手続きを整備することが求められる。

5.データおよび情報のセキュリティ

AI相談サービスには、遠隔心理支援と同様に特有の情報セキュリティの脅威がある。データや情報の保全に対する潜在的な脅威には、コンピュータウイルス、ハッカー、電子機器の盗難、ハードドライブや端末の破損、セキュリティシステムの故障、欠陥のあるソフトウェア、安全ではない電子ファイルへのアクセス、技術的な不備や古さが含まれる。その他の脅威としては、電子メールを利用した顧客への個別マーケティングなどの、テクノロジー企業や売り手の方針や慣習も挙げられる。事業者やシステム管理者は、これらの潜在的な脅威に最大限の注意を払い、情報システム内のクライエントのデータへのアクセスを制御しつつ保護するため、正しい手続きでセキュリティ対策を講じることが奨励される。また、クライエントのデータや情報の電子的な保存と送信に関連する国の法律や規制を把握し、それらを遵守するための適切な方針や手続きを設置する。事業者がクライアントのデータや情報の安全性を担保するための方針や手続きを開発する際には、公共の電子機器または私有の電子機器の意図的および非意図的な使用、AIとクライアントの関係と人間の専門家とクライアントの関係の違い、物理的環境やスタッフの違い(専門スタッフと管理スタッフなど)あるいは利用する情報技術やモダリティ(テキストか音声かなど)の種類によって異なる安全対策についても考える必要があるだろう。

事業者およびシステム管理者は、適切に権限を与えられた個人だけがクライアントのデータや情報にアクセスできるようにするために、システムとその運用に関するリスクの分析を行うことが奨励される。リスクの分析について追加で知識が必要な場合には、事業者およびシステム管理者は関連する専門家から適切なトレーニングや相談を受ける必要がある。

事業者は、情報システム内のクライアントの情報やデータへのアクセスを安全に管理する方針や手続きを、システム管理者に守らせなければならない。それに沿って、そのために、システムにログインするための環境を制限したり、システム内の情報の外部への送信を制限したりする必要がある。また、相談記録については、適切にバックアップを取ることで、必要な時にアクセスできなくなるリスクに対処する必要がある。また、テキスト情報なのについては、できるだけ、要約するのではなく、元のやり取りをそのまま残しておく方が望ましい場合がある。

事業者は、クライアントのAI相談の利用環境によるリスクについても、十分周知する必要がある。例えば、オープンなネットワークからのアクセスは、相談記録、ログインIDやパスワードが盗まれるリスクを伴うかもしれない。また、共有の端末からのアクセスは、ログインのし忘れなどによる、相談記録の漏洩や他者によるなりすましの被害につながる危険性がある。

6.データおよび情報の破棄

米国心理学会の「記録保持に関するガイドライン」(Record Keeping Guidelines, 2007)では、データや情報、およびデータや情報を作成、保存、送信するために使用される情報技術を確実に破棄するための方針と手続きを作成することが推奨されている。AI相談では、クライエントの機密性とプライバシーを最大限に保護するために利用すべきデータや情報の破棄の方法に関する新たな課題をもたらす。事業者は、データや情報に加えて、データや情報を作成、保存、送信した情報技術を十分かつ完全に破棄することを確実にするために、実践における情報システムのリスク分析の実施を検討することが強く求められる。

事業者とシステム管理者は、クライアントに関するデータや情報を破棄するための方針や手続きを策定することが奨励されている。特に、システム管理者によるモニタリングなどで、相談記録にアクセスした際に、相談記録の内容が端末に残ることがないように、注意する必要がある。データや情報の破棄については、国や組織の法律、規則、ガイドラインい沿って、再利用または破棄をする前に、記録を保存する媒体内のすべてのデータや画像を慎重に削除する必要がある。事業者やシステム管理者は、利用可能なシステムに内在する、AI技術に関連した独自の保存スペースを把握する必要がある。

事業者やシステム管理者は、データや情報を破棄する際に使用した方法や手続き、データや情報の作成、保存、送信に使用した情報技術、およびその他のデータやハードウェアの破棄に使用したそ情報技術を文書化することが推奨される。また、AI技術を利用する際には、マルウェアやクッキーなどに注意し、定期的に破棄するように努める。

7.心理検査やその他の評価法

心理検査やその他の評価方法は、トレーニングを受けた専門家によって実施される必要がある。症状スクリーニング法のいくつかはすでにオンラインで頻繁に実施されているが、現在使用されているほとんどの心理検査やその他の評価方法は、元々は対面で実施するために設計・開発されたものである。その為、これらの心理検査や他の評価方法がAIによって実施される際に、固有の影響や多様な集団への適合性、検査の実施や検査データとその他のデータの解釈における限界についての知識を持ち、それらを考慮するよう勧められている。また、システム管理者は、AIによって実施される場合にも、検査や評価が手順通り実施されているか確認し、クライアントによる不適切な利用も含めて、その実施に伴うリスクを把握するように努める。さらに、システム管理者は、AIを利用した検査の実施において多様な集団に合わせた対応が必要である可能性を認識する。

心理検査やその他の評価方法をAIによって実施する場合、システム管理者は、それらの心理測定学的特性(例えば、信頼性や妥当性)や検査マニュアルに示されている実施条件を、AIでの実施においても維持するよう求められる。また、システム管理者は、心理測定学的特性や実施条件を維持するために検査環境や条件の変更が必要かどうかを検討することが求められる。例えば、検査中に携帯電話やインターネットを用いたり、他の人と連絡をとったりすると、検査の信頼性や妥当性が損なわれる可能性がある。さらに、クライアントが他者から指南を受けていたり、回答例やその評価尺度のスコアリング方法、結果の解釈などインターネット上で得られる情報を得ていたりした場合、検査結果は信頼できないものになる可能性がある。また、システム管理者は、AIによる実施では明らかではない、または確認できないかもしれないクライアントの気を散らす刺激(例えば、視覚、聴覚、嗅覚的刺激)など、アセスメント中のパフォーマンスに影響を与えうる要素についても考慮することが求められる。

システム管理者は、AI相談サービスを提供する際には、多様な集団から生じる可能性のある特定の問題(例:言語や文化的な問題、認知的、身体的、感覚的なスキルや障害、年齢)を認識し、それらの問題に対処するために適切な手配をするよう求められる。さらに、システム管理者は、クライアントの身元確認の必要性や、特定の検査やテストバッテリーを実施するために必要な人間によるサポート、安全な心理検査や評価プロセス実施のために、トレーニングを受けた アシスタント(例えば、検査監督者)による補助(例えば、システムが結果を評価するのではなく、ビデオ録画などを併用して、人間が結果を評価するなど)を検討する必要がある。

AI相談サービスで心理検査やその他の評価手続きを実施する際には、システム管理者は、使用される技術の品質や、特定の心理検査や評価アプローチ実施に必要なハードウェア要件を考慮する必要がある。また、特定の心理検査をAIで実施した場合と人間が遠隔もしくは対面で実施した場合の結果の間に潜在的な差異があることを説明するか、説明できるように備える。さらに、検査や評価の結果を文書化に関して、システム管理者は、それらがAIにより実施されたものであることを明記し、検査や評価実施の際に行われた対応や修正を説明するよう求められる。

システム管理者は、AIを用いた場合の検査基準がある場合には、それを使用するように努める。システム管理者は、AIによって実施されるすべての評価プロセスの潜在的な限界を認識し、それらの手続きの限界と潜在的な影響に対処する準備をしておくよう求められる。

8.法制度の異なる地域間での実践

注意事項

本ガイドラインは心理支援およびコーチングにおけるAI利用を妨げるためのものではない。リモートでの心理支援やコーチングが広がり、多くのクライアントが恩恵を受けたように、適切なAI利用の普及は、クライアントの利益に資する望ましい方向性である。その為に、本ガイドラインは、心理支援およびコーチングにおけるAIの適切な利用に関して、現段階で想定しうる最善の手引きを示したものである。関連の科学的技術と適用範囲は、今後多くの変化が予想される。それに合わせて、本ガイドラインの改訂を行う必要がある。また、本ガイドラインは、心理支援およびコーチングに関するすべての技術の利用に関して適用できるものではない。さらに、本ガイドラインは、特定の資格やライセンスを有する専門職の判断や、職能団体の指針、適用法令よりも優先されることを意図したものではない。本ガイドラインで提示された枠組みが、心理支援およびコーチングにおけるAI活用に関する研究と実践が発展していく中で、実践家、事業者、ならびにクライアントの指針となることを期待している。

提案2:自主規制を運用するための協会の設立

自主規制が効力を発揮しするためには、規則の策定と運用のための業界団体が必要である。本提案は、そのような業界団体「一般社団法人心理支援およびコーチングにおける倫理的なAI活用推進協会(EAPIC: Association for Ethical AI in Psychology and Coaching)」が設立され、提案1の内容に準じた心理支援およびコーチングにおけるAI利用に関するガイドラインが正式に策定されることを期待するものである。

2023年12月6日
合同会社実践サイコロジー研究所

参考資料

Keita Kiuchi, Kouyou Otsu & Yugo Hayashi (2023) Psychological insights into the research and practice of embodied conversational agents, chatbots and social assistive robots: a systematic meta-review, Behaviour & Information Technology, DOI: 10.1080/0144929X.2023.2286528

コメントおよびQ&A

企業サイトのフォーラムからお願いします。

本事業にご賛同いただける方は、 ppinstllc@gmail.com までご連絡いただけるとありがたいです。

次のようなコミュニティも運営していますので、関心のある方はご参加ください。


(同)実践サイコロジー研究所は、心理学サービスの国内での普及を目指しています! 『適切な支援をそれを求めるすべての人へ』