見出し画像

AIの透明性を高めるためにできること~AIシステムの結果や決定に対して質問したり、それに異議を唱えること

原則3「透明性」:透明性及び説明可能性(Transparency and explainability)

(OECD AI原則の)3つ目の原則は「透明性及び説明可能性」です。(うち、「反論できるようにする」ということの意味を解説します)

【概要】AIシステムについて、人々がどのようなときにそれと関わり結果の正当性を批判できるのかを理解できるようにするために、透明性を確保し責任ある情報開示を行うべきである。
【原文】AIのアクターは、AIシステムに関する透明性と責任ある開示に積極的に関与すべきである。これらを達成するため、AIのアクターは、以下のために、状況に適した形で、かつ技術の水準を踏まえ、意味のある情報提供を行うべきである:
i. AIシステムの一般的な理解を深めること。
ii. 職場におけるものを含め、AIシステムが使われていることをステークホルダーに認識してもらうこと。
iii. AIシステムに影響される者がそれから生じた結果を理解できるようにすること。及び、
iv. AIシステムから悪影響を受けた者がそれによって生じた結果に対して、その要因に関する明快かつ分かりやすい情報、並びに予測、推薦又は意思決定のベースとして働いたロジックに基づいて、反論することができるようにすること。

OECD AI原則

反論することができるようにする
これはAIシステムの結果や決定に対して質問したり、それに異議を唱えることが可能であるという意味です。
ここで科学哲学を踏まえて考えてみましょう。科学哲学では、科学的な理論や仮説は絶えず試験と反論の対象となるべきであり、それによって真理への理解が深まるという考え方が一般的です。これはカール・ポパーの提唱した「反証可能性」の原則にも通じるもので、科学的な主張はそれが間違っていることを示す可能性がある具体的な証拠に対して開かれていなければならないというものです。
この原則をAIに適用すると、AIシステムの決定や行動はユーザーやその他のステークホルダーによって試験、質問、そして反論の対象となるべきであり、そのプロセスを通じてAIの信頼性や効果性が向上すると言えます。反論可能性を持つことで、AIシステムの結果や決定が適切かどうか、公正かどうか、倫理的な基準を満たしているかどうかを評価するための重要な枠組みを提供します。このプロセスは透明性を保証し、より公正で責任あるAIの使用を推進します。
「反論できるようにする」ことは、AIシステムが出力する結果に対して、人間が疑問を持ち、その正当性を批判できるようにすることで、AIシステムの透明性を確保し、責任ある情報開示を行うことができます。また、AIシステムが出力する結果に対して、人間が疑問を持つことで、AIシステムの改善や精度向上につながる可能性もあります。


この記事が気に入ったらサポートをしてみませんか?