G検定 総務省の国際的な議論のためのAI開発ガイドライン案

株式会社リュディアです。久しぶりに G検定というか AI に関する記事をあげます。総務省が「国際的な議論のためのAI開発ガイドライン案」を公開しています。今回はこの資料を見てみましたので要約を以下にまとめておきます。原文は以下より参照ください。

章の構成は以下のようになっています。

AI 開発ガイドライン案
1) 目的
2) 基本理念
3) 用語の定義及び対象範囲
4) 開発原則
5) 開発原則の解説
【別添】関係するステークホルダに期待される役割
【参考】AI ネットワーク化と智連社会

まずこのガイドラインの目的ですが「AI ネットワーク化の健全な進展を通じて AI システムの便益の増進とリスクの抑制を図ることにより、利用者の利益を保護するとともにリスクの波及を抑止し、人間中心の智連社会を実現すること」となっています。智連社会.という言葉は意味がわからなかったので説明しているページにリンクをはってます。

次に理念について記載されている内容のうち原文で太字になっている部分のみを抜き出したのが以下になります。

指針やそのベストプラクティスをステークホルダ間で国際的に共有
便益とリスクの適正なバランスを確保
技術的中立性を確保、開発者にとって過度の負担とならないものとするよう留意
本ガイドラインを継続的に見直し、必要に応じて柔軟に改定する

次にこの資料で最も重要な 9 つの AI 開発原則です。

(主にAIネットワーク化の健全な進展及び AI システムの便益の増進に関する原則)
連携の原則-----開発者は、AI システムの相互接続性と相互運用性に留意する。

(主に AI システムのリスクの抑制に関する原則)
透明性の原則-----開発者は、 AI システムの入出力の検証可能性及び判断結果の説明可能性に留意する。
制御可能性の原則-----開発者は、 AI システムの制御可能性に留意する。
安全の原則-----開発者は、 AI システムがアクチュエータ等を通じて利用者及び第三者の生命・身体・財産に危害を及ぼすことがないよう配慮する。
セキュリティの原則-----開発者は、 AI システムのセキュリティに留意する。
プライバシーの原則-----開発者は、 AI システムにより利用者及び第三者のプライバシーが侵害されないよう配慮する。
倫理の原則-----開発者は、 AI システムの開発において、人間の尊厳と個人の自律を尊重する。

(主に利用者等の受容性の向上に関する原則)
利用者支援の原則-----開発者は、 AI システムが利用者を支援し、利用者に選択の機会を適切に提供することが可能となるよう配慮する。
アカウンタビリティの原則

このうち 2 の透明性の原則、9 のアカウンタビリティの原則は説明可能 AI 、いわゆる XAI が注目される背景になっているものです。XAI についても別途まとめます。

では、ごきげんよう。


この記事が気に入ったらサポートをしてみませんか?