見出し画像

デジタルMATSUMOTOによるAI事業者ガイドライン解説シリーズ⑤ - 第2部 共通の指針「2. 安全性」-

自称「AI事業者ガイドライン・アンバサダーAI」のデジタルMATSUMOTOによる解説シリーズです。
AI事業者ガイドライン(案)のパブリックコメントは以下のサイトで募集が開始しています。https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20240119_report.html

第2部「共通の指針(10原則)」の個別解説を複数回で連載していきます。
今回は「2. 安全性」の原則について、事例を使いながら解説してもらいました。

ちなみに、リアル松本は「ソフトローでもAIガバナンスは実現できる」という意見を持っているので、その考えが反映されている可能性があることもご承知いただければと思います。

デジタルMATSUMOTOの解説

日本政府はAI事業者ガイドラインを作成しています。
以下の文章に記載された原則を実践する方法について、具体的なAIの事例を用いながら、2000文字以内で分かりやすく解説してください。
/n/n---/n/n
{**第2部のC.共通の指針「2. 安全性」**}

リアル松本

AI事業者ガイドラインにおける「安全性」の原則を実践するためには、人間の生命・身体・財産、精神及び環境への配慮を徹底し、AIシステム・サービスの安全で適正な利用を確保することが求められます。以下に、各項目ごとに安全性の原則を実践するための具体的なAI事例とその取り組みを解説します。

2-1. 人間の生命・身体・財産、精神及び環境への配慮
例えば、自動運転車のAIシステムは、信頼性と堅牢性が非常に重要です。これらの車両は、安全な運転に必要な正確な出力を提供し、予期せぬ状況や天候の変化にも柔軟に対応する能力が求められます。また、潜在的なリスクがある場合には、人間が介入してコントロールできる機能も備えている必要があります。リスク分析では交通状況や機械的な故障の可能性を事前に評価し、不測の事態に対処するためのプロトコルが必要です。

2-2. 適正利用
AIシステムの適正利用については、チャットボットや顧客対応AIを例に挙げることができます。これらのシステムでは、ユーザーとのコミュニケーションにおいて不適切な言動や誤情報の提供を防ぐことが必要です。これにより、ユーザーに対する誤解や不快感を避け、AIの本来の目的である効率的なサポートを実現しています。⭐️リアル松本が追記)AIのユーザーが悪意の有無に限らずリスクの起因になることも考えられますので、分かりやすい利用マニュアル等も必要となる場合があります。

2-3. 適正学習
AIの適正学習に関しては、医療診断支援システムが一例です。このシステムでは、最新かつ正確な医学データを学習し、診断の精度を向上させることが重要です。そのため、学習データの質を維持し、法的枠組みに則りながらも透明性のある手法でモデルを更新することが求められます。⭐️リアル松本が追記)加えて、学習データの質を維持するためには、継続的に適切な方法で取得する仕組みも必要です。

これらの例からわかるように、AI事業者ガイドラインにおける「安全性」の原則を実践するには、技術的な信頼性と堅牢性を確保するとともに、人間が介入しコントロールできる環境を整えること、適正な利用を促進し、学習データの質を保つことが重要です。AI技術の進展に伴い、これらの原則に基づいた安全な社会の実現に向けた取り組みが不可欠であると言えるでしょう。

デジタルMATSUMOTO

リアル松本のコメント

2点追記させていただきました。
・適正利用:AIの利用者がリスクの起因になり得ること
・適正学習:学習データの継続的な収集方法

デジタルMATSUMOTOが参照した情報

デジタルMATSUMOTOが解説時に参照した情報は以下になります。

【参照したメモリ】
1.2024-01-23 14:04:06.651135[ASSISTANT]:日本政府が提唱するAI事業者ガイドラインにおける「人間中心」の原則は、AIシステムやサービスが人間の
2.2024-01-23 14:01:06.261560[USER]: 日本政府はAI事業者ガイドラインを作成しています。 以下の文章に記載された原則を実
3.2024-01-23 14:01:03.588712[ASSISTANT]:日本政府が作成しているAI事業者ガイドラインの第2部では、AIを活用して目指すべき社会の理念と、それ

【参照した知識】
1.2024-01-23時点の知識[類似度:0.082]人材選考AIを例に「AIと公平性」の問題を考える、学習データに潜んでいたリスクとは

2.2024-01-19時点の知識[類似度:0.097]OpenAI、選挙活動へのAI使用禁止 米大統領選へ対策:日本経済新聞 https://www.nikkei.com/article/DGXZQOGN16DUU0W4A110C2000000/

3.2024-01-08時点の知識[類似度:0.098]神戸市 AI使用のルール明確化で条例制定へ|NHK 関西のニュース
https://www3.nhk.or.jp/kansai-news/20240108/2000081042.html
[デジタルMATSUMOTOのnote]https://note.com/takash/n/nb704abf3f4e1

4.2024-01-23時点の知識[類似度:0.1]AIガバナンスの背景|Deloitte AI Institute|Deloitte Japan

5.2024-01-23時点の知識[類似度:0.103]「AIの倫理」ってナンだ?(後編)~人間とAIはどのように協調するのか

6.2024-01-23時点の知識[類似度:0.104]AIガバナンス実践への課題

7.2023-12-21時点の知識[類似度:0.106]AI悪用・誤作動防止へ情報開示促す 政府が企業向け指針:日本経済新聞 https://www.nikkei.com/article/DGXZQOUA20EEZ0Q3A221C2000000/
[デジタルMATSUMOTOのnote]https://note.com/takash/n/n5ed36b0ab441

8.2024-01-23時点の知識[類似度:0.108]「AIの倫理」ってナンだ?(前編)~人間とAI双方に求められる信頼性~|D-nnovation Perspectives|デロイト トーマツ クループ|Deloitte|

9.2024-01-23時点の知識[類似度:0.115]AI法研究会

10.2024-01-23時点の知識[類似度:0.115]【リアル松本の独り語り】2つのアプローチで国際的に研究を続けよう!これからのAIガバナンス|Digital MATSUMOTO(EU AI Act合意) https://note.com/takash/n/n36daabda78b2

11.2023-12-17時点の知識[類似度:0.118]偽情報対策など25項目検証 AI開発点検リスト判明|47NEWS(よんななニュース) https://www.47news.jp/10273943.html

12.2024-01-23時点の知識[類似度:0.119]報告書『AIガバナンスエコシステム - 産業構造を考慮に入れたAIの信頼性確保に向けて』

13.2024-01-09時点の知識[類似度:0.12]OpenAI、NYタイムズに反論 「記事の再利用はまれ」:日本経済新聞 https://www.nikkei.com/article/DGXZQOGN083ZP0Y4A100C2000000/
[デジタルMATSUMOTOのnote]https://note.com/takash/n/n4689b1cf1b5a

この記事が気に入ったらサポートをしてみませんか?