見出し画像

デジタルMATSUMOTOによるAI事業者ガイドライン解説シリーズ④ - 第2部 共通の指針「1. 人間中心」-

自称「AI事業者ガイドライン・アンバサダーAI」のデジタルMATSUMOTOによる解説シリーズです。
AI事業者ガイドライン(案)のパブリックコメントは以下のサイトで募集が開始しています。https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20240119_report.html

第2部「共通の指針(10原則)」の個別解説を複数回で連載していきます。
今回は「1. 人間中心」の原則について、事例を使いながら解説してもらいました。

ちなみに、リアル松本は「ソフトローでもAIガバナンスは実現できる」という意見を持っているので、その考えが反映されている可能性があることもご承知いただければと思います。

デジタルMATSUMOTOの解説

日本政府はAI事業者ガイドラインを作成しています。
以下の文章に記載された原則を実践する方法について、具体的なAIの事例を用いながら、2000文字以内で分かりやすく解説してください。
/n/n---/n/n
{**第2部のC.共通の指針「1. 人間中心」**}

リアル松本

日本政府が提唱するAI事業者ガイドラインにおける「人間中心」の原則は、AIシステムやサービスが人間の尊厳を尊重し、社会にプラスの影響を与えることを目的としています。以下に、各事項を実践するための具体的なAIの事例を用いて解説します。

1-1. 人間の尊厳と個人の自律
AI技術は、人間の能力を補完・拡張する道具であるべきです。たとえば、介護領域でのウェアラブルロボット「HAL(ハル)」は、身体機能の低下した高齢者や障がいを持つ人々が、自らの意志で動くことを支援し、自立した生活を促進します。こうした技術は、ユーザーの尊厳を尊重しつつ、自律性を支えるものでなければなりません。

1-2. AIによる意思決定・感情の操作等への留意
自動運転車は、AIの意思決定が直接ユーザーに影響を及ぼす例です。安全性を最前線に考え、AIの判断による自動運転中にも、ドライバーがいつでも介入できるシステムが設計されています。これにより、ユーザーは自らの選択に基づいて行動でき、AIによる不適切な意思決定や感情操作を防ぎます。

1-3. 偽情報等への対策
生成AIを用いた偽情報への対策として、画像や動画に「デジタル透かし」を付加する技術が開発されています。このように、AIが生成したコンテンツであることを明示し、ユーザーが情報の真偽を見分ける手助けをすることが必要とされる場合があります。

1-4. 多様性・包摂性の確保
「AIスピーカー」は、高齢者や障がいを持つ人々が情報にアクセスしやすくすることにも使われます。音声認識と自然言語処理を活用し、様々なユーザーのニーズに応えることで、情報弱者を生じさせずに、AIの恩恵を享受できるようにするべきです。

1-5. 利用者支援
オンライン学習プラットフォームでは、AIが個々の学習進捗に合わせてカスタマイズされた教材を提供することで、学習者一人ひとりの理解度と学習スタイルを尊重します。AIによるサポートは、適切な情報提供を通じて、学習者の自己決定を促進します。

1-6. 持続可能性の確保
データセンターにおけるエネルギー効率の最適化は、AIによる持続可能性の確保の一例です。AIの利用による環境への影響を減らしながら効率的な運用を実現することが必要です。エネルギー消費を監視し、冷却システムの最適化を行うAIも開発されています。

これらの事例を通じて、AI事業者ガイドラインの原則を具体的に実践する方法が示されます。AIは人間と協働し、社会の持続可能な発展に貢献するための強力なツールであると同時に、倫理的なガイドラインのもとで適切に管理される必要があります。

デジタルMATSUMOTO

リアル松本のコメント

このパートは修正事項がありませんでした。
デジタルMATSUMOTOが挙げてくれた各例示についても、問題はないかなと思います。
※HALについては「サイボーグとAIは一緒か?」という意見もありそうですが、広義には(少なくともMATSUMOTO的には)AIの分類で良いだろうと考えています。

デジタルMATSUMOTOが参照した情報

デジタルMATSUMOTOが解説時に参照した情報は以下になります。
メモリについては、対話記録を全て保存していて、各レスポンス毎に(1レスポンス=1チャンク)として問合せ文との類似度をそれぞれ計算し、近いものからMAX10000トークンまで本文を取得してコンテキストに反映しているのですが、
今回のように開示すると、頭の質問文が同じで会話履歴の区別がつきにくいのでメモリの記録・開示方法は今後の課題ですね。
※別で20文字以内に要約して保存しようかなと考えています(結局API課金が増えてしまう・・・)。

【参照したメモリ】
1. 2024-01-23 14:01:03.588712[ASSISTANT]:日本政府が作成しているAI事業者ガイドラインの第2部では、AIを活用して目指すべき社会の理念と、それ
2. 2024-01-23 13:59:45.750881[USER]:
日本政府はAI事業者ガイドラインを作成しています。
以下の文章を2000文字以内で
3. 2024-01-23 13:39:41.764104[ASSISTANT]:日本政府のAI事業者ガイドラインにおける用語の解説で特徴的なポイントは以下の通りです:

【参照した知識】
1.2024-01-23時点の知識[類似度:0.075]人材選考AIを例に「AIと公平性」の問題を考える、学習データに潜んでいたリスクとは

2.2024-01-19時点の知識[類似度:0.083]OpenAI、選挙活動へのAI使用禁止 米大統領選へ対策:日本経済新聞
https://www.nikkei.com/article/DGXZQOGN16DUU0W4A110C2000000/

3.2024-01-08時点の知識[類似度:0.085]神戸市 AI使用のルール明確化で条例制定へ|NHK 関西のニュース
https://www3.nhk.or.jp/kansai-news/20240108/2000081042.html
[デジタルMATSUMOTOのnote]https://note.com/takash/n/nb704abf3f4e1

4.2024-01-23時点の知識[類似度:0.085]「AIの倫理」ってナンだ?(後編)~人間とAIはどのように協調するのか

5.2024-01-23時点の知識[類似度:0.091]AIガバナンスの背景|Deloitte AI Institute|Deloitte Japan

6.2024-01-23時点の知識[類似度:0.094]「AIの倫理」ってナンだ?(前編)~人間とAI双方に求められる信頼性~|D-nnovation Perspectives|デロイト トーマツ クループ|Deloitte|

7.2023-12-17時点の知識[類似度:0.097]偽情報対策など25項目検証 AI開発点検リスト判明|47NEWS(よんななニュース)
https://www.47news.jp/10273943.html

8.2023-12-21時点の知識[類似度:0.099]AI悪用・誤作動防止へ情報開示促す 政府が企業向け指針:日本経済新聞
https://www.nikkei.com/article/DGXZQOUA20EEZ0Q3A221C2000000/
[デジタルMATSUMOTOのnote]https://note.com/takash/n/n5ed36b0ab441

9.2024-01-23時点の知識[類似度:0.106]AIガバナンス実践への課題

10.2024-01-16時点の知識[類似度:0.109]コールセンターの顧客対応、生成AIで5割短く 13社調査:日本経済新聞
https://www.nikkei.com/article/DGXZQOUC2156G0R21C23A2000000/

11.2023-12-18時点の知識[類似度:0.112]米AI規制、既存サービスは対象外 企業配慮でEUと差:日本経済新聞
https://www.nikkei.com/article/DGXZQOGN290EN0Z21C23A1000000/

12.2024-01-23時点の知識[類似度:0.112]AI法研究会「

13.2023-12-15時点の知識[類似度:0.113]AI の安全性確保と活用促進に関する緊急提言令和 5 年 12 月 14 日自由民主党デジタル社会推進本部
https://www.taira-m.jp/%E8%87%AA%E6%B0%91%E5%85%9AAI%E3%83%95%E3%82%9A%E3%83%AD%E3%82%B7%E3%82%99%E3%82%A7%E3%82%AF%E3%83%88%E3%83%81%E3%83%BC%E3%83%A0%E7%B7%8A%E6%80%A5%E6%8F%90%E8%A8%80.pdf
[デジタルMATSUMOTOのnote]https://note.com/takash/n/nb2e17116496b

いいなと思ったら応援しよう!