デジタル庁発行「テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)」を読んでみました。
こんにちは。WEBディレクターの伊藤です。
みなさん、AI使っていますか?
日夜できることが増え、またその精度も上がっていく生成AI。
調べ物をしたり、ブレストに付き合ってもらったり、
文章の草案や構成案を作ってもらったりと、私も少しずつ活用しています。
いまや仕事をするのに欠かせない!という方もおられるのではないでしょうか。
そんな便利なAIですが、使うことにリスクはないのか?どんなリスクがあるのか?について、私も含め多くの方が気になっていると思いますが、
そんな方のために、デジタル庁が
「テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)」
を公開しました!(2024年5月29日)
せっかくですので、このガイドブックの内容をまとめてみたいと思います。
ガイドブックは政府情報システムや行政の業務フローを対象に書かれていることもあり、そのまま読むとわかりにくいため、具体例も交えて説明できればと思います。私見も交えてのものですので、正確な情報は下記リンクよりガイドブック本文をご確認くださいね。
ガイドブックの位置付けと目的、前提条件
はじめに、このガイドブックはテキスト生成AIの利活用におけるリスクの特定と、そのリスクを「受容できるレベル」まで軽減するために、どのような点に留意すべきかを示したものであり、
前提条件として「以下の4つのユースケースで想定されるリスクについて述べたもの」としています。
①〜③は私たちが普段目にしているWEBの世界で、今日では当たり前のような機能ですね。④はエンジニアなどの技術者向けと言えるでしょうか。
さて、ガイドブックにおけるリスクの定義を確認したところで、
どのようなリスク・対応策があるか?について、続きを見ていきましょう。
想定されるリスクとその対策
ガイドブックには約50ページに渡ってリスクと対応策が挙げられていますが、私なりに大分類に分け、対策例とともにお伝えしたいと思います。
1)AIによる回答の不確定性(品質)によるリスク
ユースケース①のチャットボット等の場合、期待する回答が得られない、または自社製品やサービスには当てはまらない回答や虚偽の回答をしてしまうなど、企業、組織が意図しない回答を提供してしまうリスクがあります。
2)人間が行うべきことを代替させるリスク
例えば「行政のパブリックコメントへの返答」のように、人間が内容を把握することが業務の本質である場合や、「宅地建物取引士による重要事項説明」「処方箋の発行」など、法令により有資格者が行わなければならない業務をAIに代替させることは、リスクというよりそもそも不適切ということですね。
3)権利や機密性に関するリスク
生成されたテキスト等の成果物が、他の著作権を侵害してしまうケースや、チャットボット等で、AIの品質向上のために利用者が入力した文を実績データ・テストケースとして利用する場合、プライバシーの侵害とみなされてしまう、ケースが考えられます。
このほか、アップデートに関するリスクやベンダーロックインに関するリスク等も挙げられていますが、これらはテキスト生成AIを活用したサービスに限られたものではないため割愛します。
ChatGPTにガイドブックを要約させると…
と、ここまで自力で抜粋とまとめを行ってきましたが、
ガイドブックの内容をテキスト生成AIであるChatGPTに要約させてみました。
その結果がこちらです。
リスクと対応策に絞っての要約はこちらです。
まとめるのにかかった時間は十数秒でした。。
しかし、実際のガイドブックと比較すると取りこぼしなども散見されるため、人の目でチェックすることの重要性を改めて感じますね。
AI活用のリスクを把握し、上手に使おう!
ガイドブックは「行政などがテキスト生成AIを利活用するシステムやサービスを新たに開発・調達する」というような視点から構成されていますが、
私たちが日常生活や業務で活用する際にも同様のリスクを伴います。
このことを十分に理解し、上手に活用していきたいですね。
✙
プラスジャムはWeb制作会社です。
ウェブサイト制作、システム開発、Webマーケティングなど、さまざまな課題解決やアイデアを具現化するWebソリューションを提案・提供しています。
noteでプラスジャムを見つけてくださった方は、お時間あればコーポレートサイトや他の記事もご覧いただければ幸いです。
\コーポレートサイトはこちら/
\関連記事はこちら/