![見出し画像](https://assets.st-note.com/production/uploads/images/142475086/rectangle_large_type_2_30c058e7641297b1fb79497a956bd92f.png?width=1200)
デジタル庁発行「テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)」を読んでみました。
こんにちは。WEBディレクターの伊藤です。
みなさん、AI使っていますか?
日夜できることが増え、またその精度も上がっていく生成AI。
調べ物をしたり、ブレストに付き合ってもらったり、
文章の草案や構成案を作ってもらったりと、私も少しずつ活用しています。
いまや仕事をするのに欠かせない!という方もおられるのではないでしょうか。
そんな便利なAIですが、使うことにリスクはないのか?どんなリスクがあるのか?について、私も含め多くの方が気になっていると思いますが、
そんな方のために、デジタル庁が
「テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)」
を公開しました!(2024年5月29日)
せっかくですので、このガイドブックの内容をまとめてみたいと思います。
ガイドブックは政府情報システムや行政の業務フローを対象に書かれていることもあり、そのまま読むとわかりにくいため、具体例も交えて説明できればと思います。私見も交えてのものですので、正確な情報は下記リンクよりガイドブック本文をご確認くださいね。
ガイドブックの位置付けと目的、前提条件
![](https://assets.st-note.com/img/1717045483807-gNP6B5Q1lQ.png?width=1200)
はじめに、このガイドブックはテキスト生成AIの利活用におけるリスクの特定と、そのリスクを「受容できるレベル」まで軽減するために、どのような点に留意すべきかを示したものであり、
前提条件として「以下の4つのユースケースで想定されるリスクについて述べたもの」としています。
① チャットインターフェースでサービス利用者とインタラクティブに
対話する機能としてテキスト生成AIをオンライン処理で用いる
例)チャットボット(AI搭載型):
Webサイトなどでユーザーからの質問に自動で回答する
② 大量の文章に対してラベル付けやテキストデータ変換、
その他翻訳や要約や文章作成等の自然言語処理を行う機能として
テキスト生成AIをバッチ処理で用いる
例)Google Cloud Translation API:
Webサイトで使用されている言語を判別し、機械翻訳を自動で行う
③ 情報検索を目的としたサービスで検索エンジンの補助として
テキスト生成AIをオンライン処理で用いる
例)Google検索:
検索結果ページに表示される各ページの要約テキストを自動生成
④ ダッシュボードやソースコード等をサービス利用者の自然言語により
記述可能にする機能としてテキスト生成AIをオンライン処理で用いる
例)Copilot by GitHub
自然言語で入力した内容に応じて、プログラミングコードなどを自動生成
①〜③は私たちが普段目にしているWEBの世界で、今日では当たり前のような機能ですね。④はエンジニアなどの技術者向けと言えるでしょうか。
さて、ガイドブックにおけるリスクの定義を確認したところで、
どのようなリスク・対応策があるか?について、続きを見ていきましょう。
想定されるリスクとその対策
ガイドブックには約50ページに渡ってリスクと対応策が挙げられていますが、私なりに大分類に分け、対策例とともにお伝えしたいと思います。
1)AIによる回答の不確定性(品質)によるリスク
ユースケース①のチャットボット等の場合、期待する回答が得られない、または自社製品やサービスには当てはまらない回答や虚偽の回答をしてしまうなど、企業、組織が意図しない回答を提供してしまうリスクがあります。
【対策】
・学習やデータチューニングによる回答精度の向上
・情報検索システムの考え方を前提にしたテキスト生成AIの活用をする
・品質テスト、生成物のファクトチェック等を入念に行う
など
2)人間が行うべきことを代替させるリスク
例えば「行政のパブリックコメントへの返答」のように、人間が内容を把握することが業務の本質である場合や、「宅地建物取引士による重要事項説明」「処方箋の発行」など、法令により有資格者が行わなければならない業務をAIに代替させることは、リスクというよりそもそも不適切ということですね。
【対策】
・「有資格者が行うもの」と法令で定められている以外の業務に当たらせる
・データの整理等、本質的な部分ではなく補助的な役割に用いる など
3)権利や機密性に関するリスク
生成されたテキスト等の成果物が、他の著作権を侵害してしまうケースや、チャットボット等で、AIの品質向上のために利用者が入力した文を実績データ・テストケースとして利用する場合、プライバシーの侵害とみなされてしまう、ケースが考えられます。
【対策】
・著作権、知的財産権といった側面からの成果物チェックを行う
・利用者の入力データの利用について規約やルールを設け、理解を得る
・充分なセキュリティ対策を行う
など
このほか、アップデートに関するリスクやベンダーロックインに関するリスク等も挙げられていますが、これらはテキスト生成AIを活用したサービスに限られたものではないため割愛します。
ChatGPTにガイドブックを要約させると…
と、ここまで自力で抜粋とまとめを行ってきましたが、
ガイドブックの内容をテキスト生成AIであるChatGPTに要約させてみました。
その結果がこちらです。
![](https://assets.st-note.com/img/1717137901101-saCNr0v4uo.png)
リスクと対応策に絞っての要約はこちらです。
![](https://assets.st-note.com/img/1717138254230-vo97fJo6W3.png)
まとめるのにかかった時間は十数秒でした。。
しかし、実際のガイドブックと比較すると取りこぼしなども散見されるため、人の目でチェックすることの重要性を改めて感じますね。
AI活用のリスクを把握し、上手に使おう!
![](https://assets.st-note.com/img/1717145450819-C8IM0ZTxYL.png?width=1200)
ガイドブックは「行政などがテキスト生成AIを利活用するシステムやサービスを新たに開発・調達する」というような視点から構成されていますが、
私たちが日常生活や業務で活用する際にも同様のリスクを伴います。
このことを十分に理解し、上手に活用していきたいですね。
✙
プラスジャムはWeb制作会社です。
ウェブサイト制作、システム開発、Webマーケティングなど、さまざまな課題解決やアイデアを具現化するWebソリューションを提案・提供しています。
![](https://assets.st-note.com/img/1718262187098-PkU0n8xcsu.png)
noteでプラスジャムを見つけてくださった方は、お時間あればコーポレートサイトや他の記事もご覧いただければ幸いです。
\コーポレートサイトはこちら/
\関連記事はこちら/
[今回の記事担当] ディレクター 伊藤
2024年入社。総合広告代理店出身のWEBディレクターです。
WEB以外のお話も投稿できたらと思ってます。