見出し画像

生成AIのリスクを理解してイノベーション創出しようぜ!~生成AIパスポート試験を受けたよ~

自身の体重を踏まえて石橋でも叩いて渡るタイプの「ぎだじゅん」です。
ライフイズテックという会社でサービス開発部 インフラ/SREグループに所属しています。

昔からシステムの運用(主にインフラ)を中心とした業務に携わってきた影響なのか、防衛的悲観主義なところがあります。

防衛的悲観主義は、過去どうであったかに関わらず、個人が自身のパフォーマンスに低い期待を向けるという認知的方略のことを指す。防衛的悲観主義は不安を引き起こすような出来事や仕事に備えるための方略として用いられ、防衛的悲観主義者は、彼らの目標追及に対して不利な影響を及ぼすかもしれない特定の好ましからぬ出来事や失敗について徹底的に思案する。あり得るネガティブな結果を予想しておくことによって、防衛的悲観主義者はそれらを回避するなり、備えるなりするための行動を取ることができる。防衛的悲観主義者はこの方略を取ることで、ともすれば彼らのパフォーマンスを害してしまうかもしれない不安を、有利に利用することができる。

Wikipedia 「防衛的悲観主義」より

例えばスポーツ選手で「防衛的悲観主義」な選手は、いい成績を残すためにどれだけ練習や準備しても「もしかするとうまくいかないのでは」とか「もしこういうパターンとなった時はどうしよう」というネガティブな予想をしてしまい、それを払拭するために練習を積み重ねすぎてオーバーワークとなってしまうことがあるようです。
プレッシャーの大きい環境だと、このような考え方になりやすいのかもしれません。

こうなることを考えてたら夜も眠れなくなって体を壊すので気をつけましょう

元々はいろんなことを楽観視しがちな私でしたが、前職含めて自分のこれまでのお仕事で、リリースやメンテナンスなどの業務において、事前にいろいろ準備して問題ないだろうと思っても、イレギュラーな問題などが発生してトラブルになるケースをいくつか経験したことで、考え方が「防衛的悲観主義」に近づいていった感じがあります。

そんな中、昨日、某格闘技イベントをWeb観戦しました。
予想できない展開や交錯したスクランブル状態からKOするシーンは見ている側からしたらとても感動的で痺れる瞬間ですが、彼らも「防衛的悲観主義」でいろんなケースを想定した対策を続けて体が自然に動くところまで仕上げることで実現できるんだろうなと、勝手に思いました。

ちなみに自分が観戦したのはプロレスではなく総合格闘技です

このような予測できない事象からの対応や回避は、これまでの経験なども有効ではありますが、いろんなケースを想定しておくことがいかに大事かを格闘技から学びました。
しかし、オーバーワークには会社からも指導を受けるので気をつけたいと思う今日この頃です。

本題です。



ライフイズテックと生成AI

ライフイズテックでは、昨年に生成AI(Generative AI)の研究と教育活用を目的とした組織を新設して、LLMを活用した新規事業を立ち上げたり、AI技術を活用した教育プロダクトの開発を行っています。

実際に生成AIを活用しての業務プロセスの改善を目的とした企業の担当者向けのトレーニングや、中高生向けにAIクリエイティブを体験できるイベントを実施したりしています。

他にも、八丈島の中学校で生成AIを使って課題を解決する授業をおこなったり、学校の教職員の方々向けに生成AI活用のワークショップを行うなど、中高生や先生、企業の方と幅広い層に向けて生成AIの活用を普及しています。


生成AIパスポート試験を受けました

私はこの生成AIに関する新しい組織の所属ではないですが、関連するプロダクトのインフラ環境に関わることがあります。
そんな会社に勤めている私も生成AIについて、最低限の知識を得ている必要があるのではという思いに駆られて、勉強の一環として自主的にこんな資格試験を受けてみました。

一般社団法人生成AI活用普及協会(GUGA)という団体が運営する資格試験「生成AIパスポート」で、AIに関する基礎知識や生成AIの簡易的な活用スキルの可視化をするための資格制度とのことです。
自分はこの試験の公式の第一回試験を2月に受けました。

生成AIパスポートは、AI初心者のために誕生した、生成AIリスクを予防する資格試験です。AIを活用したコンテンツ生成の具体的な方法や事例に加え、企業のコンプライアンスに関わる個人情報保護、著作権侵害、商用利用可否といった注意点などを学ぶことができます。本資格の提供を通じて生成AIリスキリングを促し、生成AIを安全に活用するためのリテラシーを有する企業・人材の可視化を推進しています。

生成AI活用普及協会 試験概要「生成AIパスポート試験とは」 より

どのような試験内容かは以下のシラバスに記載されています。

(この記事の投稿時の)シラバスだと試験内容はだいたいこんな感じです。

  1. AI(人工知能)の定義や歴史や仕組みについて

  2. 生成AIの進化の過程で生まれた学習モデルの種類や特徴

  3. 現在の生成AIのサービスの種類や活用方法

  4. 生成AIを利用するにあたって注意すべき事項

    • ディープフェイク

    • インターネットリテラシー

    • セキュリティ

    • プライバシー

    • 個人情報保護

    • 制作物の権利

    • AI活用における原則や指針(ガイドライン)

    • テキスト生成AIの不得意なこと

  5. テキスト生成AIのプロンプトの基礎とビジネス応用例

サンプル問題も公開されているので、参考までにリンクを載せておきます。

この生成AIパスポートは、エンジニア職だけでなく一般の方向けの資格でもあるようなので、技術的なディープな内容よりは、人工知能という定義が誕生してからの歴史的な背景、その中で生まれたいろいろな学習モデルの概要と特徴、生成AIの活用で注意すべき内容などがメインな印象です。

また、生成AIの一般的なサービスの種類にも触れていますが、実践的内容としては現在ビジネスで身近に使いやすいテキスト生成AIが中心の内容となっている印象です。
ただ、これからどんどん生成AIのサービスや技術も進化していくと思うので、試験内容もどんどんブラッシュアップされていくとは思います。

試験に合格することがゴールではなく知識を更新するのが大事

今回、この試験勉強で学んだ中から、生成AIを活用するにあたって注意すべき点についてご紹介したいと思います。

ここで投稿した内容は、試験に出題される(された)解説のような試験対策ではなく、あくまで今回の勉強で得られた一般的な生成AIに関する知識のアウトプットで、試験でこのような問題が出題されることを予想するものではございません。あらかじめご了承ください。


生成AIを利用するにあたって注意すべき事項

自分も業務で生成AIを活用したり、会社では生成AIを使ったプロダクト開発や研修・イベントなどを行っているので、生成AIの便利な使い方を知ったり、それらを普及するのも大事ですが、安全に使ったり安心したサービスを提供する立場として生成AIに潜むリスクや注意すべきことを知っておくことはとても大事です。

リスクがどこにあるかを想定しておくのは大事

今回、生成AIパスポート試験に向けた勉強の中で、生成AIの利用に伴い考えられるリスク、および悪用について、いろいろ知ることができたので、これらを中心に紹介します。

なお、今回の内容は、試験勉強の際に使用した「生成AIパスポート 公式テキスト」で学んだ内容の中から、自分の解釈や最近の動向を加えて記載しています。
試験を受ける方はもちろんのこと、生成AIの概要について理解したい方にちょうどよい教材で、価格も内容のサイズ感も比較的お手頃なのでおすすめです。

生成AIを使った犯罪を知る

ここ一年で生成AIを使ったサービスも増えて、これまで以上に私たちの業務や私生活でも活用されるようになり、生成AIを活用した広告や製品、作品なども増えて、私たちの生活の中に生成AIが浸透して「AIの民主化」が進む一方で、生成AIを使った犯罪なども増えています。

AIにより生成される文章の精度が高くなってきたことにより、フィッシングメールの内容が巧妙となり、様々な国の言語でも怪しいメールの判別が難しくなったことで被害も拡大しています。
最近ではテキスト以外にもフェイク動画フェイクボイスを使った犯罪も増えており、迷惑行為だけでなく金銭搾取や不正アクセスなどにつながる犯罪で利用されるケースも拡大しています。

詐欺行為がAIによって巧妙になっている

以下は生成AIを使った犯罪行為の一例です。

  • フィッシングメール
    テキスト生成AIを用い、どの国の言語でも不自然さのないフィッシング用メール文章の作成

  • 偽サイトやフィッシングサイトの作成
    生成AIを利用したWebサイトの作成手法で、実際に存在するWebサイトの偽サイトや実際に存在するような品質の詐欺サイトなどを簡単に作成

  • フェイク動画を使った投資詐欺
    合成した著名人の顔と本人のような動作・音声を組み合わせたフェイク動画で、本物のような偽情報の動画を作成してSNSなどで拡散して金銭の送金へ誘導する

  • 国際ロマンス詐欺
    画像、音声、動画、テキストなどの生成AIを駆使して、架空の人物像を作り出して、国を超えて相手を騙してロマンス詐欺を行う

  • 著名人を詐称した偽作品の販売
    著名人の小説、アニメーション、イラスト、楽曲などの作品を生成AIに学習させて、まるでその著名人が作ったかのような作品を生成し、著名人が作成した作品と偽って販売する

  • なりすましによるソーシャルエンジニアリングや詐欺電話
    本人と違和感がないイントネーションや声色の音声をAIで生成して電話で会話させることで、取引先や同僚になりすまして機密情報などを聞き出したり金銭を送金させたりする

  • なりすましメールのやり取りによる標的型攻撃
    生成AIを使って実在する人物になりすましてメールでのやり取りを続けることで信用させて、最終的に不正プログラムのダウンロードへ誘導する

そして、我々がビジネスで業務の効率化で生成AIを活用するのと同様に、犯罪者側でも生成AIを活用して、生成AIで大量の詐欺メッセージを作成して同時に大量送信したり、生成AIで文章を生成して自動で応答するなど、詐欺行為の一連のプロセスを自動化することで大量の詐欺を効率よく行っていることも考えられます。

現在もこれら以外に新しい犯罪行為が誕生しているかもしれません。
とはいえ、今の時点でどのような犯罪のケースでどのように生成AIを利用されるのかを知っておくことは、これらのような被害から自分を守るためにも重要です。

おいしい話や危険な香りをするものには自分から近づかないのが鉄則

生成AIの利用や提供でのリスクを知る

生成AIでは、文章だけでなくプログラミングにおけるコード生成や、画像生成、動画生成、音声や音楽の生成などもできます。

万能な生成AI

文章やプログラムの校正や書類整理、資料作成、面倒な作業の代行といった作業効率の向上や、自分では湧いてこないようなアイデアの創出、言語を意識しないコミュニケーションサポートなど、生成AIを使うことでのメリットはいろいろありますが、その裏でディープフェイクなどの社会的な問題が登場したり、AIによる生成物によって知的財産権などを侵害されたりといった問題が発生しています。

  • 誤情報の拡散
    実際に起きているかのようなフェイクニュースを簡単に作成してSNSで拡散することで、人々の判断や意見に影響を及ぼし社会的な混乱を招く

  • 真偽の見分けが困難
    高品質で精巧な生成物により情報の真偽を見分けるのが難しくなる

  • 倫理的な問題
    生成物に含まれた要素によるプライバシーの侵害や名誉棄損などの倫理的で法的な問題

  • 知的財産権の権利侵害
    他の映像や音声を利用した生成物を利用して権利侵害を起こす可能性

  • セキュリティリスク
    詐欺やなりすましの巧妙化、企業の情報セキュリティリスクが高まる

  • レギュレーションと法制度
    生成AIのレギュレーションや法的整備はまだ完全に定義されていない
    今後の法規制の対応、新たな法律や規制の動向を要チェック

AIでの生成物の知的財産権に関しても配慮が必要です

生成AIの利用や生成AIを使ったサービスの利用や提供において、私たちは以下のようなリスクを配慮しておく必要があります。

  1. 偽情報や誤った内容の生成

    • 大量な学習データにより偽情報や不適切なコンテンツ、誤った情報などが生成されることもある

    • プロンプトの意図やニュアンスを正確に理解しきれないことで、生成物に誤解や誤伝達を生じさせ得る内容を含む可能性がある
      (複雑な文脈や専門的な用語などで起きやすい)

    • 最終的には人間が以下を慎重に検証や評価する必要がある

      • 生成物の信頼性や正確性

      • 倫理的な観点による生成物の使用や公開の判断

  2. 偽造による悪用

    • 詐欺行為や不正利用、フェイクニュースなどを目的に偽造されたものが生成される可能性がある

  3. 生成物の信頼性や品質

    • AIによる生成物の高品質化が進み、本物と見分けがつかないほどの偽物や改ざんされた画像などがSNSを通じて拡散される可能性がある

    • 音楽や小説などのクリエイティブな制作物においてAIによる生成物が大量に拡散されて多くの人がそれを消費することで、人間のクリエイティブな作品に対する需要の減少や、市場の混乱を招く可能性がある

    • 一方で人間が実際に制作したものに比べて品質が劣る可能性もある

      • 人物の表情や動きの自然さ、連続性のある映像、同期する映像と音など

      • 現在の生成AIでは人間が持つ感情的な深みや複雑さを生成物が完全に捉えることはまだ難しい

  4. 偏見や差別的な表現や倫理的な問題

    • 「偏り」「偏見」「先入観」などのバイアスが学習データにある場合、生成物にそのバイアスが反映される可能性がある

      • 特定の人種や性別に偏った内容、差別的な表現を含んだ生成など

    • 生成物の内容において倫理的な側面について留意する必要がある

      • AIによる生成物が倫理に反する行動(プライバシーの侵害や他者への迷惑行為など)につながる場合がある

      • AIによる生成物を人間が作成したものとして販売する行為は、倫理的に問題視される可能性がある

  5. プライバシーとセキュリティへの配慮

    • 学習データに対してプライバシー保護や倫理的な配慮が必要

      • 大量のデータを学習するため、学習データから個人情報や機密データの漏洩リスクがある

        • 生成AIの学習モデルには利用者が入力する情報を学習され、それらのデータを生成物に反映される可能性があるため配慮が必要

        • 入力する情報にはなるべく個人情報やセンシティブ情報を含まないように配慮する

      • ユーザーの嗜好などを使用してAIを訓練する場合、その訓練データに対しての管理方法や保護方法が重要

      • 個人の画像や音声データを利用する場合、プライバシーやセキュリティの懸念が伴う

    • 生成AIを利用するにあたっては、利用者自らプライバシーとセキュリティについて注意して利用する必要がある

    • サービス提供側も学習データのプライバシーとセキュリティに注意し、適切な対策を講じる必要がある

  6. 学習モデルの制約による問題

    • 生成AIが使用する学習モデルにおいて、特定の内容しかなかったり、専門知識に関して限定的な理解しかできていない場合がある

      • 生成された内容の文脈などを人間が見直したり、専門的な情報の正確性などに対して人間が補完したり修正が必要な場合がある

  7. 知的財産権の問題やライセンスの尊重

    • 生成AIでは既存にある公開されている情報や画像などを学習データをして使用しているものも多くあるため、AIでの生成物が既存の制作物と似ている場合、著作権などの法的制約やライセンス契約に関わる可能性がでてくる場合がある

      • 学習データとして用いているコンテンツによっては著作権が存在するため、AIでの生成物が元のコンテンツと酷似している場合、著作権法に抵触する可能性がある

        • 学習データからではなく、自ら既存の著作物から模倣したり参照するようにして生成させる場合も、その生成物が著作権法に触れる可能性がある

        • 生成物の動画や画像、音声などで登場する人物が、実在する人物や著名人に酷似している場合、肖像権やパブリシティ権の権利侵害やプライバシーの問題に発展する可能性がある

    • AIの生成物を商用利用をする場合、その生成物が他に帰属する著作権やその他の権利侵害していないかや、生成AIサービスの利用規約に違反していないかなどを確認する必要がある

      • AIの生成物を商用利用する場合やWeb上にアップロードなどして利用する場合は慎重な判断が必要

    • 動画生成AIを使用する際には、特に法的な制約や倫理的なガイドラインに従う必要がある

      • これを無視することで社会的な問題や倫理的な懸念が浮上することがある

生成AIに関するレギュレーションと法制度

日本ではまだ生成AIに関する法規制が現時点ではありませんが、安全で安心してAIを活用できるよう、生成AIを使う人やサービスの開発や提供する人などが重視すべき指針や指標について、政府が策定したガイドラインを公表しています。

ガイドラインに従ってAIを活用しようね!

これまでも日本政府では総務省と経済産業省のそれぞれで作成されていた3つのガイドライン「AI開発ガイドライン」(2017年/総務省)、「AI利活用ガイドライン」(2019年/総務省)、「AI原則実践のためのガバナンスガイドラインVer1.1」(2022年/経済産業省)がありましたが、総務省と経済産業省が有識者と議論を重ねて見直し、統合した新しい「AI事業者ガイドライン(第1.0版)」が2024年4月に公表しました。

このガイドラインでは、企業でAIを安全に活用できるよう、AIの定義から基本理念と原則についてや、AIガバナンス構築の考え方、AIに関係する事業者共通の指針と、AIの学習モデルの設計や構築を担う「AI開発者」、AIの製品やサービスを社内に提供する情シス部門などの「AI提供者」、AIを実際の業務などで活用する「AI利用者」のそれぞれに向けた指針が定められています。

事業者共通の指針では、「人間中心」「安全性」「公平性」「プライバシー保護」「セキュリティ確保」「透明性」「説明責任を果たす」など事業者が取り組むべき7つの指針と、「AIに関する教育」「公正競争の確保」「イノベーション促進」などの社会と連携した取り組みの3つの指針が書かれています。

また、3つの属性に分けた担当者毎の指針では、以下の3つの担当者に分けてそれぞれの属性に合わせた指針が書かれています。

  1. AIの学習モデルに直接かかわる影響力を踏まえた「AI開発者」

  2. 従業員に対して適切にAIの製品やサービスを利用させるための「AI提供者」

  3. 提供されるAIの製品やサービスを適正に利用するように心掛けるための「AI利用者」

担当者毎の指針が用意されている

AI事業者ガイドラインの3つの担当者の指針にあるそれぞれの重要項目について、それらがどのような理由で重要としているか記載されていたので抜粋しました。
この文章からそれぞれの担当が抱えるリスクや影響と、指針による期待される効果が見えてきます。

 AI 開発者は、AI モデルを直接的に設計し変更を加えることができるため、AI システム・サービス全体においても AI の出力に与える影響力が高い。また、イノベーションを牽引することが社会から期待され、社会全体に与える影響が非常に大きい。このため、自身の開発する AI が提供・利用された際にどのような影響を与えるか、事前に可能な限り検討し、対応策を講じておくことが重要となる。

 AI 開発の現場においては、時に、正確性を重視するためにプライバシー又は公平性が損なわれたり、プライバシーを過度に重視して透明性が損なわれたり等、リスク同士又は倫理観の衝突の場面がある。その場合、当該事業者における経営リスク及び社会的な影響力を踏まえ、適宜判断・修正していくことが重要である。また、AIシステムにおいて予期せぬ事故が発生した際に、AI のバリューチェーンに連なる者は、何らかの説明を求められる立場に立つ可能性があることを念頭に置き、AI 開発者としても、どのような関与を行ったかについて、合理的な説明を行うことができるよう記録を残すことが重要である。

AI事業者ガイドライン 第1.0版 「第3部 AI 開発者に関する事項」より

 AI 提供者は、AI 開発者が開発する AI システムに付加価値を加えて AI システム・サービスを AI 利用者に提供する役割を担う。AI を社会に普及・発展させるとともに、社会経済の成長にも大きく寄与する一方で、社会に与える影響の大きさゆえに、AI 提供者は、AI の適正な利用を前提とした AI システム・サービスの提供を実現することが重要となる。そのため、AI システム・サービスに組み込む AI が当該システム・サービスに相応しいものか留意することに加え、ビジネス戦略又は社会環境の変化によって AI に対する期待値が変わることも考慮して、適切な変更管理、構成管理及びサービスの維持を行うことが重要である。

 AI システム・サービスを AI 開発者が意図している範囲で実装し、正常稼働及び適正な運用を継続し、AI 開発者に対しては、AI システムが適正に開発されるように求めることが重要である。AI 利用者に対しては、AI システムの提供及び運用のサポート又は AI システムの運用をしつつ AI サービスを提供することが重要である。提供に際し、ステークホルダーの権利を侵害せず、かつ社会に不利益等を生じさせることがないように留意し、合理的な範囲でインシデント事例等を含む関連情報の共有を行い、より安全安心で信頼できる AI システム・サービスを提供することが期待される。

AI事業者ガイドライン 第1.0版 「第4部 AI 提供者に関する事項」より

 AI 利用者は、AI 提供者から安全安心で信頼できる AI システム・サービスの提供を受け、AI 提供者が意図した範囲内で継続的に適正利用及び必要に応じて AI システムの運用を行うことが重要である。これにより業務効率化、生産性・創造性の向上等 AI によるイノベーションの最大の恩恵を受けることが可能となる。また、人間の判断を介在させることにより、人間の尊厳及び自律を守りながら予期せぬ事故を防ぐことも可能となる。

 AI 利用者は、社会又はステークホルダーから AI の能力又は出力結果に関して説明を求められた場合、AI提供者等のサポートを得てその要望に応え理解を得ることが期待され、より効果的な AI 利用のために必要な知見習得も期待される。

AI事業者ガイドライン 第1.0版 「第5部 AI 利用者に関する事項」より

指針で提示されている重要事項の内容については、実際のガイドラインをご覧ください(説明長くなっちゃうので・・・)。

これらはあくまでガイドラインであるため、これに準拠しないと違法となるなどの法的な拘束力はありませんが、企業でこのようなガイドラインに準拠してAIサービスの提供や活用をしていくことで、AIを使った企業のイノベーションの創出を安全に加速させるための手助けになります。

なお、法令に関係する内容として、AIによる生成物が「著作物」にあたるかに関しては、文化庁の文化審議会でAIによる文章や画像などの無断利用が著作権侵害にあたる場合もあるとした考え方を取りまとめた模様です。

文化庁でも今後、侵害にあたる具体的なケースなどを盛り込んだガイドラインを策定していくようです。

今後、日本でも新たな法律や規制をしたりすることも十分考えられるので、これらの動向は引き続き要チェックです。


試験の結果ですが・・・

そして肝心の試験の結果ですが・・・合格しました。

やったね!

AIの歴史や今回紹介したような内容については、今回の試験勉強で知ったことが多かったですが、生成モデルの誕生などは、所属チームの勉強会で学んだニューラルネットワークなどが役に立ったり、学習モデルの種類や特徴については以前に実践した Amazon Rekognitionによるモデル評価などの経験が役に立って各種の学習モデルについて理解がしやすかったです。

ちなみに私が所属するチームでは、インフラ/SREに関することだけでなく生成AIを使った開発に関する勉強会を定期的に実施しており、最近ではRAG (RetrievaI Augmented Generation)や、それを実現するData connectionのLangChainモジュールについて少し知ることができ、自分の業務の中で直接触れるケースはまだありませんが、新しい技術を学べる機会を提供してくれてとてもありがたいです。

みんなと勉強すれば怖くない!!

最後に

今回は「生成AIパスポート試験」で勉強した内容から、主に生成AIを使ったりサービスを提供したりする方が安全に使うために、生成AIを使った犯罪や生成AIに潜むリスクの解説と、政府が公表しているガイドラインの紹介をしました。

生成AIを使ったサービスを提供する側だけでなく、これらを利用する側もいろいろ配慮して利用する必要があることがわかったと思います。
Security is everyone’s responsibility(セキュリティは業務に関わる全員の責任)と同様に、生成AIを安心安全に使うためには、サービス提供者も利用者もみんなで責任を持って利用することが重要です。

みんなで意識して前に進もう!!

ただ、生成AIを使うことのでのリスクを意識しすぎて、AIをイノベーションの創出に活かせないのは、とてももったいなくて悲しいことです。
そのためにも政府が検討を繰り返して策定したガイドラインを上手に活用して、日本の「AIの民主化」をみんなで進めていきましょう!!


勉強会で新しい技術を学べる今の会社はとてもいい会社なので、興味のある方はこちらも是非見てみてください。

あと、気軽にご参加いただけるカジュアルなイベントもたまに実施していますので、興味のあるイベントがあれば、ぜひ参加してみてください。

いいなと思ったら応援しよう!