信頼されるAIを実現するために必要なものとは
プライバシーとセキュリティ問題はサービス設計時に検討することがとても重要です。
今回はAIとセキュリティ、及びプライバシーの専門家であるパメラさんにセキュリティとプライバシーの重要性と信頼できるAIについてお話をお伺いしていきたいと思います。
前回の記事から
フレームワークを上手く活用する方法
Pamela:まさに重要なポイントですね。私が実践する場合には、まずリスク評価を行うことをお願いしています。リスク評価を行うために必要な要素は、採用する技術やデータ保護の粒度及び、自動化等の目的によって大きく異なります。
よくあるケースだと、対象となるユースケースを想定し、誰が開発システムの対象者となるかを明確にし、その要素を軸にしてリスクを考えていくことになります。
リスク評価を行う際には、リスクを低減したい対象に対して、どこまでのリスクを低減することができるのか計測する必要があります。さらに、リスクを一過性のものとして考えず広範囲に影響があると想定することも必要です。
どんなプロジェクトで、どのようにリスク評価に取り組むのか?ということを組織にあった形で整理しておくことが必要になります。事前に整理しておけばフレームワークを活用することによって、想定されるリスクを評価し対策を練る手助けになります。
フレームワークは単にリスク評価を行うことを目的にしている人だけでなく、リスク評価を通してプロジェクトを成功につなげていきたい人にとっても非常に有効な選択肢です。
事前に評価したリスクをもとにリスク対策を十分に行うことに加えて、適切なステークホルダーへの参加を呼びかけることが必要です。さらに組織や企業内でのリスク評価には真摯に取り組む必要があります。想定されたリスクが実際に発生することで、経営層が企業ブランド等の評価の毀損に関わるかもしれないということを真摯に理解することも重要です。
企業戦略の観点からも、様々なリスク評価の方法を用いて戦略の検証を行う必要があります。ただ監査のためにリスク評価を実施するのではなく、組織運営における重要な仕組みとして位置付けることが必要です。適切な評価を行うことで、企業戦略の安定にも繋がります。
このようにリスク評価を行うことは企業戦略においても重要なテーマです。実際にリスク評価を行う前に、重要な点をお伝えしたいと思います。リスク評価を実施する際には誰がリスク評価に関わるのかが重要です。外部コンサルタントに依頼した場合には、クライアントから批判されることを恐れて本質的な評価が行われない可能性もあります。
私もコンサルタントとして活動しているので、私の活動にも影響してしまうかもしれないのですが仕事を進めていく中で出てくるエゴや政治的な人間関係に重きを置いてしまうのはあまり良くないのではないかと思います。
外部から関わる人は特段内部では得られない意見を伝えられるので、スキルやファクトを通した解決策を探すことに集中し、保守的にならないようにした方が良いですね。
数字で語ることはクライアントにとっても有益ですし、新しい価値に繋がります。スキルを獲得することによって、外部からの指摘を批判と捉えることなく成功につなげるための糧につなげていくことができるようになります。
Kohei:ありがとうございます。フレームワークをどのように活用すれば良いか困っている方にとって非常に参考になる情報でした。次に、AIに関連した質問をお伺いできればと思います。
パメラさんはYoutube動画の中で、複数のステークホルダーの中で信頼されるAIが重要であるとお話しされていました。今後、技術開発の観点からも新しい動きがある分野だと思います。
(動画:AI TIPS © Pamela Gupta 2021)
動画インタビューの中では、AIを設計する際に複数の視点から物事を考える重要性についてもお話しされていました。ここからは信頼されるAIについてお伺いしたいのですが、AI技術を実装するために、どのように取り込んでいけば良いのでしょうか?
信頼されるAIを実現するために必要なものとは
Pamela:私がAIについて関心を持ったのは、セキュリティの視点でAIが重要なテーマになると思ったからです。現在、私はセキュリティ視点でAIへ取り組むことに注力しています。
私の取り組み範囲には、サイバーセキュリティやプライバシーリスクが含まれます。これまでの活動を通じてわかったことは、システム開発時にサイバーセキュリティとプライバシーに関する対応が組織の大きさによっても異なり、それぞれが上手く繋がっていないということです。
IBMやGoogle、Microsft等の大手企業に関しては、サイバーセキュリティとプライバシーの重要性を理解し企業が抱えている問題に関して、どちらも対応できるような取り組みを進めています。
私の取り組みでAIシステムに関する脅威モデルを発表したのですが、内容はご存じですか?データポイズニングへのAIセキュリティ対策を記した内容です。
AIシステムを開発する際には、データポイズニングについて始めに議論することが多いですが、データポイズニングに限らずAIシステムを狙った攻撃についても考えることが必要です。
企業規模が大きくなると広範囲で対策が必要になるため、新しいイノベーティブな施策が必要になります。新しい施策は小規模な企業から生まれることがあるので、規模が小さな企業であっても施策を取り入れて、活動をより良くしていくことが大切です。
ただ、NISTサイバーセキュリティフレームワークのようなフレームワークに限らず、ISO 27001のようなセキュリティ対策や、ISO 9001のようなクオリティ管理も検討が必要になります。小規模な企業には別の標準フレームワークが適切な場合もあるので、収益から考えたセキュリティ予算に合わせて検討が必要になると思います。
これは大きな問題に対処するためには必要ですよね。企業の規模に関わらず、何が問題であるのかをシステムレベル以外の部分でも把握しておくことが重要です。AIを採用したシステムを開発する際には、事前にリスクとなりうる問題を把握しておくことが必要なのです。
冒頭で話をしたように、セキュリティとプライバシー対応を行うだけでは安全なシステム構築には不十分です。そこで、私たちは必要な要素を啓蒙し、AIチップモデルと呼ぶ考え方をデザイン前のステージや、Day1から行うように奨励しています。
奨励内容には、企業内のステークホルダーが誰で、誰がステークホルダーへ貢献しているのかを理解するように話しています。商品開発においては、ステークホルダーがそれぞれ異なっていますよね。
フォーチュン500に選ばれている企業であっても一つのAIモデルだけに頼らず、いくつかのモデルを実行検討することが必要であると話しています。AT&Tのような会社の場合は何千ものAIモデルが存在しています。
どのようにして一つのフレームワークに頼り、組織内で一貫した対応をもとにしたシステム構築を行い導入につなげていくのかがが問われているので、機械学習モデルであれば安全性を考慮することも重要になります。
ここまで信頼できる要素が重要な理由を論じてきました。実装してビジネス化していくためには、信頼できるAIを開発することが必要です。信頼できるAIを開発するために、特定のモデルを利用することも検討できます。モデルに乗じてAIを設計していくためには、どうすれば良いかを考えてみます。IBMの316やGoogleのオープンソースプロジェクトが該当すると思います。
テクノロジー大手企業は、この分野に積極的に取り組んでいます。ただ、彼らの取り組みはガバナンスやテクノロジーの観点で見ると、幅広く全体最適化されたものではありません。
私が信頼できるAIが必要であると考えている理由はこの点にあります。データを安全に管理するだけでなく、データを多く必要とすることによってプライバシー保護は難しくなります。プライバシーが保護されず処理されたバイアスのかかったデータはバイアスとして処理されることになります。
セキュリティとプライバシーは両軸で考えることが必要です。そして、どのように機能するのかを説明することが最終的には必要になります。ただ、予期せぬ問題が発生する場合もあります。私は、信頼できるAIを導入することで、期待される利益とシステムがどのように関連しているのかを明確にすることが必要であると考えています。
Kohei:そうだと思います。AIを検討する際には限られた要素だけに限定するだけでなく、幅広く検討しておくべきだと思います。ユーザーのデータをAIで分析する際には、より網羅的にデータを処理する必要があると思います。アプリにAIを導入する際にも、事前のサービス検討で議論が必要なポイントが多々あると思います。
信頼できるAIを設計することは、非常に挑戦的で今後10年かけて取り組む大きなテーマになると思います。最後にパメラさんからこれまでのご経験を含めて視聴者の方へメッセージをお願いしても宜しいでしょうか?
情報化時代に必要なリスク評価とは
Pamela:私からは、デジタルトランスフォーメーションやシステムデザイン、ビッグデータや新技術領域に取り組む際に広い視野を持って取り組むことが必要だとお伝えしたいと思います。一度システムを設計してしまっては後戻りができないので、プロジェクト投資を無駄にしないためにも十分な検討が必要です。
プロジェクトを成功させるためにも、広い視野を持ってリスク評価を行うことが必要になります。AIに関しては、アルゴリズムのリスクと影響評価を適切に行うことが必要になります。
事前に評価を実施することは非常に重要です。評価を実施することによってAIで実現できる範囲を事前に予測することができるため、問題となる事柄に対して必要な対策を事前に検討し、予測不可能な結果を避けることに繋がります。
事前に把握できたリスクレベルにおいて、ハイリスクであるかを事前に理解し、初期段階からの対策を検討してくことができるようになります。プロジェクトによって異なりますが、適切なステークホルダーとの関係性構築も必要な要素になります。
100のモデルを保有している場合は、それぞれ採用するビジネスモデルも異なるため、データサイエンティストやインフラエンジニアだけでなく、幅広いステークホルダーと議論を行うことが必要になります。
誰とチームを組むのか次第ではありますが、5人でチームを組んだと仮定すると誰がチームメンバーとして参加しているのかが重要になります。そして、チームの人数が適切で、誰がチームに参加しているのかという2つの要素を検討することによって、最適な運用と予期した結果をもたらすことに繋がるかどうかが大きく関わってくることになります。
Kohei:本日はありがとうございました。サイバーセキュリティとプライバシー分野で活動されている皆様にとっても非常に有益な情報を教えて頂いたのではないかと思います。パメラさん、素晴らしいメッセージをありがとうございました。本日は夜の遅い時間までお付き合い頂きありがとうございました。
デジタル空間の安全性については、未来の対策に向けて引き続き議論していきたいですね。改めて本日はインタビューに参加頂きありがとうございました。定期的に活動のアップデートをしていきましょう。
Pamela:今日は貴重な機会にご招待頂きありがとうございました。
Kohei:ありがとうございました。
Interviewer, Translation and Edit 栗原宏平
Headline Image template author 山下夏姫
この記事が気に入ったらサポートをしてみませんか?