見出し画像

【AIと戦略】 AIの騙し方!!『予測マシンの世紀 第四部』#27

こんにちは。シンラボ共同代表の草場です。

AIとの共同に関して、『予測マシンの世紀 AIが駆動する新たな経済』をまとめていきます。推理小説のようで、ドキドキワクワクです。

目次
はじめに―機械知能
安さはすべてを変化させる
第1部 予測
第2部 意思決定
第3部 ツール
第4部 戦略
 第十五章 経営層にとってのAI
 第十六章 AIがあなたのビジネスを変容させるとき
 第十七章 あなたの学習戦略
 第十八章 AIリスクの管理
第5部 社会(AIと人類の未来) 

いよいよ第四部、戦略です。どう戦略に組み込むか、一番大事な部分です。先日の記事は以下。

■AIリスクの管理
昨日は、ある意味でAIも騙されうることを見ました。「やらなかった場合のデータ」はなかなかないためです。昨日取り上げたのは広告でした。

たくさんの広告と売上があるデータで学習したAIは、広告が少ないとどうなるかを知ることが出来ない。そのデータがないのだ。このような未知の可能性は、人間が判断しなければ克服できない予測マシンの大きな弱点だ。今のところ、AIがその罠に陥っているかどうかを見極めることができるのは、思慮深い人間だけだ。

この点は、人間の判断が必要だということでした。本日はセキュリティーのリスクについてみていきます。

ソフトウェアは常にセキュリティリスクを抱えているが、AIの場合はデータ操作の可能性によってそのリスクが顕在化する。予測マシンに影響を与えるデータには、入力、トレーニング、フィードバックの3種類がある。この3つのデータには、潜在的なセキュリティリスクがある。

一つずつ取り上げていきます。まずは入力データについてです。

予測マシンは、入力データを受け取る。このデータとモデルを組み合わせて、予測を行うの。つまり、「ゴミを入れると、ゴミが出てくる」という格言のように、予測マシンは、不十分なデータや悪いモデルがあると失敗する。

この本で何度も学んできたことです。

ハッカーは、予測マシンにゴミのようなデータを与えたり、予測モデルを操作したりすることで、予測マシンを故障させることがある。失敗の1つのタイプはクラッシュだ。クラッシュは悪いことだが、、少なくともクラッシュが起きたことはわかる。誰かが予測マシンを操作しても、それを知ることは出来ない。

これは怖いですね。クラッシュ等は実際にPCが壊れたことがわかるので良いですが、わからずに騙され続けるとヤバいです。

ハッカーは、予測マシンを操作したり、騙したりする方法をたくさん持っている。ワシントン大学の研究者は、動画コンテンツを検出するためのGoogleの新しいアルゴリズムが、数分の一秒の間、ランダムな画像を挿入することで、動画の分類を誤らせることができることを示した。
例えば、人間には車が認識出来ない短い時間に車の画像を挿入することで、AIを騙して動物園の動画を誤分類させることが出来る。パブリッシャーが広告主との適切なマッチングのために公開されているコンテンツを知る必要がある環境では、これは致命的な脆弱性となる。

詳細は以下の記事に。しかし、なんと簡単に騙されるのか、AI。

企業の場合は、予測マシンの予測を、大事な意思決定の際に使うはずです。ここが、ハッカーの狙いどころとなります。

マシンは意思決定のための予測をする。企業は、本当に重要な場面、つまり、意思決定に実際に影響を与えることが期待される場面で予測を導入する。この文脈では、洗練された悪い奴らは、予測を変更することで意思決定を調整できることを理解するだろう。
例えば、インスリン摂取量を最適化するためにAIを利用している糖尿病患者は、AIがその人に関する誤ったデータを持っていて、インスリン摂取量を増やすべきところを減らすことを示唆する予測を提供した場合、深刻な危機に陥る可能性がある。人を傷つけることが誰かの目的であるならば、これは効果的な方法のひとつだ。

倫理そのもののような気がします。。。

少し観点を変えましょう。我々が予測マシンを導入するのは、予測が人間では難しい場合のはずです。そのため、悪い奴らは、予測を操作するために必要なデータを正確に見つけられない可能性があります。予測マシンは、さまざまな要素を組み合わせて予測を立てるため、その多数の要素の一つをいじったところで、ほとんど意味を持ちません。

しかしやはり、多くの状況では主要な要素を抽出していじることが出来ます。そして、特にいじられるとヤバいのが、アイデンティティ(ID)です。

最も重要なのはアイデンティティだ。ある人物に特化した予測の場合、AIに間違ったアイデンティティを与えてしまうと、悪い結果につながる。

本では例が出てきます。

私たちが協力したスタートアップのNymiは、機械学習を使って心拍で個人を識別する技術を開発した。他にも、網膜スキャンや顔、指紋による識別を行っているところもある。また、スマートフォンユーザーの歩行パターンの特徴を利用して本人確認を行う企業もある。いずれにしても、AIのパーソナル化とアイデンティティの保護を同時に実現できるような、幸せな技術の合流点が現れるかもしえない。

いまはスマホでなんでも取れる時代。スマホに保存される情報から個人は大体特定できます。ここをいじられると、個人に悪い結果をもたらします。今後のAIのテーマは究極のパーソナライズ化なので、これは大変なことです。

では、個人ではなく、集団に及ぼす影響は何でしょうか?

明日見ていきます。

草場壽一
https://sinlab.future-tech-association.org/


この記事が気に入ったらサポートをしてみませんか?