見出し画像

インテル、米国防総省の支援で「騙されないAI」を研究


インテルやジョージア工科大学は米国防総省の支援を受けて、AIのハッキングを防ぐ技術の開発に取り組んでいます。

今年2月、アメリカ国防総省の研究機関DARPAは、AIのハッキングを防ぐ技術を開発するプロジェクト「GARD」を発表しました。
GARDプロジェクトは「Guaranteeing Artificial Intelligence Robustness against Deception(AIをだます攻撃手法に対するロバスト性の保証)の略です。

Protocolの記事によると、DARPAはGARDプロジェクトに参加する企業団体17社を選定したそうです。
参加団体はインテル、IBM、ジョンズ・ホプキンズ大学、ジョージア工科大学、マサチューセッツ工科大学(MIT)、カーネギー・メロン大学、SRIインターナショナルなどです。
なかでもインテルがジョージア工科大学と協力し、主導的な役割を果たすとみられています。

https://www.protocol.com/intel-darpa-adversarial-ai-project

AIで画像認識するアルゴリズムでは「Adversarial Attack(敵対的攻撃)」という脆弱性が知られています。
「Adversarial Attack」とは、目視では気付かない特殊なノイズを画像に埋め込むことで、AIを誤動作させる攻撃手法です。
「Adversarial Example」とも呼ばれています。

自動運転の分野ではAdversarial Attackが深刻な問題となっています。
例えば、道路標識に微妙な加工を仕込まれたら、AIが一時停止を認識できずに事故になるかもしれません。
意図的な攻撃で事故になったケースはまだありませんが、日本でも、天下一品の看板を一時停止として認識するホンダセンシングのバグが話題になりました。

https://togetter.com/li/1266643

GARDプログラムは次の3つのチームで構成されています。
・Adversarial AttackにAIがだまされる理論を研究するチーム
・Adversarial Attackの対策技術を開発するチーム
・対策技術の高価や実用性を評価するチーム

GARDプロジェクトで開発をリードする役割が期待されているのがインテルです。
インテルは近年、自動運転分野に注力しています。
その一例が2017年に買収したモービルアイです。
モービルアイの画像処理技術は日産「プロパイロット」をはじめ、自動車のADASカメラ分野で高いシェアを持っています。

調査会社のガートナーによると、GAN(Generative Adversarial Network)ベースのAdversarial Attackが増えていると指摘しています。
GANは直訳すると「敵対的生成ネットワーク」で、2つのニューラルネットワークを競争させて、精度を高めていくディープラーニングのアーキテクチャです。
thispersondoesnotexist.comはGANを利用したウェブサービスの一例で、アクセスするたびにGANで生成された架空の人間の顔が表示されます。

https://thispersondoesnotexist.com

機械学習のフレームワークや訓練データが普及すればするほど、悪意あるハッカーのAdversarial Attackの数が増え、手口もより巧妙に進化していきます。
GANのようにAIが本物そっくりの画像や音声を自動生成できるということは、AIを使った画像認証や音声認証のセキュリティを本質的に脅かす問題です。
認証アルゴリズムを抜本的に進化させないと、Adversarial Attackの脆弱性には対策できません。

Adversarial Attackの対策について、インテルはこれまでもジョージア工科大学と共同で研究してきました。
これまで研究のポイントのひとつが、Adversarial Attackに必要な計算リソースの算出です。
暗号化技術が複雑な計算が必要なアルゴリズムを採用してブルートフォースアタック(総当たり攻撃)対策しているように、Adversarial Attackに必要な計算量を複雑にすることが対策のひとつになるかもしれません。

GARDプロジェクトではAIに"Coherence(コヒーレンス)"を学習させることを目指しています。
"Coherence"なAIとは「常識がある」とか「総合的な判断ができる」という意味です。
人間は自然と身につけている能力ですが、AIに明示的に学習させることが難しい要素です。
インテルとジョージア工科大学は次の3つの方法で開発に取り組んでいます。

1つが"Temporal coherence(時間的一貫性)"です。
ターゲットが突然消えたり、出現することはありえないので、時間的に前の画像にさかのぼって、一貫性をチェックするアプローチです。

2つめは"Semantic coherence(意味論的一貫性)"です。
たとえば自転車なら車輪があり、ハンドルがあり、ペダルがありといった複数の要素があります。このように複数の判定要素を予防的に設けるアプローチです。

3つめは"Spatial coherence(空間的一貫性)"です。
自動運転システムのAIがヒトを検知した場所が道路ではなく、空中だったら疑わしいとフラグをあげるアプローチです。

GARDプロジェクトについて、研究成果の再現性を高めるため、DARPAはオープンソースのデータセットを使うことを求めています。
ジョージア工科大学も研究成果をオープンソースソフトウェアとして公開する方針です。
研究成果のオープンソース化はハッキング手法を巧妙化させるリスクにもつながります。
しかしもっと重要なのは、AIアルゴリズムのブラックボックス部分を解き明かし、セキュリティの理論的な限界を示すことです。

#AI, #自動運転, #ディープラーニング, #インテル

この記事が気に入ったら、サポートをしてみませんか?
気軽にクリエイターの支援と、記事のオススメができます!
中華系電子部品のセレクトショップです。BBのオペアンプがあればご飯三杯いけるガジェット狂。深セン直輸入商品を国内発送しています。|春風商事:https://hrkz.tokyo/|直販サイト:https://shop.hrkz.tokyo/
コメントを投稿するには、 ログイン または 会員登録 をする必要があります。