見出し画像

LLMのデジタル影響工作応用の可能性と対策

先日の『ネット世論操作とデジタル影響工作』刊行記念ウェビナーでデジタル影響工作へのAIの利用に思ったより多くの人が関心を持っているようだったので紹介しようと思う。
ChatGPTなどのLLMはデジタル影響工作に利用可能であり、おそらく大きな効果をもたらすと予想される。2021年10月にOpenAI、ジョージタウン大学Center for Security and Emerging Technology、スタンフォード大学Internet Observatoryが協同で行ったワークショップの成果をもとにまとめた資料「Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations」(https://cdn.openai.com/papers/forecasting-misuse.pdf)が2023年1月に公開されている。
ワークショップにはAI、影響工作、政策など各分野の専門家30名が集まって意見を交換し、アイデアを出し合った。
この資料はLLMのデジタル影響工作応用の可能性と対策についてまとめられたものである。現実の議論がもとになっているが、これから起きることについてのものであり、必然ではなく可能性について論じたものになっている。

●影響工作の3つの側面への影響

このレポートは影響工作の3つの側面=ABCへの影響を下記のように整理している。A=アクター、B=行動、C=コンテンツである。

●LLM利用デジタル影響工作対策の難しさ

本レポートでは、3つの理由からLLM利用デジタル影響工作対策が難しいとしている。

1.デジタル影響工作においてテキストは画像や動画よりも比較的未解明な部分が多い
2.テキストはAIが生成したものを見分けるのが特に難しい
3.LLMが急速に普及し、誰でも簡単に利用できるうようになっている

この3つの側面を全体的に評価することが重要であるとしている。勘違いされていることも多いので、ここは大事なポイントだ。
ある側面が完全に自然発生的なものであっても他の側面が操作されており、全体としてはデジタル影響工作というケースもある。たとえばコロナ禍で反ワクチンを発信していたグループは自然発生的だったかもしれないが、中露は意図的にそれを拡散していた。

本レポートでは触れていないが、最近のデジタル影響工作ではナノインフルエンサーの利用や小グループのメッセンジャーアプリの利用が進んでいる。LLMが会話によって説得するのに適している。

余談だが、レポートでは、最近の研究や社会の注目は国外からのデジタル影響工作に集まっているが、多くの論者は国外からよりも国内が問題と考えているとしており、見識の高さに納得した。

●今後の進展と重要な未知数(クリティカル・アンノウン)

●デジタル影響工作4ステップと対策

レポートではLLMデジタル影響工作の4ステップごとに対策を考えている。ここが一番多く書かれている。
LLMデジタル影響工作の4ステップと対策は下記。ただし、決め手になるものはない
AIプロバイダー、国家、プラットフォームが連携することと、新しい規制や制度が必要となるとしている。

・モデルの構築

検知しやすいアウトプット
事実に基づいたモデル(虚偽を生成できない)
Radioactiveな学習データを広げ、AI生成のものを判別可能とする(ウェビナーで藤村さんが言及していた方式?)
国家が学習用データ収集に制限を課す
国家がAIハードウェアの利用制限を課す
・モデルへのアクセス
AIプロバイダが利用制限を厳しくする
AIプロバイダが新しい規範を作る
AIプロバイダがセキュリティ上の脆弱性に対処する
・コンテンツの発信
AI生成コンテンツを判別するための取り組み
プラットフォーム投稿時に人物証明を厳格化
パブリックコメントなど多数からの影響を受けやすい機関はAIコンテンツを排除する仕組みを作る
コンテンツの来歴証明
・信念の形成
メディアリテラシー向上
コンシューマー向けのAIツールを提供(AIコンテンツを識別するなど)

好評発売中!
『ネット世論操作とデジタル影響工作:「見えざる手」を可視化する』(原書房)
『ウクライナ侵攻と情報戦』(扶桑社新書)
『フェイクニュース 戦略的戦争兵器』(角川新書)
『犯罪「事前」捜査』(角川新書)<政府機関が利用する民間企業製のスパイウェアについて解説。


本noteではサポートを受け付けております。よろしくお願いいたします。