AI安全基金設立と新エグゼクティブディレクター就任: フロンティアモデルフォーラムの最新動向
10月25日に発表されたOpenAIのFrontier Model ForumアップデートについてこのNoteで解説します。
新しいエグゼクティブディレクターの任命とAI安全基金の設立
OpenAI、Anthropic、Google、およびMicrosoftは、Frontier Model Forum(フロンティアモデルフォーラム)の新しいエグゼクティブディレクターと新しい1000万ドルのAI Safety Fund(AI安全基金)を発表しました。この基金は、社会が最も能力の高いAIモデルを効果的にテストおよび評価するツールの継続的な開発を進めるための研究を支援することを目的としています。
Chris Meserole氏、エグゼクティブディレクターに就任
Chris Meserole氏は、技術政策に関する深い専門知識を持ち、新技術のガバナンスと安全に関して広範囲にわたる作業を行ってきました。最近では、Brookings Institutionの人工知能および新興技術イニシアティブのディレクターを務めていました。新しい役割では、フォーラムがフロンティアモデルの責任ある開発を促進し、潜在的なリスクを最小限に抑えるAI安全研究を進める使命を果たすのを支援する責任を負います。
Chris Meserole氏の経歴
Chris Meserole氏のプロフェッショナルな背景とポートフォリオに関する情報を以下に要約します。
教育:
Chris Meserole氏はハーバード大学で学士号を取得し、その後、イェール大学で修士号、そしてメリーランド大学で比較政治学と政治方法論の博士号を取得しました。
専門分野:
Meserole氏はテロリズムと過激派、中東と北アフリカの問題に焦点を当てており、技術政策に関する深い専門知識を持っています。また、彼の研究は強力で実用的で原則に基づいた国家安全保障と防衛政策の開発にも焦点を当てています。
キャリア:
Meserole氏は最近までBrookings Institutionの人工知能と新興技術イニシアティブのディレクターを務めていました。彼の新しい役割では、Frontier Model Forumのエグゼクティブディレクターとして、フロンティアモデルの責任ある開発を促進し、潜在的なリスクを最小限に抑えるAI安全研究を進める使命を果たすことを支援する責任を負っています。
影響と寄稿:
彼の研究は数多くの出版物やメディアで取り上げられており、New Yorker, Wired, Foreign Affairs, Foreign Policyなどで特集されています。また、Meserole氏は定期的に米国とヨーロッパの技術リーダーや政府関係者にブリーフィングを行っています。
AI Safety Fundの目的と活動
AI Safety Fundは、世界中の学術機関、研究機関、およびスタートアップに所属する独立した研究者を支援します。この基金はAnthropic、Google、Microsoft、およびOpenAIからの初期資金提供を受けており、Patrick J. McGovern Foundation、David and Lucile Packard Foundation、Eric Schmidt、およびJaan Tallinnからも寄付を受けています。基金は、AIの安全と一般的なAI知識ベースにさらに多くの声と視点をもたらすことにより、AI安全に関するグローバルな議論を促進することを目指しています。
AI Safety Fund設立の経緯
AI Safety Fundの設立は新しいもので、先進的なAIモデルをテストし、評価するツールの研究を支援することを目的としています。これは、イギリスで開催されるAIの安全性に焦点を当てたグローバルサミットに先立ち、AIモデル内の脆弱性のサードパーティ監査を容易にするコミットメントと一致しています2。
この新しいAI Safety Fundは、テクノロジストと市民社会の支持者の多様なコレクションを結集して、実存的リスクの曖昧な問題を脇に置いて、どのようにAIの安全性を確保し、進歩を評価するかという重要な問題に答えることを目的としています。
過去の資金提供の変化を追跡すると、2014年にはAI Safetyの作業はほぼ完全にFuture of Humanity Institute (FHI)とMachine Intelligence Research Institute (MIRI)によって行われており、両組織は合わせて175万ドルを費やしていました。しかし、2016年には、50以上の組織が明示的にAI Safety関連のプログラムを持っており、おそらく660万ドルを費やしていました。このように、AI Safetyのフィールドでは資金提供の増加が見られ、新しいAI Safety Fundの設立は、このトレンドをさらに推進し、AIの安全性を向上させるための重要なステップを示しています。
技術専門知識と今後の活動
Frontier Model Forumは、AI安全とガバナンス問題について議論するための共通の基準を確立する支援を提供しています。また、「レッドチーム活動」(注01)のベストプラクティスを業界全体で共有し、フロンティアAIモデルに関連する脆弱性や潜在的に危険な機能の発見に関連する情報を共有する新しい責任開示プロセスを開発しています。
※注01:レッドチーム活動(レッドチーミング)とは、セキュリティや機能の弱点を探るために外部または内部の専門家チームが模擬攻撃や評価を行うプロセスのことです。
OpenAIのレッドチーム活動については、下記のNoteで詳しく解説していますので合わせてご覧ください。↓
Frontier Model Forum設立の経緯
フロンティアモデルフォーラム(Frontier Model Forum)は、2023年7月26日に設立されました。このフォーラムは、Microsoft、Anthropic、Google、そしてOpenAIの4社によって立ち上げられ、先端AIモデルの安全かつ責任ある開発を推進することを目的としています。
Frontier Model Forumの設立は、AIモデルの急速な進化とそれに伴う社会的な影響を対処するための重要なステップとなっています。以下の点がその背景に含まれています:
高性能AIモデルの進化:
最近の年において、AIモデルは非常に高性能かつ高機能化しており、これらのモデルは様々な産業や分野において多大な利益をもたらしています。しかし、その一方で、これらの高性能AIモデルは新しいリスクや課題をもたらしています。
AIの安全と倫理的な懸念:
AIの急速な進化は、個人のプライバシーやデータセキュリティ、バイアス、誤解釈など、多くの安全と倫理的な懸念を引き起こしています。これらの問題を解決するためには、広範な専門知識と多様な視点が必要です。
多様なステークホルダーの協力:
AIの利点を最大化し、リスクを最小化するためには、産業界、学界、政府、および公共部門の多様なステークホルダー間での協力が不可欠です。
共通の基準とベストプラクティスの確立:
AIの安全と効果的なガバナンスを確保するためには、共通の基準とベストプラクティスを確立し、共有することが重要です。
Frontier Model Forumは、これらの課題に対処し、AI安全研究を進め、AIモデルの責任ある開発と利用を促進するために設立されました。このフォーラムは、多様なステークホルダーを結集し、共通の基準を確立し、AIの安全と効果的なガバナンスに関する議論と研究を促進することを目的としています。さらに、新しいAI Safety Fundは、これらの目標を達成するための研究とプロジェクトを支援する資金を提供することを目指しています。
Frontier Model ForumとAI Safety Fundの連携
Frontier Model ForumとAI Safety Fundは、AIの安全と責任ある使用に焦点を当てたイニシアティブであり、両者は連携してこれらの目標を達成することを目指しています。具体的には:
目的の共有:
両者は、AIモデルの安全と責任ある使用を促進し、これらのモデルに関連するリスクを理解および緩和することを目的としています。
資金提供と研究の支援:
AI Safety Fundは、社会が最も能力の高いAIモデルを効果的にテストおよび評価するツールの研究を支援するための資金を提供します。一方、Frontier Model Forumは、このような研究を促進し、結果を共有し、関連するディスカッションと協力を促進するプラットフォームを提供します。
協力とコミュニケーションの促進:
Frontier Model Forumは、AI安全とガバナンスの問題に対する共通の理解を確立し、業界全体での「レッドチーム活動」のベストプラクティスを共有することを目指しています。これにより、AI Safety Fundによって支援される可能性のある研究プロジェクトは、より広範なコミュニティと協力し、有益なフィードバックとサポートを受けることができます。
関係者の結集:
両者は、AIの安全と責任ある使用に関心を持つ多様なステークホルダーを結集し、共通の目標に向けて協力することを奨励しています。
この記事が気に入ったらサポートをしてみませんか?