![見出し画像](https://assets.st-note.com/production/uploads/images/143110043/rectangle_large_type_2_fc4b3320a29b8b42103362d301124d67.jpeg?width=800)
OpenAI日本法人、インフラセキュリティエンジニア募集開始!
最先端のAI研究インフラのセキュリティを強化するために、OpenAI日本法人では現在、「セキュリティエンジニア(検出と対応)」を募集しています。以下、本日更新されたブログの内容を解説していきます。
A snapshot of the security architecture we’ve designed to protect our research infrastructure and frontier model training. We hope this will benefit other AI research labs and security professionals (and we’re hiring). https://t.co/rEFMFAOroh
— OpenAI (@OpenAI) June 5, 2024
最先端のAI研究インフラのセキュリティを強化するために
OpenAIが公開したブログでは、最先端モデルの安全なトレーニングを支えるアーキテクチャについて説明しています。
セキュリティ
OpenAIは、業界トップクラスの能力と安全性を備えたモデルを提供するために、最大規模のAIトレーニング用スーパーコンピューターを運用しています。この基盤となるインフラストラクチャのセキュリティを確保するために、現在のアーキテクチャと運用について詳しく説明しています。
ブログでは、AIの革新を促進するために、安全な環境でモデルの重みを保護する対策が含まれています。これらのセキュリティ機能は時間と共に進化する予定ですが、現時点での考え方を共有することが重要だと述べています。他のAI研究所やセキュリティ専門家が自身のシステムを保護する際の参考になることを目指しています。
脅威モデル
研究インフラは、多様で急速に進化するワークロードの性質から、独自のセキュリティ課題を提示します。特に保護が必要な資産として、リリース前のモデルの重みが挙げられます。これらは知的財産の核心を成し、不正なリリースや妥協から保護する必要があります。
アーキテクチャ
OpenAIの研究技術アーキテクチャはAzure上に構築され、Kubernetesを使用してオーケストレーションを行っています。これらを活用して、研究を可能にしつつ脅威モデルに適合するセキュリティアーキテクチャを実装しています。
アイデンティティ基盤
Azure Entra ID(旧称Azure Active Directory)に基づくアイデンティティ基盤が内部の認証および認可フレームワークと統合されています。これにより、セッション作成時のリスクベースの検証、認証トークンの使用、および異常なログインの検出が可能になります。Kubernetesアーキテクチャ
Kubernetesを使用してインフラストラクチャ内のワークロードを管理およびオーケストレーションしています。研究ワークロードは、Kubernetesのロールベースのアクセス制御(RBAC)ポリシーによって保護され、最小特権の原則に従っています。機密データの保存
認証情報、秘密、およびサービスアカウントなどの機密データには追加の保護が必要です。キーマネジメントサービスを使用し、機密情報を保存および管理しています。研究者と開発者のためのIAM
アクセス管理は、研究者と開発者がシステムにアクセスするための重要な要素です。IAMソリューションのセキュリティ目標は、リソース全体での時間制限された「最小特権」アクセス戦略、効率的な管理、および監査可能性を可能にすることです。CI/CDセキュリティ
CI/CDパイプラインを使用して、研究インフラを構築およびテストしています。インフラCI/CDパイプラインを強化し、脅威に対する耐性を高めるための投資を行っています。柔軟性
研究には、機能要件や制約の変化に対応するための迅速なインフラの反復が必要です。セキュリティと機能要件の両方を達成するために、適切な補償コントロールとともに例外を許容することが重要です。
モデルウェイトの保護
研究環境からのモデルウェイトの流出を防ぐためには、多層的なセキュリティアプローチが必要です。これらのコントロールは、研究資産を不正なアクセスや盗難から保護しながら、研究および開発の目的でアクセス可能な状態に保つために設計されています。
監査とテスト
OpenAIは、内部および外部のレッドチームを使用して、敵対者をシミュレートし、研究環境のセキュリティコントロールをテストしています。
将来のコントロールに関する研究と開発
より高度なAIシステムを保護するためには、継続的な革新と適応が必要です。OpenAIは新しいセキュリティコントロールの開発に積極的に取り組んでおり、研究と開発へのコミットメントを通じて、AIインフラのセキュリティを強化し続けています。
現在の募集ポジション:
ソフトウェアエンジニア(セキュリティ)
セキュリティエンジニア(検出と対応)(米国、英国、日本)
エンタープライズセキュリティエンジニア
リサーチエンジニア(プライバシー)
興味のある方はぜひご応募ください。共に最先端のAIセキュリティを追求し、未来を形作る一員となりましょう。
この記事が気に入ったらサポートをしてみませんか?