見出し画像

OpenAI、安全性に関する2つのロール募集

OpenAIは本日、2つのロールの募集を開始しました。いずれも、AIの安全性と責任ある展開に焦点を当てた重要なポジションです。

Research Scientist, Safety(研究科学者、安全性)

OpenAIのAI Safetyチームが募集しているポジションはOpenAIのAI Safetyチームが募集しているポジションはであり、ロールは"SafetyScientist"(セーフティサイエンティスト)です。

このチームは、AIモデルを現実世界で安全に展開するためのさまざまな安全対策に責任を持っています。具体的には、不要な使用ケースを減らし、モデルの挙動が安全基準と法的遵守に合致するようにするための研究とエンジニアリングプロジェクトを幅広く手がけています。

年俸、福利厚生、特典

この役割の年収範囲は 200,000 ドルから 370,000 ドルです。報酬総額には、多額の株式と福利厚生も含まれます。

  • あなたとあなたの家族のための医療、歯科、視力保険

  • メンタルヘルスとウェルネスのサポート

  • 4%企業付与の退職貯蓄プラン

  • 会社規定休日18日以上+有給休暇無制限(要チームの同意)

  • 有給育児休暇(20週間)と家族計画のサポート

  • 年間学習および能力開発奨学金 (年間 1,500 ドル)

当社は機会均等な雇用主であり、人種、宗教、出身国、性別、性的指向、年齢、退役軍人の地位、障害、またはその他の法的に保護された地位に基づいて差別しません。サンフランシスコ公正チャンス条例に従い、逮捕歴や有罪判決を受けた資格のある応募者を考慮します。

当社は障害のある応募者に合理的な配慮を提供しています。

この役割での主な業務

  1. 研究方向と戦略の設定:AIシステムをより安全、より整列されたものにし、敵対的または悪意のある使用ケースに対しても頑健であるようにする。

  2. AI安全性に関する最先端の研究:RLHF(Reinforcement Learning with Human Feedback)、敵対的訓練、堅牢性などのトピックで研究を行う。

  3. 横断的なチームとの連携:T&S(Trust & Safety)、法務、ポリシー、その他の研究チームと協力し、製品が最高の安全基準を満たすようにする。

  4. AI/MLモデルとシステムの安全監査:リスクエリアを特定し、緩和策を提案する。

この役割で活躍するためには

  • コンピュータサイエンス、機械学習、または関連分野での博士号、および5年以上の関連研究経験。

  • RLHF、敵対的訓練、堅牢性、公平性とバイアスなど、AI安全性に関するトピックでの経験が非常に有利。

  • AIモデルの安全な展開に関する作業経験が大きなプラス。

  • AIの安全性に深い関心を持ち、最先端のAIモデルを現実世界で安全に使えるようにする作業に動機づけられる。

  • 深層学習研究に対する深い理解と/または強力なエンジニアリングスキルが、この役割での成功には不可欠。

  • チームプレイヤーであること。

Machine Learning Engineer, Moderation(機械学習エンジニア、モデレーション)

このポジションは、"ModerationEngineer"(モデレーションエンジニア)のロールです。OpenAIのSafety Systemsチームの一部で、APIユーザーが不要な使用ケースを監視し、防止するための「モデレーションエンドポイント」というツールの設計と構築に関わります。具体的には、データ管理、モデル訓練、デプロイメントに関する堅牢なパイプラインを設計・構築する役割があります。

年俸、福利厚生、特典

この役割の年収範囲は 200,000 ドルから 370,000 ドルです。報酬総額には、多額の株式と福利厚生も含まれます。

  • あなたとあなたの家族のための医療、歯科、視力保険

  • メンタルヘルスとウェルネスのサポート

  • 4%企業付与の退職貯蓄プラン

  • 会社規定休日18日以上+有給休暇無制限(要チームの同意)

  • 有給育児休暇(20週間)と家族計画のサポート

  • 年間学習および能力開発奨学金 (年間 1,500 ドル)

当社は機会均等な雇用主であり、人種、宗教、出身国、性別、性的指向、年齢、退役軍人の地位、障害、またはその他の法的に保護された地位に基づいて差別しません。サンフランシスコ公正チャンス条例に従い、逮捕歴や有罪判決を受けた資格のある応募者を考慮します。

当社は障害のある応募者に合理的な配慮を提供することに尽力しています。

この役割での主な業務

  1. データ管理パイプラインの設計・開発・維持:内容ポリシーの変更に対応できるように、データの再ラベリングも含めた堅牢でスケーラブルなデータ管理パイプラインを構築します。

  2. 自動モデル訓練・評価・デプロイメントのパイプライン構築:アクティブラーニング、キャリブレーション、検証データの更新などを含む。

  3. ステークホルダーとの緊密な連携:製品、エンジニアリング、コンテンツポリシーのチームと連携し、モデレーションモデルの長期的な改善に取り組みます。

  4. 最新の深層学習・自然言語処理技術の研究:不要なコンテンツカテゴリー全体でモデレーションモデルを改善します。

  5. データ増強と生成の実験:訓練データの多様性と品質を高めます。

  6. レッドチーミングパイプラインの設計と実験:モデルの堅牢性を評価し、今後の改善点を特定します。

  7. オープンエンドの研究:半教師あり学習や人間がループ内での機械学習を含む、データ品質の向上。

この役割で活躍するためには

  • 3年以上の機械学習エンジニアまたはソフトウェアエンジニアとしての業界経験。

  • AIの安全性に深い関心と、不要なコンテンツを効果的に検出する最高の深層学習モデルを構築する情熱。

  • 高品質なデータの重要性を強く信じ、関連する課題に取り組む意欲。

  • 大規模分散システム、深層学習、または自然言語処理の経験があればプラス。

  • チームでの作業が好き。

ホワイトすぎるOpenAIの福利厚生制度

例えばですよ、日本の場合保育所が足りなくて待機児童がいっぱいいます。もしOpenAIに勤めていたら、20週(140日)産後の育児で有給を使ったあと、保育園に入れるまで無制限に有給休暇が取れるわけです。(要チームの同意)以下、日本・アメリカ・OpenAIで比べてみると、

日本の育児休業制度

  • 産前産後休業:は出産をする女性従業員が対象(出産の6週間前(多胎妊娠の場合は14週間前)から産後8週間までを基本とする)。無休の会社がほどんど。産前産後休業中は、原則として有給を使用できません。

  • 育児休業:パートナー(夫など)も取得することができるが少ないです。
    育児休業中に無給となるか、一定以上減額される場合には、雇用保険から支給される「育児・介護休業給付」があります。

  • 長期の育児休業: 子が1歳6ヶ月(または2歳)になるまで無給の育児休業を取ることができます。

アメリカの育児休業制度

  • 短期の育児休業: FMLAにより、最大で12週間の無給の休暇が取れます。

  • 有給のオプション: 一部の企業では、独自に有給の育児休業制度を設けています。

  • 州による違い: 州によっては、より手厚い育児休業制度があります。

OpenAIの育児休業制度

  • 短期の育児休業: 20週間の有給育児休暇が取れます。

  • 有給のオプション: 有給で無制限の有給休暇を取得可能。(要チームの同意)

  • 「親となる全ての従業員」に対して育児休暇が提供:(出産する女性だけでなく、パートナーが出産する男性、同性カップル、ノンバイナリーの人々も含まれる)

セーフティーチームリーダーのブログ

ちなみにセーフティーチームのリーダーはLilian Wengで氏のLinkdInにおいても募集をかけています。

Lilian Weng氏のブログはこちらです。

アメリカテック企業の福利厚生について

OpenAIのような手厚い福利厚生を提供する企業は珍しいですが、テクノロジー業界や大手企業では比較的一般的になってきています。例えば、Google, Facebook, Microsoft, Netflix なども非常に手厚い福利厚生と柔軟な働き方を提供しています。

  • Google:産休・育児休業、無料の食事、フィットネスセンターなど

  • Facebook:4ヶ月の有給産休・育児休業、無料の食事、さまざまな健康・ウェルネスプログラム

  • Microsoft:最大20週間の有給産休、さまざまな健康・ウェルネスプログラム

  • Netflix:最初の1年間で自由に有給休暇を取ることができる「無制限休暇」政策

このような企業は、従業員の幸福と生産性を高めるために、多様な福利厚生や柔軟な働き方を提供しています。ただし、これらは主にアメリカやその他の先進国での事例であり、全世界的に見ればまだまだ珍しいケースです。

この記事が気に入ったらサポートをしてみませんか?