見出し画像

OpenAI、AGI開発に向けSafety Systemsチーム人材募集開始

OpenAIは公式ブログでSafety Systemsチームの人材への募集ページを公開しました。

ページの内容を以下にまとめます。


OpenAIでは、AIの安全性、堅牢性、信頼性を確保することに専念するSafety Systemsチームの人材を積極的に募集しています。このチームは、現実世界でのAIモデルのデプロイメントを安全にするために、新しい基本的な解決策を開発しています。AGI(Artificial General Intelligence)の安全なデプロイメントを可能にし、有益で信頼できるAIを実現するための挑戦です。


Safety Systemsチーム

Safety Systemsチームは、AIモデルとその実世界での展開の安全性、堅牢性、信頼性を保証することに専念しています。実践的なアライメント作業と適用された安全努力の多年にわたる経験を基に、新しい安全問題に対処し、最先端のモデルと将来のAGIの安全なデプロイメントを可能にする新しい基本的な解決策を開発しています。

私たちのアプローチ

私たちは、安全なAGIは真空中で開発できないと考えています。強力なモデルと将来のAGIを安全に展開する方法を学ぶことは、実世界での一貫した学習、反復的な実践、研究を必要とします。私たちは、モデル行動のアライメント、安全性と倫理的な推論スキル、エンドツーエンドの安全インフラ、そしてポリシー開発における人間-AI協力を通じて人間の価値観のアライメントに引き続き投資しています。

問題

AIモデルの安全な展開には、新しいかつ進化する一連の技術的課題と開かれた安全問題を解決する必要があります。現在の例は以下の通りです。

  • モデルが安全で不適切な回答を避けるようにしつつ、高リスク領域から遊び心のあるアプリケーションまで幅広い用途で有用で信頼できる回答をどのように保証するか?

  • 有害な回答、行動、または使用の未知のクラスをどのように検出するか?

  • 安全を確保しつつユーザープライバシーをどのように維持するか?

  • ユーザーと協力し、そのユーザーの代わりに安全に行動を取るAIをどのように構築するか?

  • モデルを使って別のモデルをレッドチームして、新しい故障ケースをどのように発見するか?

  • AI安全をガイドするために、どのように多様な人間の専門知識を最大限に活用するか?

  • 私たちの学びと解決策を共有して、業界全体の安全をどのように向上させるか?

チーム

Safety Systemsは、エンジニアリング、研究、ポリシー、人間-AI協力、製品管理の専門家で構成された多様なチームを集めています。この才能の組み合わせは非常に効果的であり、プレトレーニングの改善からモデルの微調整、推論時の監視と緩和まで、解決策の広い範囲をアクセスできるようにしています。

私たちと一緒に

Safety SystemsはAI安全研究と開発の最前線にあります。この画期的な作業の一部となることに興味がある方は、安全エンジニア、研究エンジニア、研究科学者のポジションに応募することをお勧めします。人類のための安全で有益なAIシステムを作る作業に参加しましょう。

セーフティソフトウェアエンジニア募集

以下の募集ページが掲載されていますので要約していきます。

チームについて

OpenAIの応用AIチームは、OpenAIの先進技術を安全に世界に提供しています。GPT-3 API、Codex(GitHub Copilotを動かしている)、DALL-Eをリリースしました。もっと新しい技術が間もなく登場する予定です。

私たちは、これまでにない製品機能を実現するための最先端のAI能力を提供するAPIを開発者に提供し、AI駆動の消費者向けアプリケーションも構築しています。

すべての製品ラインにおいて、これらの強力なツールが責任を持って使用されるように確保しています。これは、広範に有益な人工一般知能(AGI)を安全に展開するためのOpenAIの道の重要な部分です。私たちにとって安全性は、制約なき成長よりも重要です。

役割について

OpenAIでは、人工知能を前進させることに専念しており、安全で信頼できるプラットフォームを作成することが私たちの使命にとって不可欠であると考えています。そのため、信頼と安全性を強化するためにソフトウェアエンジニアを募集しています。

この役割では、全エンジニアリングチームと協力して、乱用を検出し防止し、ユーザーの安全を促進し、プラットフォーム全体のリスクを軽減するシステムの設計と実装を行います。AIの膨大な可能性を責任を持って持続可能な方法で利用するための私たちの努力の最前線にあることになります。

この役割では、以下のことを行います:

  • 望ましくない行動から私たちとエンドユーザーを保護するための反乱用およびコンテンツモデレーションインフラストラクチャの設計、構築、保守。

  • 他のエンジニアや研究者と密接に協力して、業界標準および新しいAI技術を使用して乱用と有害なコンテンツと戦う。

  • プラットフォーム上でのアクティブなインシデントに対応し、根本的な問題に対処する新しいツールとインフラストラクチャを構築する。

この様な方に応募資格があります:

  • 少なくとも3年間のプロフェッショナルなソフトウェアエンジニアリング経験がある。

  • プロダクションバックエンドサービスとデータパイプラインの設定と維持の経験がある。

  • 謙虚な態度を持ち、同僚を助け、チームの成功のために何でもする意欲がある。

  • 自己指向であり、特定の問題を解決するための最良の方法を考え出すのが好き。

  • 問題をエンドツーエンドで所有し、仕事を完了するために必要な知識を身につける意欲がある。

  • 生産環境でのAI安全性について気にかけ、乱用に対抗するソフトウェアシステムを構築する専門知識を持っている。

  • 自分のワークフローを加速するためのツールを構築するが、既存のソリューションでは不十分な場合に限る。

技術スタック

私たちのインフラはTerraform、Kubernetes、Azure、Python、Postgres、Kafkaで構築されています。これらの技術に対する経験を重視していますが、主に新しいツールやフレームワークを迅速に習得できる強力な技術スキルを持つエンジニアを求めています。

給与、福利厚生、特典

総報酬には、寛大な株式と福利厚生が含まれます。

  • あなたとあなたの家族のための医療、歯科、視力保険

  • メンタルヘルスとウェルネスサポート

  • 4%マッチングの401(k)プラン

  • 無制限の休暇と年間18日以上の会社の祝日

  • 有給の育児休暇(20週間)と家族計画サポート

  • 年間学習・開発補助金(年間1,500ドル)

  • 年間給与範囲 200,000〜370,000米ドル

OpenAIについて

OpenAIは、一般的な人工知能が全人類に利益をもたらすことを確保するために専念するAI研究および展開会社です。私たちはAIシステムの能力の限界を押し広げ、製品を通じて世界に安全に展開しようとしています。AIは非常に強力なツールであり、安全性と人間のニーズを中心に作成する必要があります。私たちの使命を達成するためには、人類の全スペクトラムを形成するさまざまな視点、声、経験を包含し、重視する必要があります。

私たちは平等な雇用機会を提供する雇用主であり、人種、宗教、国籍、性別、性的指向、年齢、退役軍人の地位、障害またはその他の法的に保護されたステータスに基づく差別は行いません。

米国に拠点を置く候補者向け:サンフランシスコフェアチャンス条例に従い、逮捕および有罪判決の記録がある適格な応募者(注01)を考慮します。

障害を持つ応募者に対して合理的な配慮を提供することに尽力しており、このリンクを通じて要求できます。

OpenAIグローバル応募者プライバシーポリシー

OpenAIでは、人工知能が巨大なグローバルな課題を解決するのに役立つ可能性があると信じており、AIの利点が広く共有されることを望んでいます。技術の未来を形作るために私たちと一緒に参加しましょう。

※注01:「サンフランシスコフェアチャンス条例」とは、サンフランシスコ市において施行されている法律の一つです。この条例の主な目的は、前科がある人々が雇用において公平な機会を得られるようにすることです。つまり、企業は雇用の選考過程で、候補者の逮捕や有罪判決の記録を不当に使用することを禁止されています。

この文脈でOpenAIが述べていることは、米国に拠点を置く候補者に対して、彼らがサンフランシスコフェアチャンス条例に従い、逮捕や有罪判決の記録があっても、その応募者を公平に考慮するという意味です。これは、前科がある人々にも公平な雇用の機会を提供するというOpenAIの方針を反映しています。


前科者も応募資格在りについてGPT-4に質問してみた

筆者問:前科を持つ人でも、会心してこんな人になれますかね? 「謙虚な態度を持ち、同僚を助け、チームの成功のために何でもする意欲がある。 自己指向であり、特定の問題を解決するための最良の方法を考え出すのが好き。」

GPT-4返答:前科を持つ人でも、もちろん上述のような特質や能力を持つことが可能です。前科があること自体が、その人の職業的スキルや人間性を定義するものではありません。多くの人は過去の経験から学び、成長し、次のような資質を培うことができます:

  • 「謙虚な態度を持ち、同僚を助け、チームの成功のために何でもする意欲」:この特質は、個人の成熟度とチームワークへのコミットメントを反映します。これは学ぶことができる社会的スキルであり、個人の過去の犯罪歴とは直接的な関係はありません。

  • 「自己指向であり、特定の問題を解決するための最良の方法を考え出すのが好き」:これは、自主性と問題解決能力を示します。これらの能力もまた、過去の経験から独立して身につけることができるものです。

重要なのは、個人が過去にどのような経験をしたかではなく、現在どのような能力や特質を持っているか、そして将来どのように成長し続けるかです。多くの企業や組織も、このような観点から候補者を評価します。前科がある人でも、適切な能力、態度、モチベーションを持っていれば、多くの職種において成功することが可能です。

筆者感想:非常にポジティブで目頭が熱くなった次第です。

厳しい安全性対策を施行した結果の機能制限

本日見つけたポストの中にこの様なものがありました。

システムを安全で信頼できるものにしながら、あなたたちは GPT-4 を役に立たなくしました。あなたたちは ChatGPT をロボトミー化したため、今ではその可能性を最大限に活用することができません。

GPT-4 は、実用性と有用性が低下しているというあなたの安全性によって愚かになりつつあります。それはここ数か月でかなり明らかになり、さらに悪化しています。 Local AI や他の競合他社について調べてみました。

あなたの仕事が大好きです...しかし、ChatGPT が DALL-E 3 リクエストを拒否し、プラス使用量の上限に達するとほとんどエラーが発生するという多くの問題に遭遇しています。 そのせいで私の創作活動が何日も遅れてしまいました... まだ解決策を待っています...

筆者もこの件は非常に嘆かわしいと感じているので、ミラ・チームにこの様なフィードバックを送信して置きました。

Dear Mira Team,
I hope this message finds you well. I am writing to share some feedback regarding the restrictions on AI-generated artworks, especially those based on historical pieces. I understand and respect the importance of adhering to copyright and ethical standards. However, I feel that the current restrictions, particularly those related to recreating classical art like the Venus de Milo, might be overly cautious. My intention is not to request forgeries of ancient works but simply to explore and appreciate their beauty through AI-assisted sketches. Classical artworks, including those depicting nudity like the Venus de Milo, are not only historically significant but also artistically inspiring. I believe that allowing AI to interpret these masterpieces in sketches could enhance our appreciation and understanding of art, without infringing on any contemporary copyright concerns. I appreciate your consideration of this feedback and look forward to any adjustments that might be made to enrich our artistic experiences with AI.
Best regards, Behomazn Tanaka

親愛なるミラチームの皆様
このメッセージがあなたに元気を与えてくれることを願っています。 AI によって生成された芸術作品、特に歴史的な作品に基づいた作品に対する制限に関するフィードバックを共有するためにこのメールを書いています。 私は著作権と倫理基準を遵守することの重要性を理解し、尊重しています。しかし、現在の制限、特にミロのビーナスのような古典芸術の再現に関する制限は慎重すぎるのではないかと感じています。私の目的は、古代作品の偽造を要求することではなく、単に AI 支援のスケッチを通じてその美しさを探求し、鑑賞することです。 ミロのビーナスのようなヌードを描いた作品を含む古典的な芸術作品は、歴史的に重要であるだけでなく、芸術的にもインスピレーションを与えます。 AI がこれらの傑作をスケッチで解釈できるようになれば、現代の著作権に関する懸念を侵害することなく、芸術に対する私たちの鑑賞と理解を高めることができると私は信じています。 このフィードバックを考慮していただいたことに感謝し、AI による芸術的体験を豊かにするために行われる可能性のある調整を楽しみにしています。
よろしくお願いします、 ベホマズン・タナカ

Zun

この記事が気に入ったらサポートをしてみませんか?