見出し画像

OpenAIがGPT-5の開発を正式に開始したことが発表されました。

  • OpenAI、GPT-5の開発を正式に開始

    • 「OpenAIがGPT-5の開発を正式に開始したことが発表されました。」

カスタムGPTのセキュリティ対策

  • カスタムGPTの指示にパスワード保護は可能か?

    • 「カスタムGPTの指示にパスワード保護を設定することはできますか?」

AIの父の警鐘

  • AIの祖父が自身の創造に恐れを抱く理由

    • 「AIの祖父が自ら構築したものに対して持つ恐れについての記事です。」

OpenAI DevDay

  • OpenAI DevDayの分科会セッションが公開

    • 「OpenAI DevDayの分科会セッションの情報が公開されました。」

中国向けNvidiaの特別AIチップ

  • Nvidia、米国の貿易禁止を回避するため中国向け特別AIチップを発表

    • 「Nvidiaが米国の貿易禁止を避けるため、中国向けに特別なAIチップを発表しました。」

新たなAIツール

  • 13の新しいAI駆動ツールとリソース

    • 「13の新しいAIを活用したツールとリソースについて。全リストはオンライン版で確認できます。」


  • 緊急ニュース:OpenAIがGPT-5(またはスーパーインテリジェンスとも呼ばれる)の開発に着手

    • 「OpenAIがGPT-5の開発を正式に開始したことが発表されました。スーパーインテリジェンスとも呼ばれています。」

ChatGPTを開発したOpenAIは、人工知能(AGI)の開発を続けるにあたり、最大の出資者であるマイクロソフトからさらなる資金援助を受ける予定だ。インタビューに応じたサム・アルトマンCEOは、マイクロソフトとの強力なパートナーシップと、高度なAIモデルの開発にかかる高コストを支援するためのさらなる投資への期待について語った。マイクロソフトはすでにOpenAIに100億ドルを投資しており、その評価額は290億ドルである。

アルトマンは、OpenAIの収益の伸びを強調したが、トレーニング費用が高いため、同社は依然として採算が取れていないと指摘した。同氏は、マイクロソフトとのパートナーシップの相互利益を強調した。

OpenAIは最近、GPT-4の新しいツールとアップグレードを発表し、アップルのApp Storeのようなビジネスモデルの構築を目指している。これにはChatGPTのカスタムバージョンや、開発者や企業向けのGPTストアが含まれる。アルトマンは、これらを同社の主要製品である "インテリジェンス、空の魔法のインテリジェンス "へのチャネルと見なしている。

同社は企業向けビジネスを拡大するため、ブラッド・ライトキャップのような幹部を雇用している。アルトマンは、超知能の研究とAGI用コンピューティング・パワーの構築に時間を割いている。OpenAIはまた、コーディングや支払いなどのタスクをこなす、より自律的なエージェントの開発にも取り組んでいる。

GPT-5の計画が進行中であり、様々なソースからのより多くのトレーニングデータが必要である。OpenAIは新しいデータセットを求めており、特に長文の文章や会話のデータを求めている。GPT-5の正確な能力は、開発されるまで不明なままだ。

OpenAIは、AI開発において重要な要素であるモデルのトレーニングに、Nvidiaの先進的なH100チップを使用している。しかし、グーグルやAMDのような他社がAIチップ市場に参入しているため、Nvidiaへの依存度は低下するかもしれない。

OpenAI Dev Dayに参加できなかった開発者に朗報です!分科会の模様がYouTubeでライブ配信されています!🎉

以下のセッションをチェックしてください:

LLMパフォーマンスの最大化

AIのための新しいスタックとOps

研究 x 製品

AIのビジネス

すべてのビデオを見る

Nvidia、AIモデル学習用の最新ハイエンドチップ「H200」を発表


Nvidiaはこのほど、AIモデルのトレーニングと展開用に設計された新しいグラフィック・プロセッシング・ユニット(GPU)であるH200を発表し、ジェネレーティブAI分野で見られる能力を大幅に強化した。このGPUは、OpenAIがGPT-4のトレーニングに使用しているH100からのアップグレードで、141GBの先進的な「HBM3」メモリを誇る大幅なメモリ増量が特徴です。この強化は、GPUがテキスト、画像、または予測を生成するために訓練されたモデルを利用する推論のようなタスクを実行するために重要です。

H200は、前モデルであるH100の約2倍高速な出力を提供することが期待されており、メタ社のLlama 2 LLMを使用したテストでもこの主張が裏付けられている。価格は25,000ドルから40,000ドルで、このようなチップの需要は、大手企業、新興企業、政府機関の間で高く、最大のモデルを訓練するために数千が必要とされている。

エヌビディアの株価は2023年に230%以上高騰しており、今期の売上高は170%急増し、約160億ドルに達すると予想されている。H200は既存のH100システムと互換性があり、システムやソフトウェアを大幅に変更することなく、柔軟にアップグレードできる。H200は以下の構成で提供される。

GPUは4基または8基の構成で利用可能で、NvidiaのHGXコンプリート・システムの一部となるほか、H200 GPUとArmベースのプロセッサーを組み合わせたGH200も用意される。

しかし、Nvidiaはすでに、2024年に発表・リリースが予定されている次期BlackwellアーキテクチャをベースとしたB100チップの導入という、次の大きなステップを計画している。この動きは、GPUに対する高い需要に後押しされ、2年ごとのアーキテクチャ・リリースから1年ごとのアーキテクチャ・リリースへと移行するNvidiaの戦略の一環である。

カスタムGPTを構築する際のヒント


この記事が気に入ったらサポートをしてみませんか?