【Googleの最新AI「Gemma」が開く未来】【ChatGPTの予期せぬ反応: OpenAIの事後分析】


この記事は、下記の方に特にお勧めです

  • AI技術の最新動向に興味がある方

  • ソフトウェア開発にAIを活用したい開発者

  • AIの倫理的使用と責任について考えたい方

  • ダイバーシティと包括性に関心がある方

要約

Googleが開発者と研究者向けに設計した最先端のオープンモデル「Gemma」を発表し、AIソフトウェアエンジニアの同僚を作るスタートアップ「Magic」が大きなブレークスルーを達成。ChatGPTのバグ、Geminiの人種問題、子供向けAIチューターの課題を含む今日のテクノロジーとAIの最前線を探求します。

Googleは、Gemmaと呼ばれる最先端のオープンモデルを発表しました。これは、AI技術の分野でGoogleの最新の進歩を示しています。また、AIソフトウェアエンジニアの同僚を構築するスタートアップ、Magicが大きなブレークスルーを達成したとの報告もあります。

本日のメールでは、以下のような内容が含まれています:

  • OpenAIの事後分析 - ChatGPTからの予期せぬ反応

  • Googleの新AI Geminiが白人の存在を認めないと非難される理由

  • 子供向けのAIチューターをテストしました。基本的な数学で苦戦しました。

  • 5つの新しいAIパワードツールとリソース。完全なツールリストについては、オンライン版を確認してください。

Gemmaに関するGoogleの発表は、オープンモデルとしてのAI技術の進歩における重要なステップを示しています。このようなモデルは、より広い開発コミュニティによるイノベーションを促進し、さまざまなアプリケーションでの使用を可能にすることで、AI技術の民主化に貢献することが期待されています。Magicによる最近のブレークスルーは、AI技術がソフトウェア開発プロセスにどのように統合され、作業の効率化と品質の向上に貢献できるかを示す一例です。

これらの進展は、AI技術の可能性とそれが社会に与える影響を探求する上で興味深い点です。Gemmaのようなオープンモデルの導入は、研究者や開発者がAI技術の潜在能力をさらに掘り下げるための新たな機会を提供します。同時に、Magicのようなイノベーションは、AIが日常の作業環境にどのように統合され、業務を変革するかの実例を提供しています。

GoogleがGemmaという新しいオープンモデルスイートを発表しました。これは、開発者と研究者が責任を持ってAIを作成できるように設計されています。Google DeepMindやその他のGoogleチームによって開発されたGemmaモデルは、軽量で最先端であり、Geminiモデルの背後にある技術を活用しています。これらのモデルは、Gemma 2BとGemma 7Bの2つのサイズで提供され、事前訓練済みおよび指示チューニングされたバリアントとして利用可能です。これらのモデルとともに、Googleは責任ある生成AIツールキットをリリースし、JAX、PyTorch、TensorFlowなどの主要なフレームワーク全体でのサポートを提供しています。Gemmaの統合は、Hugging FaceやNVIDIA NeMoなどのツールにまで及び、ラップトップやGoogle Cloudサービスなど、さまざまなプラットフォームでの簡単な採用と展開を可能にします。

Gemmaモデルは、強力でありながら責任ある設計がされており、トップティアのパフォーマンスを達成しつつ、安全性と信頼性を確保しています。Googleは、訓練データから機密情報をフィルタリングするための措置を実施し、Gemmaモデルが責任あるAIの慣行に沿っていることを確認するための広範な評価を行っています。これには、手動のレッドチーミング、自動的な敵対的テスト、そして人間のフィードバックからの強化学習(RLHF)が含まれます。開発者が安全なAIアプリケーションを構築できるように、責任ある生成AIツールキットは、Googleの広範な経験に基づく安全分類、デバッグ、およびベストプラクティスのリソースを提供します。

Gemmaの柔軟なアーキテクチャは、さまざまなフレームワーク、ツール、およびハードウェア間での最適化を可能にし、広範なアクセシビリティと業界をリードするパフォーマンスを保証します。NVIDIA GPUやGoogle Cloud TPUsを含む複数のAIハードウェアプラットフォームをサポートしているため、Gemmaモデルは、要約から検索拡張生成(RAG)まで、さまざまなアプリケーションに最適化されています。Googleは、研究者や開発者にGemmaを実験し、イノベーションを促進するための無料アクセスとクレジットを提供しており、オープンコミュニティへのコミットメントとAI技術の責任ある開発を強調しています。

Magicというスタートアップは、AIソフトウェアエンジニアの同僚を構築する上で大きなブレークスルーを達成しました。

元GitHubのCEOであるNat FriedmanとDaniel GrossによるAIコーディングアシスタント開発者であるMagicへの1億ドルの最近の投資は、テックコミュニティ内で大きな関心を引き起こしました。MicrosoftのGitHub Copilotのような既存の半自動コーディングツールとは異なり、Magicは完全自動化されたコーディング「同僚」を提供することで、この分野を革命的に変えることを目指しています。この野心的な目標は、大量のデータを処理できる新しい大規模言語モデルの開発に基づいています。

Magicの革新性は、最大350万語のテキスト入力を処理できる能力にあり、GoogleのGemini LLMやOpenAIのGPT-4といった既存のモデルの容量をはるかに上回っています。この能力は、実質的に無制限のコンテキストウィンドウを持つモデルを示唆しており、人間の情報処理をより密接に模倣する方向への大きな一歩です。このような技術的進歩は、開発者にとってより包括的で総合的なツールを提供することにより、コーディングアシスタントの風景を再定義する可能性があります。

フリードマンとグロスによるMagicへの大規模な投資は、彼らがこのスタートアップがコーディングのやり方を変革する可能性を信じていることを反映しています。AIが理解し処理できる範囲の限界を押し広げることにより、Magicは現在のコーディングアシスタントの限界を超えるソリューションを提供する位置にあります。この動きは、ソフトウェア開発におけるAIの役割に新たな基準を設ける可能性があり、プログラマーの仕事をより効率的で直感的なものにすることができます。

OpenAIの事後分析 - ChatGPTからの予期せぬ反応

2024年2月20日、ユーザー体験を向上させることを目的としたChatGPTの重要なアップデートが、モデルの言語処理能力に影響を与えるバグを偶然にも導入してしまいました。このような大規模言語モデル(LLM)は、さまざまなトークンに関連する確率に大きく依存しながら、確率的プロセスを通じて単語を選択することにより応答を構築します。これらのトークンは、特定の言語の断片に対応する数値的な値です。しかし、アップデートの結果、モデルがこれらの数値を言語トークンに変換する重要なステップにおいて欠陥が発生しました。

このバグは、モデルの操作内での「翻訳での行き違い」として現れました。具体的には、トークンに対応する数値を選択するプロセス中に、モデルがわずかに誤った値を選び始めました。この数値選択のわずかなずれが、論理的に繋がらない単語の並びを生成し、反応を無意味なものにしました。この問題の根本原因は、特定のGPU構成で展開された際に悪化する、不正確な結果を生み出す推論カーネルにまで遡りました。この技術的な不具合は、モデルが正確に人間の言語を解釈し、生成する能力を妨げました。

この相違の原因を発見した後、OpenAIのモデルチームは迅速に行動しました。数値からトークンへの変換プロセスの欠陥を修正することに焦点を当てた、包括的な修正が開発され、展開されました。この修正の展開後、徹底的なテストが問題が効果的に解決されたことを確認しました。この迅速な対応は、高度な技術から期待されるユーザー体験の高い基準を維持し、モデルの言語処理能力の整合性が回復されることを保証しました。

なぜGoogleの新しいAI Geminiが白人の存在を認めないと非難されたのか

GoogleのAIパワーチャットボットであるGeminiは、白人の画像を作成することに対する偏見の非難を受け、オンラインの右派サークルの間で論争を引き起こしています。@EndWokenessや@WayOTWorldなどのアカウントを含む批評家たちは、歴史上の人物や特定の人口統計への画像リクエストに対するGeminiの多様な反応は、白人の歴史と文明に対するより広いアジェンダの一部であると主張しています。この反発は、AIエンジニアのDbarghya Dasなどがソーシャルメディアプラットフォーム上でコメントし、Geminiが白人の画像を生成するのが難しいと示唆し、ステレオタイプを強化するとみなされるリクエストに対してAIが反発することを批判することによって増幅されました。

Geminiが「幸せな白人」や「理想の核家族」の画像を求めるなど、さまざまなプロンプトに対して行った反応は、有害なステレオタイプに挑戦し、包括性を促進するよう設計されているとボットは述べています。一部のユーザーは、Geminiが単独で人種に基づいて画像を生成しないことを「ウォーク」アジェンダの証拠と主張していますが、Daily Dotによって行われたテストは、AIが白人を含むすべての人種の人々を特徴とする画像を生成できることを示しました。ステレオタイプを描写したり、偏見のある見解を促進するコンテンツを作成しないというボットの立場は、差別を避ける努力を称賛する声と、Googleに対する虚偽情報のための罰則を求める声とで反応が分かれています。

Geminiの偏見が疑われることについての議論は、包括性の必要性と検閲や偏見の非難のバランスを取ることに直面しているAI開発者たちの継続的な課題を浮き彫りにしています。Googleは過去のAIがステレオタイプや偏見を助長するという批判に対処するために努力してきましたが、Geminiを巡る論争は、AIが社会的価値を反映し形成する役割に関する合意に達することが依然として困難であることを示しています。批評家は、ボットのプログラミングが政治的に動機付けられたアジェンダを反映していると主張していますが、支持者はその反応をより責任ある公平なAI開発への一歩と見ています。




この記事が気に入ったらサポートをしてみませんか?