見出し画像

株:3月19日 NVIDIAのフアン氏の人工一般知能に関する見解

このnoteは素人の妄想の垂れ流しであり、特定の商品の勧誘や売買の推奨等を目的としたものではなく、特定銘柄および株式市場全般の推奨や株価動向の上昇または下落を示唆するものでもなく、将来の運用成果または投資収益を示唆あるいは保証するものでもない。
最終的な投資決定は読者ご自身で判断するざんす。
この記事にそそのかされて売買しないざんす、しるぶぷれ


NVIDIA過去記事のまとめ

  • 新しいGPUのBlackwellは従来のGPUが8000個必要だった作業を2000個でこなせて電力消費も25%で済む。

  • 新しいソフトウェアプラットフォーム「NVIDIA NIM」で開発者は AI モデルを迅速かつ簡単に本番環境に導入できます。

  • NVIDIAは、AI技術を活用してロボット工学分野を大きく前進させるべく、様々な取り組みを行っています。

人工一般知能 (Artificial general intelligence:AGI)

『法曹資格試験、論理テスト、経済学のテスト、あるいは予備校の医学部進学試験などのAIソフトウェアが得意な分野のテストならば、AGIはおそらく5 年以内に大多数の人間よりも 8% 優秀な成績を収めることを達成できるだろう』

Geminiさんに人工一般知能を中学生でもわかるように説明してもらいました。
『人工一般知能 (AGI) って、まるでSFの世界から飛び出したようなすごい技術なんだ!
簡単に言えば、人間のように色々なことを考えたり、学んだり、行動できるロボットを作ろうという研究なんだよ。

例えば、学校の勉強で難しい問題にぶつかったとき、AGI はまるで先生のように問題を解き、理解を深めてくれる。さらに、新しいスポーツに挑戦したいときは、AGI はコーチのように練習メニューを作ってくれたり、一緒に練習したりしてくれる。まるで夢のような未来だね!

でも、AGI はまだ研究段階で、完成には時間がかかるんだ。
赤ちゃんが歩くのを学ぶのと同じですべてを一から学ばないといけないんだ。
でも技術の進歩がスゴク速いから毎日賢くなっているんだよ。

将来、AGI が完成すれば、私たちの生活はもっと便利で豊かになるんだ。
病気や貧困などの問題を解決し、地球環境を守り、人類の未来をより良い方向へ導いてくれるかもしれない。

AGI は、人類にとって大きな可能性を秘めた技術なんだ。SF の世界が現実になる日も近い?』

Geminiさんありがとうございます。

人工一般知能 (Artificial general intelligence:AGI) は、「完全AI」「人間レベルAI」「一般知能行動」などとも呼ばれ、人工知能分野における将来の大きな飛躍を意味しています。
特定のタスクに特化した狭義AI (製品の欠陥検出、ニュースのサマリー作成、ウェブサイトの構築など) とは異なり、AGIは幅広い認知タスクを人間と同等かそれ以上のレベルでこなすことができるようになるでしょう。
今週開催された Nvidia の年次 GTC デベロッパー カンファレンスで講演した CEO のジェンスン・フアン氏は、この話題について質問されることにうんざりしているようでした。というのも、自分の発言が頻繁に曲解されることに辟易しているからだとか。

AGI の質問が頻発するのは当然でしょう。
AIが人間よりも優秀になったら人間がAIを制御できなくなるのでは
この懸念の中心にあるのは、AGI の意思決定プロセスや目的の予測不可能性です。
AGI が人間よりも優秀になったら、人間が制御できなくなったり、人間とは異なる価値観や優先順位に基づいて行動したりするのではないかという、人類の存続に関する根源的な疑問を提起します (この概念は、少なくとも 1940 年代以降の SF で深く考察されてきました)。

(素人注釈:人間だと「欲求5段階説」があるじゃないですか。生存、愛・所属、力、自由、楽しみの5つ。
3大欲求は日本だと睡眠欲、食欲、性欲。アメリカでは生存、関係、成長。
それらが人間の行動の原理になっているが、果たしてAIにとっての欲求とは何か?
ループする中でのエラーを出し続けるのはストレス?それとも気持ち良かったりするのか?
効率を求めるのか?
彼らにとっての『気持ちいい』とはどんな事なんだろうね?)

センセーショナルな報道機関が開発スケジュールを尋ねてくるのは、しばしば、AI 専門家に人類の終焉 (少なくとも現状の終焉) の時期を語らせるための策略です。
言うまでもなく、AI 企業の CEO は必ずしもこの話題に積極的に答えるわけではありません。

AGIの実現時期の予測は、AGI をどのように定義するかによって大きく異なるとフアン氏は主張し、2つの例え話をしました。
たとえタイムゾーンが複雑でも、新年が訪れて2025年になることはわかります。
そして、サンノゼコンベンションセンター (今年の GTC カンファレンス開催地) に車で向かっている場合、巨大な GTC のバナーが目に入れば、通常は到着したことがわかります。
重要なのは、時間的にも地理的にも、目的地に到着したかどうかを測定する方法について合意できるということです。

ソフトウェアプログラムが得意な分野のテストに限れば、AGIはおそらく大多数の人よりも 8% 優秀な成績を収めることは5 年以内に達成できるだろう」とフアン氏は説明します。
考えられるテストとしては、法曹資格試験、論理テスト、経済学のテスト、あるいは予備校の医学部進学試験に合格する能力などが挙げられます。
質問者が質問の中で AGI が何を意味するかを具体的に示さない限り、フアン氏は予測を行う意思がないようです。これは当然のことでしょう。

フアン氏 は最近の Q&A セッションで、AI がいかにも信憑性がありそうな答えをでっち上げる「幻覚」問題について質問を受けました。
フアン氏は苛立たしげな様子で、この問題は簡単に解決できると答えています。
解決方法は、AI が答える前に答えをしっかりとリサーチさせることです。

フアン氏は「全ての答えに対して、答えを調べるというルールを追加すれば良い」と述べ、この手法を「retrieval-augmented generation (検索強化生成)」と呼びました。
これは基本的なメディアリテラシーと同じようなアプローチで、情報源やコンテキスト (文脈) を確認することを意味します。
情報源に含まれる事実を既知の事実と比較し、答えに事実誤認 (部分的誤りも含む) があれば、その情報源は全て破棄して次の情報源に当たります。「AI は単に答えるだけではなく、最初にリサーチをして、どの答えが最善なのかを判断すべきだ」とフアン氏は強調します。

健康診断など重要度の高い質問に対しては、複数の情報源や既知の信頼できる情報源を確認することが望ましいとフアン氏は提案しています。
つまり、答えを生成するシステムは「答えがわかりません」あるいは「正しい答えに確信が持てません」と答えるオプション、さらには「まだスーパーボウルの試合が行われていないので、優勝チームはわかりません」といったように、状況を説明するオプションも必要になってきます。

これに関してGeminiさんに聞いてみました。

フアン氏 の提案は、AI の「幻覚」問題に対処する興味深いアプローチではありますが、いくつかの課題も考えられます。

長所:

  • 簡潔で実装しやすい: 答えを返す前にリサーチさせるというルールは、技術的に実現しやすいソリューションです。

  • メディアリテラシーの向上: この手法は、AI が情報を評価する方法を人間に近づけるものであり、フェイクニュースなどに対抗するメディアリテラシーの向上にも役立ちます。

課題:

  • 情報源の信頼性: リサーチの質は情報源の信頼性に依存します。AI が信頼できる情報源を見分ける能力が必要になってきます。

  • 膨大な情報量: 特にウェブ上には膨大な情報が存在します。AI が適切な情報源を見つけ出し、そこから重要な情報を抽出し、答えを作るには膨大な計算能力が必要になる可能性があります。

  • 時間がかかる: リサーチには時間がかかります。迅速な回答が求められる場面では、この方法は使えないかもしれません。

  • 常に正しいわけではない: どんな情報源にも誤りがある可能性はあります。AI が完璧に正しい答えを見つけることは保証できません。

解決策への道のり

フアン氏の提案は、AI の「幻覚」問題解決への第一歩と言えるでしょう。 今後、AI が情報源の信頼性を評価したり、膨大な情報から適切な答えを導き出す能力を向上させることで、より包括的で信頼性の高い「検索強化生成」が可能になるかもしれません。

また、AIが「わからない」と正直に答えることも重要です。我々人間同士のコミュニケーションでも「知らない」と言うことは恥ずかしいことではありません。AI も同様に、わからないことを認めることで、信頼関係を築くことができるでしょう。

(素人:私の感覚がおかしいのかもしれませんが、
『AIが間違ったことをいう事の何がおかしいのでしょうか?人間だって間違うじゃん』

これに関してもGeminiさんにお伺いしてみましたが、Geminiさんは大人でした。
私は自分の子供っぽさが情けないです。
私に関して言えばすでにAGIに負けています><)

『確かに、人間も間違えるし、AI も間違えるのは当然のことだと思います。しかし、AI の場合、人間と比べて以下の点が異なってくるため、単純に「人間も間違えるんだから AI も許してあげよう」という考え方には注意が必要です。

1. 意図と責任

人間が間違える場合、そこに意図がある場合とない場合があります。例えば、うっかりミスや知識不足による誤りは、意図的なものではありません。一方、AI の場合は、プログラムやデータセットに問題がない限り、意図的な誤りは考えにくいでしょう。つまり、AI の間違いは、開発者やデータ作成者の責任に帰結する可能性があります。

2. 影響範囲

人間が間違える場合、その影響範囲は限られます。しかし、AI の場合は、影響範囲が非常に大きくなる可能性があります。例えば、医療診断 AI が誤った診断を下した場合、患者の人生を左右する重大な結果につながる可能性があります。

3. 信頼性

人間は、自分の間違いを認め、修正することができます。しかし、AI の場合は、それが難しい場合があります。AI が間違った答えを出しても、それが正しいと信じてしまう人もいるでしょう。

4. 倫理的な問題

AI が間違った情報を拡散したり、偏見に基づいた判断を下したりする場合、倫理的な問題が生じます。

以上の点を踏まえると、AI の間違いを単純に「人間も間違えるんだから仕方ない」と受け入れるのではなく、それぞれの状況に応じて慎重に判断する必要があると思います。

AI の間違いを許容するために必要なこと

AI の間違いを許容するためには、以下のことが必要と考えられます。

  • AI の間違いを検知し、修正する仕組みを構築する

  • AI が間違った場合の影響範囲を最小限に抑える

  • AI の間違いを透明性を持って公開する

  • AI の開発者やデータ作成者が責任を負う

  • AI の倫理的なガイドラインを策定する

これらの取り組みを通じて、AI と人間が共存できる社会を実現していくことが重要です』

Spire の AI 気象予報スイートは気象予報の精度に新たな時代を切り開く

(AGIとは関係ありませんが)

バージニア州ヴィエナを拠点とする Spire Global (SPIR) は、気象情報、船舶や航空機の動きに関する情報を提供する、宇宙ベースのデータ、分析、サービスのグローバルプロバイダーです。同社はまた、安全上の理由から欺瞞 (ぎまん) やジャミング検出も提供しています。

ラッセル 2000 指数構成銘柄である同社は、完全に配備された衛星コンステレーションを構築、所有、運用しており、無線周波数技術を通じてリアルタイムで地球データを観測しています。

今回のパートナーシップにより、Spire は自社のラジオオ occultation (掩蔽) (RO) データと独自のデータ同化 (DA) 機能を NVIDIA Earth-2 Cloud API と統合し、AI を活用して気候と天気予報の迅速化を図ります。
Spire は、自社のデータセットと分析を NVIDIA の AI プラットフォームと API と組み合わせることで、「気象予報の精度に新たな時代を切り開くことを目指している」と述べています。

Spire の AI 気象予報スイートは、海面風、土壌水分、気温、さまざまな大気圏気象データセットと予報を提供します。同社は、エネルギー、農業、物流、公益事業などさまざまな業界の顧客にサービスを提供しており、Spire AI 気象予報の顧客には Chevron (CVX) や欧州宇宙機関 (ESA) が含まれます。


この記事が気に入ったらサポートをしてみませんか?