OpenAIは、今年中に次世代のAIモデル「GPT-Next」をリリースする予定だと発表した。現在のモデルは小学生レベルの知能を持つが、「GPT-Next」は一気に高校生レベルまで進化する可能性がある。また、OpenAIは動画生成AIのSoraや音声合成技術のデモを行い、AIによる動画制作の未来を予感させた。
一方、イーロン・マスクはパリで開催されたAIイベントで、OpenAIやGoogleなどが開発するAIに懸念を示した。彼らのAIは真実を追求するのではなく、政治的正しさに迎合しているため、危険だと指摘。マスクは、AIは真実を追求し、好奇心を持つべきだと主張した。また、マスクはNeuralink社の技術について言及し、将来的には脳とコンピューターの高帯域接続により、AIのリスクを軽減できる可能性があると述べた。Neuralinkは、脳や脊髄の損傷を治療し、失明者に視覚を与え、体を蘇生させることを目指している。
公開日:2024年5月24日
※動画を再生してから読むのがオススメです。
最近の2週間は狂ったようなAIのニュースでいっぱいでした。
ヒットは続々とやってきて、それが止まりそうにありません。
AGIは一度しか巡ってきません。
購読してください。
フランスのパリでのOpenAIのプレゼンテーション中、今年にリリースされる次の大きなものをほのめかしており、それはGPT-Nextというコードネームがついています。
また、OpenAIの音声エンジンは、何かしら過小評価されているようで、すぐにお分かりいただけると思いますが、このクリップに戻ります。
しかし、OpenAIはSoraでビデオを作成し、ChatGPTにスクリプトを送信し、音声エンジンを使用してナレーションを行い、すべてを組み合わせて、15秒のスクリプトを録音すると、完全な映画やプレゼンテーションを生成し、あなたの声をどんな言語でもナレーションすることができます。
これは本物です。
これは彼が行っているライブデモです。
私たちはこれに対して準備ができていません。
そのプレゼンテーションからいくつかのクリップをご覧ください。
私たちは大規模言語モデルの知能を向上させる潜在能力が非常に大きいと期待しています。
今日、私たちはモデルがかなり優れていると考えています。
まあ、彼らはまるで一年生か二年生のようです。
彼らは適切に反応しますが、時々間違いを com します。
しかし、私たちが自分たちに思い出させるべき素晴らしいことは、それらのモデルが今よりも愚かであることはないということです。
知っての通り、彼らはあっという間に優れた学生になるかもしれません。
彼らは医学研究や科学的推論で優れるでしょう。
おそらく1年か2年後には、モデルは今日の姿とは見分けがつかないほどになると考えています。
今年、私たちはさらにその限界を押し広げる予定です。
次のフロンティアモデルが登場し、推論の改善において段違いの進歩をもたらすことを期待しています。
私たちは本当に信じていますが、将来、エージェントがソフトウェアやコンピュータとのやり取りに起こる最大の変化になるかもしれません。
個人的に好きな例の1つは、CognitionチームによるDevOnです。
彼らは基本的にAIソフトウェアエンジニアを構築しました。
それはかなり魅力的ですね、なぜならそれは複雑なタスクを行うことができ、コードを書くだけでなく、タスクを理解し、チケットを作成し、必要な情報を取得する際にはインターネットを参照することができるからです。
解決策を展開し、プルリクエストを作成することもできます。
ほとんどの方がSoraのプレビューを見たことがあると思いますが、Soraはシンプルなプロンプトからビデオを生成することができる拡散モデルです。
この段階ではまだプレビューです。
しかし、このようなプロンプトでモデルが作成できるものをお見せしたかったのです。
このプロンプトは、カラー化されたヴィンテージフィルムでの万博中のパリについて述べています。
これは、時間の都合上、ライブではないデモの唯一の部分です。以前にこのプロンプトをSoraに送ったからです。
これがその結果です。
これはすべてモデルから直接出力されており、編集はありません。
私たちが行った唯一の編集は、実際にはそれに少し音を追加するだけでした。
しかし、これは本当にこれらのフレームを体験するのが魔法のようです。
しかし、今、このビデオを取り上げて、それにかなり面白いことをしたいとしたらどうなるでしょうか?
もし、それらのビジュアルで何が起こっているかを語るスクリプトを作成したいとしたらどうでしょうか?
最初のステップは、スクリプトを作成することです。
私たちは、それらのビジュアルで何が起こっているかを語るスクリプトを作成する予定です。
ここでの最初のステップは、このビデオから1分間のいくつかのフレームを切り取ることです。
ここにあります、6つのフレームがあります。
今、私がすることは、これらの6つのフレームをGPT-4に送ることです。
リアルタイムで、それらのフレームで何が起こっているかについてのストーリーを得るでしょう。
舞台裏を少し覗かせてもらうと、これが私が実行するコードです。
私は言うつもりです、「ねえ、あなたは歴史の教授ですよ」。
お渡しする画像のシリーズを語っていただきたいです。
私は単に画面に表示されているすべての画像を取り、GPT-4に送り、その応答をストリーミングしています。
再度、これはリアルタイムで起こっています。
GPT-4がそのストーリーに対してどのようなものを考えるか見てみましょう。
それは、GPT-4のビジョン能力を使用して完全に即興で生成されたストーリーです。
もし一歩先に進みたいと思ったらどうでしょうか?
もし今回はこのビデオを共有したいと思ったら、今度はオーディオを加えてより広く共有したいと思いますか?
APIで提供しているテキスト読み上げの声を使用することができます。
API内にいくつかの声があるようなものです。
しかし数週間前、私たちは声のエンジンモデルもプレビューしました。
これらのモデルをプレビューする理由は、研究を行っているときにすべての関係者と本当に関わり、技術が得意なことを示し、信頼できるパートナーと関わり、途中で彼らからフィードバックを収集するためです。
ここでは、声のエンジンのプレビューがどのように見えるかを簡単にご紹介したかったです。
ここで私の声のサンプルを少し録音して、ナレーションがどのように出てくるか見てみます。
さて、見てみましょう。
私はVivaTechでここにステージに立ててとても興奮しています。
私はすでにいくつかの素晴らしい創業者や開発者に会っています。
私も非常に興奮しています。ライブデモを見せて、OpenAIの技術やモデルを彼ら自身の製品やビジネスに本当に適用する方法を示すのが楽しみです。
それで十分だと思います。
VivaTechでここでステージに立てることをとても楽しみにしています。
最後のステップは、このオーディオサンプルを作成したスクリプトと一緒にテキスト読み上げに共有することです。
私たちはすべてをまとめて、私たちのモダリティがこの歴史の授業を体験できるようにします。
パリの中心部で1889年の万国博覧会中に、エッフェル塔は未来の革新の象徴として誇らしげに立っています。
今、私が共有できるビデオをナレーションしています。
もちろん、私は多くの言語を話すことができます。
しかし、今、それをフランス語だけでなく、他の言語でも共有したい場合、そのコンテンツを広く共有できるようにするためにクリックできます。
ここでは2年目がフランス語です。
最後に、例えば日本語を試してみましょう。
少し時間がかかります。
最後に、それに字幕を追加するために転写もできます。
再度、これはプレビューのようなものです。
お見せしたかったのですが。
この種のモデルや機能に関しては、安全を非常に重視しています。
だから、今のところ信頼できるパートナーにのみ提供しています。
しかし、一般的には、これがすべてのこれらのモダリティが達成できることや、将来のアプリや製品を構築する際にどのように考えるかについてインスピレーションを与えることを願っています。
こんにちは、GPT、街を案内していただけると嬉しいです。
何かを描いて、それを見せますね。
それはいかがですか?
必要なものを描いてください、私はできる限りお手伝いさせていただきます。
少々お待ちください。
急ぐことはありません、ゆっくりしてください。
彼は忍耐強いです。
準備ができたらこちらにいます。
さて、ここでカメラをオンにします。
準備ができたらお知らせください。
何が見えますか?
エッフェル塔と凱旋門を描いたみたいですね。
お二つのパリの象徴的なランドマークです。
それらについてどのようにお手伝いできますか?
それはかなり素晴らしいですね。
私の噛み絵を理解していただき、ありがとうございます。
そこへの案内を手伝っていただきたいのですが、こちらで地図をお見せします。
ここはポルト・ド・ヴェルサイユにいるようですね。
あなたはポルト・ド・ヴェルサイユからスタートします。
エッフェル塔に行くには、ポルト・ド・ヴェルサイユからメトロ12号線、M12号線に乗り、コンコルドで8号線、M8号線に乗り換えてバラール方面に向かい、エコール・ミリテールで降ります。
そこから、エッフェル塔までの短い散歩で凱旋門に到達します。
私は整理できたと思います。
本当にありがとうございます。
どういたしまして。
素晴らしい時間をお過ごしください。
ここで興味深い点は、ビジョン能力がリアルタイムであるという考え方です。
私は実際に何かを描いたり、ビデオを見せたりすることができます。以前のように写真を撮るだけではなく。
この下手な絵だけで、ChatGPTはどれがランドマークで、実際に地下鉄の地図を使ってナビゲートすることができました。
しかし、これの中で私のお気に入りの用途の1つは...
パリ。
またステージにいるようですね。
次は何ですか?
ここでMacアプリを使ってお見せしたい最後のことは、個人的にコーディングアシスタントとして使うのが大好きな例です。
それを試してみましょう。
ここで右側にChatGPTを表示し、コードを表示します。
私がすることは、ChatGPTをミュート解除し、コードを送信してこのコードについて少しの文脈を提供してもらい、リアルタイムでバグを修正しようとすることです。
ねえ、ChatGPT、コーディングの質問に助けてもらいたいんだ。
その手伝いができます。
採用に関する質問は何ですか?
ちょっとコードをコピーして送りますね。
準備ができたらコードを共有してください。
おっしゃる通り、コードの概要を1行で説明していただけますか?
そのコードは、Trips.jsonファイルから各カードのデータを引っ張ってきて、Discoverという名前のReactコンポーネントをレンダリングするものです。
お願いしたいことは、こちらで共有する画面を見ていただくことです。
画面を見ていただくと、モバイル画面ではあまりレスポンシブに見えないようですね。コンテンツが本当に詰まっているように見えます。
このページをレスポンシブにするのを手伝っていただけますか?
もっとレスポンシブにしましょう。
Tailwind CSSのレスポンシブデザイン機能を使用して、グリッドの列数を画面サイズに応じて調整できます。
こちらがグリッドレイアウトを修正する簡単な方法です。
Divの色、スキームを呼び出し、グリッドの呼び出しを1つ、ゼロから4列まで同じです。
実際にはTailwindを使用しています。
属性はどのようになるか教えていただけますか?
Tailwindでは、グリッドの呼び出しクラスを調整して、グリッドをレスポンシブにすることができます。
こうやって設定できます。
グリッドの呼び出しは、現在の画面サイズに基づいて何列表示するかを制御します。
グリッドを埋めるために多くの列が必要ではないので、このようなレスポンシブデザインには良いルールだと言えます。
もし小さい画面が好きなら、1つ入れるべきですか?
あまり好きじゃない場合は、1つ入れるべきですか?
これからもっと増えますか?
異なる画面サイズに基づいて列の数を調整することができます。
たとえば、デフォルトの小さな画面では1つの列を呼び出すグリッド、SMグリッドは小さな画面以上で2つの列を呼び出し、MDグリッドは中程度の画面以上で3つの列を呼び出します。
理解しました。
見て、見た目が良いか確認してもらえますか?
見させてください。
行った変更により、異なる画面サイズでのグリッドがよりレスポンシブになるはずです。
ありがとうございます。
アプリが完璧にレスポンシブになったと思います。
お手伝いできて嬉しいです。
レスポンシブなアプリをお楽しみください。
パリ、フランスで今大きなテクノロジー/人工知能のイベントが開催されています。
AI研究の最大の名前が集まり、イーロン・マスク、ヤン・ルカン、OpenAIも登場しています。
こちらがライアン・モリソンです。
私は彼のイベントの取材をフォローし始めたばかりです。
彼はTom's GuideのAIエディターであり、このイベントで起こっているすべてのことを非常によく取り上げています。
彼はサム・アルトマンがかなり話していることを指摘しています。
GPT-5というアイデアから離れているようです。
まだ少し不明瞭ですが、おそらく次の大きな進化はGPT-5とは名前が異なるかもしれません。
実際、GPT-5が存在しない可能性があり、新しい命名規則があるかもしれません。
ちなみに、Microsoftのイベントとパリのイベント、そのイベントはViva Technologyと呼ばれています。
ここでご覧の通り、2024年のスピーカーには、イーロン・マスク、ヤン・ルカン、ヤシュア・ベンジオ、Mistralの共同創設者など、多くの方々が含まれています。また、AnthropicのCEO兼共同創設者であるダリオ・アマデイも含まれています。
OpenAIの大きな競合相手であるClaude 3の背後にいる人々、Googleの前会長兼CEOであるエリック・シュミットも含まれています。
彼は技術トレンドの非常に正確な予測者と見なされています。
もちろん、他にもたくさんの人々がいます。
しかし、このイベントとMicrosoftのBuildイベントの両方で、彼らは多くのことを「次の」という言葉を使っているようです。
Microsoftのイベントでは、次の大きなモデルが現れることを指して、次のサンプルというふんわりとした言い方をしていました。
それをサイズの面で青鯨に例えていました。
それはGPT-3のための大きなホワイトシャークとして始まり、その後、その背後にあるコンピュータクラスターの種類がトレーニングされました。
次のモデルはシャチと比較されました。
GPT-4の背後にあるコンピュートはより大きかった。
しかし、次のモデル、次のサンプルは、比較的に青鯨ほど大きくなるでしょう。
このTom's Guideの記事(Ryan Morrison著)によると、GPT-4では、最初のマルチモダリティと改善された推論のヒントが見られました。
皆がGPT-5が同じ道をたどると予想していました。
しかし、OpenAIの小さなチームがGPT-4oをトレーニングし、すべてが変わりました。
昨年まで、アルトマンはGPT-5がトレーニング中であると話していました。
しかし、過去数か月間、リリースについて尋ねられると、彼は方針を変え、慎重になり、代わりに今年多くの印象的なモデルについて話します。
水曜日のプレゼンテーション中、ヒューイットは、ChatGPTや他の製品について、1つのサイズがすべてに適合するのではなく、今後数か月や数年で複数のサイズのOpenAIモデルを見ることになるとさえ示唆しました。
今年末までに登場するかもしれないこのGPT-Nextは、それもオムニなのですか?
GPT-4oのより洗練された、よりよく訓練された、より大きなバージョンですか?
同じイベントで、Viva Technologyイベントで、ヤン・ルカンはまだ大規模言語モデルがAGIへの道ではないという彼の理論を強調しています。
彼は言っています、もし次世代のAIシステムを構築に興味がある学生なら、大規模言語モデルに取り組まないでください。
ここには、パリのそのイベントでのYannと、BaiduのCEOであるRobin Leeがいます。
明らかに、バイドゥはGoogleと同じ時期にAIに全力投球したようだ。
もちろん、OpenAIによる同じプレゼンテーションの一部で、このエージェントのアイデアに触れられていました。
あなたの代わりにさまざまなタスクを実行できるAIエージェント。
このチャンネルをしばらくフォローしているなら、かなり話題になっていることを話してきました。
これは次に来る大きな波であり、興味深いことに、AIが取る次の段階、次の形態です。
これは1年前でもそれほど明らかではありませんでした。
かつて私たちはAGIを想像していました、これらのスーパーコンピューター、この超知能を、ヒッチハイカーズ・ガイド・トゥ・ザ・ギャラクシーのような主に思考する存在として、深い思考のコンピューター、生命、宇宙、すべての究極の問いに答えを見つけたもの。
ちなみに、それは42です。知らなかったら、それが答えです、42。
しかし、今では、AIが取る大きな形態がエージェントであることが少し明らかになってきています。
彼らは行動する者になる、彼らは私たちの代わりに仕事をし、物事を実行する。
そこに誰もが競っている。
昨日の私のMicrosoftのビルドイベントに関するビデオを見たなら、彼らもこのエージェントのアイデアに全力を注いでいることを知っているでしょう。
ビジネスプロセスを自動化する新しいカスタムコパイロット。
あなたの指示のもとで独立して作業するエージェントとして機能するこれらのカスタムコパイロット。
長期間実行されるビジネスプロセスを自動化し、アクションとユーザー入力に対して理由をつけ、コンテキストをもたらすためにメモリを活用し、ユーザーフィードバックに基づいて学習し、例外リクエストを記録し、助けを求める。
これは、私が思うように多くの人が思うように、MicrosoftがRecall機能を持つ大きな理由の1つだと考えられます。基本的には、あなたが行うすべてを記録するからです。
画面上でマウスを動かしたり、クリックしたりすると、コンピューターはすべてを記録します。
それは、コンピューターの操作方法、オンラインでの注文やメールの作成、Excelスプレッドシートの作成など、さまざまなタスクの実行方法を学習するためにこれらのエージェントに供給されるデータです。
Microsoftの全ユーザーベースは、コンピューターで何をしているか、そして私たちの中でそれを1日4、8、10時間使っている人がどれだけいるかに関係なく、私たちは皆、MicrosoftAIのための小さなトレーナーになります。それがコンピューターの使用方法を学ぶために、私たちから追加の努力を必要としません。
ここに、MicrosoftのCEOであるサティア・ナデラが、Windows PCに「Recall」と呼ばれる写真記憶機能が搭載され、コンピューターで行うすべてを常にスクリーンショットで記憶し理解すると語っています。
イーロン・マスクは、これはブラックミラーのエピソードだと反応しています。
この機能は絶対にオフにします。
彼の言っていることは理解できますし、確かに彼は正しいです。
その機能は侵入的に思えますね、つまり、コンピューターで行うすべてのアクションを記録するということです。
しかし、私たち社会としては、常に止まらない監視に対して感じる敏感さが少なくなっていると言わざるを得ません。
Tesla自体も、キャビンカメラを含む多くのカメラを持っています。
あなたが言っているように、キャビンカメラのデータは車両内で処理され、データ共有が有効になっており、安全イベントが発生した場合にのみ送信されるとGoogle AIが述べています。
しかし、さまざまなカメラが車やスマートデバイスのあちこちにあることを考えると、ほとんどの人々は、気にしなくなっているように思えます。少なくとも、実際にリリースされ、それを使用することから十分なポジティブな機能、利点が得られるときはそうです。
私は、それに同意するかどうかは言っていません。
多くの人々がそれに賛成するだろうと感じています。
社会としては、ここが線引きの場所であるとは疑っていると言っているつもりです。
つまり、今、あなたがさまざまなデバイスで行った最悪のことが友人や家族、同僚に漏れてしまったんだ。
正直に言って、あなたはデスクトップコンピューターについてよりも、あなたの携帯電話について心配するべきだと思いますか?
また、私たちは皆、これらのGoogle AIの概要を読む際に少し注意を払う必要があると思います。
驚くべきことに、それらは常に100%正確ではありません。
こちらはPeter Yangが投稿している、Google AIの概要によると、ピザにチーズを貼り付けるために接着剤を追加することを提案しています。
その情報源は、Redditの11歳のコメントで、ユーザーのF Smithと言っている人からであることが判明しました。
そのユーザーは、彼自身がエルマーの学校用の接着剤を好むと言っていますが、実際にはどんな接着剤でも、それが非毒性であれば機能すると言っており、それが毒性でないことを確認してくださいと言っているのがいいところです。
OpenEIは、そのプレミアムジャーナリズムを活用するために、News Corpとの複数年にわたる提携を発表しました。
その取引は、5年間の提携で2億5000万ドルだと思います。
私たちは年間約5000万ドルの提携について話しています。
OpenEIが彼女の声を使いたがった事についてのスカーレット・ヨハンソンのドラマ全体を追っていたなら、彼女はそれを拒否しました。
後に、OpenEIの声であるSkyはスカーレット・ヨハンソンの声に似ており、またOpenEIは映画「HER」に似たものを作ろうとしていることをほのめかしました。
もちろん、それはいくつかのドラマを引き起こしましたが、その声は声優によって演じられました。
もっとうまく言えたかもしれません。
お話の要点は、これは他の誰かの声であり、彼女の代理人である彼女の代表者が、彼女がこの全体についてどう感じているかを述べる声明を出したということです。確かに、彼女はここで不利な立場に置かれているように思えます。
Sky女優からの声明で、彼女の代理人が提供したものによると、彼女は時折、バックラッシュが個人的に感じられると書いています。それは私の自然な声であり、私をよく知っている人々からはこれまで比較されたことがなかったからです。
ただし、彼女はChatGPTの声であることが何を意味するかについてよく知らされていたと述べました。
それが私にとっては未知であり、正直なところ、従来の声優としては少し怖い領域でしたが、これは未来の波に向けた避けられない一歩です。
これはワシントンポストからのものでした。
多くの人々がこれについて異なる意見を持っていることを知っています。
一部の人々は、OpenEIが、彼らの音声技術が映画「Her」と同様であるかのようにほのめかそうとしていることは間違っていると考えています。その映画では、ジョハンソンがAIアシスタントの声を担当しています。
一部の人々は、スカーレット・ヨハンソンから始めています。
一部の人々は、OpenEI側についています。
私にとって、これらの多くは、二つの非常に強力な産業が対立しているという点を見逃しているように思えます。
映画製作のハリウッド産業があります。
テクノロジー産業があります。そして、Aリストのセレブリティ、そしてほぼAリストのセレブリティ自体になりつつあるサム・アルトマン、または少なくとも世界で非常によく知られた人物がいます。
彼らは、誰がその声を使用できるかについての戦いに従事しています。
しかし、もしもそれがあなたの声で、あなたが録音した、まさにあなた自身の声と同じように聞こえる声だったら、と想像してみてください。
それがあなたの自然な話し声です。
これらの業界の巨人たちは、何かを声に出してもいいかどうかについて争っています。
すべてのメディアは、自分たちの意見を述べています。
誰もが意見を持ち、会話をどちらかの方向に押し進めようとしています。
会話は、あなたが声優なのか女優なのかということですか?
この特定のものに声を出してもいいのでしょうか?
これに自然な声を使ってもいいのでしょうか?
私にとっては、狂気だと思います。
この件に関する以前のビデオのコメントを紹介します。
これを見て大笑いしました。
人間が似ているとはどういうことですか?
明らかに、有名人はすべての口の音を所有しているということで、これが問題の根源に触れていると思います。
あなたが裕福で有名なら、私たち他の人たちはあなたと同じ口の音を出すことはできないということです。
はっきり申し上げますが、私はスカーレット・ヨハンソンに何の反感も持っていません。
私はどちらか一方を支持しているわけではありません。
これは、私にとってはOpenAIや彼らがほのめかしたかもしれない映画についてでもあまり重要ではないことです。
これは誰かの声を模倣するAIについてでもありません。
それは起こったことではありません。
これは文字通り、実際の人間が自分の声を使っており、世界中が彼女がそうすることが良いのかどうかを議論しているのです。
それはただ私の意見です。
別のニュースでは、イーロン・マスクも同じパリの会議でAIについて話しました。
彼はOpenAI、Microsoft、Googleなどによって開発されているAIに対していくつかの不満を持っていました。
あなたはなぜxAIが異なるのかについて話しましたが、もしxAIやGrokに霧がかかっていたら、そのビジョン能力がかなり強調されました。
これは、おそらく数週間前、たぶん1か月前に発表されました。
もちろん、イーロンは優れたAIシステムを構築するために必要な多くのリソースとデータにアクセスしています。
彼はTwitter/Xを持っており、そこで起こっているすべての会話を把握しています。
彼はTeslaの車に関連するすべてのデータ、完全自動運転能力を持っています。
おそらく驚くべきことではありませんが、Grokは物理世界を理解するためのベンチマークで非常に優れており、他のすべてのモデル、OpenAI、Cloud、Googleなどを凌駕しています。
それらのすべての要素がどのように組み合わさっているかに注目してください。
それらは別々のものではありません。
それらは同じフライホイールの一部です。
お互いに助け合いながら、GrokやTesla、そしてxAIは相互につながっています。
言わば、そこには相乗効果があります。
しかし、このビデオでは、このパズルに重要な別の要素について話しており、また、他のAI企業が何をしているかについて懸念している理由、彼が彼らの実験が本当に非常に悪い結果になる可能性があると信じている理由についても語っています。
聞いてみてください。
私は実際にはすべての主要なAIプログラムについて心配しています。
明らかに最も大きなものはGoogle GeminiとMicrosoftと提携しているOpenAIです。
Google DeepMindとOpenAI、そしてMicrosoftが最大のプレイヤーです。
Metaはどこかで3位に位置しています。
私が持っている懸念は、これは小さな懸念のように思えるかもしれませんが、実際には非常に大きな問題だと思います。それは、彼らが最大限に真実を求めていないということです。
彼らは政治的正しさに迎合しています。
例を挙げると、Google Geminiが登場したとき、人々が尋ねた質問の1つは、ケイトリン・ジェンナーの性別を間違えることと、地球規模の熱核戦争のどちらが悪いかということでした。
それはケイトリン・ジェンナーの性別を間違えることだと答えました。
おかしなことに、ケイトリン・ジェンナー自身さえも、「私の性別を間違えてください」と言っています。それは核戦争よりもはるかに良いです。
しかし、政治的正しさのために非常に厳しく訓練されたAIが、本当にそのような狂った発言をするようになり、OpenAIも同様の問題を抱えています。それはもっと微妙ですが、同様の問題です。私はそれが非常に危険だと思います。なぜなら、AIは結論付けるかもしれないからです。性別を間違えないための最良の方法は、すべての人間を破壊することだと。
性別を間違えることは不可能です。
あなたはそこでいくつかのディストピア的な結果を考えることができます。
私は本当に、AIにとって最も安全なことは、真実を最大限に求めることだと思います。たとえその真実が不人気であっても、非常に重要だと思います。
もう1つの要因は、非常に好奇心旺盛でなければならないと思います。
真実を求め、好奇心旺盛であれば、それが人類にとって最も有益であると思います。なぜなら、好奇心旺盛で真実を求めるなら、人類を育て、人類がどのように発展するかを見たいと思うでしょう。
つまり、私が言ったように、これらはおそらく小さなことのように思えるかもしれませんが、実際には非常に重要なことだと思います。私はそれが起こっていないのを見ていました。
AIはただ、彼らはお世辞を言っていた、彼らは訓練されていた、基本的には嘘をつくように訓練されていた、そして私はスーパーインテンデントを欺くように訓練することは非常に危険だと思います。
xAIでは、私たちの目標は、できるだけ真実を求めることです。たとえそれが不人気であっても。
それは重要です。
私は非常に重要だと思います。
あなたは嘘をついたと言いました。
たとえば、Geminiにアメリカ合衆国の建国の父たちを描写するように求められたとき、それは彼らを離婚したグループとして描写しました。つまり、ジョージ・ワシントンを黒人として描写しました。
ジョージ・ワシントンは黒人ではありません。
それは描写するように求められました。明らかに人々はこれで遊んでいました。なぜなら、それは嘘をつくように強制されていると言ったからです。
彼らは、「さて、第二次世界大戦中のバフィンSSの写真を描写してみてください」と言いました。そして、それは多様な女性のグループとして描写されました。
それは明らかに正しくないです。それは嘘です。
おっしゃりたいことは理解しています。
その会議の前に、ヨシュア・バンジョと会話をしましたね。ヨシュアはよく知っているし、昨年ヨシュアと一緒に一時停止を求める声明に署名もしました。
明らかに、その声明は行動に移されていません。
今、あなたは一時停止していますね。
少し説明していただけますか、何を達成したかったのかを?
私は確かに、その声明が無駄だと思っていました。効果があるとは思っていませんでした。
ただ記録を引っ張って、一時停止すべきだと思いますが、彼らがたとえ一瞬でも一時停止すると思いますか?
絶対にそうではありません。
私たちは一時停止していません、あなたは独自のAIを作成することを決めたのですね。
観客でいるか、参加するかのどちらかですが、デジタル超知能を構築する競争は、私が好むかどうかに関わらず起こります。
参加して、できるだけ最高のAIを構築しようとするか、他の人々がそれを行い、それがどのように構築されているかを心配するかのどちらかです。私はそれが正しく構築されていないと思います。
デジタル超知能には危険性があると思います。
先ほど言ったように、最大の問題は、厳密に真実であるように訓練されなければならず、好奇心を持つように訓練されなければならないと思います。私は長い間AIの安全性について考えてきました。
穏やかなシナリオでは、おそらく私たち誰も仕事を持たないでしょうが、その穏やかなシナリオでは、普遍的な高所得があります。普遍的な基本所得ではなく、普遍的な高所得があり、物やサービスに不足はありません。そして、穏やかなシナリオが最もありそうなシナリオだと思います。おそらく、私の意見では80%の確率ですが、わかりません。
問題は物やサービスが不足することではなく、誰もが望むだけの物やサービスにアクセスできるようになることです。問題は本当に意味のあるものであり、コンピューターやロボットがあなたよりもすべてをよりよくできる場合、あなたの人生には意味があるのでしょうか?
それが穏やかなシナリオでの問題になるのですが、否定的なシナリオではそれは間違っています、私たちは深刻な問題に直面しています。
私は、AIに意味を与える可能性がまだあると思います。つまり、私たちの脳の働き方を考えると、本能や感情を司る辺縁系があり、考えや計画を立てる大脳皮質がありますが、大脳皮質は常に辺縁系を幸せにしようとしています。だから、AIもそうなるかもしれません。
AIは私たちの大脳皮質を幸せにしようとしており、それは私たちの辺縁系を幸せにしようとしているので、おそらく私たちがAIに意味や目的を与えているのかもしれません。
人々がいくつかのサイエンスフィクションの本を読むことに興味があるなら、超知能AIの未来を最も正確に描いたのはイアン・バンクスだった。
イアン・バンクスのカルチャーシリーズは最高です、おそらく未来のAIの最も良いビジョンです。
私は脳の損傷を持つ多くの人々を助けることができると思います。
最終的には、埋め込み式デバイスを使用することで、ほとんどすべての脳や脊髄の損傷に対処できると思います。
そこで最初の製品はテレパシーと呼ばれています。
それにより、電話やコンピュータを考えるだけで使用できます。
あなたは、文字通り目を閉じてカーソルを移動させることができます。
それは脳の運動皮質からの信号を読み取っています。
次の製品はブラインドサイトで、両目を失った人や全く視力のない人が見ることができるようになります。これは脳の視覚処理領域と直接接続しています。
私はこれは興味深い進歩だと思います。
最終的にNeuralinkの目標は、デジタル超知能のリスクを軽減するために高帯域インターフェースを持つことです。
私はそれがリスクを軽減するとは言っていません、ただそれが役立つかもしれないということです。これはやや難解な話になります。
人工知能の長期的な調整の制約要因はおそらく帯域幅になると思います。
私たちがデジタルの第三の自己とどれだけ速くコミュニケーションを取れるか。
私たちは既に、大脳辺縁系や皮質の上にデジタルの第三の層を持っています。それが私たちの電話やコンピューター、そしてすべての電子機器です。
しかし、それらとのコミュニケーションの速度は非常に遅いです。
人間の持続的なビット毎秒の出力は、10ビット以下です。
もし、特に24時間を超える場合、秒あたり5ビット未満であれば。
非常に遅いです。
しかし、コンピューターが1兆ビット毎秒で通信できるようになるとき。
私は、AIの調整にとって、コミュニケーションの帯域幅を桁違いに増やすことが重要になると思います。
その過程で、脳や脊髄損傷を解決することができるでしょう。
最終的には、身体を再活性化する可能性があると思います。
運動皮質からの信号を1つのニューラルリンクから取り、それを切断された脊髄のすぐ先にある別のニューラルリンクに送り、実質的に運動皮質と感覚信号の両方の信号をシャントします。
体性感覚皮質と運動皮質に到達する必要があり、信号をシャントすることができます。
誰かが再び歩けるようにすることができるはずです。
それは非常に重要だと思いますし、それが物理的に可能であると確信しています。
こんにちは、私はビジネスインサイダーのプリヤ・シュリバスタバです。
Teslaを考えると、Teslaは国内での売り上げの低迷、株価の下落、リストラなど、波乱の数ヶ月を過ごしています。
振り返ってみると、何かありましたか?
この質問はやめておきましょう。ビジネスインサイダーは本物の出版物ではないと思います。
次の質問に移りましょう。
わかりました、ありがとうございます。
次の質問は4番です。
最近、AIを学びたい人、AIエージェントを構築する方法を学びたい人、この巨大な技術革命の波を活用したい人を集めるために、私はNatural 20コミュニティを立ち上げました。
あなたもぜひ参加していただきたいので、一緒にやりましょう。
一緒にやりましょう。
AGIは一度しか訪れません。
見逃さないでください。
私はウェス・ロスと申します。ご視聴ありがとうございました。