この動画では、大規模言語モデル(LLM)を用いたAIエージェントによって運営される病院のコンセプトを紹介しています。驚くべきことに、シミュレーション実験では、これらのAIドクターエージェントが人間の医師の能力を上回る結果を示しているのです。エージェント病院でのシミュレーションで獲得した知識は、現実世界の医療ベンチマークにも適用可能であり、約10,000人の患者を治療した後、進化したドクターエージェントはMedQAデータセットのサブセットで最先端の93%の精度を達成しました。これは、人間の専門家の87%を上回る結果です。また、LLMを科学者のように仮説を立て、実験を行い、データを収集できるかどうかを検討した最近の論文についても触れています。結果は、シミュレーションで生成されたデータが関連する経済理論の理論的予測と非常に一致することを示しました。一方で、こうした研究に対する批判的な意見についても取り上げています。データ収集やシミュレーションにLLMを使うことに反対する人もいますが、彼らの論拠は明確ではないようです。
公開日:2024年5月9日
※動画を再生してから読むのがオススメです。
想像してください。あなたが病気になり、病院を訪れますが、その病院は完全にAIエージェントによって運営されています。
医師、スタッフ、看護師は、GPT-4のような大規模言語モデルによって支えられています。
それがどのように機能すると思いますか?
あなたの頭の中で何が起こっているか想像できます。
あなたは医療過誤訴訟、100%の死亡率、生存の可能性ゼロなどを考えているかもしれませんね?
まあ、そうでもないですね。
このビデオから他に何も得られなくても、これだけは覚えておいてください。
再び医師エージェント、つまりGPT-4のような大規模言語モデルで動作するAIは、成功したケースと失敗したケースの両方から経験を蓄積し続けることができます。
それは人間に似ていますね?
シミュレーション実験によると、医師エージェントの治療パフォーマンスは、さまざまなタスクで一貫して向上しています。
医師エージェントがエージェント病院で獲得した知識と病院のシミュレーションは、実際の世界の医療基準に適用できるんですよね?
それは面白いですね。
約10,000人の患者を治療した後、現実世界の医師には2年以上かかるでしょう。
進化した医師エージェントは、MedQAデータセットのサブセットで93%の最新の精度を達成しています。
このチャンネルが初めての方は、これが偶然ではないことを理解するポイントです。
この時点で、これはある種のパターンと言えるでしょう。
そのパターンはこれです。
特定のAI、特定のニューラルネットワークを実行し、デジタル環境でシミュレーションしてトレーニングすることができます。
彼らの学習、デジタルの脳とでも言うべきものを抽出することができます。
彼らがシミュレーションで獲得した経験は、実際の世界でも有用です。
例えば、今、あなたはこの小さなロボットを見ています。
これはNVIDIAのシミュレーションで、おそらくアイザック・ジムとか似たようなものです。
いくつか異なるものがあります。
あなたは、その同じロボットが、手や足に取り付けられたさまざまな車輪を持っているのを見ています。または、手や足自体が基本的に車輪です。
それはシミュレーションでそれを学びます。
それはどのようにして何百万回も行われるのですか。
そのシミュレーションは、現実世界と同じ物理学を持っています。
ここでもそこかしこでわずかにランダム化されて、少し堅牢で、少し適応性が高くなっています。
2000回の反復で、そのドアを開けることができるようになり始めるようです。
時間は1000倍速く、10000倍速く進みます。
あなたは彼らを非常に迅速に訓練することができます。
シミュレーションから彼らを取り出すと、彼らは実世界で非常に堅牢にその任務を遂行することができます。
私はそのアクション映画を見るだろう。
しかし、この論文にさらに深く踏み込む前に、この小さなツイートに触れるべきかもしれません。
これは2024年4月20日に投稿されました。
イーサン・マリク。
このチャンネルで彼について話をしたことがあります。
フォローするのに優れた人物です。
非常に物議を醸す人物ではありません。
非常に派手な人物でもありません。
彼はAIに関する研究を投稿しています。
ウォーデン教授は、AI、イノベーション、スタートアップをサブスタックとして研究しており、ニュースレターがOne Useful Thingというブログのようなものです。
彼はAutomated Social Science、Language Models as Scientists and Subjectsという論文を投稿しました。
大したことではないですね。
こちらがその論文です、MIT、ハーバード。
そのアイデアは非常にシンプルでした。
再び、彼らは大規模言語モデル、大規模言語モデルを取り上げています。これは、この分野の中心的なテーマの一つですね。
基本的には、ここではかなり単純化していますが、彼らは尋ねています。
彼らは、この大規模言語モデルが科学者のようになれるかどうか尋ねています。
それは仮説を立て、実験を行い、データを収集することができるでしょうか?
もしそうであれば、それは科学を行うことができますか?
もう一度言いますが、私は単純化しています。
私に叫ばないでください。
社会科学者は、研究するトピックや領域を選択して始めます。
その領域内で、彼らは興味深い結果とその結果に影響を与える可能性のある原因を特定します。
これらは変数です。
提案された関係は仮説です。
例えば、私は、このチャンネルの「いいね」ボタンを押すと運が大幅に向上するという仮説を持っています。
本当に改善されました。
それを試してみることができます。まあ、あなたが「いいね」ボタンを押すことで。
お願いですが、データを集めてください。
今、それをやってください。
これは、原因に変動を引き起こし、結果を測定することでこれらの仮説を検証する実験を設計している私たちです。
実験を設計した後、社会科学者はデータをどのように分析するかを決定します。
彼らは参加者を募集し、実験を行い、データを収集します。
あなたは参加者です、いいねボタンを押してください。
彼らはデータを分析し、関係性を推定します。
基本的に、これは科学的方法の一種ですね?
これが私たちの理解を前進させる方法です。
非常に最近まで、この進歩、このプロセスの100%は人間によって行われていました。
最近、AIが少しずつ支配し始めています。
わかりました、私たちはGNOMEについて話しました、深層学習で何百万もの新しい材料が発見されました。
これは深層心理のことです。
この小さなロボットはここに座って新しい材料を作り出しています。
別の種類のAIが出てきて、このロボットが作ろうとする特定のレシピを考えます。
これは、ロボットがミスをして何かが爆発する場合の爆発防止ケースだと思われます。
このケースには、結晶がいくつか入っていますね。
これは、人間が安定して作り出すことができた材料の数です。
さまざまな計算方法を用いて、私たちはこのような大きな円を持っていました。
もちろん、このGNOMEまたはGNOME、ですよね?
これは大きな円形ですよね?
AIはすでにいくつかの分野で科学を進化させています。
この場合、基本的にこれらの大規模言語モデルエージェントは、特定の社会的シナリオや仮説を作成し、それから特定の関連属性を持つAIエージェントを構築しますね?
例えば、実験の1つは何らかの交渉だったのですか?
彼らはそれらの相互作用を設計し、モデルの推定、データ収集を行い、それから実験を行いました。
彼らはうまくいったこと、あまりうまくいかなかったことについて話します。
完璧ではありませんでした。
しかし、最終的には、彼らの結論はこちらです。
私たちは、そのようなシミュレーションが関連する経済理論によって行われた理論的予測と非常に一致する結果を生み出すことを示しています。
これは規模の大きな実験を制御する可能性がありますね。
さまざまなことをテストし、データを収集するために、私たちはこれらのシミュレーションを規模で実行できますね。
実際の世界に一般化される洞察を再生産することができるかもしれません。
おそらく疑問に思っているかもしれませんが、なぜこれが論争の的となったのでしょうか。
この全体の中で論争の的となった部分は何でしたか。
それがそれでした。
私はこれが起こっている最中の一部を目撃しました。
人々は基本的にスレッドに入ってきて、とても不快になりました。
彼らはデータの収集と同化のアイデアが好きではありませんでした。
大規模言語モデルが科学に貢献する可能性を好まなかったのです。
それについてはあまり親切ではありませんでした。
イーサン・モレックは、そうですね、そのスレッドを削除するつもりだと言っています。
人々は、論文を読まず、議論されている分野の文脈を理解せずに、論文の著者を単に侮辱しているだけです。
彼ら、つまり著者たちは、尋ねることはなく、ツイートをして、そのツイートが広く広まることを予想していなかったので、Twitterで険悪になりました。
また、それの一部を見ました。
人々をそんなに立腹させたのが正確にはわかりませんが、YouTubeでこれらのトピックについて話したことがあるので、大規模言語モデルが推論する能力、理解する能力、世界モデルを持っていると提案すると、ごく少数ですが非常に声の大きい人々がこの殺意に満ちた怒りになることを第一に知っています。
彼らが何を考えているのかを示すと言えるような議論を持っていることはほとんどありません。
ほとんどが単なる侮辱と険悪です。
この論文について話すことについて多くの懸念がありました。
一方で、私はAIエージェントを構築する方法についてのコースを開講しているので、非常に忙しいです。
進んでいます。
ほぼ千人に達しています。
数日間しか経っていません。
興味がある場合は、下記のリンクをチェックしてください。
一方で、時間を割く余裕があまりないのですが、他方で、この新しい論文について話すことは、多くの感情的な人々を非常に怒らせる可能性があります。それには断れません。
今日は、エージェント病院について話しましょう。これは進化可能な医療エージェントを持つ病院の模擬です。
はい、考え、推論し、学習し、進化するAIエージェントが存在し、それを止めることはできません。
始めましょう。
これは、この病院がどのように見えるかの主要な概要のようなものです。
彼らはこれがエージェント病院の概要だと言っています。
医師、看護師、患者が大規模言語モデルによって駆動される自律エージェントである病院の模擬です。
エージェント病院は、患者の病気を治療する全体の閉じたサイクルをシミュレートしています。
疾病の発症、トリアージ、登録、相談、医学的検査、診断、医薬品の処方、回復期、および退院後のフォローアップ訪問。
興味深い発見は、医師エージェントが手動でラベル付けされたデータなしで治療のパフォーマンスを時間とともに向上させ続けることができるということです。
これはかなりの大きな問題です。
通常、AIを訓練する際には、多くのデータが必要です。
たとえば、動物の写真を認識するAIを訓練する場合、ラベルが付いた多くの動物の写真が必要です。
それをデータペアと呼びます。
犬の写真と一緒に、これが犬だということを示すものがあります。
それらがたくさん必要なので、犬がどのように見えるかを一般化できるようになります。
百万枚の犬の写真が「犬」とラベルされています。
この場合は、皮膚科について話しているので、ある種の皮膚疾患であるとしましょう、わかりませんが、ある発疹かもしれません。
おそらく、その特定の状態の名前でラベル付けされたこの発疹の写真がたくさんあるのでしょうね。
通常、そういうやり方です。
しかし、ここでは、シミュレーションでは、これらの医師、これらのAIは、手動でラベル付けされたデータなしに学習し、改善し続けているようです。
人間の医療専門家がデータを見てラベル付けし、それが正しいことを確認することなく、彼らはシミュレーション内で自分自身の合成データを生成し、そのデータから学習して改善していると言えます。
この論文の中心的な目標は、医師エージェントがシミュラクラム内で疾患の治療方法を学ぶことを可能にすることです。
彼らはMedAgent Zeroと呼ばれる方法を提案しています。
こちらが彼らが構築した地図のようです。
ここが入り口のようですね?
登録窓口、薬局、待合室、集中治療室、生化学検査室などがあります。
このタイルマップエディターを使って、いくつかのものを構築しているようですね。
ビデオゲームとAI、具体的にはAIエージェントの交差点に非常に興奮しています。
生成AIを使用して対話を声で表現したり、対話を作成したりできるという事実は、すごいですね。
ただし、実際の自律エージェントがゲーム内を走り回り、ゲームプレイの世界に影響を与えるという点については、非常に興奮しています。そして、このphaser.ioも使用しているようですね。これは、さまざまなブラウザゲーム向けの高速で無料で楽しいオープンソースフレームワークです。
こういう感じですね。
これを構築するために、そのようなものを使用しているんですね。
これは、タイルとphaserを使用した病院の砂場シミュレーション環境です。
Tiledはマップデザインツールです。
Phaserは、砂場上のエージェントの移動や相互作用を管理するためのフレームワークです。
彼らはさまざまなエージェントを作成し、これらのエージェントの役割に関する情報はGPT-3.5を使用して生成されます。
彼らはおそらく、これらの人々の背景を生成するためにGPT-3.5を使用しているだけだと思います。
医師には使っていないといいな。
病院に行って、医師がGPT-3.5のように動いているのを想像できますか?
すぐに出て行くでしょうね。
それはちょっとした大規模言語モデルのジョークですね。
彼らは14人の医師と4人の看護師を含む一連の医療専門家エージェントを作成します。
医師は疾病を診断し、治療計画を立てますが、看護師エージェントは日常的な治療介入をサポートするのに3時間を費やします。
こちらが例のエージェントです。
私たちは放射線科医がいます。彼の職務内容、スキルなどが明記されています。
お患者様、内科医、受付係がいます。
GPT-4で動いているなら、この実験全体がいくらかかったのか気になります。
私は、このチャンネルで取り上げたスタンフォードの実験、社会のシミュラクラは似たようなことをしていたと思いますが、そこでは病院でもありませんでした。
そこはただの村で、人々が日常生活を送り、パーティーを企画しようとしていました。
あの実験では、何千ドルものOpenAI APIクレジットが消費されたと思います。
計画について、私たちはどのようにこれらの計画をアプローチし、スタンフォードのシミュレーションでエージェントの計画アーキテクチャを作成するかを取り上げました。
そこでの興味深い点は、スタンフォードの論文で行ったように、計画についてはあまり詳しく触れていないことです。
トリックは、まず一日全体から広く始めることでしたね。
まるで、その日の中での大きな課題は何か、という感じですね。
それが、ChatGPT、この大規模言語モデルに最初に尋ねることです。
あなたは、それを微調整していくような感じで、例えば、それを毎時間ごとに分解して、それからそれぞれの30分ごとに、それから15分ごとに、などとしています。
ここでは、この場合の患者たちは、彼ら自身の日常計画と動的計画を持っていますね?
病院に到着すると、彼らはトリアージステーションに行き、そしてそこで何が起こるかに基づいて、そこで彼らの行動や動きが続くことになります。もし彼らに、「ああ、緊急ケアに入れないといけない」と言われたら、そこに行くことになります。
ここでは、この人が病気になり、KMが病院のフロントデスク、トリアージ、登録を意味すると思われる、登録に向かい、そして相談に進み、そして医学的検査、診断、そして医薬品の処方、回復期、そして病気が再び始まることを示す矢印があります。これがただの終わりのないループなら、これは悪夢のようですが、まあ。
医療従事者の計画では、彼らは指定された役割に基づいて責務を果たすようにしています。
彼らは2種類の行動から訓練されています。
一つは実践です。
実際に患者と取り組み、シフト中に割り当てられた患者にケアを提供し、患者からのフォローアップ情報を受け取り、それが彼らの医療記録の経験を磨くのに役立ちます。
彼らの学習や計画の側面の第二の部分は、実際の学習です。
労働時間外に、彼らは臨床経験を得るために過去の医療記録を研究し、知識を拡大するために医学の教科書を読むことに取り組んでいます。
大規模言語モデルという考え方ですね、この無機質な機械が、仕事をしていないときに本を読んで知識を拡大し、結果を改善できるというものです。
私にとっては、それは非常に興奮するものです。
それを考えると非常に興味深いです。
しかし、ここで多くの人々が不快に感じるところだと思います。ところで、もしあなたがそのような人の一人なら、もっと詳しく知りたいです。
このアイデアが何をしているのか、何がそんなに不快なのか、それは何ですか?
なぜなら、再び、この話題について話している人々に向けられる怒りが多いようです。
私たちはこれについて多くをカバーしませんが、論文を読むことをお勧めします。
しかし、ここで重点を置きましょう。
進化、ですね?
これらのエージェントの改善、彼らは自分たちの種類のフレームワーク、彼らの戦略medエージェントゼロを提案しており、この戦略には2つの重要な領域、医療記録ライブラリと経験ベースの成功事例があります。将来の医療介入の参照として使用される医療記録ライブラリに収集され、治療が失敗した場合、医師は失敗の理由を反省し分析するように求められます。
後続の治療プロセスに対する警告として使用される指針として、これはまだ有効です。
こちらが彼らの医薬品ゼロメソッドの一種ですね。
患者のクエリがあるので、医師は医療記録の検索を促すことができます。つまり、患者の経験の検索を尋ねること、それから医療エージェントのように、医師が答えを生成するようです。
これが彼らの診断だと仮定していますね。
正しいですか?
正しくないですか?
ここには一種の正解があります。これが真実であり、一種の真実、つまりこれが真の答えであるということを意味します。
誰かが疾患Xで来院した場合、私たちは医師がそれを考え出すようにします。
医師が他のことを言った場合、それは違うと言います。
医師は、ここで言うように、再考して、将来の治療のための戒めとして使用される指針を抽出するために反射モードに入りますね?
もし答えが正しいなら、その病院の患者にとってそのような状況であることがわかりますね。
それを将来に使用するために、再び医療記録ライブラリに追加します。
もし彼らが来たら、それを取り出して、あなたは過去にこれを持っていたと言えるんですね。
もし彼らがそれを正しく理解できない場合、そして反射した後、それについて考えた後、再び答えようとしますね?
もし再び間違えた場合、中止しますね?
彼らは理解していないようですね。
もし2回目に正しく答えた場合、それは有効な経験、経験の基盤に追加されるようです。
私は言わなければならない、これはおそらく人間の学習プロセスがどのようなものかに似ていますが、おそらく唯一の違いはおそらく黄金の答えがないということです。
通常、それを比較できる絶対的な真実はありません。
また、2回間違えた場合、ただあなたを切り捨てるわけではありません。
しかし、それ以外は非常にリアルに見えます。
このプロセスは記録ライブラリを構築し、経験の基盤は患者が治療されるほど拡大していきます。
OpenAIが提供するこの埋め込みモデルによって、テキスト埋め込みがベクトル空間に行われるように、それらのレコードが構築されている方法です。
基本的に、大規模言語モデルがデータを保存する方法は、あなたや私がするようなテキスト形式ではなく、ベクトル空間と呼ばれるものを使用しています。
これを少し視覚化する最も簡単な方法は、各単語が一連の特性を持つ小さな3Dチャートです。
それらの特性に基づいて、それを3D環境で視覚化することができます。
例えば、意味やトーンが似ているような単語のクラスターを探している場合、このように整理することができます。
ここには、空、翼、エンジンの異なる方向を示しているものがありますね。
ヘリコプタードローンやロケットはこの空間にあり、一方、ガチョウやワシ、蜂はこの空間にあるでしょう。
これらの特性を持つすべてのものは、同じベクトル空間にあるということで興味深いと思います。なぜなら、子供たちが英語や他の言語を学ぶとき、これに類似したものを使っていると考えることができるからです。
彼らは、自分が知っている他の単語と比較して単語の意味を学んでいます。
ここには、単語のクラスタリングがあります。それが反対の単語であるか、グループであるかに関係なく。
つまり、LMAIエージェントが最終的に人間らしく振る舞うことは、偶然ではないと思います。
実験結果からのポイントは、1万のサンプル、1万の患者にトレーニングを続けると、連続的な改善、連続的な増加が見られるということです。
ここで見ていただけるように、精度が急速に向上していますね。
おそらく、トレーニングサンプルがおそらく2000まで急速に増加しています。
それ以降も継続的に増加していますが、収益の減少が少しあるとは言え、重要なのは彼らが改善し続けているということです。
彼らは学び続けています。
おそらく、これにはGPT-3.5が使用されているように見えます。おそらくGPT-4を使用すると、1万人の患者、14人の医師など、多くの人数が必要になるでしょう。
それには多額の費用がかかるでしょう。
ただし、GPT-4をこれに代替すれば、結果はさらに良くなる可能性があります。
様々な病気の詳細をここに示しますが、それらが何であるかをどれだけ正確に把握できるか。
これらのうち、いくつかは、最初は20%の正確さや40%または60%の正確さで始まったという意味です。
時間の経過とともに、これはおそらく90%の正確さになります。
明らかに学習プロセスが起こっています。
GPT-3.5とGPT-4の両方を使用しました。
彼らがどちらを使用したかが少し不明確であれば、申し訳ありません。
彼らは両方を使用しました。
ここで見るように、これらのモデルに回答を促すだけと比較しました。
これが結果です。
彼らは、これらの他の種類のアプローチ、これらのテスト方法をテストするために、思考の連鎖も使用しています。
メッドエージェントゼロは、この論文で取り上げているもので、10,000回の繰り返し、10,000人の患者を使ったシミュレーショントレーニングを行っています。
私は、GPT-3.5とGPT-4の両方が、そのモデルを使用する他のすべての方法を凌駕しているという意味です。
彼らはナンバーワンです。
GPT-4は93%で、MedQAデータセットで人間の専門家を上回ります。人間の専門家は約87%です。つまり、GPT-3.5はそのデータセットで医療専門家に近づいています。
GPT-4は87%に対して93%で彼らを打ち負かします。また、彼らはシミュレーションをはるかに速く実行できることにも注意してくださいね。
10,000人の患者です。
つまり、医師がそのような経験を蓄積するには多くの年数がかかるでしょう。
ここでは、技術が改善されるにつれて、ハードウェアやソフトウェア、そしてこれらのニューラルネットも改善されるにつれて、かなり迅速に実行でき、毎年より速く実行できるようになります。
もしこれを楽しんでいただけたら、よろしければ高評価を押して、より多くの人々に広めてください。
もしこれが気になるなら、なぜ気になるのか教えてください。
私は本当に興味があります。なぜなら、私のYouTubeチャンネルだけでなく、尊敬されている教授や研究者たちも自分の研究成果をTwitterに投稿しているからです。
実際、ここで1つのコメントを見つけました。つまり、Ethan Molykが元のツイートを削除した後、そのような非常に否定的な反応の多くが消えました。
しかし、ここに1つあります。私がそのスレッドのRABBITホールに少し入ったので、これが言われていたことを代表していると思います。
この人が苦情を表現していると思いますが、これを想像してみてください。もっと陰湿で個人攻撃的なものです。
彼は、公平を期すと、あなたは超ジストピア的なものをさりげなく投稿して、このテクノロジーはすごいですね、と言っていると言っています。
あなたの地域の賢い人ですが、世界から少し離れているように見えます。
おそらく彼は、あなたはこのようなことがいつか起こると予想していなかったら、少し世界から離れすぎているように見えると言ったのかもしれません。
再び、私は本当にこれが人々が言っていたことをよく代表していると思います。
このチャンネルでは、偏見を持たず、さまざまな視点を理解しようとしたり、少なくともそれに対して開かれた心を持とうとしています。
私はこれを理解できないでしょうが、ただ単に理解できません。
彼は、このような研究は超ディストピア的だと言っています。
なぜそれが超ディストピア的であると思うのかさえ理解できません。
機械の利用による進歩を加速し、私たちの周りの世界を理解する能力を向上させ、技術を向上させ、病気の人々を診断する能力を向上させる。
おそらく、資源のない人々を助けることができるAI医師がいるかもしれません。
世界の多くの場所で貧困があり、医師がいない、高品質な医療が利用できない場所があります。
これらの訓練されたAIエージェントが、少額で正しい診断を受けるために人々を助けることができたらどうでしょうか?
それがディストピア的なのはどうしてですか?
私は、この超ディストピア的なのは、この技術を禁止し、人類がそれがもたらす恩恵を受けることを許さない場合に起こると思います。それはすでに必要なすべてを持っている人々に利益をもたらすでしょう。
誰かがそれが超ディストピア的だと言ったら、それに同意できるかもしれません。
しかし、これについては理解できません。
ある程度のコメントには共通点があり、それは個人攻撃になりがちだとも感じます。
個人攻撃があります。
ここでは、「これが来るとは思わないなんて、あなたは世間から遠ざかっている」と言っています。
こちらでは賢いかもしれませんが、こちらでは無知です。
それが多くのコメントに共通していたことです。
彼らは、「あなたの言っていることには同意しません。ここにいくつかのポイントを尊重して反対します」とは言っていません。
ほとんどが間違っており、あなたは無知でひどい人間だと言っています。
それらの組み合わせがそのようなものでした。再び、それがどこから来ているのか理解するのが難しいです。
1昨日、MITの学生たちに話をしていたサム・アルトマンについて取り上げました。彼は、これが多くのものを得ているように思われますが、これは少し悲しいことですが、これらのエリート大学の学生たち、または少なくともその一部からです。
これに対する彼の反応として、彼はこれを投稿しました。
タイムラインが合致しているだけでなく、彼はおそらく、彼の大学ツアー中に経験したことについて話していたと思います。スタンフォードやMITの学生たちと話していたことについてです。
彼は言っています、技術を使って豊かさ、知性、エネルギー、長寿などを創造することはすべての問題を解決するわけではないと、誰もが幸せになるわけではないと。
しかし、それは断固として素晴らしいことであり、私たちの選択肢を拡大します。
私にとって、それは道徳的な義務のように感じられます。
ここでは、最近の大学訪問からの最も驚くべき収穫は、上記で述べたことが、特定の人口統計にとって驚くほど論争的な意見であると彼は言っています。
おまたせしましたが、このチャンネルでも1年前のように遡ることができ、私がGPT-4の推論について行ったビデオを見ることができます。そこでは、この具体的な話題について話している私の姿があります。そこでは、非常に有益で科学を前進させるような新しいAIのブレークスルーについて取り上げています。
驚くべきことに、それは論争の的です。
特定の人口層では、少数派の人々ですが、彼らは本当に激怒しています。
彼は、「繁栄は実際には良いことだ」と言っています。
D、D、成長です。
今日はこれで終わりです。
このチャンネルでこのコンテンツを楽しんでいただけたら、私と一緒に最大かつ最も価値のあるプライベートフォーラムを構築するという私のクエストに参加したいと思うかもしれません。そこでは、AIについて話し合い、自律型AIエージェントを構築する方法、AIを使って未来に備えるためにスキルを向上させ、学ぶことができます。
自然な20を出しました。
リンクは説明欄に記載します。
私たちはほぼ1000人のメンバーがいます。
一緒に参加してくださいね。
一緒に作り上げましょう。
私の名前はウェス・ロスです。ご視聴ありがとうございました。