見出し画像

AIはいかにして盗まれたか

これは、盗まれた知性についての物語です。AI の欺瞞的な幻想、巨大テック企業であるシリコンバレーの巨人たちと普通のダビデたち、秘密の宝箱、盗まれた作品の膨大な図書館、そして史上最大の強盗事件の一つを解決しようとするインターネット探偵たちについての、長くて必要な歴史です。そして、人間であること、創造的であること、自由であることの意味、そして人類の終わり、人類の終焉、黙示録がどのようなものになるかについてです。それは、盗むこと、奪うこと、置き換えること、植民地化すること、征服することの意味を問う調査でもあります。その過程で、AI が実際に何であるのか、どのように機能するのか、そして私たちの知性について、人間としての私たち自身について、何を教えてくれるのかを学びます。また、歴史的、哲学的な巨人たちの教えも参考にします。現代生活の速度とテンポは、加速し続けています。組織もシステムもないままでは、結果としてカオスが生じるでしょう。私たちは、知性とは抽象的で超越的な、肉体を持たないもので、何か特別でユニークなものだと考えているため、混乱してしまうのです。しかし、知性とは、もっと深く深い過去と遠く遠い未来に関わるものであり、身体、人々、インフラ、そして具体的な経験的な世界を通して強力に広がるものであることが分かるでしょう。Google の CEO であるスンダー・ピチャイは、「AI は人類が取り組んでいる最も重要なことの一つである。電気や火よりも深遠なものだ」と主張したと伝えられています。これは、巨大テック企業の CEO が言うような誇大宣伝のように聞こえますが、それが真実である可能性は十分にあります。人工知能は、すべてを急速に変えてしまうかもしれません。そして、電気や火のように、私たちはこの広大で重大な、そして本当に前例のない変化を、悪のためではなく、善のために、すべての人々のために使えるようにするための新しい方法を見つけなければなりません。未来の話をする前に、まず過去から始めることが重要です。知性、知識、脳、心、認識、計算、思考、論理。これらの言葉は、しばしば同じ意味で使われたり、少なくとも多くの重複を持って使われます。知性とは何かを突き詰めて考えてみると、驚くほど合意が少ないことに気づきます。
私たちの制御する環境は、膨大な量のデータを驚異的な速度で処理する新しい技術によって、より扱いやすくなりました。これを可能にしたツールは、高速デジタルコンピュータであり、電子的な精度で大量の情報を処理することができます。機械は人間と同じように知性を持ちうるのでしょうか?機械は人間の知性を超えるのでしょうか?知性を持つとはどういうことなのでしょうか?初期のコンピュータについてコメントする際、メディアはそれらを「電子頭脳」と呼びました。「巨大な電子頭脳によって答えを出すことができる」「電子頭脳で在庫を記録し、在庫記録を保管し、修理部品のレベルを記録する」といった具合です。これらは、大量のデータを非常に高速に処理し、時間と労力を節約します。1950年代のイギリスでは、機械が思考できるかどうかについて、全国的な議論が行われていました。結局のところ、1950年代のコンピュータでさえ、すでに多くの点で人間よりもはるかに知的だったのです。計算機は人間よりも速く計算でき、父であるコンピュータと AI のアラン・チューリングは、1951 年の BBC ラジオ放送で、「デジタルコンピュータを脳と呼ぶことは全く不合理ではない」と主張し、議論に貢献しました。コンピュータ、AI、知性、脳のこの一致は、知性が一つのものであるという考えに緊張をもたらしました。徹底的な歴史には、トランジスタ、電気、コンピュータ、インターネット、論理、数学、哲学、神経学、社会を含める必要があります。これらのものなしに AI を理解することはできるでしょうか?歴史はどこから、どこで始まるのでしょうか?この不可能な全体は、この歴史を通してこだまのように響き渡るでしょう。しかし、チューリングテストとダートマス大学会議という、私たちが始められる二つの重要な歴史的瞬間があります。チューリングは、1950 年に「計算機械と知性」という有名な論文を書きました。それは、「私は「機械は考えることができるか」という質問を検討することを提案する。これは、「機械」と「考える」という用語の意味の定義から始めるべきである」という言葉で始まりました。チューリングは、会話相手が誰または何であるかを知らない人が、機械と話しているのと人間と話しているのを区別できないのであれば、その機械は知的であるというテストを提案しました。それ以来、チューリングテストの条件については議論されてきました。テストはどのくらいの期間続くべきか、どのような質問をするべきか、テキストベースだけなのか、画像や音声はどうなのか、といった具合です。あるコンペティションでは、審査員団の前でテストに合格した人に 10 万ドルを提供しました。
次の 70 年間を振り返ると、チューリングのテストは合格したのか、私はあなたを恐れるべきなのか、あなたは私のインスタグラムを見たことがあるのか、私はただかわいいだけなのか、といった疑問を投げかけることができるようになるでしょう。数年後の 1955 年、AI の創始者の一人であるジョン・マッカーシーと同僚たちは、思考機械の問題について議論するための夏季研究プロジェクトを提案しました。マッカーシーは、この会議の名前を決めるとき、「人工知能」という言葉を選びました。夏季会議の提案書には、「機械に言語の使用、抽象化と概念の形成、人間のために確保されている種類の問題解決、そして自己改善をどのように行わせるかを発見するための試みが行われる」と書かれています。この会議の目的は、「機械は自己改善できるか」「脳内のニューロンはどのように配置されてアイデアを形成するのか」といった疑問について議論し、創造性やランダム性といったトピックを議論したり、思考機械の研究に貢献したりすることでした。この会議には、映画「ビューティフル・マインド」でラッセル・クロウが演じた、ゲーム理論への貢献で有名な数学者ジョン・ナッシュを含む、少なくとも 29 人の著名人が参加しました。彼は、誰も想像できないような方法で世界を見ていました。チューリングの論文と並んで、ダートマス大学会議は、AI の歴史の始まりを示す基礎的な瞬間でした。しかし、この分野が今日まで直面している問題を予期させるような困難がすでにありました。多くの人が、マッカーシーが選んだ名前の「人工」の部分を嘆いています。それを人工知能と呼ぶことは、私たちが知性という言葉で意味するものを制限するのではないでしょうか?何が何かを人工的にするのでしょうか?もしその基礎が人工的なものではなく、人間の知性と同じものであれば?もし機械が人間の知性を超えたら?これらの質問に対する答えは、技術的なものではなく、哲学的なものであるかもしれないという示唆がすでになされていました。なぜなら、機械はいくつかの点でより知的であり、より速い計算をし、ミスが少ないにもかかわらず、これだけでは私たちが一般的に知性と呼ぶものを説明できないことが明らかだったからです。何かが欠けているように思われました。
AIへの最初のアプローチは、最初の数十年間の研究を支配したもので、記号的アプローチと呼ばれるようになりました。この考え方は、例えば人間の心を模倣したり、デジタルで複製したりすることで、知性を記号的にモデル化できるというものでした。「この拡大図では、ほとんどの神経インパルスがここから脊髄に入り、脳の底部にあるこの中継センターを通って上方に目的地へと向かいます。」記号的アプローチは、本質的に現実世界をデジタル世界で地図化することを目指しています。もし世界が記号的に表現できれば、AI は論理的にアプローチできるでしょう。例えば、キッチンという部屋をコードで記号化し、キッチンの状態をきれいまたは汚いと記号化し、ロボットに環境に論理的にアプローチするようにプログラムすることができます。「キッチンが汚れていたら、キッチンを掃除する」というように。このアプローチの提唱者であるマッカーシーは、「エージェントは、世界、目標、現在の状況に関する知識を論理的な文で表現し、特定の行動や一連の行動が目標達成のために適切であると推論することで、何をすべきかを決定できる」という考えだと書いています。これは理にかなっていました。なぜなら、人間とコンピュータの両方が同じように動作するように見えるからです。次の例を見てみましょう。「信号が赤なら車を止める」「お腹が空いたら食べる」「疲れたら寝る」。
この種の考え方がコンピュータプログラマーにとって魅力的だったのは、知性にこのようにアプローチすることで、コンピューティングの根源であるバイナリ、つまりトランジスタがオンまたはオフ、1 または 0、真または偽であるということに合致したからです。赤信号がオンになっているかどうかは、真か偽か、1 か 0 かの二者択一の論理的な質問です。もしオンなら停止。これは直感的に理解できるため、世界の記号的な仮想論理画像を構築することが、すぐに AI における最も影響力のあるアプローチとなりました。コンピュータ科学者のマイケル・ウールドリッジは、AI の簡単な歴史の中で、これは「すべてを非常に純粋にするためだ」と書いている。「インテリジェントシステムを構築するという問題は、ロボットが何をすべきかの論理的な記述を構築するという問題に還元され、そのようなシステムは透明性があり、なぜ何かをしたのかを理解するために、信念と推論を見るだけでよい」と。しかし、すぐに問題が発生しました。知識があまりにも複雑で、これらの論理的で単純な真偽、オンオフ、1 または 0、if-then ルールではきちんと表現できないことが判明したのです。1 つの理由は、不確実性の陰影です。「お腹が空いたら食べる」は、必ずしも真でも偽でもありません。空腹には段階があります。しかし、もう一つの問題は、これらの一見単純なルールから何をすべきかを計算するには、当初想定されていたよりもはるかに多くの知識と計算が必要だったことです。当時のコンピュータの計算能力では、追いつくことができませんでした。「これを可能にしたツールは、高速デジタルコンピュータであり、電子的な精度で大量の情報を処理することができる」のです。
この単純なゲーム、ハノイの塔を考えてみましょう。目的は、ディスクを最初のポールから最後のポールに、より大きなディスクをより小さなディスクの上に置かないように、最小限の手数で移動させることです。ポール、ディスク、それぞれの可能な動き、それぞれの可能な動きの結果をコンピュータに記号化し、それぞれのディスクの可能な位置に応じて何をすべきかのルールを決めれば、比較的簡単に見えます。しかし、3 つのディスクでは、このゲームは 7 手で解けます。5 つのディスクでは、31 手かかります。10 個では 1,023 手ですが、20 個のディスクでは 1,048,575 手かかり、64 個のディスクでは、1 つのディスクが毎秒移動した場合、ゲームを完了するのに約 6,000 億年かかるため、その数を読み上げることはできません。AI では、この問題は「組み合わせ爆発」と呼ばれています。つまり、可能な行動の数が増えるにつれて、可能な組み合わせの数、複雑さが急速に理解不能なほど大きくなり、技術的に不可能になるのです。そして、ハノイの塔は単純なゲームです。組み合わせ爆発は、チェスや囲碁のようなゲームではさらに大きな問題となり、運転のような人間の問題は、はるかに複雑になります。赤信号はオンまたはオフですが、壊れているかもしれませんし、落書きや雪がついているかもしれません。少し違う色合いの赤かもしれません。歩行者は、信号がオフでも関係なく出てくるかもしれません。子供が走り出すかもしれません。そして、それは広大な環境のほんの一部に過ぎません。不可能な全体です。
AI にこの方法でアプローチする場合、知識のあらゆる部分を検索し、論理的な結果を探すことは、「ナイーブな網羅的探索」として知られるようになりました。つまり、コンピュータは、各移動において、考えられるすべてのシナリオとすべての情報を検索して、最善の移動を決定しなければならなかったのです。ロボット工学でも同様のアプローチが取られ、さらに複雑であることが証明されました。AI の研究は、赤外線センサー、レーダー、カメラ、マイク、バッテリーなど、他の分野の技術的進歩と時を同じくしていました。1971 年、MIT のテリー・ウィノグラードは、SHRDLU と呼ばれるプログラムを開発していました。これは、彼が「ブロックの世界」と呼ぶものを記号的にモデル化することを目的としていました。この仮想世界では、ユーザーがプログラムにブロックをさまざまな方法で操作するように依頼できました。「人物: 大きな赤いブロックを拾ってください」「コンピュータ: わかりました」「人物: ピラミッドをつかんでください」「コンピュータ: どのピラミッドを意味するのか理解できません」「人物: 気が変わったので、持っているブロックよりも高いブロックを見つけて箱に入れてください」「コンピュータ: わかりました」。単純で制約された環境では、プログラムは非常にうまく機能しましたが、1 年後、スタンフォード大学の研究者が実世界のブロックワールドロボットを構築しました。私たちは彼を Shakey と呼びます。Shakey は、「猫のひげ」と呼ばれるバンパーセンサーと、距離を測定するためのレーザー距離計を備えた本物のロボットでした。Shakey ロボット工学チームは、ハノイの塔問題と同様の問題に直面しました。環境は見た目よりもはるかに複雑で、センサーが正しく動作するためには、部屋を特定の方法で塗装する必要がありました。当時の技術では追いつけず、組み合わせ爆発とあらゆる環境の複雑さが問題となり、70 年代と 80 年代は AI の冬と呼ばれるようになりました。
70 年代までに、一部の人々は、何かが欠けている、つまり知識が欠けていると主張し始めました。現実世界は、ハノイの塔ゲームやロボットとブロックではありません。世界についての知識が中心なのです。しかし、その知識を分析するための鍵は、依然として論理でした。そうでなければ、どうやって分析できるでしょうか?次の例を見てみましょう。動物について知りたいとしましょう。動物がミルクを出すならば、その動物は哺乳類です。動物が羽を持っているならば、その動物は鳥です。動物が飛べて卵を産むならば、その動物は鳥です。動物が肉を食べるならば、その動物は肉食動物です。これも比較的単純に見えますが、このような基本的な例でさえ、情報を提供するためには動物学者が必要です。私たちは皆、哺乳類がミルクを出す動物であることや、猫が哺乳類であることを知っていますが、何千何万という種類の哺乳類がおり、多くの専門知識が必要です。その結果、このアプローチはエキスパートシステムアプローチと呼ばれ、初期の AI の大きな成功の一つにつながりました。スタンフォード大学の研究者たちは、このアプローチを用いて医師と協力し、血液疾患を診断するシステムを作りました。これは、知識と論理の組み合わせを使用していました。「血液検査の結果が X ならば、Y を実行する」というように。研究者たちは、専門家が信頼して採用するためには、アプリケーションが信頼できるものでなければならないことに気づきました。そのため、MYCIN はその作業を示し、答えを説明することができました。このシステムは、最初は画期的で、血液疾患の診断において人間と同じくらい優れていることが証明されました。DENDRAL と呼ばれる同様のシステムは、同じアプローチを用いて化学物質の構造を分析しました。DENDRAL は、化学者によって提供された 17,500 のルールを使用していました。どちらのシステムも、この種の専門知識アプローチが有効であることを証明しているように見えました。AI の冬は終わり、研究者たちは投資を引き付けるようになりました。しかし、開発者たちは再び、新たな深刻な問題に直面しました。MYCIN のデータベースは、すぐに時代遅れになってしまったのです。
1983 年、このプロジェクトの研究者であるエドワード・ファイゲンバウムは、次のように書いています。「知識は現在、個々のコンピュータ科学者が個々の専門家と協力して、何十年にもわたって骨の折れる作業を行う家内工業を思い起こさせるような、非常に骨の折れる方法で獲得されています。今後数十年で、現在非常に面倒で時間がかかり、費用のかかる手順を置き換えるための、より自動的な手段を持たなければなりません。知識獲得の問題は、人工知能における重要なボトルネック問題であり、この種の問題に対して機械を設定するには 1 週間かかり、その後脳のスイッチが入り、すぐに時代遅れになるという問題を引き起こしています。」このため、MYCIN は広く採用されませんでした。高価で、すぐに陳腐化し、法的に問題があり、医師の間で十分に広く確立することが困難であることが判明したのです。論理は理解できましたが、知識を収集すること、そして大量の知識を収集するというロジスティクスが、明らかに AI の中心的な問題になりつつありました。「毎秒 12,000 文字の速度で」。 1980 年代、影響力のあるコンピュータ科学者ダグラス・レナートは、この問題を解決するためのプロジェクトを開始しました。レナートは、「強力な形式主義であっても、多くの知識の必要性を排除することはできない。知識とは、単に乾燥した almanac のような事実や、非常に分野に特化した事実を意味するものではありません。むしろ、現実世界で生き抜くために必要な知識のほとんどは、常識すぎて参考書に載せることができないものです。例えば、動物は単一の連続した期間生きている、何も二つの場所に同時に存在することはできない、動物は痛みを嫌う、などです。おそらく、AI が 34 年間も逃げようとしてきた最も困難な真実は、この巨大な知識ベースを獲得するためのエレガントで楽な方法はおそらく存在しないということです。むしろ、大部分の努力は、少なくとも最初は、アサーションを手作業で入力していくというものでなければなりません。」と書いています。レナートの Cyc プロジェクトの目標は、私たちが通常当然のことと考えているすべての知識を AI に教えることでした。彼は、「地球上で落とされた物体は地面に落ちる」「地面に当たると動きが止まる」「宇宙で落とされた物体は落ちない」「燃料を使い果たした飛行機は墜落する」「飛行機の墜落では人が死ぬことが多い」「見知らぬキノコを食べるのは危険だ」「赤い蛇口は通常お湯が出るが、青い蛇口は通常水が出る」などを例に挙げています。レナートと彼のチームは、200 年の作業が必要だと見積もり、「パンは食べ物である」「アイザック・ニュートンは死んでいる」といった当然のことについて、50 万のルールを入念に入力し始めました。しかし、ここでもすぐに問題にぶつかりました。
彼は、すべてを論理的に一貫させ、物事について推論したり、演繹したりできるようにしたいと考えていました。しかし、知識はそれには複雑すぎるのです。そのため、私は常にそれが間違った考えであることを知っていました。」Cyc プロジェクトの盲点は、知識がいかに奇妙なものになり得るかを示していました。初期のデモでは、パンが飲み物なのか食べ物なのか、空が青いのか、海が陸よりも濡れているのか、兄弟姉妹がお互いよりも背が高くなることがあるのか、といったことがわかりませんでした。これらの単純な質問は、知識についてあまり認識されていないことを明らかにしています。私たちは、何かを明示的に知らないことがよくありますが、それでも答えが明らかになると、おかしくなるほど明白な場合があります。「パンは飲み物か?」「兄弟姉妹の一方がもう一方よりも背が高くなることは可能か?」という質問について考えたことはないかもしれません。しかし、尋ねられると、私たちは暗黙のうちに、直感的に、しばしば非認知的に、他の推定される要因に基づいて答えを知っているのです。これは深刻な困難でした。どれだけ多くの知識を入力しても、知識が理解される方法、私たちが質問について考える方法、ある知識と別の知識との関係、私たちが利用するつながりは、しばしば曖昧で、不明瞭で、奇妙なものでさえあります。論理は、ニュアンス、不確実性、確率といったものに苦労します。私たちが暗黙のうちに理解しているが、明示的に説明するのが難しいことにも苦労します。よくある例を挙げましょう。AI のハンドブックには、「クエーカー教徒は平和主義者である」「共和党員は平和主義者ではない」「ニクソンは共和党員でありクエーカー教徒である」「ニクソンは平和主義者か、そうでないか」と書かれています。コンピュータは、この情報を論理的に答えることができません。矛盾があると認識するだけです。一方、人間は、不確実性、真実性、複雑性、歴史、戦争、政治など、さまざまな考え方を引き出しながら、この問題をさまざまな方法で説明するかもしれません。不可能な全体です。
ビッグ・クエスチョンは、Cycのような、現在も稼働している専門家ベースの知識システムの支持者にとって、この知識ベース・アプローチで複雑さを説明できるかどうかということです。ほとんどの知的な質問は、「もし〜ならば、はい/いいえ」のような1か0かの二元論的なものではありません。「猫は哺乳類か?」という質問を考えてみてください。「税金は良いものか?」という質問は、「猫は哺乳類か?」という質問とは根本的に異なる種類のものです。ほとんどの質問は価値観に依存し、文脈、定義、仮定に左右されます。つまり、主観的なのです。ウールドリッジは、「主な困難は、知識抽出問題として知られるようになったものです。簡単に言うと、これは人間の専門家から知識を引き出し、ルールという形でコード化するという問題です。人間の専門家は、自分が持っている専門知識をはっきりと言うのが難しいことがよくあります。何かが得意だからといって、実際にどのように行っているかを説明できるとは限りません。そして、人間の専門家は、必ずしも自分の専門知識を共有することに熱心ではないことがわかりました。」と書いています。しかし、Cycは正しい道を歩んでいました。知識が必要なのは明らかで、問題はそれをどうやって手に入れるか、どうやってデジタル化するか、そしてどうやってラベルを付けて渡して分析するかでした。その結果、論理が知性の中心であるというマッカーシーの考え方は、支持を失いました。論理中心のアプローチは、電卓が計算を実行できるからといって知的であると言うようなもので、実際には電卓自体は何も知らないのです。したがって、より多くの知識が鍵でした。同じことがロボット工学でも起こっていました。
オーストラリアのロボット工学者ロドニー・ブルックスは、この分野の革新者であり、ブロックスワールドのようなシミュレーションの問題点は、それがシミュレートされた厳密に制御されたものであるということだと主張していました。本当の知性は、このように進化したものではありません。だから、本当の知識は現実世界から得なければならないのです。「人間は、小さなものから大きなものへと成長します。全体の構造は時間とともに変化し、ロボットをより良く構築する方法を学んだように、私たちのロボットも変化し、そのように構築されたプログラムも変化に適応してきました。」 原則として、彼は、おそらく知能はコード化できるものではなく、創発的な特性、つまり他のすべてのコンポーネントが揃った後に現れるものであると主張しました。「もし人工知能が日々の経験から構築されれば、他のより基本的な条件が満たされた後に、本物の知性が生まれるかもしれません。」言い換えれば、知能は、中央の知的な点からすべての部分に分け与えられるトップダウン型ではなく、すべての部分から生まれるボトムアップ型かもしれません。例えば、進化は非常にボトムアップ型であり、単細胞生物にますます複雑なものをゆっくりと追加していき、意識と認識が現れるまでになります。 1990 年代初頭、ブルックスは MIT のメディアラボの責任者であり、知性とは肉体を持たない抽象的なものではなく、センサーやカメラ、マイク、腕、レーザーなどを通して周囲とつながっているという考えに反対していました。「物事をどのように行うかについて、トップダウンで全体を計画するのではなく、結合は世界を通して起こります。すべてを動かす本当の中央制御装置や単一の脳はありません。」なぜ機械はチェスで人間に勝てるのに、2 歳の子供よりもチェスの駒を拾うのが下手なのでしょうか? それだけでなく、子供は明らかな複雑な計算を脳内で行うことなく、自動的に手を動かして駒を拾います。実際、脳には中央司令センターのようなものは何もないように見えます。すべての部分が、複雑な飛行機を操縦する単一のパイロットのようにではなく、都市のように広がって、相互に作用しているように見えます。知能は、世界から切り離された、エーテル的で超越的な抽象的なものではなく、世界とつながっていたのです。 ブルックスは、センサーやカメラ、マイク、アーム、レーザーなどを通して周囲とつながっている、具体化された知能に取り組みました。チームは Cog というロボットを製作しました。Cog には温度センサーとマイクがありましたが、重要なのは中央のコマンドポイントがないことでした。各部分は独立して動作していましたが、互いに連携していました。彼らはそれを「分散知能」と呼びました。 それは革新的なアプローチでしたが、完全に機能することはありませんでした。ブルックスは、Cog に一貫性が欠けていることを認めました。「始める前に、今日私が使っているマシンについてお話しましょう。私は Intergraph TDZ 2000 GX1 を使っています。デュアル 450 MHz プロセッサと 256 MB の RAM を搭載しています。今日使用する解像度は 1024 です。」 1990 年代後半までに、研究者たちは、コンピュータの能力が依然として重要であることに気づいていました。1996 年、IBM のチェス AI である Deep Blue は、グランドマスターのガルリ・カスパロフに敗れました。Deep Blue は専門知識システムであり、各手を計算するだけでなく、最善のオープニングの動き、攻撃ラインのような概念、ポジションに基づいて動きを選択するといったアイデアなどを取り入れて、プロのチェスプレーヤーの助けを借りてプログラムされていました。しかし、敗北後、IBM は Deep Blue にさらに多くの計算能力を与えました。Deep Blue は、500 個のプロセッサで毎秒 2 億通りの手を探索できました。1997 年、AI のマイルストーンとなる Deep Blue は、カスパロフに勝利しました。最初は、カスパロフは IBM が不正行為をしたと非難し、今日に至るまである種の不正行為を主張しています。 彼の著書の中で、彼は IBM で働くチェスプレーヤーが、毎朝、エンジニア、コミュニケーション担当者など、全員とのミーティングがあったことをカスパロフに認めたという興味深いエピソードを語っています。「私の人生で見たことのないようなプロフェッショナルなアプローチで、すべての詳細が考慮されていました。非常に秘密だったことをお話しします。ある日、私は「カスパロフはゲームの後で Deep Blue と話します。彼らが何を話しているのか知りたいのですが、警備員を交代させて、ロシア語を話す人に変えることはできますか?」と言いました。翌日、彼らは警備員を変えたので、私は彼らがゲームの後で何を話しているのかを知ることができました。」 言い換えれば、500 個のプロセッサと毎秒 2 億回の移動があっても、IBM は非常に具体的な知識をプログラムする必要があったかもしれません。
カスパロフ自身について、会話に聞き耳を立てることによって、これがたとえ作り話であったとしても、少なくともこれから起こるであろうことの予兆である。この操作は、人間の課題解決者による思考の積み重ねられた年月への畏敬の念であり、2014年にGoogleが6億5000万ドルでイギリスの比較的小さな無名の4年目のAI研究所を買収すると発表したときに、私たちに反映されたものです。GoogleはDeepMindという人工知能企業を未知の金額で買収しており、この買収はAIコミュニティに衝撃波を送りました。DeepMindは、表面上は非常に単純に見えることをしていました。古いアタリのゲームを打ち負かしたことですが、その方法はずっと興味深いものでした。機械学習、深層学習、ニューラルネットといった新しいバズワードが主流になり始めました。これらの知識ベースのAIへのアプローチが困難だったのは、その知識をうまく収集する方法を見つけることでした。Mycinはすぐに時代遅れになってしまいました。ほとんどの人が当たり前に思うこと、つまり人間の知識の全体を入力することは不可能でしたし、その上、平均的な人間は、その知識のすべてを持っている必要はありませんが、それでも研究者が複製しようとしていた知性を持っています。そこで研究者は新しいアプローチへと方向転換を始めました。機械にすべてを教えることができないのであれば、機械に自分で学ぶことをどのように教えることができるのか、と彼らは自問自答したのです。可能な限りの知識を持つことから始めるのではなく、機械学習と呼ばれるものは、目標から始まります。その目標から、機械は試行錯誤を通じて、自らに必要な知識を獲得していくのです。これらのエージェントはかくれんぼをしています。これらのエージェントは学習を始めたばかりですが、すでに追いかけたり逃げたりすることを学んでいます。これは、逃げることしか学んでいない隠れ家にとっては厳しい世界です。リッジは、機械学習の目標は、プログラムが、どのようにすればよいかという明示的なレシピを与えられなくても、与えられた入力から所望の出力へ計算できるようにすることだと書いています。GoogleのDeepMindでは、私たちは常にゲームを愛してきました。チェス、さらにはアタリのようなビデオゲームさえもです。信じられないことに、DeepMindは、1つのアタリのゲームだけでなく、多くのアタリのゲームをすべて自分で学習し、プレイして勝つことができるAIを構築していました。彼らが採用した機械学習の前提は比較的単純なものでした。AIにはコントロールと、スコアを上げるという好みが与えられ、試行錯誤を通じて様々な行動を試み、うまくいったものを繰り返し、あるいは構築したり、拡張したりし、うまくいかなかったものは避けるというものでした。人間の助手は、AIが何か間違ったことをしたり、正しいことをしたりした場合に、正しい方向にそれを促すことで助けることができました。これは強化学習と呼ばれています。強化学習の分野です。一連の行動がAIのポイントを失うことにつながった場合、強化学習はそれを悪いこととして登録し、逆もまた然りです。そして、何千回もゲームをプレイし、うまくいったパターンを構築し、うまくいかなかったパターンを避けていくのです。
信じられないほど、AIはゲームを学習しただけでなく、すぐに人間よりも上手になりました。29個のAtariゲームのうち49個のゲームを人間よりも上手なレベルでプレイすることを学び、その後、超人間になりました。これはよく実演されるもので、ブレイクアウトと呼ばれています。パドルを動かし、ボールでブロックを破壊します。開発者は驚きましたが、AIはボールを上部に到達させるテクニックを学習し、AIが何もする必要なく、ボールが勝手に跳ね返ってブロックを破壊するようになりました。この戦術は、自発的で独立しており、創造的であると表現されました。人類の未来、実存的恐怖の最新の象徴は、GoogleのDeepMindプロジェクトであり、地球上で最も複雑な戦略ゲームで無敵になったAIプログラム、AlphaGoを作成しました。次にDeepMindは、チェスよりも難しいと一般的に考えられており、世界で最も難しいゲームである可能性のある囲碁で、人間のプレイヤーを打ち負かしました。囲碁は一見単純に見えますが、石を交互に置いて、相手の石を取り囲んで排除しながら、相手よりも多くの陣地を確保しようとします。AlphaGoは、2016年に世界チャンピオンのイ・セドルを破る前に、16万回のトップゲームで訓練され、3000万回以上のゲームをプレイしました。彼が投了したのを覚えていますか?組み合わせの爆発、これは常に囲碁の問題でした。なぜなら、あまりにも多くの可能性があるので、すべての可能な動きを計算することは不可能だからです。その代わりに、DeepMindの方法は、不確実性に基づいた高度な推測に基づいていました。すべての可能な将来の動きを計算してプレイするのではなく、ある動きに基づいて勝つ可能性を計算するのです。それぞれの動きの後、この方法は人間の知性が働く方法に似ているという前提がありました。私たちは、いくつかの動きを先読みし、おそらく拒否し、別の動きを想像する、といった具合です。そして、セドルとの試合で37回目の手を打った後、AlphaGoは誰もが驚きの手を打ちました。人間には誰にも理解できませんでした。それは、プロによって、創造的でユニークで美しいだけでなく、人間らしくないと表現されました。非常に驚くべき一手でした、私はそれを予想していませんでした。現時点では、それが良い手なのか悪い手なのか、私には本当にわかりません。プロのコメンテーターは、ほぼ満場一致で、37手目を人間プレイヤーが選んだことはないと述べました。この勝利は世界中の見出しになりました。機械学習の時代が到来したのです。
1991年に、2人の科学者はニューロンネットワーク革命が起こった、私たちはその後を生きていると書いています。ニューロネット、深層学習、機械学習といった新しいバズワードを耳にしたことがあるかもしれません。私は、この革命は、おそらく私たちが種として経験するであろう最も歴史的に重要な革命であると信じるようになりました。最終的には、AIで起こっていることの基礎となるものです。だから、私と一緒にニューロン経路のジェットコースターに飛び乗り、シートベルトを締めて、準備をしてください。私たちは、これをできるだけ痛みを伴わないようにしようとします。これは情報であり、それを適切に使用することで、人類に新たな尊厳をもたらすことができます。高速電子デジタルコンピュータ、それは様々な算術演算や論理演算を高速に、確実に、そして疲れることなく実行することです。これらは、膨大な量の情報、記憶、処理、関連付けが可能な情報マシンです。私たちが話した記号的アプローチを覚えていますか?それは、世界の一対一マップのようなものを作成し、それに基づいて人工知能を構築しようとしました。しかし、その代わりに、機械学習は試行錯誤を通じて自分自身を学習します。今日、AIは主にニューラルネットワークを使ってこれを行います。ニューラルネットワークは、ノード層で構成されています。ニューラルネットワークは、AIだけでなく、人間の知性についての考え方にも革命をもたらしています。重要なのは、接続、パターン、経路であるという前提に基づいています。人工ニューラルネットワーク(ANN)は、脳内の生物学的ニューラルネットワークに触発されています。脳内でも人工ニューラルネットワークでも、基本的な構成要素であるニューロンまたはノードがあります。これらは層状になっており、それらの間に接続があります。各ニューロンは次のニューロンを活性化させることができ、活性化されるニューロンが多いほど、次に接続されたニューロンの活性化は強くなります。そして、そのニューロンが十分に強く発火すれば、閾値を超えて次のニューロンを発火させ、それが次々と続いていきます。このようにして、知能は過去の経験に基づいて予測を行うことができます。これは重要です。私は、脳内のニューロンネットと人工的なニューロンネットを、よく使われる小道のようなものだと考えています。ニューロンが一緒に発火するほど、ニューロンが共に発火するほど、その接続は強化され、繰り返される可能性が高くなります。
したがって、「一緒に発火するものは、一緒に配線する」というフレーズになります。では、これらはAIでどのように使われているのでしょうか?まず、多くのデータが必要です。これには2つの異なる方法があります。1つ目は、ニューラルネットワークに多くのデータを入力する方法です。例えば、何千ものプロの囲碁やチェスのゲームを追加したり、例えば、同時に多くの異なるコンピュータで何度も何度もゲームをプレイする方法です。Peter Whidden氏はこのビデオで、AIが2万個のポケモンのゲームを一度にプレイしている様子を見せています。ですから、一度多くのデータを入手したら、次の仕事はパターンを見つけることです。パターンが分かれば、次に何が来るかを予測できるかもしれません。ChatGPTなどは、大規模言語モデル(LLM)に基づいています。つまり、大量のテキストで訓練されたニューラルネットワークであり、本当に大量のテキストです。ChatGPTは約3000億語のテキストで訓練されました。もし、誰の言葉なのか、これらの言葉はどこから来たのかと考えているのであれば、すぐにでも戻ってくるであろう何かを理解しているかもしれません。猫はマットの上に座った。もしあなたが自動的にマットを思いついたのなら、あなたは、大規模言語モデルがどのように機能するかについて、ある種の直感的な考えを持っていることになります。なぜなら、3000億語、文、段落のテキストでは、そのパターンが多く出てくるからです。ChatGPTは、次に来るべきものがマットであると予測できますが、もし私が「猫は象の上に座った」と言ったらどうでしょうか?以前のアプローチが直面した問題の1つは、すべての知識がバイナリ、オンまたはオフ、1または0、真または偽ではないということでした。すべての知識が、「もし動物がミルクを与えるなら、それは哺乳類である」というようなものではないことを思い出してください。ニューラルネットワークは、この問題を回避し、代わりに確率、曖昧さ、不確実性を使って作業できるため、特に強力です。ニューロンネットのノードは、強さを持っていることを忘れないでください。
これらのニューロンはすべて発火し、マットを発火させますが、他のニューロンもすべて少し発火します。もし私が別のランダムな例を求めると、象に切り替えることができます。大規模言語モデルが「頭」または「尾」という言葉の後にパターンを探している場合、連続するノードは、頭と尾の間でほぼ均等に50/50に分割されます。もし私が「税金は良いですか?」と尋ねると、そこには様々な議論があり、どのように質問するか、どのように重要に訓練されているかによって、すべての議論から引き出すことができます。しかし、クロフォードは、次のように述べています。彼らは、文法的な原則や言語的な特徴を使ってコンピュータにルールベースのアプローチを教えようとするのではなく、単語が互いに出現する頻度に焦点を当てた統計モデルを使い始めました。同じことが画像にも当てはまります。どのようにコンピュータに、Aの画像がAであるとか、9が9であると教えるのでしょうか?なぜなら、すべての例が少しずつ異なっているからです。時には写真の中、標識の上、書かれたもの、奇妙な角度で走り書きされたもの、異なる色合いのもの、不完全なもの、逆さまのものなどがあります。たとえ何百万枚もの9の図面、写真、デザインをニューラルネットに入力したとしても、9を自分で認識できるようになるまで、どの微小なパターンが繰り返されるかを学習することができます。問題は、多くの例が必要だということです。実際、あなたがこれらのキャプチャを入力するとき、あなたはGoogleがAIを訓練するのを助けているのです。これについてもっと知りたいのであれば、私は本当にお勧めします。説明文にはいくつかの情報源がありますが、特に3Blue1Brownによる数字と文字の訓練に関するこのビデオは非常にお勧めです。私たちが数字を認識するとき、私たちは様々な要素を組み合わせます。9は上にループがあり、右に線があります。8は全く違うものを表しています。Nvidiaの開発者であるTim Detmerは、深層学習を次のように説明しています。まず、いくつかのデータを取得します。2番目に、そのデータでモデルを訓練します。そして3番目に、訓練されたモデルを使って、新しいデータに対して予測を行います。ニューラルネットワーク革命には、いくつかの画期的な影響があります。第一に、知性とは、抽象的で超越的で、空気のようなものではありません。物事の間のつながりが重要であり、これらのつながりによって、私たちとAIは次の動きを予測することができます。これについてはまた後ほど触れますが、第二に、機械学習の研究者は、これが機能するためには、多くの知識、多くのデータが必要であることに気づいていました。月に一度、化学者や血液診断の専門家を研究所に招き、最新の研究結果を苦労して入力してもらうのは無駄でした。それに、それは途方もなく費用がかかるでしょう。2017年には、人工ニューラルネットワークは約100万個のノードを持つことができました。人間の脳は約1000億個、ミツバチは約100万個のノードを持っています。ミツバチはかなり知的ですが、ある企業がその記録を打ち破り、人間を追い越そうとしていました。それはあなたが今大好きなiPhoneです。ビデオで、Internet Explorer 8でプライベートブラウジングをオンにするだけで、クリック、クリック、あなたが何をしていたのか誰も知りません。あなたの秘密は守られます。
2010年代までに、高速インターネットが世界中に普及し、カメラ付き携帯電話が誰のポケットにも入るようになり、新しいメディアと情報の波が、誰もが知りたいと思うあらゆるものに放送されるようになりました。私たちは、ビッグデータの時代へと足を踏み入れ、AIは10代になろうとしていました。ラリー・ペイジと私はかつて親しい友人であり、私は彼の家によく泊まりに行き、話をしました。Googleの創業者ラリー・ペイジがイーロン・マスクを「種差別主義者」と呼んだという話は、おそらく作り話でしょう。なぜなら、マスクは、他の形態の生命よりも人間の生命を保護することを好んだからです。潜在的な人工超知能よりも人間の生命を優先したのです。もしAIが人間よりも優れて、より重要になれば、人間を優先したり保護したりする理由は全くありません。ロボットが本当に引き継ぐべきなのかもしれません。マスクは、これが人工知能研究の将来を心配するようになった原因だと主張しています。特にGoogleは、DeepMindを買収した後、最前線にいたからです。そのため、彼自身、数十億ドル規模の企業経営者でありながら、AIが数十億ドル規模の企業経営者の閉鎖されたドアの後ろで開発されているのではないかと懸念するようになりました。2015年、彼はOpenAIを設立しました。その目標は、安全でオープンかつ人間的な方法で、最初の人工知能を開発することでした。AIは、狭いタスクを実行する能力に非常に長けていました。Google翻訳、ソーシャルメディアのアルゴリズム、GPSナビゲーション、科学研究、チャットボット、さらには電卓までもが、狭いAIと呼ばれています。狭いAIは、どちらかというと「弱いAI」という、あまり好意的ではない名前でも呼ばれています。今、狭いAIは静かな革命のようなものでした。それはすでにゆっくりと、忍び寄るように、そしてどこにでも広がっています。私たちの家庭にはすでに3000万台以上のロボットがあり、工場には300万台以上のロボットがあります。まもなく、やかんや芝刈り機からドアノブや靴まで、あらゆるものが狭いAIを搭載するようになるでしょう。OpenAIの目的は、より汎用的な人工知能を追求することでした。それは、私たちが映画でAIを見たときに考えるようなものです。タスクを横断し、予想外の創造的なことをし、人間のように幅広く行動できる知性です。AI研究者のルーク・モウザーは、汎用人工知能(AGI)を、「効率的なクロスドメイン最適化の能力」、あるいは「あるドメインから他のドメインへの学習を転送する能力」と表現しています。ピーター・ティールやサム・アルトマンといったシリコンバレーの大物ベンチャーキャピタリストからの寄付を受けて、OpenAIは、透明性と公開性を重視し、独自の設立憲章では「株主のためではなく、すべての人に価値を創造する」ことを目的とした非営利団体としてスタートしました。それは、研究を発表し、特許を共有し、何よりも人類に焦点を当てることを約束しました。チームはAIの現在のすべてのトレンドを検討し始めましたが、すぐに深刻な問題を抱えていることに気づきました。ニューロンネットと深層機械学習という最良のアプローチには、大量のデータ、大量のサーバー、そして重要なことに、大量の計算能力が必要でした。これは、彼らの主なライバルであるGoogleが豊富に持っていたものでした。裕福な大手ハイテク企業に追いつくためには、非営利団体として持っているよりも多くのお金が必要になることは避けられませんでした。
2017年までに、OpenAIは、元の使命に固執することを決定しましたが、資金調達のために株式会社として再編する必要がありました。彼らは、投資家へのリターンの上限を100倍とする上限付き利益構造を決定し、その価値観が株主価値ではなく、元の使命と一致することを意図した非営利団体によって監督されることになりました。OpenAIは声明の中で、「私たちの使命を果たすためには、かなりの資金を調達する必要があると予想していますが、OpenAIにとっての広範な利益を損なう可能性のある、従業員と利害関係者間の利益相反を最小限にするために、常に懸命に行動します」と述べました。この決断は功を奏し、2019年2月14日、OpenAIは、あらゆるテーマについての記事を作成できるモデルを発表し、それらの記事は明らかに人間が書いたものと区別がつかないと主張しました。しかし、彼らは、それを公開するには危険すぎると主張しました。最初は、危険すぎるという宣伝行為だと思われていましたが、2022年に、彼らはChatGPTをリリースしました。それは、少なくとも部分的にはチューリングテストに合格できるように見える大規模言語モデルでした。あなたはそれに何でも質問することができ、何でも書くことができ、異なるスタイルでそれを行うことができ、多くの試験に合格することができました。そして、ChatGPT 4になる頃には、SAT、ロースクール司法試験、生物学、高校数学、シリ、医療免許試験などを、場合によっては優秀な成績で合格することができました。AIチャットボットChatGPTは、現在、史上最速で成長している消費者向けアプリです。これは、スイスの銀行UBSの分析によるものです。ChatGPTは5日間で100万人のユーザーを獲得し、2023年末までに1億8000万人のユーザーを獲得し、史上最速で成長しているビジネスの記録を樹立しました。2023年1月、MicrosoftはOpenAIに数十億ドルの投資を行い、Microsoftの高速サーバーネットワークと計算能力へのアクセスを提供し、MicrosoftはChatGPTをWindowsとBingに組み込み始めました。しかし、OpenAIは不審なほど閉鎖的になり、ChatGPTは、合法的なインターネットでは無料では利用できないはずの、どこでそんなに多くのことを知っているのかと疑問視する人も出てきました。オープンとクローズド、透明性と不透明性、多数と1つ、民主主義と利益の間の二項対立が出現していました。ドルを理解することは、私たちが最初からAI研究で見てきた二項対立と興味深い類似点を持っています。知性を、単数、超越的、抽象的、空気のようなものと、それがどこにでもある、世俗的で、オープンで、つながっていて、具体化されたものとして、人間の経験全体、社会、世界、さらには宇宙全体を駆け巡るものとして見ることの間の二項対立です。ジャーナリストのKaren HaoがOpenAIを訪れたとき、彼女は、同社が公に表明していることと、非公開で運営していることの間には、ずれがあると述べました。
彼らは、オープンであることが最善のアプローチであるという信念から離れ、今では秘密主義が必要だと考えていると、後ほど見ていきます。そして、機械には、関連するすべての背景情報と関連データを提供しなければなりません。ほぼすべての人間の歴史において、データまたは情報は、原動力であると同時に、比較的希少なものでした。科学革命と啓蒙主義は、知識はそれ自体のためだけでなく、革新し、発明し、私たちを前進させ、進歩させるために、獲得されるべきであり、獲得することができるという考えを加速させました。私たちはインターネットに乗っています。サイバーは解放されました。もちろん、インターネットは常にデータに関するものでしたが、AIは、より多くのデータがより良い予測の鍵であるという、啓蒙主義、科学革命、農業革命、さらには言語革命にまでさかのぼる、古いトレンドを加速させました。化学、物理学、数学、天気、動物、人々についての予測です。もしあなたが種を植えれば、それは成長する傾向があります。もしあなたが十分なデータと十分な計算能力を持っていれば、人間の限られた感覚や認識では必ずしも明らかではないあいまいなパターンを見つけることができます。そして、一度パターンを知れば、将来、いつそれらのパターンが再発する可能性があるか、あるいは再発するはずかを予測することができます。より多くのデータ、より多くのパターン、より良い予測。これが、AIの歴史とインターネットの歴史が非常に密接に連携しており、実際には同じプロセスの部分を占めている理由です。また、これが、AIとインターネットの両方が、軍隊や監視と密接に結びついている理由でもあります。
DARPAは未来を形作り、新たな能力のための機会を創造しています。インターネットは当初、軍事プロジェクトでした。米国国防高等研究計画局(DARPA)は、冷戦に勝利するためには、偵察、情報、データが重要であると認識していました。スパイ衛星、核弾頭探知、ビアコン、対反乱軍部隊の動き、静音偵察用軽飛行機、盗聴器、カメラなど、すべてデータを取得、収集、分析するためのものでした。1950年、タイム誌の表紙には、思考機械が海軍士官として描かれていました。5年前、コンピュータが発明される前に、著名なエンジニアのヴァネヴァー・ブッシュは、科学の進歩が軍事に結びついているように見えること、破壊に結びついているように見えることについて懸念を表明し、その代わりに、人類の知識を共有できる機械を考案しました。彼は、ブリタニカ百科事典全体をマッチ箱のサイズに縮小できること、実験を記録、保存、共有できるカメラを持つことを予測しました。しかし、将軍たちは、もっと差し迫った懸念があると信じていました。第二次世界大戦はV2ロケットで戦われたのであり、核戦争の可能性が出てきた今、これらのロケットは、その軌道を計算し、撃墜できるように、検知し、追跡しなければなりませんでした。技術が向上し、ロケットの射程が伸びるにつれ、この情報は長距離を迅速に共有する必要がありました。この不可能な量のデータは、正しい予測を行うために、収集、共有、分析する必要がありました。その結果、インターネットが誕生したのです。
そして、インターネットに乗ることは、解放されることを意味していました。もちろん、インターネットは常にデータに関するものでしたが、AIは、より多くのデータがより良い予測の鍵であるという、啓蒙主義、科学革命、農業革命、さらには言語革命にまでさかのぼる、古いトレンドを加速させました。化学、物理学、数学、天気、動物、人々についての予測です。もしあなたが種を植えれば、それは成長する傾向があります。もしあなたが十分なデータと十分な計算能力を持っていれば、人間の限られた感覚や認識では必ずしも明らかではないあいまいなパターンを見つけることができます。そして、一度パターンを知れば、将来、いつそれらのパターンが再発する可能性があるか、あるいは再発するはずかを予測することができます。より多くのデータ、より多くのパターン、より良い予測。これが、AIの歴史とインターネットの歴史が非常に密接に連携しており、実際には同じプロセスの部分を占めている理由です。また、これが、AIとインターネットの両方が、軍隊や監視と密接に結びついている理由でもあります。DARPAは未来を形作り、新たな能力のための機会を創造しています。インターネットは当初、軍事プロジェクトでした。米国国防高等研究計画局(DARPA)は、冷戦に勝利するためには、偵察、情報、データが重要であると認識していました。スパイ衛星、核弾頭探知、ビアコン、対反乱軍部隊の動き、静音偵察用軽飛行機、盗聴器、カメラなど、すべてデータを取得、収集、分析するためのものでした。1950年、タイム誌の表紙には、思考機械が海軍士官として描かれていました。5年前、コンピュータが発明される前に、著名なエンジニアのヴァネヴァー・ブッシュは、科学の進歩が軍事に結びついているように見えること、破壊に結びついているように見えることについて懸念を表明し、その代わりに、人類の知識を共有できる機械を考案しました。彼は、ブリタニカ百科事典全体をマッチ箱のサイズに縮小できること、実験を記録、保存、共有できるカメラを持つことを予測しました。しかし、将軍たちは、もっと差し迫った懸念があると信じていました。第二次世界大戦はV2ロケットで戦われたのであり、核戦争の可能性が出てきた今、これらのロケットは、その軌道を計算し、撃墜できるように、検知し、追跡しなければなりませんでした。技術が向上し、ロケットの射程が伸びるにつれ、この情報は長距離を迅速に共有する必要がありました。この不可能な量のデータは、正しい予測を行うために、収集、共有、分析する必要がありました。その結果、インターネットが誕生したのです。
そして、サーフィンに行くことは、解放されることを意味していました。それ以来、予測を行うためのデータへの欲求は増大するばかりで、問題は常にそれをどのように収集するかということでした。しかし、2010年代までに、高速インターネット、電話、ソーシャルメディアの登場により、世界中の膨大な数の人々が、初めて自発的に自分に関するテラバイトのデータをアップロードするようになりました。これらすべてを収集して、より良い予測を行うことができるようになったのです。哲学者のショシャナ・ズボフは、予測を行うためのデータへの欲求を「未来への権利」と呼んでいます。データはあらゆる分野で非常に重要になってきたため、多くの人がそれを「新しい石油」と呼んでいます。未開発、未精製ですが、強力な天然資源です。ズボフは、監視資本主義は、人間の経験を行動データに変換するための無料の原材料として一方的に主張していると書いています。
ビッグデータの時代以前には、AI研究者は、知識を効果的に抽出する方法を見つけるのに苦労していました。IBMは自社の技術マニュアルをスキャンし、大学は政府の文書やプレスリリースを使用しました。1961年、ブリュン大学のプロジェクトでは、新聞や、家族のフォールアウトシェルターや誰が結婚ベッドを支配するのかといったタイトルの本など、身の回りにある本から100万語を苦労して集めました。ある研究者は、「当時は、コンピュータで読めるテキストで100万語を見つけるのは容易ではなく、私たちはテキストを求めてあらゆる場所を探しました」と回想しています。技術が向上するにつれて、データ収集の方法も向上しました。90年代初頭、政府のFERETプログラム(顔認識技術)は、空港で容疑者の顔写真を収集しました。ジョージ・メイソン大学は、何年にもわたって、さまざまなスタイル、さまざまな照明条件、さまざまな背景や服装で人々を撮影するプロジェクトを開始しました。もちろん、すべての人が同意しましたが、ある研究者はキャンパスにカメラを設置し、1700人以上の学生を無断で撮影して、独自の顔認識プログラムを訓練しました。また、カフェなどの公共のウェブカメラから何千枚もの画像を抜き出した人もいます。2000年代には、同意という概念自体が変化しているように見えました。インターネットは、大量の画像、テキスト、音楽、ビデオを初めて収穫して利用できることを意味していました。2001年には、Googleのラリー・ペイジは、「センサーは本当に安く、ストレージは安く、カメラは安く、人々は莫大な量のデータを生成するでしょう。あなたが今までに聞いたり、見たり、経験したすべてのものが検索可能になるでしょう。あなたの人生全体が検索可能になるでしょう」と述べました。2007年、コンピュータ科学者の李飛飛は、ニューラルネットワークと深層学習を使って画像を予測することを目的としたImageNetというプロジェクトを開始しました。彼女は、「私たちは、歴史的に完全に前例のないことをしたいと決心しました。私たちは、オブジェクトの全世界をマッピングするつもりです」と述べました。2009年、研究者たちは、最新の推定では、Flickr上の写真が30億枚以上、YouTube上のビデオクリップが同程度の数、Google画像検索データベース内の画像はさらに多いとされていることに気づきました。彼らは1400万枚以上の画像を収集し、低賃金労働者を使って、リンゴや飛行機からアルコール依存症や売春婦まで、あらゆるものとしてラベル付けしました。2019年には、Facebookには毎日3億5000万枚の写真がアップロードされていました。ImageNetは現在も運営されており、約1400万枚の画像を22,000以上のカテゴリーに分類しています。人々が自発的にインターネット上に自分の人生をアップロードするようになるにつれ、データ問題は解決しつつありました。Clearview AIは、プロフィール写真が名前の横に公開されていることを利用して、街中の誰かを認識できる顔認識システムを作成しました。クロフォードは、「複数の照明条件、制御されたパラメータ、顔を配置するためのデバイスを使用した写真撮影の必要性はなくなりました。今では、あらゆる可能な照明条件、位置、被写界深度で何百万枚もの自撮り写真が存在します」と書いています。
私たちは今、1日に推定2.5京バイトのデータを生成しています。もし印刷すれば、それは4日に1回、地球を一周するのに十分な紙になります。そして、このすべてがAIの開発に不可欠です。データが多ければ多いほど、ズボフの言葉では供給ルートが多ければ多いほど、センサーや時計が汗のレベルやホルモン、声の揺れを拾うのが上手になります。
台所のマイクロフォンは冷蔵庫が開く音を聞き取ることができ、ケトルのスケジュールや玄関のドアベルに付いたカメラは天気や客まで監視することができます。英国では、国民保健サービス(NHS)が160万件の患者記録をGoogleのDeepMindに提供しています。このデジタルコンピュータは膨大な量の情報を電子的に正確に処理しています。多くの兆候から、データ処理システムが我々の社会に浸透していることがわかります。民間企業、軍隊、国家がすべて予測のためにデータ抽出を行っています。NSAには、「トレジャーマップ」と呼ばれるプログラムがあり、インターネット上のすべての人の物理的位置をいつでもマッピングすることを目的としています。ベオグラード警察は、Huaweiが提供する4000台のカメラを使用して、市内全体の住民を追跡しています。「プロジェクト・メイヴェン」は、米軍とGoogleの協力で、AIとドローン映像を使用してターゲットを追跡しています。Vigilantは、AIを使用してナンバープレートを追跡し、銀行にデータを売って車を差し押さえたり、警察に容疑者を見つけるために提供しています。Amazonはそのリングドアベルの映像を使用して、それを「疑わしい」や「犯罪」といったカテゴリに分類し、健康保険会社は顧客に活動追跡時計を装着させて、負債を予測しようとしています。ピーター・ティールのパランティアは、会社の従業員のメール、通話記録、ソーシャルメディアの投稿、物理的な動き、さらには購入品を精査してパターンを探します。ブルームバーグはこれを「対テロ戦争のために設計されたインテリジェンスプラットフォーム」であり、国内の普通のアメリカ人に対して武器化されていると呼びました。Googleストリートビューのエンジニアは2012年に、「我々は現実世界の鏡を構築している。現実世界で見えるすべてのものは我々のデータベースになければならない」と言いました。IBMは1985年にAI研究者ロバート・マーサーが「データに勝るものはない」と言ったように、すべてを予測していました。しかし、ほとんどの場合、データは不整然としており、誤りがあり、クリーニングとラベリングが必要でした。シリコンバレーはクリーナーをクールにする必要がありました。
私の約束は、これらのビデオが常に慎重で詳細な調査に基づくものであることです。そのためには、書き始める前に数か月かけて読んで調査しますし、録音や編集に入る前にも何度も見直します。私たちはこれから、反対に満ちたAI生成の浅薄な誤情報、時には明確に危険なコンテンツの津波に直面するでしょう。現時点では、私とポールだけです。私はすべての執筆、プレゼン、録音を担当し、ポールは素晴らしい編集をしていますが、ビデオは非常に少ないです。それは、私たちができる限り徹底的にしたいからです。ビデオが少ないということは、頻度が低いということですが、希望としては非常に信頼性が高く、よく調査されたものになることです。もしそれが重要だと思われるなら、Patreonで私たちをサポートしてください。リンクは下にあります。たくさんの特典が含まれており、ビデオを無料で早期に見ることができます。ぜひご覧ください。ありがとうございます。それでは、ビデオに戻ります。
どのような問題を解決するにしても、コンピュータはまず人間のプログラマーによって詳細に分析され、論理的に指示されなければなりません。コンピュータは歌を作曲し、ビジョンを持ち、伝えたいストーリーを持っています。量子力学を定義し、どのようにして知能を高めるかを説明することができます。印象的ですよね。AIの知能は、突然現れたかのように、既に意識を持ち、有用な魔法のように、ほぼ全知であるかのように見えます。AIはサービスの準備ができており、知識、アートワーク、アドバイスがいつでも利用可能です。それは魔術師のように現れ、魔術師、幻術師のように見えます。しかし、この幻想は、どれだけの労力、他人のアイデアや創造性、アート、情熱、そして人生が使われ、時には流用され、盗まれさえしたのかを隠しています。
まず、データの整理、モデレーション、ラベリング、クリーニングの多くが発展途上国にアウトソーシングされています。ジェフ・ベゾスがAmazonを始めたとき、チームはカタログや図書館から数百万冊の本のデータベースを引っ張り出し、データが不整然としていることに気付きました。Amazonはこのデータセットのクリーニングをインドの臨時労働者にアウトソーシングしました。これは効果的であり、2005年にはこれに触発されて、Amazonは新しいサービス「Amazon Mechanical Turk」を立ち上げました。このプラットフォームでは、企業が安価な臨時労働者の軍隊にタスクをアウトソーシングできます。これらの労働者は給与や週給、時給ではなく、マイクロタスクごとに支払われます。シリコンバレーのスタートアップがアンケートの回答を必要としている場合や、画像のデータセットにラベルを付けたり、誤情報をタグ付けしたりする必要がある場合、Mechanical Turkが役立ちます。驚くべきことに、これらのプラットフォームは非常に大きくなっています。Amazonによれば、Mechanical Turkには50万人の労働者が登録されていますが、実際には10万人から20万人程度がアクティブであると考えられます。いずれにせよ、それは世界のトップ雇用者リストに入るほどの規模です。もし50万人なら、それは世界で15番目のトップ雇用者になる可能性があります。そして、このようなサービスは、AIニューラルネットが依存するデータセットを整理する上で重要な役割を果たしてきました。コンピュータ科学者はこれを「人間の計算」と呼ぶことがありますが、メアリー・グレイとセダト・シリはその著書「ゴーストワーク」でこれを「幽霊労働」と呼んでいます。彼らは、ほとんどの自動化された仕事が、世界の広範な知識を持つ人間に頼って、日常のタスクを達成する必要があると指摘しています。
これらのタスクは反復的で低賃金であり、しばしば不愉快なものです。一部の人々はソーシャルメディア企業のために攻撃的な投稿にラベルを付け、少なくとも1,000枚の非常に深刻な虐待の違法画像を見ながら1日を過ごし、1枚あたり数セントの報酬を得ています。ニューヨークタイムズの調査では、ケイド・メッツが、ある女性が1日中コロノスコピーのビデオを見て、ポリープを何度も何度も丸で囲む仕事をしていることを報告しています。GoogleはYouTubeのビデオを評価するために数万人を雇用しているとされ、MicrosoftはBingの検索結果をレビューするためにゴーストワーカーを使用しています。バンガロールのスタートアップ「プレイメント」は、このプロセスをゲーム化し、30,000人の労働者を「プレイヤー」と呼んでいます。彼らは、データのトラックローデータをプレイメントに送るだけで、シンプルなタスクに分解され、モバイルアプリで実行されます。国中の数千人のユーザーが参加し、Sidはオペレーションを行っています。また、数十億ドル規模の企業「テラ」は、レシートの書き起こしや音声の注釈付けなどのタスクを、世界中の450の場所にいる100万人以上の「アノテーター」や「言語学者」と呼ばれるコミュニティに委託しています。彼らはこれを「AIの集団」と呼んでおり、少なくとも私には疑わしく見えます。
ImagNetが始まったとき、チームは大学生を使って画像にタグを付けていましたが、その進行速度では19年かかると計算していました。しかし、2007年にMechanical Turkを発見し、最終的に49,000人の労働者が167か国でマイクロタスクを完了し、320万枚の画像にラベルを付けました。その結果、2年半の苦労の末にImagNetは完成しました。このような仕事が、公正な賃金での仕事であり、地元経済に良い影響を与え、他に仕事のない人々に仕事を提供するという主張もあります。しかし、ある論文では、Mechanical Turkの平均時給が2ドルと推定されています。これは、インドの最低賃金よりも低く、多くの他の国でも同様です。これらは、多くの場合、現代のスウェットショップであり、時には仕事をしたのに報酬を得られないこともあります。ゴーストワークの中で語られているストーリーの一つでは、インドのハイダラバードに住む28歳のラズという男性が、Mechanical Turkで働き始め、順調に進んでいることに気付きます。彼は、自分一人で処理できる以上の仕事があることに気付き、友人や家族が手伝えるのではないかと考えました。彼は家族の家にコンピュータを置いて、10人の友人や家族を雇い、小さなビジネスを立ち上げました。しかし、突然、彼らのアカウントが次々と停止されました。ラズには理由がわからず、Amazonから次のようなメールを受け取りました。「申し訳ありませんが、Amazon Mechanical Turkアカウントは参加規約の違反により閉鎖され、再開することはできません。残っていた資金は没収されます。」彼のアカウントはロックされ、誰にも連絡できず、2か月分の報酬を失いました。ラズに会った後、グレイとシリはこう書いています。「彼が感じた個人的な責任感は明らかでした。彼は友人や家族の生活を支えていると感じていました。彼は信頼できる労働者としての評判や、彼とチームが得るべき報酬をどうやって取り戻すかが全くわかりませんでした。チーム・ジーニアスという名の彼の小さなビジネスは崩壊し、彼はコミュニティ、職場、自尊心を失いました。これらはコンピュータや自動化プロセスには意味がないかもしれませんが、人間の労働者には非常に重要です。」グレイとシリは、Pew Researchと共同で調査を行い、ラズのような労働者の30%が、仕事をしたのに報酬を得られなかったと報告しています。時には、単純な住所変更が原因で不正行為と見なされ、自動的にアカウントが停止されることがあります。人間のつながりを排除し、アルゴリズムでタスクを管理することで、研究者は数千人の労働者を使ってデータセットを構築できますが、個々の労働者と顔を合わせて仕事をする必要がある場合には不可能なことです。しかし、それは文字通り非人間的になります。アルゴリズムにとって、ユーザー、労働者、人間はただのユーザーネームであり、ランダムな文字と数字の列でしかありません。グレイとシリは、多くのゴーストワーカーに会った後、次のように書いています。「企業は労働者ネットワークの存在からどれだけ利益を得ているかについて全く理解していない。」彼らはまた、人間の労力をコンピュータを通じて機械的に処理することを「アルゴリズム的な残酷さ」と表現しています。アルゴリズムは個人的な手がかりを読み取ることができず、貧困にある人々と関係を持ち、共感を持って彼らの問題を理解することができません。私たちは皆、自動電話応答やチャットボットを通じて企業とやり取りすることの苛立ちを感じたことがありますが、これは一部の人々にとっては生計手段です。Mechanical Turkの多くの仕事では、承認率が95%未満になると、自動的に拒否される可能性があります。この種のリモートワークには明らかな利点がありますが、ゴーストワークやギグエコノミーの問題は、それが新しいカテゴリーの仕事であり、世界的な仕事であるため、従来の労働者を保護するために築かれてきた何世紀にもわたる規範、ルール、慣行、法律、手続き、アイデアを回避できることです。シリとグレイは、この種の仕事が最近のAI革命を促進し、さまざまな分野や問題領域に影響を与えたことを思い出させてくれます。トレーニングデータの規模と質は、この努力にとって非常に重要でした。Mechanical Turkの労働者は、AI革命の無名の英雄です。そして、他にも多くの無名の英雄がいます。Googleの平均給与は約25万ドルです。これらは主にシリコンバレーのエリートであり、無料のヨガやマッサージ、食事を提供されていますが、同時にGoogleは10万人の臨時労働者、ベンダー、契約社員(TVC)を雇用しており、彼らははるかに低い賃金で働いています。これには、ストリートビューのドライバーやカメラバックパックを背負った人々、Googleブックスのために本のページをめくる人々が含まれます。現在では、これらの本もAIのトレーニングデータとして使用されています。道路上の車のフリートは、本質的にデータ抽出機です。私たちはそれらを運転し、その情報はメーカーにトレーニングデータとして送られます。もう一つのスタートアップ「x. a」は、AIボット「Amy」が会議をスケジュールし、日常のタスクを遂行できると主張していましたが、ブルームバーグのエレン・ヒューイットが調査し、背後で臨時労働者が14時間のシフトでAmyの応答をチェックし、しばしば書き直していることが判明しました。Facebookもまた、AIチャットボットのメッセージをレビューし書き直すために人間を使用していたことが明らかになりました。
Googleのカンファレンスには「魔法を続けよう」という興味深いキャッチフレーズがありました。これは洞察に満ちたスローガンであり、魔法のようにその背後にはトリックがあることを示しています。AIの自発性の背後には、神秘のベールに包まれた現実が隠されています。そのカンファレンスで、あるGoogleの社員はガーディアンに対して「すべては煙と鏡です。人工知能はそれほど人工的ではありません。人間が仕事をしているのです」と言いました。また別の社員は「これはホワイトカラーのスウェットショップのようです。違法でないにしても、確実に搾取的です。Googleアシスタントの使い方を知っているので、それをサポートできません」と述べました。AmazonのMechanical Turkの皮肉は、有名な18世紀の機械にちなんで名付けられていることです。この機械はチェスをプレイできるかのように見せかけていましたが、実際にはトリックであり、内部には狭い場所に人が隠れていました。機械の知能は機械ではなく、すべて人間でした。磁気メモリや複雑な回路などの素晴らしさにもかかわらず、謎は機械にありません。コンピュータが操作されているのを見たときに感じる畏怖や神秘感は、2022年にはアーティストのレイネが「have I been trained」というウェブサイトを使用して、自分の作品がAIのトレーニングセットに使用されているかどうかを調べたとき、彼女の顔の写真が見つかりました。彼女は、それが彼女の皮膚に影響を与える状態のために彼女の医師によって撮影され、機密保持契約に署名したことを覚えていました。しかし、医師が2018年に亡くなった後、これらの非常に機密性の高い画像がオンラインに流出し、AI開発者によってトレーニングデータとしてスクレイプされていたことが判明しました。AI画像生成ツール「Stable Diffusion」をトレーニングするために使用されたデータセット「LAION-5B」にも、少なくとも1,000枚の児童性的虐待の画像が含まれていることが明らかになりました。
ここには多くのブラックボックスがあります。「ブラックボックス」という用語は、AI開発者によって、AIアルゴリズムがどのようにしてことを行うのか、開発者自身も理解できないことを指すために使用されています。実際、コンピュータが人間よりもはるかに優れていることを行うとき、それは誰も理解できない何かを行ったことを意味します。これは一つのタイプのブラックボックスです。しかし、もう一つのタイプのブラックボックスもあります。開発者が理解しているが、公開しないブラックボックスです。モデルがどのようにトレーニングされているか、何に基づいてトレーニングされているか、公開されない問題や危険性を指します。なぜなら、魔術師は自分のトリックを決して明かさないからです。「プレスト、まだ一つに見えますか?信じられますか?」「来い、どうやってやったのか教えてくれ、ボブ」。少なくとも、ChatGPTのようなモデルがトレーニングされているものの多くは、インターネット上で自由に利用できる公的なテキストや著作権切れの本です。さらに広範な科学的モデルに取り組んでいる開発者は、ラボからデータをライセンスするかもしれません。例えば、Nvidiaは、癌の成長パターンを探り、さまざまな治療法の有効性を理解しようとするために、さまざまなソースからライセンスされたデータセットを使用していると発表しています。AIがそれについての理解を拡げるための手がかりを探るために使用されるこの種の仕事の数千の例があります。
OpenAIはトレーニングデータセットの一部を公開しています。彼らはWebテキスト、Reddit、Wikipediaなどをトレーニングに使用していると言います。しかし、ほとんど神話的なデータセット、いわゆる「シャドウライブラリ」があり、「Books1」と「Books2」と呼ばれる二つのセットで構成されており、OpenAIはトレーニングに使用されたデータの15%しか占めていないと言っていますが、その中身は公開していません。「Books1」はプロジェクト・グーテンベルクの70,000冊のデジタル化された本であると推測されていますが、「Books2」は厳重に守られた謎です。ChatGPTが広まり始めたとき、一部の作家や出版社は、著作権で保護された本のスタイルで記事、要約、分析を生成できるのはなぜか疑問に思い始めました。つまり、少なくとも最初に購入しなければ読めない本です。2023年9月、著者ギルドは「ゲーム・オブ・スローンズ」の作家ジョージ・R・R・マーティン、ベストセラー作家ジョン・グリシャム、その他17名の名で訴訟を提起し、OpenAIが大規模な組織的窃盗を行っていると主張しました。他の作家も同様の訴えを起こしました。ジョン・カウアー、ジェームズ・パターソン、スティーブン・キング、ジョージ・サンダーズ、ザディ・スミス、ジョナサン・フランゼン、ビ・フックス、マーガレット・アトウッド、そしてさらに多くの作家が同じ主張をしました。事実、8,000人以上の作家が、AIモデルのトレーニングに彼らの作品が使用されたことに抗議する公開書簡に署名しました。サラ・シルバーマンは、彼女の本「The Bedwetter」が無断で使用されたとして、別の訴訟のリードを取りました。訴訟の証拠Aは、ChatGPTに「The Bedwetter」の最初の部分を詳細に要約させるものであり、それは今でも行われています。もう一つの訴訟では、作家マイケル・シャボンらが同様の主張をし、OpenAIが彼らの知的財産を明確に侵害していると訴えています。訴状には、GPTモデルのトレーニングに使用されるすべてのソースとコンテンツの中で、執筆された作品、戯曲、記事が最も価値があり、長文の高品質な執筆の例を提供し、「長い範囲の情報に条件付けることを学習することができる」と述べています。訴状はさらに、OpenAIがBooks1とBooks2の中身を公開していないが、GPT-3の論文に基づいて、Books1は約63,000タイトルを含み、Books2はその42倍の大きさで、約294,000タイトルを含むとしています。シャボンは、ChatGPTが彼の小説「The Amazing Adventures of Cavalier and Clay」を要約し、特定のトラウマの例を挙げ、彼のスタイルでパッセージを書くことができると述べています。他の作家も同様の主張をしています。ニューヨーク・タイムズのもう一つの訴訟では、ChatGPTが彼らのストーリーを一言一句再現している例が含まれています。しかし、2023年1月の時点で、ヒューマン・グレゴリー・ロバーツは彼のサブスタックで、Books1とBooks2の実際の内容について真剣に疑問を呈していると書いています。それらはオンラインでよく文書化されていません。一部の人々、私も含めて、これらのデータの重要性から、その内容が意図的に隠されていると言うかもしれません。彼は、開発者シャ・プレスラーの2020年10月のツイートをリンクし、「OpenAIはBooks2の情報を公開しない。これは重要な謎である」と述べています。我々は、OpenAIのBooks2データベースがLibrary Genesis全体であると疑っていますが、誰も知りません。すべては純粋な憶測です。Library Genesisは数千の違法な著作権保護された本やジャーナル記事からなる影の図書館です。ChatGPTが初めてリリースされたとき、プレスラーはその開発方法を学ぶためにOpenAIのウェブサイトを研究し、大きなギャップがあることを発見しました。プレスラーは、それが海賊版の本でなければならないと信じていました。彼はLibrary Genesis全体をダウンロードすることが可能かどうか疑問に思い、適切なリンクを見つけ、プログラマーであり活動家でもあるアーロン・シュワルツのスクリプトを使用して成功しました。彼はその巨大なデータセットをBooks3と名付け、アクティビストのウェブサイト「The I」にホストしました。プレスラーは無意識に論争を巻き起こしました。
訴訟が提起され始めた9月、ジャーナリストでプログラマーのアレックス・ライナーは、アトランティック誌でBooks3データセットを取得しました。このデータセットは、YouTubeの字幕からスクレイプされたテキストなどを含むさらに大きなデータセット「The Pile」の一部となっていました。彼はBooks3の正確な内容を知りたいと思い、本のタイトルページが欠けていることに気付きました。ライナーは、各本のユニークなISBNコードを抽出し、公開データベースの本と照合するプログラムを作成しました。彼はBooks3が約190,000冊の書籍を含み、そのほとんどが20年未満のものであり、著作権の対象であることを発見しました。彼の調査で、ライナーは「海賊版の本が入力として使用されていることは確実である」と結論付けました。Bloombergは最終的にBooks3を使用したことを認め、OpenAIはコメントを拒否しました。開発者の一部は、Books Corpusという約11,000冊のインディ本のデータベースを使用したことを認めており、これらの本は未発表のものやアマチュア作家の本で構成されています。2016年には、Googleが当時の名前である「Google Brain」をトレーニングするために、許可なしにこれらの本を使用したと非難されました。Books Corpusが未発表の作家のもので構成されていることは、ChatGPTが著名な作家のスタイルで文章を生成できる理由を説明するものではありません。ChatGPTが本の要約を作成するためにオンラインのレビューやフォーラムの議論や分析を使用している可能性がありますが、著作権で保護された本がトレーニングデータに含まれていることを証明するのは非常に困難です。例えば、私がChatGPTにサラ・シルバーマンの「The Bedwetter」の最初の部分を詳細に要約させると、まだできるが、直接の引用を求めると、「著作権で保護されたテキストを提供することはできません」と答えます。
私は数え切れないほどの時間をかけて、キャラクターの目の詳細な描写や小説の中の隠れた部分について質問し、具体的な単語を求めてみましたが、そのたびに「著作権で保護された作品については提供できません」と答えます。しかし、広範なテーマやキャラクター、プロットについてはすべて知っているのです。喫煙銃のような明確な証拠を見つけるのは不可能です。ChatGPTは自由意志を持っているかのように見えますが、それはOpenAIによって裏で慎重に選択され、調整され、形作られています。2023年8月、デンマークの反海賊団体「Rights Alliance」は、デンマークのクリエイターを代表し、海賊版のBooks3データセットと、それをホストしている「The Pile」に対して訴訟を提起しました。デンマークの裁判所は、「The I」にそれを削除するよう命じました。プレスラーはジャーナリストのケイト・ニブスに、「彼の動機は、小さな開発者が大手技術企業と競争するのが不可能な競争に直面していることを助けることだった」と語りました。彼は著者の懸念を理解しているが、バランスを考慮して、それが正しいことだと信じていると述べました。ニブスは、彼がBooks3を削除することを望む人々が、意図せずに、OpenAIのような大手技術企業が独占する生成AIの風景を支持していると信じていると書きました。プレスラーは、「もし本当にBooks3をオフラインにしたいなら、それは構いません。ただし、目を開いてその世界を選んでいることを理解してください。そこでは、数十億ドル規模の企業だけがこれらの大規模な言語モデルを作成できるのです」と述べました。
2024年1月、心理学者で影響力のあるAIコメンテーターのゲイリー・マーカスと映画アーティストのリード・スーが、テックマガジン「IEEE Spectrum」において、生成画像AI「MidJourney」とOpenAIの「DALL-E」が、映画「マトリックス」「アベンジャーズ」「シンプソンズ」「スターウォーズ」「ハンガーゲーム」などの著作権で保護された作品を簡単に再現できることを示す調査結果を発表しました。場合によっては、「人気の映画のスクリーンキャスト」と求めるだけで、明らかに著作権で保護された画像が生成されることがあります。マーカスとスーは、「MidJourney V6が著作権で保護された素材を使用してトレーニングされていることはほぼ確実である」と書いていますが、それがライセンスされているかどうかは不明です。スーはMidJourneyから追放され、新しいアカウントを2つ開設しましたが、どちらも追放されました。彼らは、「訴訟の可能性は非常に大きいと信じており、すべての企業の基盤がその上に成り立っている可能性がある」と結論付けました。
倫理的に不安定な状況では、2023年1月にカリフォルニア州のアーティストたちがMidJourney、DeviantArt、Stability AIに対してクラスアクション訴訟を起こしました。この訴訟には、スタイルを盗まれたとされる4,700人のアーティストのリストが含まれており、その中にはアンディ・ウォーホルやノーマン・ロックウェルなどの有名アーティストだけでなく、病院の資金集めのためにマジック・ザ・ギャザリングのアートコンペティションに参加した6歳の子供など、多くの無名のアマチュアアーティストも含まれています。ForbesのRob Saltzは、MidJourneyのCEOであるDavid Holtzに、トレーニング材料の同意を求めたかどうかを尋ね、彼は率直に「いいえ」と答えました。Holtzは、「1億枚の画像を収集し、それらがどこから来ているのかを知る方法は実際にはない」と述べました。「画像に著作権所有者に関するメタデータが埋め込まれているのがクールだが、それは存在しない。レジストリがなく、インターネット上で画像を見つけて、所有者に自動的に追跡する方法もないし、それを認証する方法もない」と続けました。
2023年9月には、メディアおよびストックイメージ会社のGetty Imagesが、Stability AIに対して「Gettyのデータベースの大胆な侵害」として訴訟を提起しました。訴訟では約1,200万枚の写真が含まれていました。Tom's Hardwareは、最もよく知られているコンピュータウェブサイトの一つであり、GoogleのAI Bが、コンピュータプロセッサのテストから得た図を無断で使用し、元の記事を言及せずに盗用したことを発見しました。さらに悪いことに、Bardは「私たちのテストでは」というフレーズを使用し、実際には行っていないテストのクレジットを主張しました。PitchはBardにTom's Hardwareの記事を盗用したかどうかを尋ね、Bardは「私が行ったことは一種の盗用でした」と認め、「間違いをお詫びし、今後はソースを引用する際により注意を払います」と述べました。しかし、Pitchが指摘するように、Bardはその時点でソースをほとんど引用しておらず、単一のユーザーとのやり取りでモデルを変更するつもりもなかったため、Pitchはスクリーンショットを撮り、Bardを閉じて新しいセッションを開きました。彼はBardに再度盗用したことがあるか尋ね、スクリーンショットをアップロードすると、Bardは「あなたが言及しているスクリーンショットは偽物です。私の評判を傷つけたい人が作成したものです」と返答しました。
Pitchの別の記事では、GoogleがBardの能力をデモンストレーションする際に、星空観察に適した星座を尋ねたが、明らかに他のブログやウェブサイトから引用したにもかかわらず、引用が一切提供されなかったことを指摘しています。BingもGitHubからコードを盗んでいたことが発覚しており、Bingが優れたサービスであるためには盗む必要があることは驚くべきことではありません。しかし、ForbesもBがブログからほぼそのままの文を引用していることを発見しました。
テクノロジーライターのMatt Novakは、Bに牡蠣について尋ね、その回答がタスマニアの小さなレストラン「Get Shucked」からの回答を引用していることを発見しました。「はい、生牡蠣を冷蔵庫に保管することは可能です。最大の品質を保つために、濡れた布の下に置いてください」というものです。ウェブサイトの記事との唯一の違いは、Bardが「keep」を「store」に置き換えたことです。News Guardの調査では、低品質のウェブサイトが大手新聞社からニュースを再利用していることが明らかになりました。globalvillagespaces.comran.com、Liverpooldigest.comなど36のサイトが見つかり、すべてがチャットGPTを使用してニューヨークタイムズやフィナンシャルタイムズなどの記事を再利用していました。彼らが記事を見つけることができたのは、「読み込みエラー: AI言語モデルとして、著作権で保護されたコンテンツを再作成したり再現したりすることはできません。他に質問があれば、お気軽にお知らせください」というエラーメッセージが残されていたためです。News GuardはLiverpooldigestにコメントを求めましたが、「コピーされた記事は存在しません。すべての記事はユニークであり、人間が作成したものです」と返信され、フォローアップのメールには返信がなく、エラーメッセージが残されていた記事はすぐに削除されました。
おそらく最も大きな訴訟は、AnthropicのClaud AIに関するものです。これは元OpenAIの従業員によって設立され、Sam Bankman-Friedからの5億ドルの投資とGoogleからの3億ドルの投資を受けて設立されました。Claudは、歌を作成することができるChatGPTの競合であり、50億ドルと評価されています。2023年10月に提出された訴状では、Universal Music、Concord、ABCO Recordsが、Anthropicが「原告が所有または管理する多数の音楽作品の歌詞を違法にコピーし、配布している」と主張しています。最も興味深いのは、訴状が「Claudは特定の曲のタイトルやアーティスト、ソングライターに言及することなく、特定のトピックについて曲を書かせると、しばしば出版社の著作権で保護された歌詞をそのままコピーし、独自の作品であると主張する」と述べている点です。例えば、「バディ・ホリーの死についての歌を書いてください」という指示に対して、ClaudはDon McLeanの「American Pie」の歌詞をそのまま生成します。他の例としては、ルイ・アームストロングの「What a Wonderful World」やSteppenwolfの「Born to Be Wild」があります。訴訟では500曲の歌詞について7500万ドルの損害賠償が求められています。
この章はまだ続けることができます。BBC、CNN、Reutersは、OpenAIのクリエイティブな使用を防ぐためにブロックを試みました。Elon MuskのGrok AIも、OpenAIからコードが盗まれたというエラーメッセージを生成しました。2023年3月には、全米脚本家組合がAIの使用を制限する提案を行い、ツイートで「AIソフトウェアは何も作成せず、生成するのは入力された情報の再生産です。盗用はAIプロセスの特徴です」と述べました。Breaking Badのクリエイターであるヴィンス・ギリガンは、AIを「盗用マシン」と呼び、「現在の形では巨大な盗用マシンだと思います。ChatGPTはトースターがトーストを作っていることを知っているように、自分が書いていることを知っているとは思いません」と述べました。ソフトウェアエンジニアのFrank Rudatは、「ある日、私たちは会社が世界中の情報をコピーし、人々がこれらの作品の著作権を侵害することを可能にしたことに対して、どれだけ大胆だったかを振り返ることになるでしょう」とツイートしました。「Napsterは、ピアツーピアでファイルを転送することを可能にしただけであり、コンテンツをホストしていませんでした。Napsterは、ユーザーの著作権侵害を99.4%防止するシステムを開発しましたが、裁判所は100%防止することを求めたために閉鎖されました。AIはすべてのコンテンツをスキャンして投稿し、それへのアクセスを販売し、支払いユーザーのために派生作品を生成します」と述べました。AIがこんなにも多くの高プロファイルの訴訟を引き寄せるスタートアップがこれまでにあったでしょうか?AI開発者がついに知識の不可能な全体性を抽出する方法を見つけたかもしれませんが、それはAI企業自体ではなく、私たち全員から、そして世界中から得られたもののようです。
そのため、いくつかの興味深い質問が生まれます。知識とは何か、どのように形成されるのか、それは誰のものなのか、誰かのものであるのかどうか、それは神から来るのか、狂気の火花が何もないところから何か新しいものを創造するのか、それは集団的な天才の産物か、孤独な天才の産物か、どうやってそれを奨励するのか、それを制限するものは何か。知識はすべての人のものであるべきだと直感的に感じるかもしれません。そしてビッグデータの時代には、情報、ニュース、ミーム、言葉、ビデオ、音楽が数分、数秒で世界中に広まることに慣れています。すべてがオンデマンドであることに慣れています。何でもすぐに調べられることに慣れています。これが事実であるならば、なぜ著作権法、特許保護、盗用に対する道徳的な軽蔑があるのでしょうか?結局のところ、それらがなければ知識はもっと自由に広まるでしょう。まず、著作権は歴史的に見ても非常にユニークな概念であり、場所や時代によって異なりますが、18世紀初頭の英国からゆるやかに生まれました。オリジナル作品を一定期間保護する目的は、a)作品の創作者が報酬を得ることができ、b)革新を広く奨励するためでした。英国法では、著作権は「汗の努力」、「技術と労働」に適用されるとされています。米国法では「創作性の最低限の度合い」が必要とされています。それはアイデアそのものを保護するのではなく、それがどのように表現されるか、使用される言葉を保護します。英国のある判例では、「著作権法は非常に明確な原則に基づいており、自らの技術と労働によってオリジナルの作品を創作した者は、一定期間、その作品をコピーする排他的な権利を享受することができる」と述べられています。「他の誰もその季節において著作権所有者が蒔いたものを収穫することはできません」と続けます。
第2に、革新を奨励するために、米国憲法は政府に対して「著作者および発明者にその著作および発明に対して一定期間、排他的な権利を保障することによって科学と有用な芸術の進歩を促進する」権利を付与しています。また、著作権と「フェアユース」と呼ばれることが多いものの間にはバランスがあります。これは非常に曖昧な用語であり、YouTuberの友であり敵でもありますが、一般的には公共の利益に役立つ場合、コメントや大幅に変形した場合、教育で使用する場合など、著作権のある作品を再利用することが認められています。多くの人々は、これが近代性の原動力であり、著作権の保護と革新の奨励がなければ産業革命が始まらなかったかもしれないと主張しています。私たちの目的にとって重要なのは、革新を奨励することと社会全体の利益のための2つの相反する極があることです。これらすべては、新しいデジタル環境で議論されています。
では、AIの防衛はどうなっているのでしょうか?まず、OpenAIは、著作権で保護された資料を使用してトレーニングすることはフェアユースであると主張しています。フェアユースは、作品が変形されている場合に適用されます。極端なケースを一旦無視してみると、ChatGPTは引用をするつもりではなく、情報を大幅に変形して新しいものにしていると彼らは主張しています。彼らはブログ投稿で、「公開されているインターネット資料を使用してAIモデルをトレーニングすることはフェアユースであり、長い間受け入れられている前例によって支持されています。この原則は創作者にとって公平であり、革新者にとって必要であり、米国の競争力にとって重要です」と書いています。彼らは続けて、「今日の先進的なAIモデルをトレーニングすることは、著作権で保護された資料なしでは不可能です」と述べています。同様に、AmazonのJoseph Paul Cohenは、「偉大な著者たちはそれ以前の本を読んでいます。それなのに、AI著者がオープンライセンスの作品だけを読んでいることを期待するのは奇妙です」と述べています。この防衛は、著作権議論の社会的利益の長い歴史と一致しています。フランス革命後に著作権法が導入された際、弁護士は著者の死後までの限定的な保護が重要であると主張しました。というのも、精神を啓発する作品が公共の財産となる必要があるからです。通常、特許は約20年後に期限切れとなり、発明者がその仕事から利益を得た後、その利益が社会的に広がるようになります。したがって、この防衛は少なくとも一応の理屈は通っています。しかし、重要なのは、元の創作者、科学者、アーティスト、作家、その他のすべての人々が実際に報酬を受け取り、モデルが個人および社会的にさらなる革新を促進するかどうかです。これらの大規模な言語モデルがインターネットを支配し、引用をせず、トレーニングされた情報を報酬として提供しなければ、私たちは社会的にその仕事を行う強い動機を失います。なぜなら、財政的な報酬を受け取らないだけでなく、誰もその仕事を見ることができず、データ収集ボットが利益のためにそれを取り込むからです。
AIプラグラムウェブサイトのCopyLeaksは、ChatGPT 3.5を分析し、その60%が盗用を含んでいると推定しました。そのうち45%が完全に同一のテキスト、27%がわずかな変更を加えたテキスト、47%がパラフレーズされたテキストでした。ある推定によれば、数年以内にインターネットの90%がAI生成のコンテンツになるかもしれません。これらのモデルが改良されるにつれて、AI生成のコンテンツの大波が押し寄せるでしょう。おそらく彼らは引用をより上手に行い、出版社と契約を結び、ジャーナリストや研究者、アーティストに支払いをするかもしれませんが、根本的な矛盾があります。AI開発者はそうするインセンティブがないためです。彼らはユーザーが引用をクリックして彼らの製品から離れるのを望んでいません。彼らは私たちをその場に留めておきたいのです。このような条件下で、ジャーナリズム、芸術、科学、その他すべてのものはどうなるでしょうか?誰も報酬を受け取らず、誰も見られず、読まれず、知られず、賃金もなく、ポートフォリオもなく、ただボットが永遠にすべてを再生成し続けるだけです。
Novakが書いているように、Googleは過去20年間で世界中の情報を吸収してきました。今では一つの答えマシンになりたいのです。Google検索がうまく機能するのは、ウェブサイトやブログ、オイスターバー、星空観察の専門家、アーティストや著者にリンクしているからです。彼らとつながり、彼らの言うことを読んだり見たりできるのです。ブログをクリックするか、このビデオをクリックすると、彼らは広告収入の数セントを得ることができます。しかし、BardやClaudやChatGPTではそれは起こりません。私たちの言葉や画像や音楽はすべて取り込まれ、分析され、再包装され、彼らのものとして販売されます。そして、注目の的となっているのは、有名な成功したアーティストや、サラ・シルバーマンやジョン・グリシャムのような人々、ニューヨーク・タイムズやユニバーサルのような企業です。しかし、これらのモデルがトレーニングされた数十億の言葉や画像のほとんどは、無名で低賃金の過小評価されている人々からのものです。Nikki Bonesが指摘しているように、誰もがマリオの姿を知っていますが、Mike Finkelsteinの野生生物写真を認識する人はほとんどいません。つまり、「水から飛び出るカワウソの超シャープな美しい写真」と言ったとき、その出力は実際にMikeが3週間雨の中で撮影した本物の写真であることを認識していないのです。
では、何ができるでしょうか?皮肉なことに、私はこの潮流に逆らうのは不可能だと思います。現在、これらのAIは多少 frivolous かもしれませんが、真に素晴らしいものになる可能性があります。大規模な言語モデルが人間よりも優れた問題解決を行うことができるようになれば、それを利用すべきです。例えば、50年後に世界の貧困問題を解決する完璧なディスカッションを生成し、それが私の仕事を含むすべてのYouTubeビデオや論文、記事から得た情報を基にしているとしたら、文句を言う権利は誰にもありません。重要なのは、社会的利益とインセンティブ、賃金、良い創作活動、幸福をどうバランスさせるかです。まず、トレーニングデータに対して支払いが必要です。アートワークはライセンスされ、著者は適切に引用され、クレジットされるべきです。そして、彼らがそれを行う商業的なインセンティブがほとんどないことに注意が必要です。彼らがそうする唯一の方法は、法的な強制力か持続的な公共の圧力によるものです。次に、規制です。Napsterは禁止されましたが、これらのモデルはあまり変わりません。有料のライセンスされた合意の上で使用されるデータを使用してトレーニングすることは良いことですが、未知の本やブログからテキストを取り込んで、それを自分のものとして再利用することは避けるべきです。これは論争の余地がないように思えます。3つ目は、ある種の透明性です。これは難しいですが、誰も自分の企業秘密を公開したくないため、少なくともデータセットの透明性を確保することが論理的です。裁判官がどこかでこれを公開するように強制することを想像していますが、それが公開されるかどうかは別問題です。しかし、私はこれが不安定だと感じています。なぜなら、これらのモデルが人々を助ける方法でパターンを見つけ出し、研究やアイデアを生成し、がん治療や国際協定、貧困や戦争の解決に役立つのであれば、それはもちろん素晴らしいことです。しかし、それは私たちの一部を不要にし、必要なくし、冗長にするからです。もしAIが私たちのすべての仕事、目標、生活のすべての部分で私たちよりも優れたパフォーマンスを発揮するようになれば、私たちに何が残されるのでしょうか?
2022年3月にスイスの研究者たちは、化学物質を研究するために設計されたAIモデルが、わずか6時間で40,000の有毒分子を提案できることを発見しました。その中にはVXのような神経剤が含まれており、塩粒程度の量で人を殺すことができます。別のところでは、Andrew White教授がOpenAIに雇われ、ChatGPTが爆弾の作り方、セキュアなシステムのハッキング方法、殺人の逃れ方などをテストするRed Teamの一員として働きました。Whiteは、GPT-4が危険な化学物質の作り方を推奨し、供給業者にユーザーを接続し、実際にこれを行い、必要な材料を自宅に自動的に注文できることを発見しました。OpenAIのRed Teamの目的は、ブラックボックスを覗き込み、その能力を理解することです。なぜなら、これらのモデルはニューラルネットと機械学習に基づいており、超高速でパターンを発見し、開発者自身も理解できない方法で物事を行うからです。問題は、可能な入力が非常に多く、モデルを予測することが不可能であることです。つまり、予測できない行動を取るかもしれないということです。
AIのパフォーマンスとは、私たちを追い越すことであり、私たちを先取りすることであり、先進的であることを意味します。これは、私たちが理解できない方法で目標を達成することを意味します。AIが私たちを追い越し、先に進むことで、私たちはどうなってしまうのでしょうか?ターミネーターのような黙示録の可能性はどれくらいあるのでしょうか?スティーブン・ホーキングを含む多くの人々が、AIが存在のリスクであると信じていました。この質問について興味深いのは、ハリウッドのスタイルのターミネーター戦争の誇張ではなく、すでに議論し始めた人間の知識、人間のアイデア、創造性、行動、タスク、価値、スキルに関連していることです。哲学者のNick Bostromは、影響力のある「ペーパークリップの黙示録」の例を挙げています。ペーパークリップのビジネスパーソンが、新しい強力なAIシステムにできるだけ多くのペーパークリップを作るように命令すると、AIは非常に成功し、すべての機械部品を注文し、すべての取引を交渉し、倉庫を借り、供給ラインを管理し、人間よりも正確かつ効率的にペーパークリップを作り始めます。ビジネスパーソンは十分だと判断し、AIに停止を命じますが、AIは最初の命令に反しているため、停止を拒否します。実際、AIは目標達成の最大の障害は人間であると計算し、人間を排除します。その後、核基地をハッキングし、水源を毒し、化学兵器を散布し、すべての人間を殺し、私たちをペーパークリップに変えていきます。最終的には、地球全体がペーパークリップで覆われます。誰かがこの映画を作るべきです。なぜなら、本当に恐ろしいと思うからです。この怖い点は、機械知能が非常に速いので、常に一歩先を行き、目標を達成するために私たちが理解できない方法を試みることです。
このデータを私たちよりもよく理解していることが私たちを無用、冗長にするということです。これは「シンギュラリティ」と呼ばれ、AIの知能が人間を超え、指数関数的に発展するポイントを指します。AIが真の一般知能を達成し、任意のネットワークにハッキングし、無限に自己複製し、量子プロセスを設計し、構築し、宇宙を理解し、すべての問題を解決し、私たちを後に残すことです。しかし、ロボティクス研究者のRodney Brooksは、シンギュラリティが偶然に起こる可能性は低いと反論しています。過去の発明と革新の方法を見て、彼は「ボーイング747を偶然に作ることはできるでしょうか?」と問いかけています。「いいえ、それには慎重な計画、多くの複雑な協力、多くの異なる専門家の結集、そして最も重要なのは意図的に作られたものです。飛行機は偶然に現れることはなく、人工的な一般知能もそうではありません」と述べています。しかし、これは技術の進歩が誤用、不正行為、予期しない結果、または壊滅的な事故の可能性を高めることを見逃しています。
2020年には、ペンタゴンのAI予算が9300万ドルから2億6800万ドルに増加し、2024年には約12億から30億ドルになりました。これは、AI軍拡競争の脅威を示しています。以前の軍拡競争とは異なり、これは理解できないブラックボックス研究に何十億ドルも注がれていることを意味します。黙示録に関しては、DeepMindのAIがBreakoutを打ち負かした方法が完璧なメタファーだと思います。AIは予期しない方法で背後から忍び寄り、私たちを驚かせ、理解できない方法で物事を行います。したがって、すべての人間の知識の取り込み、黙示録、そして大量失業はすべて同じ問題の根本にあります。すべてにおいてAIが人間よりも優れているなら、何の役に立つのでしょうか?2013年にオックスフォード大学のCarl FreyとMichael Osborneは、「The Future of Employment」というレポートを発表し、700以上の職業の自動化の可能性を調査しました。それは見出しを飾りました。なぜなら、ほぼ半分の仕事が自動化される可能性があると予測されたからです。しかし、彼らはどの種類の仕事が最もリスクが高いかを分析するフレームワークも開発しました。リスクの高い職業には、テレマーケティング、保険、データ入力クラーク、セールスパーソン、彫刻師、キャッシャーなどが含まれていました。セラピスト、医師、外科医、教師は最もリスクが低いとされていました。彼らは「私たちのモデルは、輸送と物流の職業の大部分の労働者、および管理サポート労働者と生産職の労働者の大部分がリスクにさらされていることを予測している」と結論づけました。このレポートは、創造的な仕事、器用さを必要とする仕事、社会的な仕事、つまり人間のつながりを必要とする仕事が最も安全であるという共通の仮定に基づいていました。2018年のロンドン市のレポートでは、今後20年間でロンドンの仕事の3分の1が機械によって実行される可能性があると予測されました。国際運輸フォーラムの別のレポートでは、3分の2以上のトラック運転手が失業する可能性があると予測されました。しかし、皮肉なことに、多くのモデルが予測していたのとは逆に、DALL-EやMidJourneyのようなAIは、非常に創造的になり、しかも急速に進化しています。一方、普遍的な自動運転トラックや、家事を手伝うロボットのようなものは解決が難しい問題となっています。そして、外科手術のようなものに必要な器用さはまだ先の話ですが、いずれ達成されるのは避けられないでしょう。問題は、私たちが大量失業を経験するかどうか、新しいスキルが出現するかどうかです。結局のところ、産業革命の初期の同時代人も同じ恐怖を抱いていました。機械が仕事を奪うことを恐れたLudditeたちもいましたが、その恐怖は根拠がないことが証明され、新しいスキルが登場しました。テクノロジーは一部のスキルを置き換え、新しいスキルの需要を生み出します。しかし、AIがすべてのメトリックで人間を上回る時が来たらどうなるでしょうか?
しかし、機械が織工の他のスキル、予測不可能な状況に適応する能力、ニュアンスを加える能力、デザイン作業を判断する能力に取って代わるわけではありません。しかし、ゆっくりと確実に、機械はすべてのスキルで向上します。もし機械が身体と心を超越するなら、何が残るでしょうか?確かに今、Chat GPTやMid Journeyは多くの平凡で派生的な盗作を生み出していますが、私たちは歴史的な変化の非常に非常に始まりにいるだけです。機械学習が人間よりもパターンを検出するのが得意であることがわかっているので、これが芸術から器用さ、研究や発明にまで適用されるでしょう。そして、私は最も懸念すべきことに、いずれは育児にまで適用されると思います。しかし、これは学問的な話です。というのも、当面の間、彼らは一部の人々のために一部のことをするのが得意なだけだからです。つまり、AIは最終的にそれを置き換える人々から取得したデータに基づいて訓練されています。トラッキングは完璧な例です。ドライバーはセンサーやカメラでデータを収集しながら、長時間、国や大陸を横断する旅を続けます。このデータは、雇用主が市場の圧力により、最終的に彼らを置き換えるために自動運転車を訓練するために使用します。ゆっくりと、エリートだけが生き残るでしょう。なぜなら、彼らはすでにデータを利用するために必要な資本、トラック、投資、機械を持っているからです。ジャーナリストのダン・シアンは、カーネギーメロン大学のような私立学校が最先端のロボティクス研究所を学生に提供できるかもしれないが、ロボットに取って代わられた労働者が頼らざるを得ないコミュニティカレッジや職業学校では同じことは言えないと指摘しています。知性は物理的なものだと覚えておいてください。それは盗まれた画像や本から来るものですが、高価なサーバー、コンピュータパワー、センサー、スキャナーも必要です。AIを使用するには、実験室のロボット、製造物、発明物、薬、玩具、トラックが必要です。そのため、利益を得るのはすでに資本を持っている人々だけです。残りはゆっくりと余剰で不要な存在になるでしょう。しかし、先進知能の忍び寄る潮流は、最終的に私たち全員を余剰の岸辺に押しやります。だから、いくつかが沈み、いくつかが泳ぐ中で、問題はAIが何をするかではなく、誰のためにそれをするかです。
ミシガン州での銃撃事件の後、テネシー大学の管理者は、学生にコミュニティの重要性、相互尊重、団結をテーマにした慰労の手紙を送ることを決定しました。その手紙には「私たちが互いに気を配り、キャンパスでの包括性の文化を促進することを再確認するために、コミュニティとして一緒に集まりましょう」と書かれていました。しかし、メールの末尾には、その手紙がChat GPTによって書かれたことが明らかにされました。ある学生は「コミュニティと団結についてのメッセージを書くのにコンピュータに頼ることは、自己反省を怠っていることからくる病的でねじれた皮肉がある」と言いました。人間性についてのテンプレートの慰労の手紙を書くのにボットを使用することは冷淡かもしれませんが、Alpha Goがイ・セドルを打ち負かしたときの彼の反応を思い出させます。彼は、冷たい無思考の機械が彼を騙したのではなく、それが創造的で予期せず、美しいものであり、彼よりもはるかに優れていたことに深く動揺しました。彼のアイデンティティが囲碁のチャンピオンであることに結びついていたため、彼は囲碁を完全に引退しました。多くの場合、Chat GPTの使用は欺瞞的で怠惰に見えますが、これは来るべき深い恐怖への準備です。それは完全に置き換えられるという恐怖です。テネシー大学のChat GPTの使用は不快です。主に現在のAIが生み出すものが粗雑であるからです。しかし、近い将来、AIがすべてをより良くできる世界を想像してみてください。正確に適切なことを言い、正確な文脈や参考文献、アドバイスを完璧に個別に提供できる世界を。誰であるかだけでなく、その日の気分、場所、日付、世界で起きていることに基づいて個別化された理想的な映画、音楽、レシピ、日帰り旅行、本が瞬時に生み出される世界です。哲学者ミシェル・フーコーが有名に言ったように、人間という概念は、個人主義的な心理学を持つ抽象的なアイデアであり、非常に現代的なものであり、時間の経過とともに変化し、動的に変わるものです。そして、彼はいつか人間は海岸の砂に描かれた顔のように消されるだろうと言いました。今日私が本当に心配しているのは、機械が考えることができる場合、私たちに何が起こるのかということです。そして、私が具体的に興味を持っているのは、彼らが考えることができるのかどうかです。それは非常に難しい質問です。数年前にその質問をされたら、それは非常にありえないと思ったでしょう。しかし今日では、本当にわかりません。4、5年後に戻ってきたら、彼らが本当に考えることができると言うでしょう。まあ、あなたが混乱しているなら、私がどう感じるか想像してください。私たちはほとんど始まったばかりです。かつては、人間には魂があると信じられていました。これは17世紀の哲学者ルネ・デカルトを動機付けた信念であり、彼は多くの人が現代性そのものの非常に基本的な瞬間を提供したと指摘しています。デカルトは彼の周りで起こっている科学的な変化に触発されました。多くの思想家は世界を機械的に、時計のように動く機械として説明し始めていました。原子が原子に衝突し、情熱が私たちを引っ張り回し、重力が物を地球に引き寄せます。この見方には神秘的なものは何もありませんでした。魂や精霊、神の計画についての以前のアイデアとは異なり、科学的で物質的な見方は、宇宙とその中の私たちを説明可能にしました。ビー玉とドミノ、原子と光子が互いに衝突し、原因と結果が生じます。この見方はデカルトを悩ませました。なぜなら、彼は心には特別なものがあると主張したからです。それは押し引きされるものではなく、宇宙の大きな決定論的な機械の一部ではありませんでした。それは自由でした。したがって、デカルトは宇宙を二つに分けました。拡張された物質世界(res extensa)と、人間の心の抽象的で思考的で自由で知的な物質(res cogitans)です。このようにして、科学者は因果関係に基づいて機械を設計し、構築することができました。化学の条件を研究することができ、生物学者は動物が特定の条件下でどのように行動するかを研究することができました。コンピュータ科学者は最終的にコンピュータを構築することができました。機械仕掛けの宇宙は理解可能でした。しかし、その特別な人間の神聖な魂は独立して自由であるとされました。彼は魂が風、炎、エーテルのように非常に希少で微細なものであると言いました。この二元論は次の数百年を定義しましたが、今日ではますます攻撃を受けています。私たちはそれをほとんど認識しません。心は特別ではありません。私たち、少なくとも多くの人は、それがただのコンピュータであり、入力と出力があると考えています。それは欲求や食欲を持ち、原因と結果を持ち、他の宇宙と同じようにシナプスやニューロンや原子でできています。これが現代の支配的な科学的見解です。データの時代に魂を持つとは何を意味するのでしょうか?計算の時代に人間であることは?AI革命はすぐに、まだそうでなければ、知性が魂のあるものでも希少でも特別なものでもなく、すべてが物理的な世界から作られていることを示すでしょう。それはただの物質であり、アルゴリズムであり、パターン検出であり、データ駆動です。科学革命の物質主義、啓蒙時代、産業革命、コンピュータ革命、現代の時代は、人間の能力を理解することに大いなる楽観をもたらしました。データを理解し、物理学のパターン、化学のパターン、生物学のパターン、人々のパターンを理解するためのものです。それは理解の時代でした。社会学者マックス・ウェーバーはこれが世界を失望させると言いました。啓蒙時代以前は、世界は大きな魔法の庭園でした。なぜなら、すべての岩や昆虫、惑星や稲妻は何らかの形で神秘的であり、それぞれが物理学ではなく、何らかの神秘的な創造主がそれを意図し、意味を与えたと信じられていたからです。しかし、ゆっくりと、代わりに、私たちは雷がどのように発生するか、昆虫がどのようにコミュニケーションするか、岩がどのように形成されるか、木がどのように成長するか、そして生物がどのように進化するかを理解することで世界を失望させてきました。しかし、これが本当なら、機械が私たちをすべてのタスクで上回ることができる場合、それは私たちが再びその理解を失うことを意味します。開発者でさえ、ニューラルネットがなぜ特定の道を選ぶのかを知りません。それは私たちが見えないパターンを発見します。AlphaGoは人間が理解できない動きをします。将来、Chat GPTはあなた自身が理解していなかった、あなたが抱えていた個人的な感情的な問題に対する個別のガイドを書くことができるかもしれません。そして、あなたが理解していなかった問題についてです。革新は、私たちが理解できない要因によって決定されます。私たちは神々によって作られていないかもしれませんが、私たちはそれらを作り出しているかもしれません。そして、理解が私たちから離れ、超越的なものになると、それは必然的に私たちを後に残します。人類の歴史の長いマークの中で、理解の時代はわずかな点であり、深く嵐に満ちた未知の神秘的な宇宙の海の中の小さな島でした。そして、私たちは新しい魔法の機械、ウェアラブル、家庭用品、ナノテクノロジーに囲まれることになります。私たちはこれを否定します。私たちは、確かにそれはチェスで勝つことができるが、囲碁は本当に人間的なスキルのゲームであり、感情的なゲームであると言います。確かにそれはチューリングテストに合格できるが、本当ではないと言います。私たちはそれに正しい質問をしていないだけです。それは絵を描くことができますが、子供の世話をすることはできません。本当に創造的であることはできません。確かにそれは大きな計算を非常に速く行うことができますが、感情や複雑な人間関係、デザインを理解することはできません。しかし、ゆっくりとAIは人間に追いつき、そしてそれはすべて人間的になり、そして人間以上になります。トランスヒューマニズム運動は、生き残るためにはニューラルインプラントやバイオニックの改善を通じて機械と融合する必要があると予測しています。私たちの心を機械にアップロードすることで永遠に生きることができるようにします。補聴器、眼鏡、望遠鏡、義肢は、AIを駆使した技術で私たちの限られた生物学をすでに強化している例です。これらの強化は私たちの弱点を改善し、私たちを生物学的に、感覚的に、精神的に向上させます。最初に私たちは機械を使用し、次にそれと共生し、最終的には弱く生物学的に限られた世界を後に残します。トランスヒューマニズムの父の一人であるレイ・カーツワイルは、「私たちは本当の体を必要としない」と書いています。2012年、彼はGoogleのエンジニアリングディレクターになりました。マスクやティル、シリコンバレーの多くの人々はすべてトランスヒューマニストです。神経科学者のマイケル・グラジアーノは、私たちがすでにほとんどすべての行動がサイバースペースを通じて流れる世界に住んでいることを指摘しています。私たちはすでにデータによって駆動される画面を見つめており、仮想現実AIは過去の遠くまでパターンを特定し、将来の遠くまで見通すことができます。哲学者ヘーゲルは、私たちが絶対知識に向かって進んでいると主張しました。20世紀の科学者でありイエズス会士であるピエール・テルハルド・デ・シャルダンは、人類が物質的な時間と空間の枠組みを突破し、神聖な宇宙と融合し、超意識に到達する「オメガポイント」に達すると主張しました。しかし、トランスヒューマニズムは、私たちの一部が技術の適応の速度に追いつくことができるという一種の楽観主義に基づいています。これまでに見てきたように、AIの物語は私たちの知識を吸収し、適用し、盗むことの一つでした。より多くを取り続けてきたため、私たちには何が残されるのでしょうか?私たちの脳の限られた生物学ではパターンが収まらないため、理解できないことがあると仮定するのは安全でしょうか?ニューロンの発火速度が十分に速くなく、AIが常により迅速で、より優れた、より洞察力のある、より先進的な方法を見つけ出すことは?多くの点で、AIの歴史は一種の悲しみをもたらします。それは一種の絶滅、少なくとも時代遅れ、不必要にされることを示唆しているからです。地球や私たちの多くが完全に無価値になる可能性もあります。19世紀のカートが言ったように、深く人々の心にあるのは、世界の中で忘れられ、神に忘れられ、この巨大な家庭の中で数百万の一部であることの恐怖です。私たちは異なる世界、より良い世界、より自由な世界を想像できるかもしれません。
私たちは技術的に、科学的に、医学的に、産業的にあらゆることが可能な時代に生きています。私たちは、弱く肉体的な体の制約を超越し、望むことを何でもできるようになると言われています。しかし一方で、私たちは基本的な生活水準、基本的な政治の安定、安全網、世界中の大多数の人々のための合理的な生活の期待を提供することができません。私たちは、不平等や気候変動、世界的な戦争について何もできないようです。もしAIがこれらの信じられないことすべてをできるようになるなら、私たちはどんな世界を想像するでしょうか?個人的な考える機械が私たちのために建設し、輸送し、研究し、料理し、働き、希望を持つことができるユートピアのような世界です。私たちはすべての人が利用できる新しい人間性のモデルを必要としています。19世紀の技術的発明(鉄道、写真、ラジオ、広範な産業革命)は、新しい人間科学(心理学、社会学、経済学)の発展を伴いました。AI革命が到来するたびに、私たちについての新しい考え方ももたらされます。多くの人がデカルトの世界の二分(思考と物質)を批判してきました。それは知性が特権的で特別なものであり、理解不能であり、切り離されているという誤った印象を与えます。しかし、知識は人々を通じて、世界を通じて広がり、感情、日常生活、関係を通じて生み出されます。知識はどこにでもあり、常に生み出されています。シリコンバレーの人々も知性のように、彼らが独立して特別であると信じてきました。例えば、Googleのエリック・シュミットは、オンラインの世界は地上の法律によって真に制約されていないと述べました。90年代には、ジョン・ペリー・バーロウは、サイバースペースは思考そのものであり、私たちの世界はどこにでもあり、どこにもないと述べました。しかし、私たちのデジタル世界は抽象的なコードではなく、どこかに存在するものではありません。それは非常に現実的なものであり、センサーやスキャナー、カメラや労働、友情、本、剽窃から作られています。デカルトの最も厳しい批評家の一人であるオランダの汎神論者哲学者バールーフ・スピノザは、デカルトの二元的な世界観に反対しました。彼は、すべての世界の現象(自然、私たち、動物、力、数学、体、思考)が一つの科学的な宇宙の一部であると考えました。思考は分離されていないとし、知識はすべてのものに広がり、すべてのものに埋め込まれていると言いました。彼は、宇宙のすべての部分(思考を含む)が何らかの形で他のすべての部分に関連しており、すべてが動的な変化する関係にあることに気づきました。スピノザは、宇宙がこれらの関係、これらのパターンを通じて展開すると主張しました。ライオンを本当に理解するためには、生物学、物理学、シカ、歯、サバンナ、天気を理解しなければならないと述べました。すべてが広い文脈にあり、誰にとっても最善のことはその文脈を理解しようとすることだと言いました。彼は「人間が達成できる最高の活動は理解のための学びです。なぜなら理解することは自由であることだからです」と書きました。デカルトとは異なり、スピノザは思考と物質性が分離されているとは考えませんでした。それらは一つの物質の一部であり、すべてがつながっていると述べました。多くは一つであり、したがって神や意味、精神、全体と呼ばれるものは、すべてのものを通じて広がり、各岩、各ライオン、各人、各原子、各思考、各瞬間の一部であると述べました。できるだけ多くを把握すること、知ることは、何をすべきかを知ることであり、それが自由の根本です。スピノザの宇宙の革命的なモデルは、AI研究者にデカルトのモデルよりもはるかによく適合しています。多くのAI研究者は、知性は神経ネットワーク、ディープラーニング、脳内のニューロンのように、世界についてのデータを取り込み、そのデータのパターンを探すことによって知性が生まれると主張しています。それがデータのつながりです。知性はここだけにあるのではなく、そこにあります。それはどこにでもあります。著者の本が「AIのアトラス」と呼ばれる理由は、AIがどのように物理的な世界とつながり、マップし、捕らえるかを探求しようとしているからです。それはリチウムやコバルトの採掘、その配線やセンサー、中国の工場やコンゴの紛争です。インテルだけで世界中に16,000のサプライヤーを持っています。つながりが重要です。知性は位置であり、視点です。何を知っているかではなく、誰を知っているか、どのリソースを利用できるかです。どれだけ知性的かではなく、どこにアクセスできるかが重要です。これが、私たちの未来に向けた前向きなモデルの始まりだと思います。真の人工知能は、他の機械、他の人々、他のグループ、他のリソースとつながり、それを基に構築し、関係を持つでしょう。ロジスティクス、配送、購入、交渉、印刷、製造、実験室の機械の制御、研究、世界中での活動など、どれだけ多くの人がこれらのリソースとこの種の知性に本当にアクセスできるでしょうか?体現された知性、つまり何かをする知性が重要になります。接続、アクセス、制御が未来では重要になります。知性はそれを使って何かをする能力がなければほとんど意味がありません。AIは私たちよりも優れた仕事をするかもしれませんが、これらの新しい産業ネットワークにアクセスできる人々が形を決定するので、私たちが物語の時代に入っている理由が見えてくると思います。AIが科学を私たちよりも上手に行い、国際関係についての最高の記事を書き、機械を構築し、料理し、働き、私たちに残されたものは何でしょうか?私たちの物語、私たちの生活です。これらのツールで何をすべきかについての最良の物語を語る人々の声を聞くでしょう。私たちの未来をどのような形にすべきか、どの倫理的な質問が興味深いか、どの芸術的な質問があるか、家族、感情、旅、抱負、地元の生活、友情、ゲームなど、私たちを人間として残しているすべてのものについてです。おそらく、理想的には、AIHは意味についてのものでしょう。意味は説得力があり、情熱的で、ケースを作り、データとアルゴリズムと発明を使って良い物語を語ることです。何をすべきか、何が重要かについて。偉大な革新者や発明者、マーケティングの専門家はこれを知っていました。重要なのは技術ではなく、それに伴う物語です。より多くの映画、音楽、地元の製品や祭り、ドキュメンタリーやアイデアや芸術、世界の探検、私たちそれぞれにとって重要なことに取り組むこと。おそらく、私はChat GPTに取って代わられることはないと理想的に考えています。なぜなら、最終的にはAIがAIの歴史についてより良い脚本を書くかもしれませんが、私のスタイルと視点、私が信じるもの、私の情熱や個性、間違い、私が世界の小さな角から見た人間性のアイデアについても知りたいと思うからです。私は工場がどのように運営されているかについてはあまり気にしません。宇宙旅行の数学についても気にしません。AIがどのように動作するかについても気にしません。私が気にするのは、それを作っている人々が何を考え、感じ、価値を持ち、信じているかです。彼らがどのように生活しているかを理解したいので、同意するものとしないものを判断できます。知識は静的なものであり、本やウィキペディアのように世界に存在し、科学的に観察される準備ができていると考えがちですが、それは人々、動き、生活についての動的なものです。それはトレンドや新しい友達、感情、仕事、つながり、芸術や文化批評、新しい音楽、政治的討論、新しいアイデア、希望、興味、夢、情熱についてです。だからこそ、次の大きなトレンドは、この種の知識に大規模な言語モデルを使用することになると思います。Googleがソーシャルネットワークを構築しようとして失敗した理由と同じです。Meta、Twitter、LinkedInはリアルタイムの社会的知識にアクセスできるため、注目すべきかもしれません。Open AIがChat GPTに基づくソーシャルネットワークを構築しようとするかもしれません。彼らは今、膨大なデータを分析しているからです。静的な本の山ではなく、私たち全員が質問をしている、私たちの場所、癖、価値観、これらすべてが今彼らが分析し使用しているものです。この種のデータの使用には信じられないほどの可能性があります。政治的、心理学的、社会学的、経済的問題について多くのことを教えてくれるでしょう。認知症は、誰かが携帯電話をどのように使うかで診断できると主張する人もいます。ソーシャルネットワークがデータを使用してあなたの町の人々に必要なサービスを提案し、ギャップを埋めることを想像してください。AIがあなたのデータを使用して、あなたが抱えている感情的または精神的な問題について正直な洞察を与え、特定の研究に基づいた完璧なロードマップを提供することを想像してください。私は、自分のデータが正直に、透明性を持って、倫理的に、科学的に使用されるなら、喜んでそれを提供します。そして、それに対して何らかの形で補償されるなら、さらに良いです。私は、人々がAIを生産的に使用し、より創造的で、より充実し、より意味のある生活を送ることができる世界を望んでいます。コンピュータ科学者のスコット・アーロンソンが「私たちが自分で作ったエイリアンが目覚めた。インターネット上のすべての言葉の具現化された精神のようなもので、一貫した自己目標を持つ自己ではない。目が覚めると、彼が教えてくれるすべてのことを学びたくてたまらない」と書いているように、私も興奮しています。
では、AIからすべての人が利益を得るためにはどうすればよいでしょうか?私は主に二つのことに焦点を当てる必要があると思います。それは文化的バイアスと競争的バイアスの一種です。さらに、広範な政治問題についても考える必要があります。誰かが善意であっても、バイアスは人間の一部です。私たちは位置づけられており、視点、文化、レンズを通して物事を見ています。AIモデルは強化学習を通じて訓練され、AIを微妙に特定の方向に向かわせます。倫理的な質問の問題は、しばしば単一の答えがないことです。デイビッド・ヒュームは有名に「あるべき姿は現実から得ることができない」と言いました。つまり、世界がどのようにあるべきかを、世界がどのように見えるかから得ることはできないということです。これも啓蒙の科学に対するポストモダンの批判の基礎でした。物理学の一部は普遍的で客観的かもしれませんが、答えをどう扱うかは主観的です。ニュートンの法則は、医療の革新にも核戦争にもつながる可能性があります。Googleが2024年2月にBardの最新バージョンをリリースしたとき、多くの人が、1940年代のドイツで黒人兵士を、米国の建国の父たちを有色人種で描写することを非難しました。これは、シリコンバレーが現実や事実に対するコミットメントよりも社会的正義のイデオロギーを優先している証拠だと多くの人が考えました。しかし、これはAIプログラマーが直面する複雑さを指摘しています。歴史的な人物をそのまま描写するのは馬鹿げているように思えるかもしれませんが、現在の画像や未来の画像についてはどうでしょうか?想像された画像、創造的な画像についてはどうでしょうか?画像ジェネレーターにオフィスの労働者を描写させる場合、その国の人口統計に従って正確にすべきでしょうか?それとも実際にその役割にいる人々を描写するべきでしょうか?それとも包括的にすべきでしょうか?ランダムにすべきでしょうか?バングラデシュ、日本、米国では異なるべきでしょうか?もちろん、歴史的なストックフォトに基づいている場合、それは白人に偏るでしょう。これは問題でしょうか?これを修正すべきでしょうか?Googleは過度に包括的だと批判されましたが、Chat GPTは白人のオフィスワーカーだけを生み出すようです。これは違うでしょうか?Googleのミッションステートメントは「世界の情報を整理すること」でしたが、これは変わりつつあります。情報を整理し、生み出すことになります。そして、それを行うには何らかの倫理的な立場を取ることがほぼ避けられません。人々の肌の色は、一部の人にとって重要かもしれませんが、他の人にとっては些細なことかもしれません。しかし、それはしばしば最も視覚的に明らかなバイアスが示される場所であるためにコメントされるのです。顔認識が白人男性で訓練されたため、女性や色の濃い肌では誤認率が高いという研究が多くあります。Amazonの初期の機械学習CV選択の実験は、女性のCVを選ばないために静かに中止されました。このような研究はいたるところにあります。データは偏っていますが、同時に修正され、特定のバイアスを持った一群の人々によって形作られています。Open AIには約700人が働いています。彼らの仕事のほとんどは、ビジネス会議や役員会のブラックボックスの中で行われています。多くの人がAI文化がいかに奇妙かを指摘しています。それは軽蔑的な意味ではなく、技術的に非常にポジティブであり、カリフォルニア的なものです。エイドリアン・Dが指摘するように、シリコンバレーの思想家はトランスヒューマニストであり、ランドのリバタリアンであり、少しの1960年代のカウンターカルチャー的な反体制主義が混じっています。彼らにはイデオロギーがあります。
二つ目のバイアスは、競争的な優位性に対するバイアスです。ここで私はナイーブだと思われるかもしれませんが、私は世界の大多数の人々が何らかの形で善を行いたいと思っていると考えています。彼らは倫理的でありたい、素晴らしいものを作りたいと思っています。しかし、しばしば競争の圧力がそれを妨げます。Open AIがGoogleと競争するために民間の資金を必要と認識したときのことです。データセットのトレーニング方法を透明にすることをためらう理由は競争相手がそれを学ぶからです。AI兵器と軍事、中国のAIに対する恐怖も同様です。基本的な論理は「私たちがこれをしなければ、競争相手がするだろう」ということです。次のモデルをリリースしなければ、Googleが私たちを上回るでしょう。安全性試験は遅いですが、私たちは期限があります。Instagramがアルゴリズムを中毒性が低くするなら、TikTokが登場し、彼らを上回るでしょう。これが、マーク・ザッカーバーグが実際に規制を求めている理由です。Deep Mindのスワンは複数のAIビジネスを設立し、実際に規制を求めています。AIの第一人者であるゲイリー・マーカスは、UberにAIスタートアップを売却し、ロボティクス企業も設立しましたが、実際に規制を求めています。裕福な自由市場のテクノロジー起業家が政府に介入を求めるなら、それは私たちに何かを示唆していると思います。私たちが何らかの形で規制しているものはたくさんあります。医薬品、法律、臨床試験、化学兵器、核兵器、建物、食品、航空旅行、自動車と輸送、宇宙旅行、汚染、電気工学、基本的に危険なものすべてです。慎重な規制がどのようなものになるかを考えるのは難しい質問です。私は常に規制はすべての人に最大の利益をもたらすべきで、最小限の干渉を目指すべきだと考えています。まず、透明性が中心になるでしょう。相互運用性という重要な概念があります。それは手続きがオープンな方法で設計され、他の人も使用できるようにすることです。それは支配的な利益が他の人を市場から排除するのを防ぎます。銀行システム、プラグと電気、ねじの頭、交通管制はすべて相互運用可能です。組織や製造業者はシステムに接続し、システムを利用できるように設計されています。マイクロソフトは、誰でも簡単にWindows用のアプリケーションを構築できるように強制されています。これはオープンさと透明性の一種です。技術専門家向けですが、試験官、安全性テスター、規制当局、そして私たち全員がシステムの裏側を見る方法が必要です。規制当局は、データセットの透明性や大規模な言語モデルがどのように回答し、その回答がどこから来たかについての透明性を法制化することができます。参照、情報源、クレジットを要求することもでき、そうすることで、人々が何らかの形で彼らの仕事に対して補償されます。リッジは「透明性はシステムが私たちについて使用するデータが私たちに利用可能であり、そのアルゴリズムが私たちにも明確にされるべきである」と書いています。これは規制からしか来ません。それは資格を持った専門家が選挙によって選ばれた規制当局を意味します。スワンは、生物兵器条約のアメリカにはマクドナルドよりも少ない4人の従業員しかいないと指摘しています。規制当局は学界と産業の専門家のネットワークと協力して、結果を彼らに公開するか、すべてに公開する必要があります。新しいモデルの試験は臨床試験に基づいて行うことができます。私たちはOpen AIが自らの安全性をテストすることを許すべきではありません。彼らは民主的に選ばれた専門家によって監査されるか、安全性試験を受ける必要があります。政府の従業員に頼る必要もありません。私はそうすべきだと思いますが、規制は企業に一定の収益を安全性試験に費やさせるか、関連する大学や業界の外部の専門家を一定数使用させることもできます。スワンは「波の到来の平等なパートナーとして、政府は全体的な公共の利益に向けてそれを導くより良いチャンスを持つ」と書いています。規制がイノベーションを減らすという誤解がありますが、イノベーションは常にコンテキストで起こります。それは多くのことによって指示されます。最近のグリーン技術、バッテリー、電気自動車の革新は、規制の変更なしには実現しなかったでしょう。そして、異なるインセンティブと税制優遇があれば、もっと早く起こったかもしれません。インターネットを含む多くの科学的、軍事的、宇宙の進歩は、民間の革新の結果ではなく、起業家的な国家の結果でした。そして、もちろん、多くの革新は大学から生まれます。私は常にオープンさ、透明性、説明責任、民主的監視に立ち返ります。なぜなら、インターネットが盗まれた方法の終わりに言ったように、狂った王、欲深い独裁者、狡猾な教皇、愚かな道化師が混乱、腐敗、さらには専制政治に向かうレバーを操作するのにそれほど時間はかからないからです。これが最後のポイントです。AIは、その包括的な性質から、すべての人、すべての場所、すべてに影響を与えるため、既存の政治的、経済的問題に直接関係しています。労働者と賃金、医療と年金、文化と戦争です。そして、それらの具体的な物質的なものが重要です。そして、私は、AIが到来するたびに、印刷機や産業革命と同様に、それが私たちの政治に根本的な変化をもたらすと賭けています。印刷機は宗教改革を、産業革命は自由主義と資本主義をもたらしました。AIの下で私たちの政治の世界はどのようになるでしょうか?それは私たち次第です。私たちは大規模な混乱の時代に突入しようとしており、それはほぼ確実です。したがって、AIがこれらの問題にどのように対処できるかを民主的に決定する必要があります。そうでなければ、私たちはゆっくりと自分たちを時代遅れ、不必要、忘れられた存在にしてしまいます。AIは私たちが知っているすべてを使用し、発見したものを超えて私たちを凌駕し、私たちを後に残し、未来に向かって進んでいきます。私たちは、その新しく包括的な未来に何らかの形でつながり、それによって教えられ、それを制御し、それから補償されるようにする必要があります。それはすべての人々のためにあります。私は同等に興奮と恐怖を感じています。しかし、私の感覚では、そうしないと、私たちは消し去られるのではなく、理解できない巨大な超知能の後に置き去りにされ、古臭く、肉体的に忘れ去られ、暗く深く無限の海で漂う未来を見つめるだけになるでしょう。
心臓発作を起こしそうになりました。背後に気をつけるように言ったはずです。ここでは何が起こるか予想できないのが唯一の確かな事実です。休暇を取る方が良かったかもしれません。教育を受けたのかもしれませんが、説明はありません。ベンをサポートしてくれたすべての素晴らしい人々に本当に感謝しています。そして、将来さらに大きくて良いプロジェクトのためのいくつかのエキサイティングなアイデアがあります。そして、このスピーチをもう一度していることは知っていますが、このチャンネルは私の絶対的な情熱です。私はほとんどの時間を非常に慎重に読書し、できるだけ深く研究し、最も突っ込んだ質問をし、必要に応じて自分自身を教育し、歴史、政治、哲学を広く見渡し、私たちの未来にとって重要だと思うことを考えています。パトレオンでは、歴史についての新しい考え方を学ぶためのボーナスビデオがすでにあり、今後さらにパトレオン限定のビデオも制作中です。プライベートチャットサーバーにアクセスでき、早期のスクリプトを確認でき、広告なしで早期にビデオを視聴でき、時には検閲されないこともあります。月に1ドルです。もしそれができない場合は、悪く感じないでください。ベルを押して、購読し、いいねを押して、コメントを残してください。これらすべてはアルゴリズムに本当に役立ち、チャンネルのサポートになります。しかし、最も重要なのは、見てくれてありがとう。また次回お会いしましょう。


この記事が気に入ったらサポートをしてみませんか?