見出し画像

AI特集1:啓蒙運動以来未曾有の大変革

ChatGPTのお陰で2023年はAIの年となりました。2007年にiPhoneがスマートフォン時代を開けたように、私たちは現在、正式にAI時代に入りました。エリート日課はこの歴史的な瞬間に追いついて、4冊の新しい本を借りて、この時代の最新の理解や考え方、ユースケースや対処方法について話します。
今回は2021年に出版された『AI時代:そして人類の未来』(The Age of AI: And Our Human Future)という本から始めましょう。

この本の3人の著者は非常に優秀です。彼らは紹介する必要がないヘンリー・キッシンジャー氏、Google前CEOエリック・シュミット氏、そしてMITスクール・オブ・コンピュータサイエンス学院の院長であるダニエル・ハッテンロッホ氏です。この本には真剣な思考やこの時代に関するハイレベルの観点が書かれています。

2020年、MITはHalicinという新しい抗生物質を発見しました。これは広範囲の抗生物質であり、市販の既存の抗生物質に耐性を持つ細菌を殺すことができます。また、自己が細菌に耐性を持たせることはありません。

この幸運な発見はAIによって行われました。研究者たちは、既知の性能を持つ2,000個の分子からなるトレーニングセットを作成し、これらの分子が細菌の成長を抑制できるかどうかをラベル付けしてAIにトレーニングさせました。AIはこれらの分子がどのような特徴を持っているかを学び、「どのような分子が抗菌作用を持つか」という規則をまとめました。AIモデルがトレーニングされた後、研究者たちはアメリカ食品医薬品局(FDA)が承認した薬剤や天然製品ライブラリー内の61,000個の分子を1つずつ調べ、3つの基準に従って抗生物質を選びました:1)抗菌効果があること、2)既知の抗生物質に似ていないこと、3)無毒であること。
結果、AIは最後にすべての要件を満たす1つの分子、Halicinを見つけました。その後、研究者たちは実験を行い、それが本当に効果的であることを証明しました。Halicinは近いうちに臨床で使用され、人類の福祉に貢献することでしょう。

従来の研究方法では、これを行うことは絶対にできません。61000個の分子をテストすることは不可能であり、コストが高すぎます。これは現代AIの多くのユースケースの1つにすぎず、運が良い例ですが特別なものではありません。 私たちはこの事例を最初に紹介する理由は、Halicinが抗生物質の化学的特徴として機能し、人間の科学者が理解していないことを明確に示しているからです。 以前、科学者たちはどのような分子が抗生物質になるかについていくつかの考え方がありました。たとえば原子量や化学結合にはある種の特徴があるべきだというものです。しかし、AIはそれらの特徴ではなく、2000個の分子を訓練する過程で科学者たちが知らなかった特徴を見つけ出し、それらを使用して新しい抗生物質を発見しました。

それらの特徴は何かもわかりません。全体のトレーニングモデルは、おそらく数万から数十万のパラメーターで構成されていますが、人間はそのパラメーターから理論を読み解くことができません。

これは特例ではありません。AlphaZeroは人間の棋譜を使用せず、自己対戦によってチェスと囲碁を学び、簡単に人間を打ち負かすことができます。そして、AlphaZeroの手法を見ると、しばしば人間のプレーヤーが思いつかないような手法を使用します。例えば、チェスでは重要な駒であるクィーンを簡単に放棄することがあります。時にはその手法が理解できることもありますが、時には理解できません。これはAIの思考方法が人間の合理的な思考方法と異なるためです。言い換えれば、現代のAIの最も優れた点は自動化や人間らしさではなく、人間の理解範囲外の解決策を見つけ出すことができる点です。

これは馬車が自動車に取って代わられた発明でも、単なる時代の進歩でもありません。これは哲学的な飛躍です。 古代ギリシャや古代ローマ時代から、人類は「理性」を追求してきました。啓蒙時代になると、人々は世界がニュートンの法則のような明確な規則によって決定されるべきだと考えました。カント以降、我々は道徳も規則化しようと考えました。私たちは世界の法則が法律条文のように一つずつ書かれるべきだと想像しています。科学者たちは常にすべてを分類し、各学科に分けて自分たちのルールをまとめています。最終的にはすべての知識を百科事典にまとめることができれば最高です。 しかし20世紀に入り、哲学者ウィトゲンシュタインは新しい見解を提唱しました。彼は、「あなた方が学科ごとに書いているこの方法では、すべての知識を網羅することは不可能です。物事の間には曖昧で明確でなく、言葉で説明することが難しい類似点があります。すべてを合理化しようとしても、それは不可能です。」と言いました。

Ludwig Wittgenstein, 1889-1951

現在、AIが見つけたものは、人間が理解できず、明確な規則で定義することができない知識です。これはプラトンの理性の失敗であり、ウィトゲンシュタインの勝利です。実際、AIを使わなくても、例えば「猫」とは何かということを正確に定義することは難しいですが、猫を見るとそれが猫だとわかります。このような認識は啓蒙時代以来の規則的な理性とは異なりますが、「感覚」と言えます。これは明確に説明することが難しく、他人に伝えることもできない感覚です。私たちの猫に対する認識はだいたい感性的です。そして今、AIにもこのような感覚があります。もちろん人間も常にこのような感覚を持っていますが、問題はAIがこの感覚を通じて人間に理解できない法則を発見し、それを利用していることです。カントは元々普遍の法則を把握するために理性的認識しか必要ではないと考えていましたが、AIは人間が理解できず、感じることもできない法則を感じ取っています。そして、それを利用して作業を行うことができます。人間はもはや世界の法則の唯一の発見者や感知者ではありません。これは啓蒙時代以来、前例のない大きな変革と言ってもいいでしょう。

当代AIの原理について簡単に紹介します。現在、AIが神のような「超智能」であり、人類を支配する議論が存在しますが、それは意味がありません。現在のAIは汎用人工知能(AGI)ではなく、機械学習によってトレーニングされたニューラルネットワークシステムです。
1980年代以前、科学者たちは啓蒙主義的な合理的思考に基づいて問題解決のルールをコンピューターに入力することを試みていました。しかし、ルールが多すぎて対処できなかったため、ニューラルネットワークが生まれました。今ではAIに何らかのルールを教える必要はありません。つまり、世界を学ぶプロセスを機械に委任し、ルールは自分で学ぶ必要があります。 このアプローチは、人間の脳神経ネットワークに着想を得たものですが、完全に同じではありません。AIニューラルネットワークの基本的な概念を説明すると、それは入力層、多数の中間層、出力層に分かれており、一般的な深層学習ネットワークには10層程度必要です。

AIニューラルネットワークの使用は、「訓練(traning)」と「推理(inference)」の2つの部分に分かれます。トレーニングされていないAIは構築されたネットワーク構造と何万も、あるいは数千億ものパラメータしかなく、役に立ちません。大量の素材を与えてトレーニングする必要があります。各素材が入力されると、ネットワークが一度通過し、各パラメータの重みが調整されます。これが機械学習プロセスです。トレーニングがほぼ完了したら、すべてのパラメータを固定してモデルを完成させることができます。その後、新しいシナリオに対して推理を行うことができます。 私がこの記事を書いている時点では、ChatGPTで使用されている言語モデルバージョンはGPT-3.5あるいはGPT-4であり、2021年から2022年の間にトレーニングされた可能性があります。私たちはChatGPTを使用するたびに、このモデルを推理に使用しているだけで、モデルを変更していません。
GPT-3.5には1,000億を超えるパラメータがあり、将来にはさらに多くのパラメータがあります。 AIモデルのパラメータは、ムーアの法則よりも急速に成長しています。 ニューラルネットワークを弄るには非常に高価な計算能力が必要です。

現在、最も一般的なニューラルネットワークアルゴリズムには、教師あり学習、教師なし学習、強化学習の3つがあります。
前述の新しい抗生物質を発見した例は、「教師あり学習」の典型的な事例です。 トレーニングプロセス中にニューラルネットワークが学習できるように、事前に2,000 個の分子のトレーニング データセットに抗菌効果のある分子と効果がない分子を事前にラベル付けする必要があります。 画像認識も教師あり学習であり、各トレーニンググラフの内容をマークし、それをAIトレーニングにフィードするために多くの労力を費やす必要があります。
学習するデータ量が特に多く、まったくラベル付けできない場合は、「教師なし学習」が必要です。 各データが何であるかにラベルを付ける必要はなく、AIはより多くのデータを見ると自動的にパターンとデータ間の繋がりを見つけます。

たとえば、Amazonの商品を推奨するアルゴリズムは、教師なし学習です。 AIはあなたがどんな種類の商品を買うかを気にせず、単にあなたが買った商品を買ったユーザー達が他に何を買ったかを見つけるだけです。

「強化学習」とは、AIが実行するステップごとにフィードバックを受け取る動的な環境での学習です。 たとえば、AlphaZeroはチェスをプレイし、その動きがゲームの勝率を上げるか下げるかを評価し、即座に報酬または罰を獲得し、常に自分自身を調整します。
自動運転も強化学習です。AIは、多くの車の運転ビデオを静的に見るのではなく、直接開始し、リアルタイム環境で独自のアクションを実行し、各アクションがどのような結果につながるかを直接調査し、タイムリーなフィードバックを得ることです。
簡単な例えをさせてください:
・教師あり学習は、学校で教師が生徒への教えのようなものであり、⭕️か❌か標準的な答えがありますが、その理由を説明しなくてもいい。
・教師なし学習は、自分で多くの資料を研究した学者のようなものであり、たくさん見れば自然にわかるようになる。
・強化学習とは、アスリートをトレーニングするようなものであり、問題が発生したらその場にすぐに修正することです。

自動翻訳は典型的な教師あり学習でした。 たとえば、英語の翻訳を行う場合は、元の英語のテキストと日本語の翻訳を一緒にニューラルネットワークに入力し、学習させます。しかし、この学習方法は遅すぎて、実際、多くの英語の作品は日本語翻訳がありません。その後、「パラレルコーパス」と呼ばれる良い方法が発明されました。

まず、翻訳版を「事前トレーニング」として教師あり学習の期間に使用します。 モデルが感覚をほぼ捕まえた後、同じトピックの英語や日本語コンテンツ、記事であろうと本であろうと、互いに翻訳関係にある必要はなく、たくさん機械に投げ込んで、学習させます。このステップは教師なし学習であり、AIは没入型学習期間を実行して、英語のどの段落がどの段落の日本語に対応するかを推測します。 このトレーニングはそれほど正確ではありませんが、利用可能なデータ量がはるかに多いため、効果ははるかに優れています。

このような自然言語を処理するAIは、現在「トランスフォーマー」と呼ばれる新しい技術を使用しています。単語間の関係をよりよく理解し、順番を変えても大丈夫です。たとえば、「猫」と「好き」は主語と述語の関係であり、「猫」と「おもちゃ」は2つの名詞の間の「使用」関係であり、それら全部自ら解明できます。

もう一つ、流行っている技術、「生成系ニューラルネットワーク(generative neural networks)」があります。この技術は、絵画、記事、詩など、入力に基づいて何かを生成することができます。生成系ニューラルネットワークのトレーニング方法は、補完的な学習目標を持つ2つのネットワークを使用して、コンテンツの生成を担当するGeneratorと呼ばれるネットワークと、コンテンツの品質を判断するDiscriminatorと呼ばれるネットワークを使用して、2つがトレーニングで互いに改善することです。
GPTのフルネームは「生成系事前トレーニング済みトランスフォーマー(Generative Pre-trained Transformer)」で、トランスフォーマーアーキテクチャに基づく事前トレーニング済みの生成系モデルです。

現在のAIはすべてビッグデータでトレーニングされた結果であり、その知識は基本的にトレーニング資料の質と量に依存します。現在、さまざまな高度なアルゴリズムがあるため、AIはすでに非常にインテリジェントであり、単語の頻度を予測できるだけでなく、単語間の関係を理解し、非常に優れた判断力を持っています。

しかし、AIの最も素晴らしい強みは、人間の理性が理解できない法則を見つけ、それに基づいて判断できることです。

AIは基本的に、たくさんの材料を飲み込んだら突然、「私はできる!」と言うブラックボックスです。テストしてみたら、AIが本当によくてきるとわかったが、どうやってできるかわかりません。

ニューラルネットワークは本質的に単なるパラメータの集まりであるため、理解できないことはAIの本質的な特徴と言えます。 現実は、OpenAIの研究者でさえ、ChatGPTがなぜそれほど強いか理解できないということです。

このように言えば、私たちは新しい知能形態の目覚めを目撃していると言ってもいいでしょう!

この記事が気に入ったらサポートをしてみませんか?