[メモ&コメント1] Kieval (2024): 『人工達成 (Artificial achievements)』

論文:Kieval, P. H. (2024). Artificial achievements. Analysis, 84(1): 32–41. に対する、私的なメモとコメント

関連リンク

私は自然言語処理を中心に扱うプログラマ/エンジニアで、言語学や哲学、社会科学に関心がある。ADHD。哲学は専門ではなく、囲碁も素人で、AI技術についても理解が浅い部分があると思う。間違いや的外れなこともあるかもしれないけど、このブログ記事は仕事ではないから、気楽に書くので気楽に読んでね。
ではまず、論文の話をざっくりまとめてみよう。

--

Kieval (2024): 『人工達成 (Artificial achievements)』 のキーポイント

AlphaGoのような高度なAIシステムは、その製作者の達成とは異なる、独自の達成能力があると主張する。Kieval (2024) はこれを「人工達成」と呼ぶ。

  • 達成とは?: 意志と合理性の優れた発揮
    Bradford (2015) の卓越主義 (perfectionist) の説明に基づく、2つの本質的な特徴

    • 困難さ (difficulty):そのプロセスは十分に困難でなければならない

    • 適格な因果関係 (competent causation): そのプロセスが、適格に成果を引き起こさなければならない

  • ケーススタディ:AlphaGo による達成
    囲碁でイ・セドルに勝利したこと

    • ☑️ 適格な因果関係:AlphaGo は、目標指向の行動、碁盤の状態の表現、手についての意思決定を示している

      • モンテカルロ木探索(MCTS)によるメンタル・シナリオの構築

      • コンピテンスに関する von Kriegstein (2019) の「反運 (Anti-luck)」の説明と一致する

    • ☑️ プロセスの困難さ:努力を、タスクに対する内的リソースの投入として理解する

      • ニューラル・ネットワークに最適化されたかなりの量の計算資源を投入している

      • AlphaGo の努力から、そのプロセスは十分に困難であると考える

  • 主体性 (agency):コンピテンス(適格さ、能力)をもつためには「意図的主体性 (intentional agency)」があれば十分

    • 意図的主体は、特定の目標を追求して決定を行い (making decision)、自律的に行動する

    • 道徳的主体性 (moral agents)(責任を負い、行動理由について説明できる)とは区別

  • 「人工達成」の価値

    • Bradford (2015) の説明では、達成の本質的価値を意志と合理性の発揮という人間の能力に置いている

    • AIにはそれがないし、AlphaGo の成果は商品的価値があるとも考えにくい

    • これは「価値のない達成 (valueless achievement)」の可能性を開く

  • 合理的な推論や創造的な洞察といったAIの能力を、潜在的な価値の源泉として探求することを提案

🤖 この論文は、達成とその価値に関する我々の理解に疑問を投げかけ、AIシステムがより高度になるにつれて、我々が主体性、適格性、達成の価値をめぐる哲学的枠組みを再考する必要性を示唆している。

💬 初めの感想

最初の印象は「いま AlphaGo の話をするのか」だった。AI 技術の急速な進歩を考えると、時代遅れな感じがする。この論文がパブリッシュされたのは2023年12月、ChatGPT の登場から1年経った頃。もはや LLM(大規模言語モデル)ベースのアシスタントは、「AI(人工知能)」に対する世間の認識をすっかり置き換えてしまった(…よね?)。まあ、AlphaGo は囲碁というルールや勝敗の明白な世界で活躍する AI なので問題をシンプルに考えやすく、強化学習の手法は最近の AI たちと共通するものがあるけど。
とはいえ、人間のものとして考えられてきた「達成 (achievement)」の説明を AI に適用するにあたって、意識とか謎めいた領域に踏み込まずに議論を進めているところは、読んでいて面白いと思った。すごいな〜。
しかし、AlphaGo の勝利を AI システム自身の達成とする Kieval (2024) の主張は、どれくらいの多くの人の感覚に合っているのだろうか? 私としては、 AI のことわかってなくない!?!?という気がしたが…( 「どうしましょうね!」って問題提起っぽくもある)
次第に、「達成」をはじめとする概念を AI にあてはめるにあたって、むしろ人間たちがこれまでに積み重ねてきた概念について理解し再考することの重要性を強く感じた。達成と価値について分析するうえで、AlphaGo はかなりいい対象っぽい。ただし、Kieval (2024) とは違う観点から… というのは、つまり、囲碁は人生だってことなんだな。

--

「人工達成」を再検討する

  • 人間の「機械的な」達成

  • AlphaGo の勝利よりもむしろ独創的な手が「人工達成」と呼ばれるにふさわしい

    • 学習による技能の習得、予測困難な状況への適応、独創的な問題解決

  • 人工達成の価値もまたその過程に内在する

洗濯機も「人工達成」する

Kieval (2024) の議論に沿って考えると、うちの洗濯機は長年の間「人工達成」を遂げてきたのだと気づく。AlphaGo と比べるとはるかに小さな達成かもしれないが、耐用年数を超えても日々健気に頑張っているのである。
洗濯機が「人工達成」の条件を満たしていることを確認しよう。

  1. ☑️ 困難さ:
    洗濯機は、人間が手作業で行うには困難で時間のかかる複雑な仕事をこなしている。

  2. ☑️ 適格な因果関係:
    (1) 洗濯機は、洗濯をうまく行う方法を命題的知識として内部に持っている。洗濯過程を表現し、衣類の量に応じた水の量の調整、サイクルの切り替え、モーターの回転速度の変更などの決定を自律的に行う。
    (2) 洗濯機は、それが適切に使われるほとんどのシナリオにおいて、確実に衣類をきれいにするので、von Kriegstein (2019) 「反運 (Anti-luck)」条件も満たしていると主張できる。

  3. 意図的主体性:
    洗濯機は衣類をきれいにするという目標を追求し、自律的に意思決定して動作している。

  4. 努力:
    洗濯機は、内的リソース(機体、洗濯槽、モーター、マイクロコンピュータやメモリなど)のすべてを目標達成のために投入している。

このように、洗濯機のようなありふれた機械ですら AlphaGo と同様に「人工達成」の要件を満たすことを、どのように解釈すればいいのだろうか?

Bradford (2015) による説明は、人間は「機械のように」行動すれば達成できるという考え方に基づいているように見える。人間にとって、機械のような「合理的な」判断や再現性の高い仕事をするのは困難なので。野生的な本能に従うのではなく理性的に行動するのが人間だ!みたいな考え方?

ともかく、Kieval (2024) の「人工達成」は AI による達成とその価値の重要なポイントを捉えきれていないと感じる。以下で考え直していこう。

AlphaGo と洗濯機を比較する

AlphaGo と洗濯機を比較すると、次のような性質が際立って見えてくる。

  • 学習による技能の習得

  • 複雑で予測不可能な状況への適応

  • 創造性、独創的な問題解決

Kieval (2024) が AlphaGo の達成として「勝利」しか扱わないのは、視野が狭すぎる。AlphaGo が人々を驚かせたのは、トップレベルのプロ棋士たちに勝利したことだけではない。これまでの常識にない手や、人間では想像もつかない手を数多く打ち、囲碁界に衝撃と影響をもたらしたことでも知られている。

それに対して、うちの洗濯機はこれまで私を驚かせたことがない。洗濯機が期待通り洗濯を完了することは道具的価値があるが、それよりむしろ AlphaGo の独創性を示す手のような偉業こそが AI による「人工達成」と呼ばれるにふさわしいと私は考える。

AlphaGo が見せる洗濯機とは異なる性質は、「機械っぽい」というより「人間っぽい」気がする… ただし、AlphaGo のメカニズムや学習の方法といった「経験」や「考え方」は人間とは異なるものだ。後で少し詳しく見ていくけど、AlphaGo の独創的な手は、主に MCTS と、自己対戦による学習から生まれたと言われている。

そういえば、めっちゃ話が前後するけど、てか今更だけど、基本的な話。洗濯機が意外な発想を見せないのは、洗濯の手順が命題知識として与えられ、それに沿って行動するからだ。もしかすると、洗濯機は言われたことしかできないので能力が低いと言う人がいるかもしれないが、それは人間の考え方だ。洗濯機は与えられた目標を達成するために「自分で考えた」方法を使う必要はないし、洗濯機は要求に応える十分な能力を持っていると評価すべきだと思う。
それに対して、囲碁のような複雑な場合、勝利に至るまでの手順を命題知識として与えることができない。そこで、過去のデータや実戦から、機械自身で「うまくやる方法」を見つけ出す手法(ちょっと複雑なアルゴリズム)が、機械学習である。(後で詳細をいくらか書く)

私は、人間であれ機械であれ、経験や考え方が違えば発想が違ってくるのは当然で、違うこと自体には良し悪しはないと考えている。
人々はしばしば、AI を見て人間と強さや能力を比較し、いつの日か人間を超えるのではないかと恐れるようだ。しかし「AI と人間どっちがすごいか」にこだわっていては、重要なものを見失ってしまうと思う。AIによる「達成」を過大評価も過小評価もしないことが大事。

Kieval (2024) は、人間の達成の価値の一部はその過程に内在する (some of the value of achievements must be intrinsic to the process.) と説明しながら、一方で、 AI による達成にはそのような過程における価値はないと棄却し、AlphaGo の勝利を「価値のない達成 (valueless achievement)」と結論づけた。

Bradford (2015) locates the intrinsic value of achievements in the distinctive human capacities of the will and rationality exercised via difficulty and competent causation respectively. But AIs do not exercise these capacities because they have no such innate capacities. They are not human and they do only what they are designed to: satisfy an objective function. (Section 4)

Kieval, P. H. (2024). Artificial achievements. Analysis, 84(1): 32–41.

私はこれに対し、「人工達成」の価値もまたその過程に内在すると主張する。Bradford (2015) が達成の本質的価値をその過程における人間特有の能力の発揮に求めることにならえば、我々は「人工達成」の本質的価値をその過程における人工知能特有の能力の発揮に求めることができる。

  • 「人工達成」の価値は、その過程に現れるものにある(たとえば、ここまで見てきたような「人間にはない発想」)

  • 「人工達成」の過程で「価値」はなくてはならない重要な役割を果たしている(今後見ていく)

これは、Kieval (2024) で最後に提示された宿題への、私なりの答案になるだろうか。

リソース投入と努力

ここで話を別の地点から再スタートする。
Kieval (2024): Section 3.3 で、リソースの投入という観点から努力について考える部分がめっちゃ印象的だった。(正直ツッコミ待ちなのかな?って思った)

(...) there necessarily must be some dedicated hardware expending resources for there to be any system at all. I see no principled reason for thinking that there is a stark difference between more familiar cases of mental effort – which require a kind of ‘hardware’ of their own – and the way that AlphaGo must dedicate computational resources to make calculations and decide on a move. All of this suggests that AlphaGo exerts effort.

Kieval, P. H. (2024). Artificial achievements. Analysis, 84(1): 32–41.

Section 3.3 のポイント:

  • AI システムは現象学的な意味での努力を経験しない

  • あるタスクに対する努力を、そのタスクに様々な種類の内的リソース (internal resources) を投入すること(von Kriegstein, 2017)として理解する

  • 深層学習には膨大な計算リソース(ニューラルネットワークに最適化されたたくさんの GPU)が必要

  • ソフトウェアはハードウェアなしには存在できず、両者を切り離すことはできない

  • AlphaGo が計算リソースを投入して手を決定することは、内的リソースの投入にあたる

  • これによって AlphaGo の「努力」が示唆される

💬 うーん… ひとつずつ見ていこう。

主観的な「難しさ」や「頑張り」の経験を AI システムに要求しないというのは、いい話だ。AI の現象学(一人称視点からの意識現象の研究)は AI 哲学者の登場を待つしかない。
次、AlphaGo が碁の対局(と訓練)に使用する計算リソース(CPU、GPU、とか)が高度な技術によってつくられ高性能であるのも、そうだと思う。
が、Kieval (2024) は、AI のソフトウェアとハードウェアを、精神と身体のようなものと位置付けているようだ(な、なんか、哲学者っぽいな〜(主語がでかい))。

私はプログラマとして(再び、主語がでかい)ハードウェアを、ソフトウェアが動作する「環境 (environment)」と捉えがちだ。
Kieval (2024) ではリソースの「内的」と「外的」を分ける境界が不明確だが、このような精神と身体のアナロジーへの反論はすぐに思いつく:
⚠️ 私(人間)は空気や水や食料がなければ存在できないが、空気や水や食料は私の「身体」ではなく、私はそれらのリソースを提供する環境に依存している。
⚠️ 私の身体には私しか住むことができないが、コンピュータではひとつのハードウェアに複数のソフトウェアが「住む」ことができる(これはある生息地に複数の生き物が住むことに似ている)。

いや、でも、洗濯機なら… 洗濯機が、(仕組みが人間や AI よりも単純であるとはいえ、)ひとつの身体にひとつの精神が強く結びついたものであると見ても、そう支障はないか。
補足すると、ソフトウェア動作環境と、強化学習のエージェント・環境はどちらも「環境 (environment)」という用語を使うが、別物。前者はたとえば GPU の方式や OS などを指す。後者はエージェントの行動に対して評価を与える。

…といった感じで、人間の概念や身近な機械のイメージを AI に適用するときに注意が必要なポイントが、このセクションによく現れている気がする。

実はソフトウェアにとって、大量のリソースを使用すること自体は難しいことではない。たとえば「力まかせ探索 (Brute-force search)」は大量のリソース(時間、計算空間)を必要とする。人間が手でやろうとすればとても疲れる(努力を必要とする)が、ソフトウェアの視点から見れば凡庸なアルゴリズムで、そのような努力が必要かどうかは、場合による。ちなみに囲碁では手の数が多すぎて、力任せ探索では無理だけど。

ところで、 von Kriegstein (2017) は興味深い分析をしている。全部はしっかりとは理解できてないが… 私の観点とそれほどかけ離れていないような気がする。

📝 von Kriegstein (2017) "Effort and achievement"
⑴ 努力は達成の大きさの要因としてもっともらしい候補である
  努力:肉体的・精神的なリソースの投入
⑵ 絶対的努力と割合的努力を区別する
⑶ 割合的努力こそが ⑴ の達成の大きさの役割を果たしうる
⑷ 努力割合の計算:目標の採用から目標に到達できた可能性のある最も遅い時間までの間
⑸ 「不必要な」努力は、それが成功の可能性を高めるのに必要な努力でないとエージェントが考えないかぎり、達成感を高める

von Kriegstein, H. (2017). Effort and achievement. Utilitas 29: 27–51.

絶対的努力とはあるタスクに投入した努力(内部リソース)の絶対量、割合的努力は努力(内部リソース)の何割をそのタスクに投入したかを表す。割合的努力に着目することで、内的リソースの量や性質がエージェントによって異なっていても、達成についての統一的な記述が可能になる。

💬 メモ:
リソースの100%をそのタスクに投入し、それ以外のことをやる選択肢がない状態は、それほど努力しているとはいえないのでは?と思ったが…
von Kriegstein (2017) は、スポーツのフロー状態の例を取り上げ、ときに「努力のない努力 (effortless effort)」とも呼ばれるフロー状態を、「100%努力している」とみなす立場をとっている。AlphaGo が「努力している」とみなされるのは、この von Kriegstein の分析に基づいているようだ。そういうことならそれでもいい気がする。
ちなみに、von Kriegstein は注意欠如症(ADD) をもつ人が本を読む例を検討し、「本を読むために投入するリソース」と、「注意散漫 (distraction) とたたかうために投入するリソース」を区別している。 Where ADHD meets AI… 🤗

von Kriegstein (2017) のアプローチは、達成の要素としての努力を内的リソース(身体的・精神的、金銭?)の投入に基づいて分析していて、能力や成果を中心に据えないのが特徴的だと感じた。また、達成には個人的な側面と社会的な側面(たとえば分配的正義?)があり、何をもって「無駄な努力」とみなすかは個人や社会の価値観に依存する… 複雑な話だねぇ。

💬 元の話に戻ろう。
AlphaGo の計算リソース(ハードウェア、たとえばGPU)の量は、DeepMindによって決められたものだ。GPU は囲碁をプレイするためだけではなく、他の用途(たとえば画像処理や言語処理)にも使えるし… そのリソースを囲碁に投入しようと決めたのは AlphaGo ではない(AlphaGo は「囲碁をやるのがいいかどうか」「勝つべきか」などを判断する仕組みは持っていない)。
また、開発プロジェクトは、予算をハードウェア購入だけでなく開発費などにも配分するわけで… リソースの配分には階層性がある。
この階層は「目標」の階層ともいえるだろう:

◾️大目標:AI開発の成功
  そのために:世界トップ棋士との対局で実証する
◾️目標:対局で勝利する
  そのために:いい手を打つ
◾️中間目標:いい手を打つ
  そのために:ゲーム木探索をうまくやる

あるエージェント(人間、プロジェクト、AIなど)の「内的」リソースは、その投入先や投入量をエージェントが決定できる範囲や対象と考えられそう。(な、なんか経済学っぽくなってきたような…?)
von Kriegstein (2017) の内的リソースによる説明は、人間をある意味「機械っぽく」捉えていると思う。ここでそれがとても都合良くて、(適切に適用すれば)AI の「人間ぽい」性質を過度に擬人化することなく、「AI なりの努力」として分析する可能性につながるはず……

私の観点に基づくと、AlphaGo の内的リソースに相当するのは、ニューラルネットワーク(2つの DCNN)とモンテカルロ木探索(MCTS)である。AlphaGo は勝利という目標を達成するために、勝利につながる「いい手」を探す必要がある。AlphaGo は限られたリソースと時間のなかでいい手を探すために、内部リソースの配分をうまくやっている。

AlphaGo の本当の努力

囲碁の勝利という目標を達成するためには、最良の手を決定するという中間目標を1手1手達成していく必要がある。そのために、何がいい手なのか、どのような戦略をとるべきなのかをよく「考え」なければならない。それも、現在の盤面だけでなく、複雑で不明確な未来の可能性もふまえたうえで。
AlphaGo が、2つの DCNN と MCTS によって「いい手」を考える仕組みを見てみよう。Kieval (2024): Section 3.1 の説明はマジで何言ってるかわからんかったので、以下は Claude に相談しながらまとめた。

  • 深層畳み込みニューラルネットワーク(Deep Convolutional Neural Network, DCNN)2つ

    • 画像処理によく使用される機械学習モデル

    • 2次元データから畳み込みなどの処理によって特徴(碁石同士の位置関係のパターン)を抽出し、数値的な内部表現 (表象、representation) に変換する

    • AlphaGo では、2種類の DCNN に盤面の状態を入力する

      • 方策ネットワーク(Policy Network, PN)は、次の手の候補として 19 x 19 (石の位置)個の確率分布を出力する
        (「はねる」か「のびる」か、とか…)

      • 価値ネットワーク(Value Network, VN)は、盤面から勝率を予測する
        (「形勢がいい」「模様ができてきた」、とか…)

  • モンテカルロ木探索(MCTS

    • 現在の盤面から次の手と盤面、その次… というゲーム木の探索 (search) を効果的に行うアルゴリズム
      1. PN を使って有望な手を絞り込んでおく
      2. 新しいノード(盤面)を木に追加する
      3. VN を使って盤面の勝率を評価する
      4. 評価結果を木の上位ノードに伝播させる(値を更新する)
      5. ノードの訪問回数と累積勝率からUCT値 (Upper Confidence Bound applied to Trees) を計算、「探索 (Exploration)と活用 (Exploitation) のバランス」によって次のノードを選択(1に戻る)

    • UTC値による探索と活用のバランス:ゲーム木の幅と深さ

      • 探索 (Exploration) :まだあまり訪れていない、または全く新しいノード(盤面)を選択することで、新しい手の可能性を探る
        活用 (Exploitation): すでに高い評価を得ているノード(盤面)で、良さそうな手の次の手… とさらに深く探索 (search) する

      • あるノードを何度も訪れると探索項が小さくなるためUCT値が下がり、他のあまり訪れていないノードのUCT値が相対的に高くなる

        • 結果として、そのノードを「十分調べた」と判断し、ほかの未探索 (search) のノードを調べにいくことになる

        • …これによって、局所最適解に陥ることを避け、より広範囲の探索 (search) を実現できる

        • ちなみに、バランスを決める係数はハイパーパラメータだけど、もっと新しい手法では NN で学習することもあるみたいだね… (超細かい話すぎる)

    • このプロセスを多数回(数千回から数百万回)繰り返す

      • 各反復でゲーム木の異なる部分が探索 (search) され、徐々に有望な手順が明らかになっていく

  • 一定の時間や計算回数に達した時点で、探索 (search) を終了

    • 最終的に、最も訪問回数が多いか、最も高い勝率を持つノードから手を選択する

  • AlphaGo の学習

    • 初期段階では、大量の対戦データをもとに、効果的な手の統計パターンを PN と VN で学習する(教師あり学習)

    • 次の段階では、自己対戦によって PN と VN を更新する(強化学習)

      • 囲碁のような行動の結果がしばらく後にフィードバックされる場合(=手の決定が実際良かったのかどうかは、ゲーム終了時までわからないので)、強化学習の繰り返しによって最適化することが有効

モンテカルロ木探索のアルゴリズム
モンテカルロ木探索のアルゴリズム

面白いな、MCTS… 面白さがみなさんに伝わってるかどうかわからんが…
(白状すると、search と exploration がどちらも「探索」なのでかなり混乱した)

リソース配分の観点から、ざっくりいえば…

  • 過去の対戦データをメモリにそのまま保存する代わりに、2つの DCNN にそれぞれ予測に役立つと思われる情報(特徴)を畳み込みやプーリングといったアルゴリズムによって抽出して保存する。さらに自己対戦で試し、アップデートする。

  • MCTS により、有限の計算リソースを効果的に分配する。勝利につながると思われる手(中間目標)のために、より多くのリソースを投入している。

von Kriegstein (2017) の分析を思い出すと、これは有望な手を実現するための「努力」と考えられる。von Kriegstein (2017) は努力の絶対量(総量)よりも割合を考えることを提案していた。手については、我々は AlphaGo の「AI なりの努力」を意味のある形で考えることができる。AlphaGo が実際に割いたリソースの割合と、手の「独創性」などの評価が直接一致するかどうかは分からないが… 状況が困難になると探索 (search) にかかる時間は増えるっぽい(長考する)みたいだけど。すくなくとも、ここまで私が AlphaGo の人工達成として「手」について考えてきたこととの間に、齟齬はないと思う。

達成の過程における価値の役割

ここで、盤面から勝率を計算する DCNN が「価値」ネットワークと呼ばれていることにも着目しておこう。
この「価値」はみなさんよくごぞんじの、ええと、価値が高いというのは、まあ、なんであれ、それを手に入れたり実行したりするのが正当だと考えられる、みたいなやつで……

「価値」は意思決定の判断基準となり行動を導く不可欠な要素である、という点で、AlphaGo をはじめとする強化学習エージェントと、我々人間にとって、「価値」は同じ意味を持っているんじゃない?
たぶん、この類似性は不思議なことではなくて、強化学習フレームワークはゲーム理論から機械学習に応用されたから。Bradford (2015) や Kieval (2024) が「達成の価値」について論じるときに言う「価値」と、AlphaGo のメカニズムのなかで中心的な役割を果たす「価値」は、元々同じものを指しているはずだと思う。
もちろん機械学習における「価値」の概念は、人間が「価値」と呼ぶものの複雑な側面のすべてを捉えていないかもしれない。それならそれで、何か違うなら言ってほしいと思った。Kieval (2024) は強化学習の「価値」という用語を、何か無関係の数値的なものとして扱っているように見える。(まあ、"value" って多義性があるからねぇ)(それとも、ツッコミ待ちなのかな?)

AI は、与えられた「価値」自体の良し悪しは判断しない。AlphaGo は、「勝利」が本当に追い求めるべきものなのかどうかは疑わない。囲碁であればまあ疑う必要はないかもしれないが、AI をほかのドメインで活用しようとするときには、微妙な問題になってくる。(たとえば、LLMベースのエージェントの「人間のフィードバックによる強化学習 (RLHF)」とか…)

「価値」は人間たちが AI に与え、その行動を導く。AIに与える「価値」がよいものとなっているかどうかの吟味は、人間に任された仕事である。
つまり、「人工達成」の過程に内在する価値を認識することは、AI 倫理の観点でも重要だと思う。

--
後編では、リソース配分の観点から、主体性の再検討を試みたい。
とりあえず今回はここまで…

🤖 要約

  • Kieval (2024) の論文「人工達成 (Artificial achievements)」の主張

    • AlphaGo のような高度な AI システムには、製作者とは異なる独自の達成能力がある

    • AI の達成は「困難さ」と「適格な因果関係」という条件を満たす

    • しかし、AI の達成には人間の達成のような内在的価値がないかもしれない

  • 反論と新しい視点

    • 「人工達成」の定義を再検討する必要性

    • AI の達成の価値はその過程に内在する可能性

    • AlphaGo の真の達成は勝利よりも、独創的な手を打つことにある

  • リソース投入と努力の再定義

    • AI の努力を内的リソースの投入として理解

    • AlphaGo の内的リソース:ニューラルネットワークとモンテカルロ木探索

    • MCTS による効果的なリソース配分を AI の「努力」と捉える

  • AI の達成における「価値」の役割

    • 強化学習における「価値」と哲学的な「価値」概念の類似性

    • AI に与える「価値」の重要性と人間の責任

  • 今後の課題

    • AI の主体性の再検討

    • 人間と AI の達成の比較ではなく、両者の特性を理解することの重要性

--
・公開 (2024/07/26)
・訳語を修正:→「卓越主義」(2024/07/28)

この記事が気に入ったらサポートをしてみませんか?