見出し画像

『COMPUTER POWER AND HUMAN REASON』

とうとうシリーズ最終回にたどりつきました。普通なら、ここは「まとめ系」の内容になるんでしょうが…ここまで思いつくママ書いていたので、突散らかし過ぎてどう手をつけたら良いか?で悶絶しています😀

このシリーズでは「AI倫理」の源流のひとつである ジョゼフ・ワイゼンバウム の著書『Computer Power and Human Reason』を軸にその周辺の様々な話題を紹介して来ました。
生成系AI技術の進歩と普及によりAI法規制が論議される今日、立場の異なる方々の様々な発言が飛び交い、さらにAIガイドラインが乱立し、検定試験も出回り始めている現状で、インターネットで出回っている大量の情報をぼんやり眺めていると、微妙にポジション・トークが混じっているように見えたり、なかには政治的なレトリックとして活用している疑義が浮かんだり…そもそも「AI倫理って誰のためのもの?」と素朴な疑問が浮かんで来たことが、このシリーズを執筆する動機でした。
いわゆるガイドラインでは「何が問題なのか?(What)」と「どう対処すれば良いか?(How)」といった「しなければならない」ことや「するべきこと」が簡潔に書かれていることが多いのですが、その根拠や理由の中にポジション・トークやレトリックが混じっていてもほとんどの人は気がつきません。また、多様性が尊重される今日、いずれが「正しい」とか「間違っている」と明言することも難しくなってます。さらに、生成系AI技術の応用範囲が極めて広いこともあって、誰もが自分自身の「何故(Why)」を見つけなければならないように思いました。そこで、誰に対してもフェアなヒントになるであろう「AI倫理」に関する歴史的事実を紹介することを考えました。
それでは…

史上初の「AI倫理」論争を追って(8)

まずは、このシリーズのメインテーマ、書籍『Computer Power and Human Reason』に戻って…もちろん原書を読破するのがお勧めですなんですが、英文で300ページもありますし、ワイゼンバウムの書いた英文は難しい単語が結構な頻度で登場するので入手した後に途方に暮れる可能性も高いです。そんな方や「そこまで時間をかけてられないよぉ」って方にお勧めなのが、第6回で紹介したワイゼンバウムのインタビュー本 "Islands in the Cyberstream: Seeking Havens of Reason in a Programmed Society" です。

既に紹介したように、この本にはパデュー大学歴史学准教授のザカリー・ローブが寄稿したイントロダクションがありますが、その中には『COMPUTER POWER AND HUMAN REASON』の内容を12ページにまとめた要約が含まれています。ワイゼンバウムの難解な英文も除外されているのか、DeepL や ChatGPT の助けを借りれば、比較的にスルッと読めます。ここでは僕が要点と考えるワイゼンバウムがAI倫理に着目する契機となったチャットボット ELIZA に対する人間の過剰な反応とその問題点を指摘した部分のみを引用します。

『コンピュータ・パワーと人間の理性』は、ワイゼンバウムが自身の技術者としての資質を説明するところから始まり、コンピュータを使った経験が、
いかにしてそのような機械に批判的な本を書かせることになったかを述べている。彼はこの本の冒頭で「ELIZA」を取り上げているが、科学者仲間を前にこのプログラムの仕組みを技術的に詳細に説明した論文とは異なり『コンピュータ・パワー』では、このプログラムが引き起こした反応に対する彼自身の驚きを強調する形で「ELIZA」の物語を語っている。

ワイゼンバウムは、現役の精神科医がこのプログラムに治療的な可能性があると純粋に信じていたことに驚き、人々がコンピュータとのコミュニケーションに感情移入しやすいことに驚いたことを認め、ELIZAが自然言語で受け取ったプロンプトを純粋に理解できるプログラムであると信じているような人が、自分の専門分野に何人もいたことに驚いたことを強調している。しかし、ワイゼンバウムは、こうした訝しげな対立を単に受け流すことはしなかった。それどころか、彼が言うように、その経験は「ELIZAでの経験がより深い問題の徴候であることを徐々に確信させていった」

ワイゼンバウムは、コンピューターが問題なのではなく、人間をこれまで以上に機械化された方法で見ようとする、長い間危険な社会的傾向であったものを再定義しているに過ぎないと強調した。ワイゼンバウムの見立てでは、
論争が勃発しており「一方の側には、簡潔に言えば、コンピュータは何でもできる、すべきであり、将来そうなると信じている人々がいて、もう一方の側には、私のように、コンピュータにやらせるべきことには限界があると信じている人々がいる」 ワイゼンバウムにとって、それは「社会秩序におけるコンピュータの適切な位置づけ」の問題であり、この問いはコンピュータにとって不適切な位置づけが存在することも意味していた。また、ワイゼンバウムはMITの尊敬される教授として執筆していたが「科学は中毒性のある薬物として見ることもできる」と述べることに何のためらいもなかった。

Islands in the Cyberstream: Seeking Havens of Reason in a Programmed Society

この「コンピュータと対峙すると過剰に適応してしまう人間の習性」こそがワイゼンバウムの懸念でした。今から50年前、既にコンピュータは社会に蔓延しており、相手が人間であれば異論を返すような話題であっても、相手がコンピュータであれば「コンピュータからの回答だから間違いはなかろう」と受け入れてしまうことを、ワイゼンバウムは「より深い問題の徴候」と捉えました。その後、AI技術が格段に進化した今日では、問題はさらに悪化し次のような痛ましい事件として現出しています。

こういった命に関わるトラブルが頻発すると、法規制の論議になるのはやむ得ない訳ですが、問題の本質的な原因はコンピュータではなく人間の側にあるという指摘を理解しておく必要があります。50年前、既にこのようなトラブルを見通していたワイゼンバウムの慧眼こそが「AI倫理」に関する議論の出発点であったように僕は思います。

もっとも…

1976年の出版当時は第1次AIブームの直後で、ワイゼンバウムの警告が理解されることは少なく、むしろブーム沈静化に苛立つ周囲の敵意を集める結果になりました。その最たるものが、このシリーズでも紹介してきたジョン・マッカーシーの書評です。ワイゼンバウムの孤立化を Wikipedia の『COMPUTER POWER AND HUMAN REASON』のページでは、次のように説明しています。

この本は、人工知能研究コミュニティの他のメンバーとの意見の相違と分裂を引き起こし、後に著者が誇りに思うようになったと述べています。

Wikipedia -- Computer Power and Human Reason

確かに「人間が過剰適応してしまうから、AIの研究開発はそのことに配慮して進めなければならない」と言われても、前半部分を理解できない、あるいは後半部分に過剰に反応して「AIの研究開発に何故そのような制約を課されなければならないのか?」との反発が出てくるのは想像に難くないですよね?おそらく、現在のAIベンチャーでもこの種の議論は日常的に繰り返されているように僕は想像してますが、いかがでしょうか?これは正しく古くて新しい話です。

では、ワイゼンバウムが「誇りに思うようになった」とはどういうことでしょうか?答えはワイゼンバウムの著作の最終章のタイトル "AGAINST THE IMPERIALISM OF INSTRUMENTAL REASON" にありました。このタイトルは「道具的理性の帝国主義に逆らって」と翻訳するべきようです。Oxford Reference では「道具的理性」を次のように説明しています。

マックス・ホルクハイマーとテオドール・アドルノが提唱した用語で、社会的・政治的な優先順位が目的から手段へと変化し、目標の背後にあるより大きな意味や目的を気にかけることから、目標達成の効率だけを気にかけるようになったことを指す。マックス・ウェーバーの合理性の概念(経済合理性がその最もよく知られた例である)に匹敵するように、道具的理性は、ウェーバーが官僚的思考と呼んだものの台頭を指すだけでなく、主観的なものを犠牲にして客観的なものを優遇する哲学の大きな傾向も指している。ホルクハイマーとアドルノが『アウフタクト』(Dialektik der Aufklärung、1944年、啓蒙の弁証法、1972年)の中で論じているように、主観的なものは認識内容を持たない単なる表象であるかのように扱われ、客観的なものは純粋な認識内容であるかのように扱われる。

Oxford Reference -- instrumental reason

この表現は、実は次の書籍で使われている概念のようです。
Wikipediaの説明を一部を引用すると…

ホルクハイマーとアドルノは、人間が啓蒙化されたにもかかわらず、ナチスのような新しい野蛮へなぜ向かうのかを批判理論によって考察しようとした。
その考察を開始するために、啓蒙の本質について規定するものである。
啓蒙は、人間の理性を使って、あらゆる現実を概念化することを意味する。そこでは、人間の思考も画一化されることになり、数学的な形式が社会のあらゆる局面で徹底される。したがって、理性は、人間を非合理性から解放する役割とは裏腹に、暴力的な画一化をもたらすことになる。ホルクハイマーとアドルノは、このような事態を「啓蒙の弁証法」と呼んでいる。

Wikipedia -- 啓蒙の弁証法

どうやら全く専門外の哲学の領域に突っ込んでしまっているようですが…

ようやく、ワイゼンバウムの著作のさまざまな「何故?」が繋がって来たようです。タイトルの "Human Reason" は「人間的理性」と翻訳すべきで、上記の哲学書に登場する「道具的理性」とは対立する概念と理解した方が良さげです。ここでの「理性」とは、一般的な意味ではなく、哲学上の概念なのかも知れません。著作の第1章にあるように ELIZA ブームの熱狂にワイゼンバウムは非常に驚いたようですが、ブームから連想した「より深い問題の徴候」とは「主観的なものを犠牲にして、客観的なものを優遇する哲学の大きな傾向」、すなわち「ナチスのような新しい野蛮」を意味するのかもしれません。確かに、幼少期にナチスの反ユダヤの現実を実体験しているワイゼンバウムは、ELIZAのために巻き込まれたAIブームの狂騒から、かつての彼にとって忌まわしい何かを感じとっても不思議はない。

もっとも、長くエンジニアリングを生業にしてきた僕には、むしろ前回紹介したマンハッタン・プロジェクトの科学者の事例の方が幾分理解しやすいような気がします。「ナチスドイツよりも先に核兵器を完成させる」ために集められた彼らは、ナチスドイツが消滅してもなお「大戦を終結させる」ために仕事を続けなければなりませんでしたし、最終的にそれがもたらした結果を個人として受け止めなければならない辛さを味わうことになりました。
これも「合理性を盾に、主観的なものを犠牲にして、客観的なものを優遇する」道具的理性のひとつなのでしょうか?僕はもう少し哲学を勉強する必要がありますね。

以上、12回の長きにわたりお付き合いいただきありがとうございました。
ジョゼフ・ワイゼンバウムの『Computer Power and Human Reason』を紹介するために、結果的にかなりの文字数を費やしてしまいましたが、これが「AI倫理」の起源だと僕は理解しています。現在よく語られている「AI法規制」や「AIガイドライン」の話題とは、かなり違った印象を持たれたかと思います。みなさんはどのような感想を持たれましたか?
ブログやSNSが普及した今日、メディアの形がどんどん変わっていく様を日々目撃している実感が僕にはあります。インターネットが媒介する双方向メディアも既に成熟段階に突入していて、既存のマスメディアは置き去りにされている感がありますし、個人の発信力が社会的な注目を集めている。そういった背景もあって、今、AIに限らず倫理の問題が取り沙汰されるのでしょう。約60年前、ELIZAを公開した時にワイゼンバウムが感じた社会の熱狂に対する困惑は、現在の人気 YouTuber たちが感じるそれと同じなのかも知れない…と僕は想像しています。世に出回る上から目線のガイドラインはあまり役に立ちそうにも無いしね😛でも、ワイゼンバウムの言葉は、今、発信しているクリエーターの皆さんには届くかも知れないし、ひょっとしたら役に立つかも知れないです。それが出版されて50年経たジョゼフ・ワイゼンバウムの『Computer Power and Human Reason』の今日的な意義なんじゃないかと僕は考えています。(終わり)

#10月これやる宣言
#ジョゼフ・ワイゼンバウム
#AI倫理
#AI法規制
#AIガイドライン
#G検定
#生成系AI
#人工知能
#ホルクハイマー
#アドルノ
#啓蒙の弁証法
#道具的理性
#人間的理性

この記事が気に入ったらサポートをしてみませんか?