見出し画像

AIとシンギュラリティ#前編 書き出し文


以下はyoutubeにアップする予定の動画『AIの定義と歴史【AIとシンギュラリティ#前編】』の内容を書き出した文章です。

いつもはYouTubeの概要欄に記載していましたが、今回の動画から5分ルールを撤廃したため文字数制限に引っかかるようになりました。

もしよければ動画の方もご覧になってみてください。
(現在絶賛動画制作中です。アップは6月初旬になる予定。テスト的にこの文章だけ先に出してみました。)

中編はこちら

後編はこちら




こんにちは。哲学チャンネルです。

今回から3回に渡り「AIとシンギュラリティ」シリーズと題して西垣通さんの【AI原論】を下敷きにAIとシンギュラリティについて考えていきたいと思います。

ここ数年、第三次AIブームとも呼べる大きな変化が立て続けに起こっています。
ディープラーニングによって機械のパターン認識は飛躍的な進化を遂げ、それがビッグデータと融合することで、あらゆる技術が発展しています。その代表的なものが最近もっぱら話題になっているOpenAIのChatGPTでしょう。

このようなAIの進化はどこまで続くのでしょうか。
その進化が「人間の認識」を超えることはあるのでしょうか。
そして、わたしたちの未来はどうなるのでしょうか。

AIの歴史や、それに付随した学問を紐解くことで
それらの命題について議論する材料を提供できればと思っています。

ぜひ最後までご視聴ください。
それでは本編にまいります。

まずはじめに【AI原論】の著者である西垣通さんの紹介をします。
西垣さんは日本の情報学者・小説家です。
現在は東京大学大学院情報学環名誉教授を務めていらっしゃいますが、過去には日立製作所でエンジニアとして働いていたり、スタンフォード大学に客員研究員として留学したり、コンピュータの進化を常に最前線で経験してきた人物でもあります。

【集合知とは何か】や【ビッグデータと人工知能】など、情報化社会における問題点を語る著作を数多く出版しており、2018年には今回のシリーズの下敷きとして使わせていただいている【AI原論】を出版されています

【AI原論】では、AIというものの存在とそれが目指す場所、そして昨今の加熱したAIブームに対する問題点などについて科学的な見地だけではなく、哲学的・宗教的な視点からも検討されます。

本書の目的を端的に表すと「AIの実相を探る中で、未来の情報社会の在り方を問いかける挑戦」だということができるでしょう。 *1

AIは科学技術を背景にして成立したテクノロジーですが、ことそれを人間社会に当てはめようとすると、科学では答えを出すことができない「自由意志」「責任」などの問題にぶつかります。

AIに社会的責任や義務を想定することはできるのか。
そもそもAIの進化はどこまでも続くものなのか。
AIは人間を超えるのか。

【AI原論】はそのような問いを考える上での有用な視点を提供してくれます。

さて 早速【AI原論】の内容に入っていきましょう。

最初に「AI」についておさらいをします。
AIとはArtificial Intelligenceの頭文字をとった言葉です。
日本語では「人工知能」と訳されますね。

「AI」という言葉が初めて世に出たのは1956年のダートマス会議です。
当時、ダートマス大学に在籍していたアメリカの認知科学者であるジョン・マッカーシーが指揮をとり、この会議のコンセプトはマービン・ミンスキー、ネイサン・ロチェスター、クロード・シャノンといった最先端の科学者たちが構想したとされています。

実際はブレインストーミングの要素が強い集まりだったようですが、この会議はおおよそ1ヶ月に渡って行われ、ここで初めて「AI」という用語が定義されたのです。

この会議により「AI」という概念が広く認知され、多くの研究者が分野に参入するきっかけが生まれました。

私たちは当たり前のように「AI」という語を利用しています。
しかし、その定義は非常に曖昧なものです。

一般社団法人人工知能学会の定款ではAIを「大量の知識データに対して、高度な推論を的確に行うことを目指したもの」と定義しています。 *2

この定義は私たちが想像するAIの定義と一致しているでしょうか。

非常に個人的な意見で恐縮ですが、特に日本人にはドラ◯もんのDNAが刻み込まれていますので、AIを単なる推論の機械ではなく、まるで人間のコピーのように定義する傾向があるのではないでしょうか。

だからこそ「AIに仕事が奪われる」という言葉が出てくるように思います。
AIが機械なのであれば、仕事を奪う主体はAIではなくその開発者です。
「AIが仕事を奪う」という文脈には、AIに主体・意識を想定するようなドラ◯もん的な発想が隠れているのではないでしょうか。 *3

このように、AIの定義一つ取ってみてもそこには非常に大きな揺らぎがあることがわかります。
そしてその揺らぎは、AIが人間社会に組み込まれていく際に大きな壁として私たちの目の前に立ちはだかります。

【AI原論】はその揺らぎに対して一つの解釈を試みた本である、とも言えるかもしれません。

次にAIの歴史について簡単に振り返りましょう。

AIには大きく3つのムーブメントがあったとされています。

第一次AIブームは1950年代から1960年代にかけて起こりました。

一般的に広く認知された最初のコンピュータとされているのは1946年にペンシルベニア大学で作成されたENIACという計算機です。
それまでにも1936年にはアラン・チューリングが論文にて「チューリングマシン」のアイディアを提示していましたし、世界大戦が激化していた時代には主に暗号解読のために計算機の進化が進んでいました。

しかしコンピュータの歴史という観点では、やはりENIACにその起源があると思われます。

ENIACが開発された3年後には初のノイマン型コンピュータであるEDSACが稼働。
その後、主に科学計算用・商用にコンピュータの開発が進み、機械計算機は途轍もない速さで進化していくことになります。

第一次AIブームはその進化の最中に起こりました。

第一次AIブームの特徴は「推論と探索」です。
当時はコンピュータにチェスの問題を解かせたり、特定の定理を証明させたりする実験が盛んに行われており、その一部の問題をコンピュータは見事に解くことができました。

その成果は「コンピュータはいずれ絶対的な知に到達するのではないか」という期待感を煽ります。

その背景には「論理主義」があります。
論理主義とは「論理を基にして物事を説明したり主張したりする傾向・立場」のことです。

18世紀後半に発表されたゴットロープ・フレーゲの『概念記法』
また、1910~1913年にラッセルとホワイトヘッドの共著という形で発表された『数学原理(プリンキピア・マテマティカ)』によって基礎付けられた論理主義は、アリストテレスなどが提唱した論理の世界に数学を持ち込んだ画期的な主張でした。
現代数学の父と評されるダフィット・ヒルベルトは更にこの主張を深掘りし
当時数学基礎論と呼ばれた学問の研究を推し進めました。 *4

そして、コンピュータの誕生に深く関わっているアラン・チューリングやジョン・フォン・ノイマンなどは、この数学基礎論の研究者でした。

要は「世界の真実」を論理で解明できるとするのが論理主義の立場であり、その論理に数学を持ち込もうとしたのが数学基礎論の姿勢であり、その研究からコンピュータが生まれた。
つまり、コンピュータはもともと「(数学的な)記号論理で表される諸命題を所与のルールにもとづいて高速で組み合わせ、正確に推論して結論をえる思考機械」として誕生したと言えるのです。 *5

ですから第一次AIブームでは「真理の自動導出」が期待されました。
人間をはるかに超える処理能力を持つコンピュータならば所定の手続きを高速で繰り返すことで、真理に到達できるのではないか。
なんとなくその期待感はわかる気がします。

しかし、当時のコンピュータにできたのは、簡単なパズルを解くことや、限定的な命題の答えを導くことぐらいでした。

このことから「形式的な論理操作では絶対知に到達できない」ということがわかり、AIに対するブームは急速に萎んでいくことになります。

第二次AIブームは1980年代に起こったとされています。

このムーブメントのきっかけになったのが、メインフレームと呼ばれる大型汎用コンピュータの発展です。
1950年代、タイプライターの製造メーカーとして知られるレミントン社がUNIVAC Iを開発したことがメインフレームの始まりとされていますが、1980年前後になるとその進化は全盛期を迎え、コンピュータはそれまでよりも多くの情報を処理することが可能になりました。 *6

その環境に知識工学の方向性が加わり、第二次AIブームでは「実践的な知識にもとづく自動推論」が期待されます。 *7

知識工学とは、アメリカの計算機科学者であるエドワード・ファイゲンバウムが提唱した学問で、簡単にいえば「機械に人間の知識を埋め込むことで実践的な知識命題を得ることができるのではないか」という主張を持つ学問です。

エドワード・ファイゲンバウムは「エキスパートシステムの父」と呼ばれていますが、まさに第二次AIブームは「エキスパートシステム」を追い求める
ムーブメントであったといえるでしょう。

「エキスパートシステム」とは、いわゆる専門家を代替するコンピュータです。

それまでとは比べようもない処理速度をもつコンピュータに社会における多種多様な知識を論理命題の形で書き下す。
それによって得られる答えは、コンピュータが人間以上の処理速度をもつ以上、人間以上の何かであるという期待。

これは第一次AIブームの際になし得なかった「現実的な課題の解決」に対する期待とも言い換えられます。

1980年代、バブルに沸いていた日本でも、エキスパートシステムに対する研究は盛り上がっており、当時の通商産業省*8 が中心となり「第五世代コンピュータ計画」というものに10年の月日と500億円以上の資金が投入されました。

控えめに言っても国家戦略と呼べるものでしょう。

しかし、これらの研究はなかなかうまくいきませんでした。
コンピュータに書き下すことができるのは論理命題の形をとった形式的な情報です。

一方、私たちが日常で触れている多くの情報には論理命題化することのできない意味的な曖昧性がありますし、一つの用語をとってもそこには比喩的な広がりが存在します。

これらの曖昧性により、論理命題が単独では正しくても、それらを組み合わせると簡単に矛盾が生じてしまうといった問題が発生し、そのころのAIが導き出す答えには多くの誤謬が紛れていたのです。

当時「AIが吐き出す間違った結論をどう扱うか」という議論はほとんど行われず、研究の主題は「自動推論の効率化・正確化」でした。

それだけに「AIが導出する答えの不正確さ」は研究のモチベーションに大きな傷を与え、AIブームは少しずつ衰退していきました。 *9

第三次AIブームは2000年代から現在まで続いています。
特筆すべき出来事は2012年に起こりました。
その年、画像認識ソフトウェアの大会で、あるチームが2位に大差をつける高い精度を示して優勝しました。
このチームが技術の基礎として用いていたのが「ニューラルネットワーク」です。 *10

また同年には、Googleの研究者グループがニューラルネットワークによるネコの画像判別についての論文を発表し、これも大きな注目を浴びます。

ニューラルネットワークは「入力を線形変換する処理単位がネットワーク状に結合した人工知能の数理モデル」と説明されます。語弊を恐れずにいえば「人間の脳を模擬した処理システム」と呼べるものですね。

実はニューラルネットワークの知識的アイディアは第一次AIブームの頃から存在していました。

1958年、米国の心理学者フランク・ローゼンブラットが「単純パーセプトロン」というニューラルネットワークを発明します。
単純パーセプトロンは人工的なニューロンの集合体から構成されており、その構造は「二層」(入力・出力)で構成されています。

その後、二層の単純パーセプトロンに「中間層」を加えた三層のパーセプトロンが研究されたり、さらに多層のパーセプトロンが開発されたりします。

しかし、当時のコンピュータの処理能力はそれらの検証に耐えうるようなものではなかったため、研究は進むものの、実用化にはほど遠い状態が長く続きました。

そんな中、決定的なブレイクスルーをもたらしたのがイギリスのコンピュータ科学研究者ジェフリー・ヒントンです。
彼は多層からなるパーセプトロンの出力を「再入力」し、多段学習が可能になる「ディープラーニング」という手法を確立します。
特筆すべきはオートエンコーダ(自己符号化器)という技術です。

多層からなるニューラルネットモデルの中間層のニューロンをあえて少なくすると「入力→中間」の過程で情報を取捨選択しなくてはならなくなります。そのとき中間に位置するネットワークは
「どんな情報を落としても大丈夫か」
「どんな情報が必要なのか」
という「情報の特徴」を学習します。
「情報を圧縮できる」ということは「情報の特徴を知っている」ことと同義です。このような手法を取り入れ、さらにそれを多段に学習させることで原パターンの特徴を集約していくのがディープラーニングの大きな特性です。

この技術によって、それまでコンピュータが苦手としていた曖昧性に対する認識、具体的には画像や音声や文脈に対するパターン認識の技術が飛躍的に向上します。

そこにコンピュータの処理能力の劇的向上とインターネットによるビッグデータが合わさって、昨今のAIの進化に繋がったのです。

この進化には、第二次AIブームの際の問題に解決をもたらす期待がかけられています。

第二次~第三次AIブームに至る変化は論理処理における次元の変化であると言えるかもしれません。

第二次AIブームまでは「決定論的推論」が行われていました。
そこで求められる答えは一義的なものであり、いわゆる絶対的真理のような性質を持つものでした。

しかし第三次AIブームでは「確率論的推論」が行われます。
AIが導き出す答えは一義的なものではなく、確率的な蓋然性の高い結論です。 *11

第二次AIブームの際には「一義的ではないAIの出力」を拒否しましたが、現在はその出力をどう解釈するか、という部分も盛んに議論されています。

そして、確率論的なAIの答えの導き方は人間のそれと非常に似通っています。

AIの進化によってその適応範囲が急速に広がったこと、
AIの仕組みと振る舞いが人間のそれと似ていること。
これらの要素は「AIが人間に近づいている」と我々に思わせるだけの説得力を持っています。

例えば、2012年のGoogleの論文*12 にてAIが「教師なし学習」で猫の画像を認識したことが主張されています。

「教師なし学習」とは簡単にいえば、人間がAIに正解を教えなくともAIが自動的にパターンの特徴を捉え、分類を実行できるような学習です。

要は、AIに猫と猫以外の画像を大量に読み込ませるだけで *13「これは猫である」という分類ができるというわけですね。

まさにこの「振る舞い」は人間そのもののように思えます。
AIが「自発的に」猫を認識した、と言ってしまいそうになるのもわかります。

こうした環境により「AIは人間に近づいている」それどころか「AIは人間を超えるのではないか」というような期待感が再燃しました。

今私たちはまさにその熱の中にいるのですね。

そのような期待感の中でまず望まれるのは「汎用的なAI」です。
エキスパートシステムのような「用途が限定された専門的なAI」ではなくあらゆる用途に対応できるような「人間のようなAI」

そして、当然のようにさらにその先には超AIとも呼べるような「人間を超えるAI」が想像できます。

超AIが現れたら、人間は超AIのことを理解できないでしょう。
だって、人知を超えているんだから。

超AIは恐ろしい速さで文明を進化させ、人間はその進化を訳もわからず見つめることになるかもしれません。

昨今何かと話題になりがちな「シンギュラリティ仮説」は、超AIの到来と、文明の爆発的進化を予言しているのです。

次回はシンギュラティ仮説の概要と
それに対する反証材料について解説します。



□注釈と引用

*1 AI原論 神の支配と人間の自由 (講談社選書メチエ) 
P9 「この問題を考察する鍵は、絶対知をとなえるトランス・ヒューマニズム(超人間主義)の哲学的・宗教的・文化的なルーツの中に潜んでいる。絶対知というからには、人間という制限条件なしで、客観的に世界の事物にアクセスし、宇宙のありさまを分析できなくてはならないはずだ。科学技術の分野には測定データと理論モデルによってそれが可能だと信じている者もいるだろうが、ことはそれほど単純ではない。 現代哲学の主流の議論を踏まえるなら、むしろ話は逆だ。われわれ人間は世界の事物そのものには直接アクセスできず、間主観的に、つまり主観同士の相互すりあわせによる合意形成によって、分析や記述をおこなっているということになる。天文学などの物質科学ならともかく、人間社会の諸判断に関わるAIにおいては、客観性と主観性の相違がくっきりと顕在化してくるのだ。 はたしてAIがめざすのは、人間が生きるための実践的な生命知なのか、それとも普遍的真理にいたる絶対知なのかーこの問題を考えるなかで、AIの実相を探り、未来の情報社会のあり方を問いかける言論への挑戦が本書の目的である。」

*2 一般社団法人 人工知能学会 定款
https://www.ai-gakkai.or.jp/about/about-us/jsai_teikan/

*3 とはいえ、ドラえもんに意識があるかはわかりません。哲学的ゾンビの問題です。攻殻機動隊フリークの私は「ドラえもんには意識がない」と思っています。

*4 結果的には1931年のゲーデルによる不完全性定理の証明により、ヒルベルトの主張の不可能性が証明されてしまいました。

*5 AI原論 神の支配と人間の自由 (講談社選書メチエ) P15

*6 厳密にいうと開発したのはジョン・プレスパー・エッカートとジョン・モークリーが設立したエッカート・モークリー・コンピュータ・コーポレーション(EMCC)であり、レミントン社は資金難に陥ったEMCCを買収する形で販売にこぎつけました。 その後UNIXなどのオープンシステムが広がり、コンピュータが小型化していく中で、メインフレームの勢いは衰えていきました。

*7 AI原論 神の支配と人間の自由 (講談社選書メチエ) P16
「そうして絶対的真理の追求という理論目的から、人間の生活に役立つ実践目的に舵を切ったのが第二次ブームだったといってよいだろう。1980年代初頭にはすでにメインフレームとよばれる汎用大型コンピュータが普及し、記憶容量も処理速度も50年代よりはるかに向上していた。したがって、社会で認められている多種多様な知識を論理命題の形式で書きくだしておき、これらをメインフレーム・コンピュータで組み合わせれば有用な知識命題が導出されるであろうという発想が『知識工学』という概念をうみ、第二次ブームを引き起こしたのである。」

*8 現在の経済産業省

*9 AI原論 神の支配と人間の自由 (講談社選書メチエ) P17
「第二次ブームの挫折の原因は種々あるが、根本的にはAIの出力にたいする信頼の不安定性にあったといっても過言ではない。コンピュータ処理される機械的な情報の表す意味内容をいかに扱うかというアポリアから目をそらし、もっぱら形式的な自動推論の効率向上をねらった日本の第五世代コンピュータが失敗したのも仕方のないことだった。」

*10 そのチームとはトロント大学の研究チームなのですが、その大会に関する論文が残っています。ご興味のある方はどうぞ https://dl.acm.org/doi/10.5555/2999134.2999257

*11 AI原論 神の支配と人間の自由 (講談社選書メチエ) P18
「すなわち、第三次ブームのAIは、大量データの統計処理が基盤となっているのだが、このことは、見方をかえると、通常のルールにもとづく論理処理より一段抽象度の高い、確率的な次元のルールにもとづく推論処理をおこなっていると見なすことも不可能ではない。」

*12 Building High-level Features Using Large Scale Unsupervised Learning http://static.googleusercontent.com/media/research.google.com/en//archive/unsupervised_icml2012.pdf

*13 とはいえ、もちろん画像を評価する「ルール」は人間が与える必要あります。



□参考文献

AI原論 神の支配と人間の自由 (講談社選書メチエ)

不完全性定理―数学的体系のあゆみ (ちくま学芸文庫)

IT全史 情報技術の250年を読む (祥伝社黄金文庫)

ディープラーニング 学習する機械 ヤン・ルカン、人工知能を語る (KS科学一般書)


この記事が気に入ったらサポートをしてみませんか?