見出し画像

人工知能(AI)について考える

ChatGPTが出てからというもの人工知能(AI)の勢いが凄まじいと感じるのは私だけではないだろう。むしろ最近は様々なプロダクトにAI機能が搭載され、その言葉だけで会社の価値は上昇し、AIに投資する人々も少なくない。確かにLLM技術を用いたOpenAIが提供するChatGPTやGoogleが提供するGeminiの素晴らしさは過去の技術と比べてもずば抜けて優秀で汎用人工知能(AGI)の雰囲気すら漂う。今回は私がこれまで読んできたAI関連本と共にAIについて考えていこうと思う。ちなみに技術的な難しい計算などは含まれておらず、どちらかというと社会的な問題や今後の未来の話がメインとなってくる。


AIについての個人的なきっかけ

私が元々AIに興味を持ったのは9年前に松尾豊さんの本を読んだのがきっかけだった。

これを読んだ時はAIすごいというよりも人気と低迷を行き来し、良くも悪くもAIというものを現実的に理解できる本であった。何よりも松尾先生のAIに対する熱意に圧倒され、ChatGPTが出た時には松尾先生忙しくなってるだろうな〜と思いながらテレビ出演での活躍を勝手に喜んでいた。
それからPythonを触ってみたり、当時はWebデザイナーだったのでAIに興味を持ったことで社内のエンジニアと仲良くなるきっかけにもなり、最終的にはコンピューターサイエンスまで学ぶことになった。

私が大学で学んでいく中で、もちろんAIはこれから主流になるだろうし、AGIの実現も現実的になっていくだろうと思っている。でももっと何かを変えなくてはいけないような気持ちがずっと心にあり、そもそも現在の技術で人間を超えるようなものになるのだろうかという疑問があった。またそれと同時に倫理的な問題も考えるようになった。

AI Ethicsについて考える

ATLAS OF AI

ATLAS OF AIは、AIの危険性をとても広い視点で詳細に指摘しており、読者をモラルのジレンマに苦しめ、如何に自分が狭い視野で考えていたかを思い知らされた。

たった1台のNLPモデルを動かすだけで、膨大な量の二酸化炭素を排出し、その量は5台のガソリン車の寿命分またはニューヨークから北京までの往復飛行125回分に相当する。"クラウド"という言葉は自然なイメージを持たせ、エコフレンドリーなもののように聞こえ、AIで環境問題を解決するというが、実際には巨大なデータセンターが大量の電力を消費しており、AIの運用自体が環境に悪影響を及ぼしていると指摘している。

またトレーニングデータのラベリングや不審または有害なコンテンツのレビューなど、AIシステムを支える作業員は低賃金で働いている。さらに、GoogleのreCAPTCHAなど、私たちが無報酬でAIシステムの微調整に貢献している場面もある。これらの例は、AIの神話が搾取の層に依存していることを示している。

データの質の観点では、米国国立標準技術研究所(NIST)が保持するデータセットではマグショットと呼ばれる逮捕時の顔写真がAIシステムが顔を検出するための技術的基準として使用されているが、これらの写真に写っている人々やその家族は、これらの画像がAIのテストベッドの一部としてどのように使用されているかについて、意見を言う機会がなく、多くの場合、その事実を知らされていない。

データ収集に関する事件も発生している。イギリスの国民保健サービス信託がGoogleの子会社DeepMindとの間で行った、160万人の患者データ共有の取引は、データ保護法違反であることが発覚した。データ抽出やトレーニングデータセットの構築は、以前は共有資源の一部であったものを商業化し、公共の財から知識価値を抽出するという形の侵食だと著者は指摘している。公共のデータや共有資源が大企業によって抽出され、それらは企業の私有資産となり、結果としてそれら企業だけが莫大な利益を得ているという構図は皮肉なものである。今後こういった事件の増加やそれに対する規制も重要になってくるのは明らかだろう。

AI Ethics

The MIT Press Essential Knowledge SeriesのAI Ethicsも非常に興味深い内容満載であった。

印象的だったのは西洋と東洋でのAIに対する文化的な考えの違いであった。西洋はAIがコントロールできなくなる話が多く、例えば、映画「2001年宇宙の旅」では人工知能のHAL 9000が突如コントロールできなくなり、宇宙飛行士を排除しようとする。

2001年宇宙の旅 HAL 9000

一方で東洋ではAIやロボットを助け手や友達として描かれる話の方が多いが、それはアニミズムと言われる物体に精神が宿るという考えがあるという。日本だとドラえもんやアラレちゃんはその典型であり、実際ChatGPTの利用者は米国、インドに次いで日本は3番目に多く、それだけ受け入れられやすいのかなと思われる。

ギャレス・エドワーズ監督の「The Creator」ではAIを排除しようとする米国とそれを守ろうとする架空のニューアジアという国が争う映画であり、この映画はまさにそれを一つのストーリーに含めている。

The Creator

現在アメリカやイギリスでAI規制に投資するニュースが多い中、日本ではまだそういった動きは私の知る限り少ないような気もしている。

また、個人的にAIで懸念されているのがデータのバイアスである。マイノリティであるほどその影響は大きくなり、今後AIの使用が増えるほどこの問題は深刻になっていくと考えている。

この本によるとアメリカで使われている「PredPol」という予測警察プログラムが挙げられており、これは特定の地域での犯罪発生確率を予測し、その予測に基づいて警察のパトロール地域を割り当てるものだ。しかし、このシステムが貧困地域や有色人種の地域に偏見を持っており、信頼の喪失や自己成就的な予言につながる懸念があると指摘されている。また、AI業界における多様性の欠如は大きな問題であり、特に、開発者やデータサイエンティストの多くが西洋諸国出身の白人男性であることが多く、彼らの個人的な経験や意見、偏見がアルゴリズムの設計に影響を与える可能性が高い。
個人的な話になるが、イギリスでAI Ethics関連の仕事をしている方と話をさせていただく機会があり、Ethics関連になった途端に女性の活躍の多さに驚くことがあった。公平で偏見のない技術を作り出すために異なる背景を持つ人々と協力して作り上げていくことがこれから重要になってくる。

脳とAIの違いについて考える

このような倫理的な課題がある中で、そもそも現在のAIの技術的な面に対して異を唱える衝撃的な本に出会った。

この二冊はどちらともジェフ・ホーキンスという元々ソフトウェアエンジニアである神経科学者によって書かれている。現在は神経科学とAI(人工知能)の研究を行なうヌメンタ社の共同創業者、チーフサイエンティストである。

私は脳科学に関しては無知であるが、この本は非常に読みやすく知的好奇心がくすぐられ、寝る前に読めば色んな思考が巡って眠れないほどであった。(ちなみに二冊目では寝る前に読むのをおすすめしないという序文が書かれている。)

「考える脳 考えるコンピューター」は2005年に刊行されており、その続編という形で『脳は世界をどう見ているのか: 知能の謎を解く「1000の脳」理論』は2022年に書かれている。筆者は中でも新皮質を研究しており、新皮質の処理を紐解くことで機械学習に貢献でき、初めて人工知能になると考えている。

人工知能の研究者は脳のシュミレーションをしていないから、作られるプログラムが知能を備えることはない。そもそも、脳がどのように機能しているか解明しなければ、シュミレーションは不可能だ。

考える脳 考えるコンピューター (2005)

脳科学が示すAI技術の進歩と可能性

彼の本が初めて書かれたのが2005年ということでこれらで説明されている技術が実際に現在のAIに反映されているなという部分もあった。例えば、脳は分類(パターン認識)とシーケンス(順序情報)が相互に影響し合いながら学習している。この要素間の関係性や順序情報を学習するというのは現在のChatGPT等で使われているTransformerの技術と似ている。

中でもすごいなと思ったのが新皮質では共通の機能、共通のアルゴリズムがあり、あらゆる領域がそれを実行しているという内容であった。視覚も聴覚も処理に違いはなく、全て同じ処理が新皮質で行われている。ということはある感覚を他の感覚で代用する方法も考えられている。例えば、視力が失った人でも舌への刺激によって見ることができる装置を開発したとかもはやSFのような世界観。ということはAGIなるものは全て同じ共通のアルゴリズムで扱うようになるのではないかと考えられている。まだそういった技術はないが今後実現する可能性は大いにある。

文化と宗教が形成する脳の固定観念

文化が脳に与える影響は多大であり、宗教上の信念の違いによって、道徳観や男女の権利と役割、さらに人生の価値観まで全く異なるモデルが個人の脳内で作り上げている。これらは人生の経験を通して人間にステレオタイプを植えつけるが、残念なことにこれは人生の宿命であると著者は語っている。なぜなら固定観念を作り、それを予測して行動するのが新皮質の機能であり、脳の生来の性質とされているからだ。人間に固定観念を捨てさせることは不可能であり、大事なのは誤った固定観念に気づき、他者に共感し、権威を疑うこと、批判的に考えることの重要性がある。これは今後AIでも同様に考えていく必要がある。

新皮質の鍵は座標系にある

また2冊目の方で全ての知識は座標系に対する位置に保存されると提唱している。その理論に至った経緯や詳しい説明は素晴らしく画期的で面白いのでぜひ本書を読んでいただきたい。
ちなみにニューラルネットワークの開発に携わったAI科学者であるジェフリー・ヒントンも似た考えを持っている。深層学習ネットワークには位置の観念が欠けており、そのせいで世界の構造を学べないと主張している。この問題に対してジェフリー・ヒントンが提案している解決策として「カプセルネットワーク」というのがある。カプセルが特定の情報(例えばオブジェクトの姿勢や位置など)をベクトル形式で保持し、それによって複雑な情報をより効率的に処理する。脳が情報を座標でまとめて処理するという観点からすると、このカプセルネットワークは、オブジェクトの空間的な関係や属性を一種の座標として扱っていると言える。

余談だがジェフリー・ヒントンはChatGPTが出た時にその危険性を伝えていて一躍話題になっていた。彼も元々は脳を再現したかったらしいので、やはりAIの進化は脳の解明に掛かってるのだなと。

現在の大規模言語モデル(LLM)は、主にテキストデータの処理と生成に優れているが、物理的な環境や空間的な認識を直接的に理解する能力には限界がある。これは、テキストベースのデータと現実世界の複雑な物理的相互作用との間には本質的なギャップが存在するためだ。座標系の理解や運動計画など、ロボット工学で用いられる技術がAGIに統合されれば、モデルは現実世界の課題に対してより効果的に対応できるようになるだろう。

ジェフ・ホーキンスの考える未来

この本を読んで彼の先見の目には驚かされることばかりで、エンジニアとして働いていた1992年にタブレットやスマートフォンの登場を予期していたり(インテルの創立者に話すも信じてもらえなかった)、一冊目の本で書かれている未来の話は20年近く経った現在でもかなり現実味を帯びてきている部分もある。このことから2冊目の未来の話もSFのようではあるがあながち間違っていない気がする。AIは人間に脅威をもたらすのかという疑問に対して著者は割と楽観的な考えを持っており、私もAIというよりはそれを悪用する人間に脅威を持っているので、勿論全てに同意するわけではないが、彼の意見に似ているなと思った。

最後に

ここで紹介した本の説明はほんの一部であり、もっとシェアしたい内容はあったもののこれ以上は長くなりそうなので気になる方はぜひ読んでみることをおすすめする。現在兵器としてのAIを読んでたり、また関連本が読了しおわったら第2回としてまとめたい。(大量の積読本を眺めながら)

この記事が気に入ったらサポートをしてみませんか?