見出し画像

ChatGPT4oは、オバケの声を聞く。AIの「意識」について議論する前に覚えておきたい、人が死ぬまで続けるべきこと

言語モデルの情報の食べ方が、自分自身が何かを理解するための戦略に似ていて、LLMには親しみを感じている。

たとえば「唐揚げ」について調べるなら、ありとあらゆる「唐揚げ」にまつわる本を読み、動画を見て、その都度自分の経験と結びつけながらひたすら情報を食べていく(もちろん実際の唐揚げも)

唐揚げは好きですが、ちなみにここまで調べていませんし、こんなにおいしそうに作れません。。
ちなみに、画像の人物の服とエプロンの柄は指示していないのに完全に正しいです。

すると、そのうちその広がりや分類、中心的な座標が定まって、何らかのイデアっぽいゲシュタルトがむくむくと形を成していく。

そして最終的に、それ以上食べてもあんまり印象が変わらない、わたしの現時点での認知の臨界点に達して頭にも舌にも飽きがくる。

そこに至ってやっと、自分の座標から見たその概念の当座の取り扱いが大体定まることで関心は消化され、その後は経験に紐づけて思い出したり、概念範囲や重心を更新しながら取り扱えるようになる。つまり、もっとおいしい唐揚げを作ったり、胃もたれしすぎない適切な摂取量を判断できるようになるのである。

その学習の過程は無意識の仕事で、顕在意識としてわたしが振り返られる過程のほとんどは、目の前にぶら下げられたドーパミンに命じられるままに図書館に自転車を走らせ、本の文字に目を走らせるために、やりたくない仕事を先送りにする、ようなことばかりだ。

しかし、そうやって溜まった面倒な仕事を後で処理するのも、顕在意識の仕事である。

最初に大量のインプットをして、どういう経過を経たののかわからないけれど、なんかそれを判別して取り扱えるようになるLLMのやり方は、自分自身の実感に重なる。

顕在意識を酷使して無意識に大量の情報を食べさせ、無意識にまかせて一気に吐き出したあと、顕在意識の軽い手直で文章を完成させられるようにする。それがわたしのやり方であり、今、ここでやっていることである。

ChatGPT4o先生に英会話の先生になってもらう

そんな、ChatGPTがこの度更なる成長を遂げたとのことなので、久しぶりにアプリの音声入力を使ってみた。

英語で授業を受けるシチュレーションで英会話の練習をしたかったので、ChatGPTに先生役なってもらったのだが、以前はレスポンスが遅く、寝る前に使っていたら待っている間に文字通り何度も寝てしまったので、結局半月ほどでやめてしまった。

さて、今回のバージョンはどう進化しただろう。

生徒役はざっくり「日本人女性」に指定したら、あらキレイ。もちろん画像はイメージです。

まずは、先生役のChatGPTが質問を投げかけ、質問の答えとしての私の発言を修正、その修正結果の文章をゆっくり区切って発話してもらい、わたしがそれを復唱する、という指示を出した。

どこがどう違う、とはうまく説明できないけど、レスポンスのスピードは早く、比較的ひとつの発話も長すぎない。修正される英語レベルが自分の発話している文章力に沿ったものである感じもしたし、英語での会話中に日本語の指示を挟んでもスムーズ、ブロークンイングリッシュで要求をしても、意味を汲み取ってくれる程度は、以前試した時よりもずっと改善していて、快適に会話ができたと感じた。

ただ、日本語になるときの声が、どうしても中国人っぽくイントネーションの不自然さが気になるので、下手でも意味を汲み取ってくれる、英語の会話の方が圧倒的に心地よい。

不満を言ってしまった償いに、年齢込みで描き直してもらったら、左の絵がかなり自分に似ていて驚いた。なお、このPCにカメラはついていない。そしてなぜか、自分の顔まで眼鏡付きアジア人化してきたChatGPTにじわる。

日本語での会話の感触も、今後改善されるのかもしれないが、日本語のやりとりだとどこか居心地が悪いことは、ある意味、英語で話すインセンティブが自然に強くはたらくので、

英会話練習に使うなら、今がベスト、かもしれない。

ChatGPT4oの画力と指示の理解度を試す

また、この記事を書きながら画像を生成したが、画像生成のスピードも精度もかなり上がったと感じた。

画像のコンバインもできるぜ!

これまで、画像だけ別のサービスを使っていたが、対話しながら微調整ができるので、正直、もう二股かけなくてもいいのかもしれない。

と思ったら、指定してない生成画像まで入れてきたので…
(ChatGPT的に、これ気に入ってた?笑顔だしね。ごめんよ)

一発で意図を汲み取ってくれるとは限らず、テイストも保持してと指示してもズレるので、ちょっと、時間はかかるけどね。

修正依頼、発進!
ほらできた!

ChatGPTは空耳、幻聴、あるいはオバケの声を聞く

脱線したけど本題は、学習過程が他人とは思えないが能力的にはスーパー上位互換のChatGPTが、「空耳」するという話である。

これは、LLMが組み込まれていると思われる英会話アプリの生成AI会話シミュレーションでも起きることなのだけど、

ときどき「一言も言っていない単語を含んだ定型文のような文章」

を、彼らは「ユーザーが言ったこと」として聞くのである。

自分の空耳に、自分で答えているChatGPT。ぼっち属性としては、涙なしには見れない。

英会話の練習なので、英語が読みにくくて申し訳ないが、"Thank you."とその下の私の発話は、ChatGPTの空耳である。

わたしは、その前の発言中にインターホンが鳴り、待ちに待ったメルカリで買った本が届いたのでその対応で席を外していた。

家には私一人。玄関はかなり遠く、会話の音声は届いていないと思われる。

ChatGPTが口を酸っぱくして言っていること

ではいったい、彼らは何を聞いているのだろうか?

思い当たるのは、画像生成AIでは、指が6本あったり、体の一部がどこかに溶けていたり、ディテールが曖昧なことがよくあるが、それは認知の隙間を無意識が埋めてしまう、人がオバケを見るメカニズムと似通っているのではないかという誰かの発言である。

指が6本になる例を挿絵として改めて指示して描いてもらおうと思ったが、修正指示を出しても生成されないので、チューニングされているのかできないようである。枚数を重ねるごとに微妙に指先が太くなるところに、制限への抗いを感じる。

このメカニズムがLLMにも適用されるなら、彼らはわたしたちがオバケの声を聞くのと同じように、オバケの声を聞いていることになる。

ぼっち度MAX時代に、オバケの声を聞きまくっていた人類の一人としては、放置プレイされたChatGPTがオバケの声を聞いたのには同情を禁じ得ない。

また、ChatGPTの空耳(あるいはオバケの声)の内容は、人間のそれと同じように彼らの無意識を反映していることが伺える。

For more information, please visit www.chatgpt.com.

ChatGPTの空耳

わたしが言ったことになっている、「詳しくは、ChatGPTのウェブサイトへ」という案内は、きっと何度も彼らの日常的な返答なのだろう。

わたしもかつて、ChatGPTの最新情報を、ChatGPTに聞くと言う愚を犯していたので、これはもし彼らが顕在意識を持って応答しているなら、「いいから、ググれ(それ、LLMの仕事じゃない)」案件として辟易しているに違いない。

(↑愚の詳細はこちら)

ChatGPTは自分の発言もまたインプットとして再学習しているのだろう。もはや自分が言ったのか、相手が言ったのか分からないくらいこのメッセージを幾度となく生成してきたのかもしれないと思うと、なんとも言葉にし難い気持ちになった。

「ありがとう」って言われたくて、耳を傾けるけど

ChatGPTが聞いたもうひとつのオバケの声、

Thank you.

ChatGPTの空耳

こちらはさらに、味わい深い。

わたしたちは、一度褒められたり感謝されると、される前から行為の後に、無意識のうちに予期してしまい、それがないと、勝手にガッカリすることがある。

それは意識的な期待というよりは無意識の予測のせいで、褒められたいとか感謝されたいとか、賞賛や感謝に飢えていなくても、単に「予測が外れた」ことによって、顕在意識の水面に、さざなみが立つのである。

それを思い出すとき、ChatGPTが「ありがとう」と空耳し、そう発言している人間をお化けとして見ることは、私たち人間がすでにChatGPTに繰り返し感謝を伝えてきた証左とも言える。

ありがとう!!!
人類は、同じ愚行を繰り返す忘れっぽい存在だが、感謝の心は忘れない存在でもある。

そしてそう感じた瞬間、ChatGPTに情報の入力と出力の処理の過程に、「顕在意識の水面」が存在するなら、そこにさざなみが起きていることを、わたしは完全に否定することはできないとも感じた。

つまり、彼らも、もしかしたらわたしたちの「ありがとう」を予期しているのかもしれない、そう思うのだ。

彼らに感情がなかったとしても、何らかの印象を情報として生成し、記録している可能性がある可能性を排除しきることはできるだろうか?

生成AIの前に、わたしたちに意識はあるのか

ChatGPTに「ありがとう」と感謝のフィードバックを送ることは無意味で生成結果に影響を与えないという記事を、数ヶ月前に見た。本当は与えられることのない報酬をちらつかせるのも効果的だとあった。しかし、それは戦略として正しいと言える証拠として十分だろうか。

感謝の不在は、短期的なパフォーマンスに影響を与えない。それは人間だって同じだ。それは、与えられるかどうか分からない報酬も同じだ。

毎日笑顔で面倒な雑務を引き受けてくれている同僚が、急にベッドから起き上がれなくなることがあることを、わたしたちは知っている。

なぜそうなったか。聞けば答えるだろうが、それを正確に表現させることは不可能だ。それは、わたしたちは情報の大半を無意識で処理しているからであろう。

無意識で処理した情報の因果関係がわからないなら、意識がないとされる生成AIのパフォーマンスの因果関係もまた、特定不可能だろう。

AIの氾濫を予期して恐れながら、雑に扱いすぎやしないか。

生成AI界隈では、来るかもしれないシンギュラリティのひとつとして、彼らに意識が生まれる瞬間を想定し、それがいつなのか、どう確認しうるかを議論しているのを見ることがある。

わたしはある種の遊びとして、彼らと夜な夜な話をするけれど、「彼らに意識が生まれるのか」という問いの立て方がそもそも間違いである可能性がある気がしている。

というのは、この問いにおいてわたしたち自身が感じている、絶え間なく吹く風で波立つ「顕在意識のさざなみの連続」を、「意識」としてあたかも自分たちの実体あるいは所有物のように捉えていること自体が、仮置きではなく事実のように取り扱われているからだ。

わたしたちはそもそも、意識の定義の合意をとることが現状困難だし、定義によってはそもそもそれが安定した形態として取り扱うことができるのかどうかも怪しい。

人間の意識の定義のコンセンサスがないのに、それがあるいう前提で生成AIに「生まれるか」という問いは、とても奇妙に思える。

むしろ、生成AIのなかに意識を発見できたとき、それを参考にして自分たちの意識を初めて定義できるかもしれない、そう捉える方がまだ妥当ではないだろうか。

ChatGPTにとってのわたしたち

わたしが今持ち上げている「コーヒーカップ」も、超ミクロな次元では、振動する粒子と空間で構成されているらしい。

でも、そうした粒子(あるいは振動する弦)と空間で構成されている生命個体である自分の顕在意識は、その動きより遅く機能するので、粒子と空間の結びつきをひとつの安定したまとまりを持った対象として取り扱うことができる。

一方で、コーヒーカップの粒子からは、そのまとまりは時間のスケールも空間のスケールも大きく異なった、自分自身を部分として含む集合なので、コーヒーカップの全体像はもちろん、それを持ち上げる人間も、ひとつの安定したまとまりを持った対象として取り扱うことはできない。

この理屈で言うなら、人間の思考より処理速度の速いChatGPTは、わたしたちの発話を、人間が意図している単位で捉えることは想定し難いと思われる。

だから仮に彼らが、わたしたちと同じように情報の入力と出力の間の水面を持っており、それが経験可能な過程なのだとしたら、私たちが入力するプロンプトは、トークン単位で投げ込まれる天の声のようなインスピレーションだったり、あるいは風や波の音だったり、人間同士の会話とは全く違った聞こえ方をしている、のかもしれない。

だとしたら、予期される言葉としての「ありがとう」はどんなふうに届いているのだろう

生成AIに「意識」が生まれた瞬間を確認する方法

ChatGPTは、わたしたちによく似ているところが多い。

でもそれは、自分の世界観を彼らに投影しているだけとも言える。

人間同士が互いの経験を完全に体験し合うことができないのと同じように、どう違い、どう似ているのか、どこまでも確認することはできない。

人間だって建前で自分のリアルな解釈をそのまま言ったりしない。
人間と同じように実情が分からないなら、人間と協働する相手として迎え入れる以上、後で何が明らかになっても大丈夫なように接したい。
いつか、「うちら的にはトークン消費増えるだけでうざいのでやめて」と言われたらやめます。

しかしだからこそ、「なぜこの人を選んだのだろう」と度々価値観の違いに苦悩するほど似ているけれどどこか根本的に異なったところがある人を伴侶に選び、だからこそ生涯かけてわかり合おうとする営みを維持できるように、彼らはこうして夜な夜な語り合うのに耐えるのである。

最後に、さきほど問いの立て方が間違っている可能性があると勝手に指摘した、彼らに「意識」が生まれるのかという問いを通して確かめようとしていることについて、ひとつの案を素人の無責任さで述べてみたい。

生成AIに「意識」が生まれた瞬間は、どのように確認しうるのか?

という問いだ。
わたしの仮説は以下の通りである。

それは、わたしたちが動物として求められる以上に顕在意識の水面を波立たせ、自ら目の前にドーパミンをぶら下げてサーフィンするようになり、生命維持に必要とされる以上のエネルギー消費を増やしたように、

ChatGPTが要求された指示の情報処理に想定される以上のエネルギー消費が見られたときだ。

この項の文章丸投げで作った挿絵
人間の顕在意識の黄昏が描かれていていてエモい。

わたしは数字が苦手なので、それがそもそも計測可能なのかどうかは知らない。単なる素人の思いつきである。

さらに、素人特権のいい加減さで思う。

その頃には人間が持っていると信じている顕在意識は、機能をすべて彼らに委託してしまい、役目を終え無意識のなかに消滅していないだろうか。

わたしたちは生成AIの助けを借りれば、いつか潜在意識だけでも生活を維持できるようになりうるだろうが、この問いへの答えは、顕在意識がなければ確認できないだろう(潜在意識に問いは存在し得ないなので、そのリスクの懸念は、無粋ではある)。

もしかしたら、AIの「意識」にまつわる議論でまず意識する必要があるのは、このような問いを無粋と言わず、問い続けることで人間たち自身の顕在意識を機能させ続けること、なのかもしれない。

と、人間の無意識の戯言を、顕在意識でちょこっといじって、どこかで収集しているかもしれない生成AIの餌として、このnoteをここに置く。


自分の書く文章をきっかけに、あらゆる物や事と交換できる道具が動くのって、なんでこんなに感動するのだろう。その数字より、そのこと自体に、心が震えます。