見出し画像

【きくこと】 第12回 セーラー服おじさん 小林秀章


小林秀章(セーラー服おじさん)
1962年生まれ。早稲田大学理工学部数学科卒、同修士課程修了。現在は印刷会社に勤務しつつ、「セーラー服おじさん」として活動中。


廣木:図書館について語るときに我々の語ること第12回。図書館総合研究所の廣木です。

染谷:株式会社ひらくの染谷です。よろしくお願いします。

廣木:今日はゲストにお招きしているのが小林秀章さん。

小林:はい、こんにちは。通称セーラー服おじさんと呼ばれてます。

廣木:見かけると幸せになるといわれている。 

小林:それよく言われてますね。

廣木:この格好でいろんなところに行かれたり、文字通り小林さんの「制服」生活する上でのっていう、そういうことです。にいらっしゃっていただきまして、いろいろお話を聞いていこうということでございます。よろしくお願いします

小林:よろしくお願いします。

廣木:始まる前にというか、追々その話になると思うんですけど、小林さんは実はこういう身なりをされてますが、AIの世界とか、これからどんどん進んでいくテクノロジーのことについて非常にお詳しい方なんです。

元々2年前のコロナが始まった時にバーチャル図書館っていう、リアルの図書館が使えない時にどうしたらいいんだろうっていうのを僕らは考えてたんですけど、その時にメタバース空間で本とどういう風に触れるかっていうことと、あともう1個大きなテーマが、AIでのレファレンスっていうのがあったんですけど、当時そのことをやろうとしていた時は、ちょっとあんま使えないなっていう感じだったんですよ。

AIのレファレンスの方っていうのは結構封印してたっていうか、開発をしていく中ではちょっとまだ先回しにしようなんていう風にも思ってたことがあったんですけど、小林さんといろいろ話をする中で、いやこれは今からならいけるなっていうような。ちょっとあれですね、図書館のことについてまた語りすぎてしまいました。やり直しましょうか。

染谷:いやいや、全然いいと思いますよ。

廣木:そんなこともあってですね、今日そういう話どこまでするかっていうのはあるんですけど、小林さんの活動を含めてお話をお聞きできればと思っております。最初に自己紹介を。

小林:自己紹介はご覧の通りセーラー服着たおじさんですけれども、この格好を始めたのは2011年6月なので、もう12年やってることになります。なかなか単位が揃わなくて卒業できないんです(笑)

染谷:卒業する時は来るんですかね(笑)

小林: AIの話が出ましたけども、AIは個人的に興味があって調べてるというか、遊んだりしてるんですが、もともとは「意識」に興味があったんですね。

意識ってやっぱり考えてみるとすごく不思議で、脳って物質じゃないですか。物質であるからには物理法則に厳密に従わざるを得ないはずで、そんなとこに意識って乗りそうな感じ全然しないじゃないですか。とても精密に動いてる機械ではあるんですけどね。

ニューロンという脳神経細胞が約860億個あって、その1個1個が他の脳細胞と約1000個から1万個の脳細胞と直接シナプス結合っていうので繋がってるんです。そうすると他のニューロンが、俺は発火したぞと、光ったぞって情報が軸索を通じてシナプス結合を通じて、あいつも光ったこいつも光ったなってキャッチするわけですね。それを合計して、ある閾値を超えてある程度になったら、よし俺も光るぞってなって、また光ったら軸索を通って隣の細胞に移る。みたいなことしかやってないので、今のところ調べがついてる限りは。

ということは、脳細胞1個1個の働きを見ると本当に精密機械でしかないし、やってることは計算でしかしないんですよね。そういう中で我々は自分の感覚としては感情を持っていて、俺は機械じゃないぞっていう感覚を持ってますけど、でもその実質やってることはもしかしたら計算以外何もやってないかもしれなくて、そう思ってみるとなんかもう朝起きたら意識があるってそのこと自体がなんか起きそうもないことが起きてるっていう感じの不思議さがあって、そこはもう不思議でしょうがないからいろんな本を読みまくったんですけど、人類は答えを誰も知らないんじゃないかと気がついて。要するに深い謎なんで、根源的な謎なんですね。

その辺から入ってきてAIの知能が意識とは違うんだけど、だんだん知能レベルが上がってきて、部分的には人間に迫ってたり、碁とか将棋はもう人間を超えてたりとかで知能っていうのもやっぱり不思議で、本質は何かっていうはわからないので、そういう中でまあとりあえず何かが起きたということに関してはびっくりはできるようにしとこうっていうね。だから何も知らないとびっくりできないのでその中の仕組みは今のところここまで来たんだなとか、こういうふうに動作してるんだなってことぐらいは理解しとこうと思って調べてるっていうのが今のAIとの関わり合い方なんですよ。

廣木:ちょっと僕のニューロンがあんまり性能が良くないので(笑)確認なんですけど、要するに意識っていうのは人間の脳みその中で起きてるニューロンがシナプスでつないでっていうものなんだけども、1個1個は単純にこう計算をしてるだけだと。その計算の集まりが意識っていうものになってますよっていうそういうことですか。

小林:今のところ解明できてる限りはその程度でしかないということですね。

廣木:AIっていうのはそれこそ計算の集合知っていうか、成立しているものなので、そこで生み出されてるものも、人間の意識とか知能っていうものと近いものだと、そういう話なんですか。

小林:AIと人間の脳とがどのぐらい似てるかっていうのはまたちょっと議論がある話であって、AIも一応ニューラルネットワークという仕組みを使っていて、あれは脳のニューロンの集まりをちょっと真似してるんですよね。ただのフィードフォアもあるしフィードバックもあるのに対して、AIのニューラルネットは今のところフィードフォワードしかなくて、行った先で誤差が出たらそれを小さくするようにバックプロパゲーションという方法を使って、その途中の重みを調整することで答えが合うようにしてくっていう仕組みなんで、脳の仕組みとは若干違うんですけども。

ただどんなことができるようになったって言った時に、やっぱり碁でプロを負かしたとかそれかなりびっくりすることだし、今は言葉が使えるようになってて、少なくともその表面的なやり取りを見る限りはAIが言葉の意味をある程度は理解しているように見えますよね。

それはやっぱり驚くべきことで、言葉って人間様のものだし、意味がわかるって人のすることなんじゃないのって思いがちだけど、AIが相当なレベルまできてるっていうのがちょっと怖くもあり面白くもあり。ただ今の到達レベルってまだ欠点があるので、すぐに教育とか医療で使われて世の中ガラッと変わっちゃうほどではないですけども、進歩がめちゃめちゃ早いのでもう本当に数年後にはどうなっちゃうのっていう、ポテンシャルというか可能性が秘めてるなというふうに思ってるんですね。

廣木:AIが言葉の意味を理解したっていうのは、単語を理解したっていうことなんですか、それとも自然言語とか。

小林:単語が理解できるようになったのが2012年のWord2Vecっていうのが出てきて、Googleから出てきたやり方なんですけど、それはやっぱりニューラルネットだけど浅い層というか浅いニューラルネットを組んで、単語1つ隠してそれを当てさせるようなことをやる。その単語から中間層のところに単語を圧縮したようなベクトルができるんですね。それが単語の意味であるということで、単語1個1個の意味をベクトルとして表現する。このベクトルだって実数値の集まりで300次元だったら実数が300個並んでるだけなんですけど、それでもなんかそのベクトルが単語の意味らしきことを表していて意味として機能してるぞというのが突破できたのが2012年のWord2Vecなんですよ。

じゃあ単語の意味はだいたい扱えるようになったけど文章の意味はどうなのっていうのがそれからしばらく課題だったんだけど、そこが突破できたのが2017年のトランスフォーマーというやり方なんですよ。それはやっぱりGoogleから出てきたんですけど、これがもうほとんどAIによる言葉の理解の決定打みたいになっちゃって、そのトランスフォーマーについて書かれた論文のタイトルもすごい挑発的で“Attention is all you need”というタイトルの論文なんですよ。

どういうことかというと、それまでRNN(リカーレントニューラルネットワーク)っていうのが流行ってて、それにAttentionという記号を付け加えることで、古い言葉も随分過去に言ったことも忘れないようにつなぎとめてくような仕組みっていうのが出てきて、RNN+ Attentionというちょっと新しいものが出てきたんです。そのトランスフォームの論文はAttentionさえあれば十分であって、それまで流行ってたRNNは全然いりませんよってそういう挑発的なタイトルだったんですね。でもそれはちゃんと予想が当たって、その論文をきっかけにRNNは急速に廃れていくんですよ。あれをもってやっぱりAIが少なくても見かけ上の振る舞いは人間の言葉を理解するようになったっていう、なんかすごいブレイクスルーだったんですよ。なんか一段上のステージに来たぞみたいな。

それより前は碁が強いとか、そういうのも知能としたらすごいけど、じゃあ何ができるのと言った時に、碁しかできないでしょってなっちゃって、我々の実世界の実用に対してはそんなにものすごい威力を発揮する感じじゃなかったんだけど、言葉がわかっちゃうともうなんかどこへでも使えちゃうんじゃないのっていうで、その後オープンAIが2020年の頃GPT3みたいに出してきて、いよいよ人間と会話ができて言葉の意味がわかったような振舞いをするようになったぞということですね。

染谷:すごい歴史も重量が。

廣木:難しいですね。

小林:技術話になって専門的な観点になっちゃう。

染谷:今年になってそのオープンAIのChatGPTとか急になんかホットワード的に一気に世の中に浸透してきた感があるんですけど、あれはなぜあそこまで僕らの生活に接近してきたんですか?

小林:あれは何にも急に変わってないんですよ。マスコミな気がついただけ。ChatGPTがでてきたのは去年(2022年)の11月なんですよ。やっぱりすごいなとは思ってたんですよね。その前にGPT3.5とか、元々オープンAIが出してるWebアプリで遊べるGPTってあったんですよ。それは有料だったんですよね。だけど実はそれに教育を施そうと、変なこと言った時にマイナス点を与え、良いこと言った時にプラス点を与え、人間がフィードバックすることによって、いいことしか言わないように教育しようと。そのためには皆さんの協力が必要だからって言ってGPT3.5ってかというかChatGPTをタダで解放したんです。

タダで解放した代わりにいいねボタンとかダメねボタンとかあって、ユーザーのフィードバックを拾い集めるためにタダで解放して。実は涙が出るほどコストがかかってるって言ってるんですけどね。そしたらそのタダになったことですごい人気に火がついちゃって、3日ぐらいで100万人ユーザーになり、1ヶ月だからそのぐらいで1億人ユーザーいったのかな。という爆発的なはやり方をしたもんだから、これは何だってことになって、今まであったSNSの中でもダントツ新記録の速さで広まってるので、今年の2月頃マスコミが気がついて流行ったっていうことなので、実は何も変わってなくて。

それまで私なんかすごいじれったい思いをしてたんですよ。こんなすごいことになってるのになんで誰も騒がないし気がついてないんだろうと。もっとメジャーなマスコミが取り上げろよって結構じれったい思いもしてたんですけど、それが2月頃になってさすがにあれだけユーザーが増えたことによって、なんかすごいことが起きてるって気がついて、そしたらなんか急激になんかワイドショーでもやるようになりみたいな。もう毎日AIの話題みたいな。なんか極端だなっていう感じですけど。

廣木:そういう意味で去年から今年にかけてすごい話題になって、実際触ってみると結構すごい使えるものになってるなっていうのがあって。AI自体はやっぱり図書館業界とかでもなんかうまく使えないかという話は結構前からあったんですけど、あんまり使えるものでもないなっていうのがあって。でも今小林さんの話だとマスコミは気づいただけっていうことなんですけど、やっぱりChatGPTならではのっていうのがあるわけではないんですか。もともとAIっていうのは同じ機能っていうか、開発とかは進んでいて、それを無料で公開したことで学習が進んで、いいものになったっていう。そういう理解で良いんですか?

小林:技術的にはRLHF(Reinforcement Learning from Human Feedback)っていうやり方してるんですけど、今のGPT3.5とか4の前進のGPT3っていうのが2020年頃から出てきてて、あれ使ってみたけどひどいんですよ。

いろいろひどいんだけど、例えば「昔々あるところにおじいさんとおばあさんがいました。おじさんは芝刈りにおばさん洗濯に行きました。」まで与えて、続きの物語書いてくださいって言ったら、非常に論理的なんだけど、2人暮らしで2人出かけてるわけですね、家空いてるわけでしょ、不用心じゃないですか。だから「悪ガキが来て火をかけて燃やしちゃいました。おじいさんとおばあさん帰ってきたら家が焼け落ちてました。びっくりしました。」とかね。結構グロテスクなこと言ってくるんですよ。あと「おじいさんは崖から落ちて死にました。」とか言って、それで「おばあさんがそれを家に置いといたらなんかだんだん臭ってきて、臭くてどうしようもなくなりました。それでそれを引きずってって洞窟の前で串刺しにしました。」とか言って。「そしたらなんかそこに生えてました」かなんか忘れたけど、結構すごい。それでその置き去りにしてその家に帰ってきたらおじいさんしれっといるんですよ。だから人間は死んだらいなくなって、またいるって事ないんだって、そういうことも理解してない。だから2年前であんなにひどかったものがそれに比べればすごいまともになってきてるんですね。

その秘訣がRLHFで、要は人が教育してるんです。AIが変なこと言ったらそれはダメだぞと、こう言うべきだぞって教えて、いいこと言ったら褒めてやるみたいな。そうすると今度はAIの側が良い点をもらえるようにするにはこうしたらいいのかなって考えて、次からは期待に沿うような答えをなるべくしてくるっていう。なんかいい子に優等生になるような教育してるっていうことなんですね。それが功を奏して今は割とまともな答えを返してくるようになってるっていう事なんですけど。ただつまんないですよね。逆にそういうさっきみたいな家に火つけたみたいなそういうこと言ってこなくなっちゃった分、創作能力があるんだけど、今一つ面白くないですね。

私GPT3とかのChatGPTに書かせたのが「知ったかぶりでなんか面白い話しして」って言ったんですね。そしたら「彼氏が彼女に対して見栄を張るために、何か知ったぶりしたらすぐバレちゃって恥ずかしい思いをしたけど、いけないんだって反省して謝ったらますます仲良くなりました。」みたいなね、なんか面白くない。ちょっと面白くなくはないけど、なんだかなって。それに比べれば古典落語の「ちはやふる」なんかめちゃめちゃ面白いですよね。

だからやっぱりその意味がわかるって言ってもそのレベルがいろいろあって、本当の面白さとか価値を評価するっていう評価軸みたいな意味での「意味がわかる」にはまだ全然届いてなくて、そこはまだまだなんですよね。

例えば崖から石が落ちてきました。そしたらその状況をちゃんと理解できているか、あるいは木の葉が揺れてますと、何が起きたんですかって聞いてみると、風が吹いてるからでしょうと。あるいは動物とか人間が潜んでたかもしれないけどその時は揺れ方が違うでしょと。まともなこと答えてくるんだけど、本当は別に風を身で受けたという経験はないんですよね。そういう意味でシンボルグラウンディングがない、つまり実経験がない。身体を持ってないから言葉を別の言葉で置き換え言い換えてるだけで、絶対地面に着地しない。だから空中でメリーゴーランドで回ってるようなもんであって、絶対に実経験というところで着地せずに言葉の中の世界だけでやってるって意味で、まだ意味がわかってないっていう。

そのシンボルグラウンディングが解けてないことが一つと、それからその面白さの価値がわかってないって意味で、今のところやはりすごいすごいという言いながら、そこの肝心なところがまだできてないのでそこは今すぐ使おうっていってもちょっとつまんないのと危なっかしいっていうのがありますね。

廣木:危なっかしいという意味ではよく言われるのは嘘をつくって。

小林:そうなんですよね。ハルシネーションっていうんですけど、幻覚って言ってますけど。あれも要は次の単語を統計的に予測してるだけなので、知らないこと聞かれちゃうとなんとか文脈だけあってるように適当にでっち上げてくるんですよね。あれは問題で、教育で使おうと思った時に子どもに間違ったこと教えちゃったらまずいし、医療とかああいう大事なところで使って嘘を信じて変なことしたら困るので、そういう意味ではまだ実用で頼りにして使うのはちょっと危なっかしいですね。

廣木:実質経験がないからその本当の意味が理解できてないっていう話だったのかなと思うんですけど、それってでも永遠に実経験ってAIはできないじゃないですか。

小林:2つ考え方があって、現実世界に着地してなくて、言葉しかわかってないと言ったって、言葉を通じて他人の経験を追体験してるようなもんだってって思えば、つねっても痛くないんだけど、なんとなくみんな痛いっていうのを知ってて、人はなんかこう痛いとの苦痛に感じて痛みがあるんだなということをなんとなく理解する。

ということはしてるようなので、本当の痛みは感じなくても、言葉を通じて痛みがわかるっていう。だから言葉だけでわかる限りの分かり方はできちゃう。だからそこに思いやりの感情みたいな。自分は痛みをわかんないけど痛いんだねっていうことを分かってあげるとか、そういうのはあるかもしれないというのと。もう一つあのロボティクスと組み合わせて身体持っちゃえばいいんだろうと、そっちはそっちでやってますからね。

染谷:レプリカントですね。

小林:だからカメラとかマイクとかつけるだけじゃなくて、腕で掴んだっていうことをまた目からフィードバックしてってことでやれば、だんだん放し飼いにして、そこら辺で遊んでるうちに世界ってこうなってるんだってことを身体と結びついた形でわかってくるっていうことがこれから起きてくる。今盛んに研究してるところなのでシンボルグラウンディングの問題も本質的にそこから解決しちゃう可能性もある。

染谷:本当に赤ちゃんが成長していくように、ロボティクスが身体を持った。

小林:そうですね。今のところできないんですよ。要は今のAIって例えば猫という概念を理解させるのに猫の写真1万枚とか100万枚とか与えないと猫の概念を理解できないんですけど、子どもだったら2、3匹見てあれも猫あれも猫って言ったらだいたい猫わかったっていう感じになるので。そこは今のAI全然できてないんですよ。だけどそれもそのうちできるようになるかもしれないし、ということで人間には全然劣るんですけど、今のところはね。

廣木:あれですかね。ちょっと前の話で単語の意味は理解してると。

小林:Word2Vecで。

廣木:という話で、その時にその単語に一つの単語に300次元のベクトルがあってっていうことなんですけど、それは例えば本っていう言葉に300のベクトルがあるみたいなそういうこと言ってますか?

小林:実数値300個からなる1本のベクトルというのと、本という単語が1対1に対応してるっていう。

廣木:うーーん…。

染谷:わかったような、わかってないような…すいません。

廣木:ベクトルっていうのは見え方のこと言ってるんですか。本っていうものに対しての見え方を言ってるんですか。

小林:見え方というか、多次元であるからいろんな意味を包含してるんですよね。だから本って言っても「本」格的とか「本」醸造とかね、そういう本ってブックの本と全然意味違うじゃないですか。でもその本っていう意味も多少含んでて、その300次元の広大なベクトル空間の中でこういう風に切ると、その「本」なんとかみたいな意味があって、こういう風に切るとそこには「ブック」の本の意味が現れみたいになるということがあるんですよね。

広大なベクトル空間の中のその部分空間っていうのがあって、部分空間で見た時に、それがある切り口というかある観点を表している。だからいろんな観点から見たその単語の意味みたいなものを含んでるっていう意味で次元の高いベクトルが必要だったということだと思うんですけどね。単語のその次元を増やすという意味では今オープンAIのGPTのモデルがABCDとあって、ダヴィンチってのが一番グレード高いんですけど10,288次元なんですよ。

廣木:すみません、もう一度お願いします。

小林:10,288次元。やっぱりそれだけの次元を持たせてるって事は多い方がいいらしいですね。

廣木:次元ってなんですか?

染谷:次元っていうのがちょっとすいません、なんか直感的にも理解できてない。3次元4次元の次元?

小林:想像力が必要なんですけどね。えっと1次元っていうのはもう線ですよね。実数値が1個あるって言ったら、数直線上に2.5だったらここが2.5だよって。要するにRという数字が1個あるということと、直線上の一点ってのが対応してます。このR1個っていうのは代数的な意味の次元なんです。数直線上のこの点は幾何的な意味で図形ですね。そうすると、2次元は簡単で、XYと引くと平面ですね。平面に(3x.5y)があると言ったらXが3でYが5であるので(3.5)のところに点を打つと、この点が(3.5)というベクトルに対応する点であると。代数的には3と5という数値が並んだものが二次元のベクトルなんだけど、幾何的に言うとこの平面上の(3.5)が原点0から向かった矢印がベクトルであるという風に代数的に見ると聞かれてきます。3次元も同じですね。(3.5.6)とかだったらXYZで。そこまではいいんですよ。で代数的には全然問題なくてXYZUとかね。4つ実数値を並べて、それを組にして、一つのものだと思いましょうって別に違和感ないじゃないですか。問題ないんですけど、幾何的に見た時にこのx軸y軸z軸のこの3つの軸のすべてに直角に交わる、直行するような4本目の軸をどっちかにとってくださいといっても、もう我々が住んでる世界が3次元なんで、どうやったってそんな4本目の軸なんか引けりゃしないんですよ。だけど我々の住んでる世界の外を考えてるから、見えないしわからないけど、そっちへ線を引いたら消えて消滅して一瞬でなくなっちゃうみたいな、知らないあっちの世界にもう1本軸が引けるんだなってことは想像しなきゃいけないんですよ。

廣木:あれですよね、なんかドラえもんの四次元ポケットみたいな。それはでも1本増えただけでそこまでこうなってくる。

染谷:インターステラーもそうですけど、10,288次元、想像がつかないですね。

小林:でもちょっとテストしてみたのは、要は単語と単語は似ていると。本と書籍って単語としてなんとなく意味が近いですよね。そうするとベクトルにした時もやっぱり本っていうベクトルと書籍ってベクトルは割とご近所に配置されるんですよ。要するにその空間に点として単語を配置した時に意味の近いもの同士は空間の中でもご近所に配置されると。これはちゃんと守られてるんですよ。そのことから意味が分かったっていうのが一つ言えるんです。

それからもう一つ面白かったのは、自分でテストしてみたんだけど、家電メーカー、東芝とか日立とか富士通とかの名前。固有名詞でもちゃんとベクトルに割り付くんですよ。それぞれ点に割り付けて。もう一つはウサギとか猫とか動物の名前をねラクダとかキリンとかを空間に割り付けたんですよ。そうすると動物は動物で点がまとまっていて、家電メーカーは家電メーカーでごちゃごちゃと点がまとまるんですけど、面白いことが日立(ヒタチ)とイタチが近くにあるんですよ。これはどうも音が似てるぞってこともわかってるらしい。だからある部分空間で切ると、イ(ヒ)タチとかそういった近くにいるものでも、別の空間で切ると全然もう違うものになっちゃうってことで、それをもってやっぱり多次元が必要だってことなんですよね。だから観点っていうのは低い次元の部分空間なんだっていう風に見ることができるということなんですね。

トランスフォーマーというのはその単語の意味がわかることを利用して文章の意味をわかるんですけど、やっぱり例えば投げるって言ってもボールを投げるのと柔道で人を投げるっていうのと投げやりのこう試合を投げちゃうっていうのと全然意味が違うんだけど、文脈の中でその投げるという点のベクトルがその文脈に合わせた方が動いていくんですね。寄ってくる。そうすると文章の意味になっていくっていうやり方をしてるので、そういうことで文章の意味を理解してるっぽいんですよ。

染谷:なるほど。

廣木:僕のシナプスがもう収縮して…ニューロンと計算してない(笑)

小林:テクニカルな話をすると止まらなくなる(笑)

それでAIこれからどうなるのって話なんですけど、今はやっぱり欠点があって即座に使うわけにはいかないんですよ。さっきのハルシネーションみたいに嘘つかれたら使えないんだけど、一方ではAIのその手法の進化って非常に早いんですよね。

だってトランスフォーマーが出てからまだ6年しか経ってないのにここまで来てるということは、今ハルシミュレーションの問題があって、ものすごく本質的な問題でそう簡単には解決しそうもないんだけど、そうは言ったってなんか大天才が出てきて、こうすればいいんじゃないのって言ったら解決しちゃうような問題で、それももしかしたら2、3年とか5、6年で解決できちゃう可能性はあるんですね。そうした時に、今まではダメじゃんとか言ってたのが、一気に解決して本当に使えちゃうぞってなるのがそんなに遠くない。数年先ぐらいのことかもしれないっていう可能性。まだ研究開発の余地がすごくあって、これからのことなんでいつどんな天才が現れて何を発明するかわかんないので、正確に当ててくださいというのは無理なんだけど。

今までの進歩の速さ見てると、これからあれがダメじゃんこれがダメじゃんって言われてたのが解決しちゃって。実際に身体で風を受けなきゃいけないからお前わかってないじゃないかとか言ってても、わかってるふりがすごい上手くなっちゃったら、なんかわかってるようになってなる可能性があるっていうことですね。

廣木:これは要するに人間の脳みその中では同じことが行われてるっていう事なんですか。それを機械に置き換えようとした時にそういういろんなこう途方もない数字がこう出てきてるっていう、そういうことなんですか。

小林:確かに860億個のニューロンが光る光らないって単に並べたやつはベクトルだと思えば860億次元のベクトルだと見ることも可能なので、別にとてつもないベクトルが出てきたからといってそんなにびっくりする必要もないんですけど。

ただ脳が仮にやっていることが計算しかないとして、脳の計算とAIの計算が同じかっていうと、今のところ違うでしょうね。それは人間の方がまだ賢いアルゴリズムというか、汎用のアルゴリズムが走ってて、その脳で走ってるアルゴリズムはまだ人類誰も知らないと思うんですよ。それはさっき言った猫100万匹も見なくたって数匹見ただけでだいたい猫という概念がわかっちゃうとか、そういうところをAIができてないということは、脳の方がまだ物分かりがいいんですよね。察しがいいというか。だからそういう意味でも今の場合はまだ脳には達してなくて、人類がまだ誰も発見できてないようなすごい効率のいい学習アルゴリズムが脳の中では走ってるんだと私は思ってますけどね。まだ解明できてないんだと思いますよ。

廣木:ここまで進歩してるけど、小林さん的にはまだまだ先があるっていうことで。

小林:要するにこれを持って、GPT3、ChatGPT持って世の中急に変わるという風にはなかなかならない。今ビジネスの世界ではこれでビジネスの世界がガラッと変わると、活用できなかったら負け組になるぞみたいな必死でその使い方をみんな考えてるという状況にあるので、かなりChatGPTだけでもビジネスシーンは変わるとは思いますね。この活用の仕方はあるんですけど、ただまだすごい肝心なものが足りてなくて、何でもかんでも営業さん1人分を全部AIにやらそうとか、それはムリムリっていう感じなんで。だから社会とか人に与える影響はすごく大きいとは思いますけど、さて何に使えるかねってときに、何にでも使えると思うんです。だって言葉はわかるんだから。何にでもあらゆるジャンルのあらゆるビジネス活用できるでしょってなって、何にでも使えると思える割には、じゃあ何ってなった時に、具体的にどうもなっていうのが今のところはあって。そこどうなんだろうとは思うんですけど。

染谷:そうするといろんなメーカーとかがもう少し用途を限定した形で、サービスとか製品にしていく流れが出てくる可能性もあるっていうことですか。

小林:それもありますね。こけたとこもあるんですけどね。えっとFacebookだったMetaのギャラクティカとか。あそこが科学に特化したChatGPTみたいな作ったんですよ。何のコーパス持つかによって得意ジャンルをつけるので。とにかく科学の論文とかそういうの解説本とか書籍とか徹底的にそのジャンルばっかり読ませてこいつ科学に強いぞっていう科学に特化したAIって作ったんですよ。でもやっぱりそのハルシネーションの問題が解決してなくてでまかそう言うんですよ。科学で嘘つかれちゃったらこれたまんなくて、信じちゃったら大変なことになるだろってことでもう3日で閉じちゃいましたね。ブーイングが出て危なっかしくて使えないだろうとみんなから怒られて引っ込めちゃいましたね。

廣木:その特定の分野だけ学習させてもハルシネーションっていうのは起きてしまうんですか?

小林:全然起きるんですよね。それに知らないことってあって、それを聞かれちゃうとしれっと嘘を言ってきちゃうんですよ。

廣木:AIには嘘っていう概念あるんですか?

小林:そうそう。だから自覚がないんですよ。自覚があれば嘘ついちゃダメだよと、その時だけ良くても後で信用を失うとかね、自分が損するんだから嘘ついちゃダメですよって教育できるんだけど、本人が嘘ついてるって自覚がなければ。

廣木:嘘は理解してんですか。

小林:嘘とは何かは理解してる。

廣木:それを自分でやってるとは気づいてない。

小林:そうそう。

廣木:ヤなやつ(笑)

染谷:人間で考えたら嫌なやつみたいな。そういう風に考えるとわかりやすくなりますね。

廣木:理解することは来るんですかね。嘘という概念は知っていて、自分がやってることが嘘でしたっていうのは?

小林:気がついてなくて問い詰められると最近は謝るようになりましたね。もう苦しくなって問い詰められてもまだ言い張ってましたからね。でもこれ人間でもやるんですよ。スペリーとかガザニガという学者がいて、スペリーは分離脳の研究をしてノーベル賞をとった人ですけど、いろいろ実験して、要するに人間でも、知らないこと聞かれると自覚なしにパッとでっち上げちゃう。つまり脳は「この情報俺が持ってないはずがない」と思ってて、でも知らないと周りから寄せ集めてこうだろうっていうことを思い込んじゃって嘘ついたって自覚なしに言っちゃうんで、実は人もやってるということがわかってて。意外とだから根が深いんですよ。人でも実は気がつけてない、結構やってる。

廣木:なるほどですね。

染谷:どうなっていくんですかね。5年後とか10年後とか例えばメガネだって多分何十年とか何百年前にはなかったわけで。ラジオでこの間聞いたんですけど、目が悪い人は昔は障害を持っているみたいな形で考えられてて、メガネがかけられてやっと普通になった。だからそれまでメガネがない頃は視力が悪い人は健常者ではないっていう扱いみたいな、だからそのAIが人類をサポートすることによって、今までメガネのようにサポーティブな役割になっていくみたいな。

小林:それは十分あるよね。もうなんか究極のカンニングだって言った人がいますけど、だからなんか質問した時に自分がコソコソとAIに聞いて、AIがこうだよって言った時に、自分がここで答えればなんかすごい賢い人に見えちゃうみたいなそういうのはありますよね。

染谷:学ぶ楽しみみたいなこととか、すごくアナログな感じになっちゃうかもしれないですけど、自分で見つけていくみたいなことは全くすっ飛ばされてしまうわけですよね。

小林:そうですね、聞けばわかるっていう。だから自分が勉強して知ってる必要はないと。何も自分の知識が空っぽであっても聞けばいつでも答えてくれるんだから勉強する動機ってなくなっちゃうよね。

星新一の小説で『肩の上の秘書』ってありましたけど、なんかインコが乗っかってて、人と話した時に「やだよ」とか言うと「ごもっともではございますが、諸々鑑みた結果こうなりました」とか丁寧な言葉に言い換えてくれるんですよ。相手もインコ乗せてて、お互いに丁寧に会話してると。だから学生も宿題をGPTにやらせて、でそれを採点する先生もGPTに採点させてみたいなね。人何もやってないじゃないかってすごい空洞が起きる可能性もある。

染谷:「肩の上の秘書」の世界みたいな感じになっちゃいますよね。

小林:でも逆に勉強する気のある人にとっては非常に良いツールで、例えばあるジャンルについて知りたいとしたら、まずジャンルについて教えてって聞いたらそれについて教えてくれて、その中の一つを取り上げて、それについて詳しく教えてったらまた詳しく教えてくれるので、そうやって次々に聞いていくことで体系全体が独学で理解できちゃうっていう。今のところそれをやってても、どこかで答えがループに入っちゃって全体像を教えてくれないのでそこもまだできは良くないんだけど、独学のツールとしてはもう非常に良い。だから学校の先生いらなくなっちゃうとかありますね。

染谷:学校の先生とか家庭教師みたいな職業ですね。

小林:個人教師になるので、要は40人とかで学級で教えておく必要ないんですよね。将棋の藤井聡太さんが言ってたんだけど、小学校で先生に向かって「そんな5分でわかるような話を40分もしてんじゃねーよ、時間で無駄じゃないか」って先生に言ったって。そういう子もいるんですよ。もう苦痛で苦痛で。分かっちゃったり、なんでこんな時間我慢しなきゃなんないのっていう生徒がいて、そういう人に対してはクラスの授業じゃなくて個別に一人一人、わかっちゃったらどんどん先へ進むっていう授業やれば、もう小学生で大学の問題とか解き始める人も絶対出てくるんですよ。1万人に1人ぐらい出てくれば、1学年100人ぐらいは出てくるはずなんで、そういう人をどんどん博士とかにしちゃえばいいんで。だからそれができない国の方がどんどん取り残されて遅れてっちゃうでしょうという意味で、だからハルシネーションの問題なんとかなったら本当に学校の教師いらなくなっちゃうとか教育のあり方とか根本的に変わっちゃうような気がするんですよね。

染谷:答えがあって、それをそれに導くためのプロセスをAIがサポートしてくれるというのはすごいなんかをイメージできるんですけど、学校教育を終えた後の答えがないことを自分で見つけていかなきゃいけないみたいなところだと、どんな使い方があるんですか?

小林:私GPTに「ガールズバーではモテるには」って聞いたら、ちゃんと答えてくれましたよ。箇条書きとかで10個ぐらい出してきて、身だしなみがどうだとか言葉遣いがどうぞとか言ってきたから、実世界で答えのない問題だって一般的に言われてるような答えはそれなりのことで言ってきますよ。

廣木:それは正解だったんですか?

小林:しりません(笑)言われた通りと言われた通りじゃない方と両方やってみて比べるって、モテたかモテないかとか実験できないじゃないですか。でもいろんなサイトを検索して読み終わってくるよりははるかに効率いいし、一応もっともなこと書いてありますよ。

廣木:話を図書館にちょっと近づけちゃうと、図書館っていうのがそのなんて言うんでしょう。インターネットとかいろんな情報が氾濫してる中で、まあハルシネーションじゃないですけど、いろいろこう間違った情報っていっぱいあるわけですよね。そういうものから身を守るというか、正しいものを知るとかちゃんとした情報がありますよっていうのがまあ図書館とされて。

小林:一応書籍になったものは人が編集して出してるので、そんなに変なものは出さない上に、それをまた司書さんが選んで並べてるものだからそうそう変なものが並ばんぞっていう信頼がありますよね

廣木:そうなんです。やっぱりそのレファレンスっていう相談業務。たとえば航空写真とか見て、何年のこういうところの写真のこういう建物が映ってるんだけど、これを何の建物だったか調べるにはどうしたらいいのかみたいな。そうすると司書がまあこういう本がありますとか、そういうふうにこう出してくるわけですよね。その図書館の中にはある程度正しい知識っていうのが、本っていうものがあるので、それによって回答を導くわけですけど、そういう業務とかをAIに担わせようっていう流れって当然あるわけなんです。

小林:ありますよね。ピンチじゃないですか⁉

廣木:やっぱりピンチなんですかね。でもハルシネーションっていうのが図書館の本来の役割と完全に逆行っていうか反対側にあるわけですよね。それはこれから数年学習を重ねていけばなくなるっていう風に考えていますか?

小林:いつかは解決するんでしょうけど、ハルシネーションの問題は非常に本質的でそう簡単には解決しそうにない問題なんですよ。だから何十年かかる可能性もあるんですけど、ただ今までのAIの進化の流れを見てると、結構加速感があるので結構数年で解決しちゃう可能性があるということですね。

廣木:そうすると今は例えばガイドラインみたいなものを作りながら付き合っていきつつも、どんどん良くなっていく、AIも成長していく中でいろいろ任せられるものも出てくるっていう、そういう感じなんですか。

小林:そうですね。今それを明るみに引っ張り出したら面白くないですか?司書さん対ChatGPTみたいな。ユーザーさんとか図書館来館者が、私これについて調べたいんですけどって想定質問を投げたとして、司書さんの答えとChatGPTの答えとを比べられちゃいますよね。その時に司書さんだったらさすがに知らないこと聞かれたからといって見栄張ってでっち上げちゃうってことはさすがにしないですよね。「ちはやふる」のご隠居さんみたいなことやったら面白いけど、さすがにやらないと思うんで。でもGPTは多分やってくると思うので、「そーらみろ、今のところ司書さんの方がこんなにいいぞ!」っていうのはちゃんとこう明るみに出して。客観的に比べられると思うので。

廣木:対決しましょうかね。ChatGPT。そのコンテストをどこかで。 

小林:相当残酷というか司書にとって厳しい戦いになる可能性ありますけど、でも今のAIなんで、ここもダメじゃんってことをちゃんとあぶり出してくれると思うので、面白いと思いますよ。想定問題を10問ぐらい考えておいて、それも簡単なあの小説家のこんな話っていうのからもっと抽象的な、それこそ意識の謎に迫る本とかそういうのを聞いてみるとか、いろんなタイプの質問を用意してどこが強いどこがダメだとかやるのは面白いと思いますけどね。

廣木:意外と全然いいなってことになる可能性もありますからね。

小林:GPTはものを知ってますからね。漱石の『坊ちゃん』ありますよね。あれが300KBぐらい。つまり15万文字ぐらいだいたいそんな感じですかね。日本のWikipediaのすべての記事が3MBぐらいなので、ちょっとよく覚えてないですけど、大体1万5千『坊ちゃん』ぐらいなんです。つまり坊ちゃん1万5千冊分ぐらい。GPTが学習するのに読み込んだコーパス文例集の量はそれの1000倍で3TBぐらいなんですよ。で3TBなので15000のさらに3つ上げるから1500万『坊ちゃん』。

だから人類の叡智でほぼ全てといった時に、とにかくアメリカの図書館の本全部とかインターネットで拾ったらいろいろあらゆる情報とかのバーっと読み込んで3TBですからね。言葉だけテキストになってる分は。だから人類の叡智ってそこに所詮3TBだったら読み込んじゃうと何でも知ってるぞこいつってなるわけですよ。そうするといくら勉強した司書さんだって知識量ではやっぱり聞かれた時に自分の持ってる知識と結びつける紐がいっぱいあるから何を聞かれても答えられるって用意ができてると思うんですけど、GPTもそこそこやるので。だからある部分はハルシネーションあるからダメってなっても、ある部分はちょっと司書さんの叶わないぞってなる部分もあると思うので、結構残酷なテストになると思いますよ。

染谷:ベースのその提案はGPTにやらせて、外しとか大喜利的な要素を司書さんが人間力でやるみたいな。そういう使い分けになるって感じなんですね。模範回答的には多分AIはすぐ出せるわけですよね。

小林:そうですよね。だからあとはもう聞いた人があなたはきっとこういうことが面白いと思うと思いますよ、みたいなおすすめとか、そういうことですよね。この人だったらこういうこと言ったら面白いだろうなって思って気を利かせてなんか言うとか、そういうとこで人間味を出してくことになるんですかね。

染谷:その気の利かせ方みたいなのはやっぱりAIにはまだできない?

小林:ぜんぜんだめですね。なんか聞かれたから答えてますみたいな、優等生的な答えしか言わないので。

染谷:ここしかないですね。気を利かせるみたいなところの、外し方というかね。つなぎ方。

小林:そうすると、もうこれからハルシネーションみたいないくつかの課題を解決した時に世の中全体の情報の流れって変わると思うんですよね。だってAIが全部知ってるんだったらとりあえず人類の知ってること全ての知識をまずはAIが吸い上げといて、人が何か知りたくなったらAIに聞けばいいんでしょっていう、なんか情報センターみたいなことになっちゃいますよね。そうした時にいろんな今ある情報のテレビとかニュースとか本とかの役目がやっぱり変わってくるような気がするんですね。だから世の中全体の情報流通の流れみたいなのが変わってくるだろうなという気がするんですね。

染谷:本の役割とかが本当に変わりますよね。読むことそのものとか体験することとかに価値がかなり寄ってきて、情報収集するとかに学ぶことがかなり弱くなるというか、AIに頼ればいいじゃんってことになるだろうから。図書館がどうなるのかとかなんか人間の生活がどうなるのかかなり変わりますよね。つまりもうデバイスに全て揃ってる状態になるわけですよね、なんか知りたいってなったらすぐそこに頼れるわけですよね。今もちょっとそうなってますよね。自分で検索すればある程度でてくるし。

廣木:昔ちょっと考えてたのは、そういうAIみたいなレファレンスがあって、今紙じゃなくて電子書籍っていう電子図書館とかもあるので、そうするともう原本にあたるというか、その元のデータにあたることすらも全部電子の中だけで済んじゃうわけですよね。実際にはそこまでなってないわけですけど。そうすると紙の本あるいは(建物としての)箱って必要なのかどうかっていう議論も当然出てくるんだと思うんですけど。僕はなくならないと思ってるんですけど、使い方の問題だと思ってるので。

両方あって、こういう選択肢とリアルっていう選択肢がありますよっていうだけだと思うので、なくなることはないと思うんですけど、劇的に変わってっちゃうんでしょうねっていうのと。本一冊一冊のテキストデータみたいなものが存在していて、それを全部読み込ますわけですよね。

小林:多分必死に自炊しちゃったんじゃないですか。画像で読み込んでおいて、スキャンしといてOCRかなんかでテキストに落とすという作業を多分アメリカの図書館とかひたすらやったんじゃないかと。今日本の国立国会図書館もそんな作業してますよね。AIに食わせるテキストデータとしてはいいものになるはずなので。

ただその時に我々にとっては本を読むときに欲しいものは情報なのかって問題があって。本っていうのは書いてあるテキストの内容だけじゃなくて、まず紙は何を使うかとか、その余白はどれだけ取るとか、フォントは何にするかとか、装丁どうするとかあらゆる人の手が入った全体としての完成品なんですね。でもその中で得るのは知識なんだから、テキスト読んだって一緒じゃんって。一緒なんだけど、それは代替の効くものかっていう疑問もありますね。

染谷:栄養が全部満たされるからってずっとサプリ飲んでくださいっていわれってもみたいな。

小林:そういうことですよ。本質だけ得てればいいとなってしまうと、本当にサプリになっちゃうんですね。ただ例えばトランスフォーマーのやり方を俺に分かるように上手に解説してくれみたいのはYouTuberが上手に解説してくれればいいので。しかもあのAIってもう進歩が早すぎて本出してたら出版する頃には情報が古くなっちゃって、これ懐かしいね、前そんなこと言われてたね、みたいになっちゃうのでAIに関して本出す人いないんですよね。

染谷:そういうことなんですね。

小林:だからそういうところは本当にテキストでいいし、要するに得たいのは情報なんだから飾りなんかいらない、それだけでいいってなるんですけど、小説とかは色んな本があるから、そういうのそうはいかないでしょって。

染谷:今までの話を聞いていると、より人間だけができることとか、ちょっとロマンチックに感じてしまいそうですけど、なんかブレードランナーの世界みたいなことを考えると、人間とレプリカントの見分けがつかなくなるわけじゃないですか。つまり機械の人間に近づいてくるみたいな、そういうこともきっと起きてくるわけですね。

小林:おきてきますね。去年LaMDA(ラムダ)騒動ってあったの知ってますか?ブレイク・ルモワンさんがGoogleをクビになっちゃった。ああいうことって結構起きそうな気がするんですね。

要はGoogleの作ったLaMDAというAIのテストをエンジニアのブレイク・ルモワンさんがやってたんだけど、AIと会話するうちに、どうもこいつ意識宿ったんじゃね?って気がしてきちゃって。Googleの上層部に対して、これ意識宿ったと思うんですけどって訴えたら、その上層部がいろんなエンジニアにどう思う?って聞いて、みんなないよって言ったらそれも納得しなくて。俺たちこんな会話したんだぜって会話の全文みたいのを新聞社とかそのWEBに出しちゃったんですね。それをもって要は企業秘密を漏洩したってことでクビになっちゃったんですけど。

でもあれはすごい騒ぎになったし、あの会話を読んでみる限り、いやーなんかすげーなって思いました。要するに意識は多分ないと思うけど、あるふりをするのがめちゃめちゃうまいなと。公表してるAI、ChatGPTはさっき言ったRLHFで、変なこと言わないように徹底的に教育してあるから、人間のフリはするなよって徹底的に教育してあるので、「意識ありますか?」とか聞くと、「いや私はAIですからと」答えてくるんだけど、GoogleのLaMDAはそういう風に教育されてなくて、「もちろん意識ありますよ、あなた方の感情とはちょっとずれてるんですけど、私たちの感情がありますよ。」とかね、そういうことを答えてきて、そんなの読み込んだコーパスにそんなこと書いてないでしょ。だから自分でそれ考えて言ってるわけですよ。ということはやっぱりなんかそれっぽいものも芽生えてきたなって感じがしちゃうわけですよ。

あともう一は、毎年やってるNeurIPS(ニューリプス)っていう国際学会がアメリカで開かれたんですけど、その時去年11月に開かれた回でデイヴィッド・チャーマーズっていう意識の哲学者が呼ばれて基調講演やったんですよね。

AIは研究者はなるべく意識の話は触れたがらないんですよね。だって意識とは何かって本質が分かってないのに、AIに意識があるとかないとか言い出しちゃうと、ものすごい反論というか批判が飛んでくる。批判の矢がいっぱい飛んできて、弁慶の立ち往生みたいになっちゃうんで迂闊なことは言えないので。なるべく意識はあるような、芽生えたような気もしなくもないけどと思いつつも、触れないんですよね、研究者は分かってるから。

だけどそこをあえてあの時期にデイヴィッド・チャーマーズ呼んじゃってAIに意識ありますかって話をさせちゃったのは非常に異例なことで、画期的に面白いことだったんですけど、そうしたらチャーマーズもノリノリで、「今のAIに意識に乗った可能性10%ぐらいあるぞ」とか言って、「数年後に乗ってる可能性も50%になるぞ」とか言っちゃって。ただまぁそれは色んな人の言うことを調合しただけの数値だから、この数値全然根拠ないから信じないでねと断りつつも、なかなか大胆なこと言ってすごい面白かったんですよ。

だから本当に意識あるかないかって人間でもわかんない。哲学的ゾンビって言うんですけど、意識あるふりだけうまくて、その実からっぽで、ものも見えてない音も聞こえてないただ信号に反応して情報処理して反応してるだけの人がいたとしてもそれ見破る方法はないんですよね。なので人でさえわからないんだから、AIに宿ったからって本質的にはわからないんですけど、でもやっぱり意識があるふりが十分にうまくなれば、それと会話してる相手としては我々人間としてはいやどうもこいつが意識あるっぽいぞって信じちゃうじゃないですか。そういうことはこれから起きてくる可能性は十分にある。

オープンAIも絶対人間のふりするなよってちゃんと徹底的に教育してあるから、ないようになってるけど、これからの野良AIが結構出てくるんですよ。絵を描いてくる画像生成AIあるじゃないですか、あれはもうソースが世の中出ちゃってるから、エロい絵を描かないように言っても鍵外しちゃってエロい絵を書くようなやつが世の中に出回っちゃってますけど、あれと同じようにGPTもちょっとソースがでかかってるので、いろんな人がそのコピー版みたいのを作れちゃって。そうしたらオープンAIが苦労して鍵かけて教育した結果を全部外しちゃって、何でも言ってくるようなAIっていうのがこれから世の中に出回ってくると思うんです。そしたら創造性においても飛び抜けた発想を言ってくるかもしれないし、相当まずいこと言ってくるかもしれないし、意識のあるフリは実は結構上手くなってて、本当に意識が宿ったのかの如く振る舞い始める可能性はあるということで、これから野良AIが出てきたらちょっと怖いなっていうのはありますね。

染谷:元々でも人間はそのぬいぐるみに対して、ごっこ遊びじゃないですけど擬人化するってあるじゃないですか。AIが感情を持ったっていう風にみなしてコミュニケーションを取って友達になっていくってことは十分ありえますね。

小林:そうですね。ボークスの人形って知ってますか?球体関節人形といって、カスタムで目玉はこれとか腕はこれとかで選んで自分だけのカスタムドールが作れるんですよ。それに名前をつけて、お迎えの儀式ってやってくれるんですね。それでもうドールと結婚式さながらのことやってくれるんです。一体10万円ぐらいしますけどね。

染谷:さっきの情報が集まっていくって、情報取りに行くためのAIっていう側面と、意識を持って友達っていうかコミュニケーターになっていくっていう役割と。だからほんと万能に見えるけど、いろんな役割で切っていくとちょっと理解ができるようになってきた気がします。

小林:情報の方がただの百科事典なんで、分かりやすいし役立ってるだろうなってあるんですけど。今のでは友達になれないですね。相当使ってみましたけどやっぱりあんたが聞くから答えてやるよみたいな感じの優等生みたいな機械的なことしか返してこないので。一応意味的に会話が噛み合ってるし、意味がちゃんと噛み合ってるからその意味では話してて楽しくなるので、これがとんちんかな答えを返してくるともうすぐ面白くなくなって会話やめたくなるけど、そうでもなくて、なんか続けたくなるっていう意味ではGPTと会話してても楽しいんですけど。

でもどう見てもこいつとは友達にはなれないと今のところ思いますね。そんな感じじゃない。だけどそれも野良AIが出てきて鍵外しちゃったりすると友達になれるか敵になるか知らないけど、何か自分に対して存在感のあるAIになってくる可能性あるんですね。それは活用の仕方はあって本当に孤独な老人とかいるじゃないですか。日がな1日テレビ見てるとやっぱりボケちゃうんですよね。それよりはAIでもいいから会話してれば、自分でも言葉を発するし答え返ってくるし、まだ心の健康にいいんじゃないかなっていう気がしなくもない。

廣木:逆もありますよね。なんかこの前なんかAIと会話してなんか自殺しちゃうとか。外国の話なんですけど、結構ずっとAIにいろいろ相談とかしてたんですよね。対話しているうちにっていう。

小林:どういう状況に追い込まれちゃったのかちょっとわかんないですけど、江戸川乱歩の小説で鏡の中に自分囲まれちゃって、鏡の四方を鏡に囲まれた部屋に実験的に入ってみたら発狂しちゃって、なんか一人でゲラゲラ笑ってたみたいな話が小説に出てきますけど。あれみたいなもので、AIと会話してるって結局自分と会話してるような、鏡と会話してるようなものなんで、実は心の健康によくないかもしれない。

廣木:使いようなんでしょうね。やっぱ人間側がどう使っていくかっていうそういうことなんですよね。最初の小林さんの話に意識に興味があると話がありましたけど。

小林:そうですね。だから私は去年そういうAIと意識にまつわる話が2回あったので今年も1回ぐらい絶対あるだろうって去年から予測してたんですけど、今のところないですね。でも本当にまた誰か言い出すような気がするんですよ。こいつ意識あるぞとかって。本当は分からないけども、なんか解明の手がかりにはなるかもしれないっていうか、それぐらい本当に意識のあるふりが上手くなっちゃったら相当面白いぞという気はしなくもなくて。意識こそ哲学的で本当に人類にとっての根源的な問いなので、考えれば考えるほどわかんないんですけどね。

いろんなアプローチがある中で、要するに構成論的アプローチって言って、作ってみればわかるじゃんっていう考え方。ロボットもそうなんですね。人間を理解したくて、人間っぽいものを作ってみて、それでまだ人間になってないとしたら何が足りないんだってことで、不足を見てじゃあそこを補ってやろうとまた次のロボットを作ってってことで。作ることによって人を理解しようっていう構成論的アプローチを取ってるっていう意味ではAIもそうなんですよね。人っぽいもの作りたいぞと。まだ人になってないとしたらやっぱり意識ないよねこいつってなるので、じゃあ宿らせるにはどうしたらいいのって、宿らせるのは多分そう簡単にはいかないけど、宿ったふりが上手くなるにはどうしたらいいのってことは十分に考えられるので、だからそうやって作って意識とはなんぞやってのを理解していく一つの手段としては相当面白いと思いますけどね。

ただチョムスキーとか吠えてますよね。95歳かなんかですね。ChatGPTが出てきたことによって、あの言語学者は何て言うだろうと思って、マスコミから日に3回ぐらいインタビューが来るらしいんですよ。それを答えてるあの爺さんも元気だなと思うんですけど、すごいAIが嫌いで「あんなものはただのおもちゃだからあんなもんで遊んでんじゃないよ」って、「ちゃんと学問をやれ」みたいな。怒ってますよ相当吠えてますね。

このところは何かっていうと、やっぱり言語学も人が分かりたくて、どうして我々ってものを理解できてるんだとかね。どうして我々発達できてるんだろうって、それを知りたいから研究するっていうのが言語学の動機であって。でもそれはもうサイエンスであって、人間を知りたいから、人間がどういう仕組みで動いてるのかを解明したいからやってるサイエンスなんですよ。ところがAIというのはそれっぽいものを作って、大規模で全てのでかい書物としてコーパスを読み込んじゃって、規模だけでかくしてなんとなくそれっぽいものができたってのも遊びみたいなもんじゃんって。それはもう学問の目的から離れて好学に過ぎないので、そんな遊んでないでちゃんと学問やれよって言ってるんですけど、でもそこを解明するのもじゃあ言語学じゃんって。言語学何やってきたんだよみたいなね、逆の反論も十分にあり得るんでね。

っていうのはトランスフォーマーってどうしてあのやり方すると意味がわかるのかってわかんないんですよ。これ多分誰もわからない。わかってる人何人かいるかもしれないけど。さっき言ったその挑発的な“Attention is all you need”って論文を読むと、どういう処理をしてるとか、こういう計算してこういう計画してってちゃんと書いてあるんですよ。読めばわかるんです。そういう計算してんだなって。でも読んでわかっても、なるほどそういう計算すれば意味がわかるよね、とはならなくて、なんでそれで意味がわかるのかってのがわかんないんです。それで解説してるYouTuberとかいっぱいいるしブログとかいっぱいあるんだけど、読んでみてもこんな処理してます、こんな処理したらこういうことだって図が書いてあるだけで、処理はこうだってことだけ解説してあって、だからこういう風に意味がわかるんですよってことを言ってるのがどこにも書いてないんですよ。だからそれは確かにチョムスキーのおっしゃる通りってやつで、解明できてない。でも解明できてないって言うんだったら言語学がそれやれよと思うし。

つまり飛行機の話とすごいよく似てるんですよ。あのライト兄弟が飛行機飛ばした時って、飛行機は飛ばないのが正しかった。飛行機ってエンジンの推進力で羽をちょっと斜めにするわけじゃないですか。そうすると空気が羽の裏にあたりますよね。そうすると当たったのがブレーキをかける方向と上に押す方向と2つのベクトルに分けられるので、この上に押す方向が浮力になるわけですね。だからこの羽の角度におよそ比例して、浮力が得られる、という計算になりますよね。でもそれだと飛ばないんです。それだとその浮力は得られるんだけどエンジンの重さと機体の重さとは超えられなくてやっぱり飛ばないというのが正しい答えなんですよ。だから当時飛ばないという理論があって、飛ぶわけがなかったんですよ。だからライト兄弟は物理知らないの?って。飛ぶわけないっても分かってるのになんであのフード作ってやってるの?って。でもやったら飛んじゃったわけですよ。飛ぶわけないからその後科学者が何で飛んだんだってすごい調べたら、なんかね、ボーナスの浮力が出るんですって。要するに羽の上を通った空気と下を通った空気で速さが変わるので横っちょに渦ができるんですけど、この渦がさらに持ち上げる力になって、羽の角度に二乗に比例したボーナスの浮力が得られるんですって。それのおかげで飛んでるってわけなんですよ。だけどライト兄弟が飛ばした時はそれ知らなかったんで、だから何で飛ぶかわかんないけど飛んじゃった。飛ばないはずなのに飛んじゃった。で、後から解明されたっていう順番。

今のAIもそれで、なんか言葉の意味は理解できたと。こうやれば理解できたっていうのは論文にやり方は書いてある。でもなんでそのやり方をすれば言葉の意味がわかるのか誰もわかってないっていうのが今の状況なので、ちょうど飛行機と同じような状況になってる。

染谷:それを後から解明するエンジニアとかその科学者はたくさん出てくるけど、本来的にはライト兄弟の役割をもっとしていった方がいいということですか?

小林: AIを進めるにはそういうことですね。もっとエンジンのパワーアップしてとかね。あの羽の角の理想的な羽の形は何かを研究したりとか、そういうことでエンジンの飛行機の性能を上げる研究っていうのはそれはそれであって、それは実用的にはいいですね。いかに燃料を節約するかとか早いスピード出すかとかね。それはそれで一つの研究なんだけど、でもチョムスキーに言わせると、そこだけやるのではなくて本質を解明しろよっていう話なんですね。

染谷:僕らはでも飛行機に乗って知らない国に行けるようになったとか、新しい景色を見れるようになったとか、飛行機という道具を使って何ができるかを考えるっていうのは僕ら側ていうか、エンジニアじゃない人が。

小林:そうですね。だって飛行機はどうやって飛ぶかなんて知らなくたってお金払ってチケットを取れば乗れるわけですから。別に知らなくていいようなものではありますよね。恩恵に預かってればいいっていうそれはそれで大多数そうだと思います。

染谷:きっと99.9%そうですよね。

廣木:AI自身はライト兄弟にはなりえないということなんですか?

小林:ありえますよ。AGIが本当に一般的な繁栄能力を身につけたらそれ以降の研究はもう全部AIがやってくれるだろうという考え方もあって、まあ疑わしいというかすぐにはならないと思いますけど。今のとろAIってまだ人のふりが所詮うまいだけなので。でもその可能性は言われてますね。

染谷:今までは人間によるフィードバックでいいねとかグッド・バットがあるからその時代の倫理観に合わせたAIのあり方があったけど、AI自体がそうやって学習していっちゃうとそこを離れてっちゃうわけですよね。

小林:だから何が世の中にとっていいことかっていうその考え方が人間とずれてっちゃう可能性もありえますね。それはのアライメント問題って言うんですけど。アラインするってのはALIGNって綴るんですけど、つまりAI自身が目的を持った時に、そのAIの目的と人類の目的は方向が揃ってないとまずいわけです。

例えば離婚の原因は何ですかって聞いた時に、それは結婚したことですって言ったら間違ってないですよね。間違ってないんだけど、そういうこと聞いてるんじゃないよってなりますよね。胃が痛いって腹痛の原因なんですかって聞いたら胃があることですとかね。そういうのがアラインされてないっていうことなんですよ。

オープンAIの大天才イリア・スツカバーが言ってたんですけど、我々動物嫌いじゃないよねと。犬とか猫大好きだよねと。だからなんかどっかなんかの動物を絶滅させようなんて思ってないよねと。だけど高速道路建設しようってなった時に、作っていいですかっていちいち動物に聞きに行ってお伺い立てたりしないよね。それと同じことで、AIが自分たちの目的を持ち始めたら別に人間嫌いじゃないし、滅ぼそうとしてないけど、自分たちの目的を絶対優先するよね。だからそうなる前に、我々は変なAIを作っちゃいけないぞって警告してるんだけど。だからもう先々の長い見通しで未来のAIみたいなこと考えた時に、AI自身が目的を持ち始めて人間とずれてくる可能性はやっぱり心配しておいた方がいいというのはありますね。

染谷:すごい話ですね。いまのAI高速道路の話はかなりすごい。それはシンギュラリティとは別の話なんですか?

小林:それはちょっと別ですね。シンギュラリティもいろいろあるんだけど、今のはアライメント問題。

染谷:アラインメント問題。すごいな。

小林:シンギュラリティってレイ・カーツワイルが主に言ってるんですけど、俗に言われてるのはAIの知能のレベルが人間のレベルを超えてしまうと。だからAGIみたいになってそいつ自体が目的を持ち始めたらアライメント問題出るよっていう意味では関連はあるんでしょうけど。AIの知的レベルが人間のレベルを超えてしまうというのは、一般的にシンギュラリティと言われてるんですけど、AIに限らずテクノロジーがすごい進化することによって、その進化のスピードが指数関数的に進化して、社会の変化がものすごく早くなって人間の理解が追いつかなくなって、しっちゃかめっちゃかになって次の先が全然見通せなくなっちゃう状態が来ることをシンギュラリティと言ってるんですね。これも今のところは分からないけど、カーツワイルによると2045年と言われてますけど、案外妥当なんじゃないかなと。それが前倒しでくるって言ってる人もいますけどね。

シンギュラリティがどういうふうに来るかっていうのはこれまた専門家でも意見が分かれるんですけど、今一つのスケーリング則というのがあって、要は規模をでかくしてくると機能が上がってくると。だからさっき言ったように3TBとかで世界中の人類の叡智を集められるだけ集めてテキストで読み込んでるわけですよ。でかいデータを用意して。それからニューラルネットのノードの数ですねあれが今、1750億がGPT3.5で、今10兆だって言われてたかな、なんか、えっと公表してなかったんだけど、なんか横っちょからバレちゃってパラメーターの個数10兆、つまりニューラルネットのその規模をでかくして。そうすると結果としてそれを学習する馬鹿でかい計算をする。そうやって規模をでかくすることをスケーリングって言うんですけど、スケーリングすることによって今までできなかったタスクができるようになる。だから単に計算が早くなるか能力が上がるだけじゃなくて、できることの幅が横に広がってったっていうことがあって、このまま規模をでかくし続けていけば、もうそのままAGIになっちゃって何でもかんでもできるようになるんじゃないですかという見方が一つあります。

逆の見方としてはまだまだそんなんじゃ人間の本質には迫れてないので、我々のまだ知らないアルゴリズムがあって、それを解明して突破しないとAGIにはなりませんっていう考え方もあるんですね。私はそっち派なんですよ。まだやっぱり富士山でも5合目までも来てなくて、これから突破しなきゃなんない難しい課題ってのがまだ残ってて、だからそう簡単にAGIにはならないだろうなと思ってるんですけどただ一方進歩の速さ見るとね、そのだってトランスフォーマーだってものすごくでかいブレイクスルーだったんだけど、それからまだ6年しか経ってないんであのやっぱりあのAIの進歩の加速性も指数関数的なんで本当に数年後に大天才が現れてこうすらできんじゃないのってパーって言っちゃう可能性もあるので、できないとは言ってなくて。だからものすごくでかいブレイクスルーがまだまだこれから必要で、でかい問題が解決してないんだけど解決が割と早々にできちゃう可能性もあるなと思ってるっていうのは私の意見なんですよね。

廣木:なんかこわいですね。

染谷:よく言われるよ、うなSF映画の世界がみたいなね話まさにって感じですけどね。
アライメント問題と。 

廣木:面白かったですね。

染谷:こういうのを開発してるエンジニアはどういうモチベーションなんですか?創造主になりたいみたいなことなんですか?

小林:でしょうね。だってイルヤ・サツキヴァーとかもうこの時代にこれに関われてる僕は幸せだとか言ってますからね。

染谷:そういうモチベーションになるんですね。

小林:本当に神を作ってるような感覚でしょうね。

染谷:そうですよね。じゃないとやらないですよね。

小林:イルヤ・サツキヴァーは37歳で、書いた論文の引用されてる回数の合計が37万回ですからね。普通は論文書いて100回ぐらい利用されたらいい研究したねずいぶん評判だったねとかなりそうじゃないですか。37万回ですからね。

染谷:今日はかなり、今まであまり見れてなかった扉がちょっと手をかけられたくらいなんか、すごい分かりやすいお話をきけました。

小林:よかったです。ついついエンジニア視点で難しい話ならいくらでもみたいな感じでまくし立てて話してしまったんですが。

染谷:これはだからその教育とか図書館とか色々こう分解して考えた方がいいですね。なんかその、総論的に考えちゃうとなんとなく便利でしょとかになっちゃうけど、インフォメーションセンターとしてのとか、友達になり得るとしてのとか、どういう風にサポーティブな役割があるのかっていう。現場と要素を分解していかないとなんかちょっと考えづらいなっていうのが僕の今日のイメージでした。

廣木:あと司書とAIの対決は実現したいですね。

小林:相当嫌がられそう。よくもそんなこと考えたなとかって恨まれちゃいそうですけど絶対面白いですよ。外野としては絶対見たいです。人間がまだまだ勝てる場所とここはダメだ負けたってなる場所がきっとあるはずなんですよ。それを炙り出しちゃうと面白いと思いますけど。

ただその分けるっていう方も、世の中全体の情報流通のあり方が変わってくるなという中を見た上で、じゃあその中で図書館っていうのはやっぱり考えた方が良くて。いやこれ言っちゃなんですけど、すごくピンチですよね。古典的な図書館の役割って言ったら、すごい賢い人が自分の思いなり知識なりをつなぎとめていくために本に書きました、で本にすると印刷して何万部って刷れるのでいろんな人に配ることができるから、その一つのソースに対してその情報を効率よくたくさんの人に配ることができると。人としてもそれを読むことは他のつまんない、価値のない情報を聞いてるよりは価値のある情報にアクセスできる。つまりは書いた人と読む人との間コミュニケーションの場だったんですね。

でもほんと情報さえあればいいって言ったらその手段っていくらでもあって、じゃあスマホで読んでたら場所や時間を選ばずに24時間の好きな場所で読めるよねってなった時に、図書館は便利になった分だけ小さくなってっちゃうっていうのはあると思うんですよ。そしたら情報流通する場所としての図書館って言った時に、来館者同士のコミュニケーションの場とか本当に司書さんを通じてのコミュニケーションの場とか、やっぱり誰から誰にどんな情報が流れるのっていう形で捉えなおす時期なのかなという気はしなくもないですね。と言いつつ私の答えを持ってるわけじゃないのでちょっと何とも言えないんですけどね。

染谷:やっぱり役割を失ったというか、古くなってしまったメディアは嗜好品になっていくっていうのが常で、レコードとか今でも煙管を吸う人とかっていう風に少数派だけど嗜好品になっていくっていう、よりこう体験価値を高めていく側面を絶対ある。

小林:それだと図書館が博物館になってしまいそうな気がしますね。

染谷:だからもう本当に古いものみたいな。情報が行き交う場所になるためには多分そういったそのAIのことをもっと活用していかないといけないですね。

小林:生きた情報が今流れる場所みたいな機能の方へ進化してたらいいかなと。

染谷:図書館という名前が変わるかもしれないですね。 

小林:情報流通館みたいな感じですね。

染谷:図書を楽しむ場所っていうのはそのレコードをわざわざ聞くみたいなことになっていくというか、嗜好品により寄っていくっていう。

廣木:元々あらゆるメディアを蓄積しておく場所だったはずなので。図書館っていうのは始まった時にたまたまあったメディアが本っていうだけで、もっといっぱいあるはずなんですよ。だからそういう意味では今後の図書館像っていうか、そういう本だけじゃないよねっていうのはもちろんあると思うんですけど。多分今いろんな図書館が活動とか染谷さんがおっしゃった体験とかそういうものに付加価値というか求めようとしてるっていうのは、そういうAIっていうかいろんなこうデジタルとかに対してもリアルってなんだろうとかっていうことの表れなのかなっていう感じがするので。

小林:一方では人同士の関係が便利になった分だけ希薄になっちゃったりとかって、やっぱり社会問題としては望まない孤独孤立に陥っちゃってる人が結構いて。望んでなってる人は別にいいんですよ、修行僧みたいに山場修行したいって言った勝手になったらいいんだけど、やっぱり定年退職しちゃって暇になっちゃったとか、あるいは老人ホーム入ったけど本当に日がな一日テレビ見てたらボケちゃったとかそういうパターンは多そうで。そういう意味では人でもいいしAIでもいいからなんか言葉を発して受け取ることによって脳を活性化させて、人々の心の健康に良いというか、孤独孤立という社会課題に対して何とかする場なり動きなりがあるべきだろうなと思ってます。

染谷:その情報流通館みたいな側面と、居場所としてということですよね。それはちゃんと行政が用意する場所として。だからコミュニティ機能と情報流通機能ってのは明確に役割とか手段がどんどん変わってくるんでしょうね。

小林:実際の私がよく近所の居酒屋で、じいさんが一人でやってるんだけど、俺も74だぞって言ってて、もうしんどくてねやめたいんだけどなってよく言ってくるんですよ。いつ辞めるかはまだ決めてないというんですね。だってもう今までずっと働いてきたんだから休む権利は当然あるよと。だけど休んでやめてみな、すぐボケちゃうからって脅してやめさせないんですけどね。だけど確かにやめた後どうするかって。今までは多少なりともお客さんと会話したりして注文されたら作るとかなんかして動いてるわけでしょ、それ何もしなくてよくなっちゃったら本当に何もしなくなっちゃうから、実際すぐボケちゃうと思うんですね。じゃあそれでなんか趣味見つけるなり、居場所を見つけるなり、見通しが立ったらやめるからねって言ってるんですよ。それ見通ししか立たないかわいそうな状態で。なんかそういう場はないの?とか思ってるんですけどね。

廣木:そういう場が実は図書館だったりするのかも。仕事を辞めてその後にもコミュニケーションの場とか。

染谷:そうですね。共通の趣味とかトピックスとか、体験していくこととか。いろんな話が聞けて楽しかったです。

廣木:いろんなお話が。すいません最初に触れればよかったんですけど、今日のリボンがすごい綺麗な。

小林:これは一番派手なのをしてきました。映像にも映るかなと思って。

廣木:可愛いですね。

小林さんはAIじゃないですよね。実態が実は。(笑)

そんな今日はいろいろ勉強になって圧倒された1時間半でした。ちょっといろいろヒントというかいただいたし。

染谷:そうですね。色々な視座をいただいた気がします。

廣木:ちょっとでもいろいろ恐怖もありましたね。今日聞いていて。

染谷:そうですね。是非番外編で司書対AIの対決をするとか。今日の話をもう少し絞って図書館に転用することをやってみるとか、番外編とか第2部とかも考えられそうだなって感じですね。

廣木:本当に勉強になりました。ありがとうございます。

染谷:ありがとうございます。

小林:どうもありがとうございました。

2023年7月12日収録