Thought on AI tools v3.2, 6/4/2023

Facebookのポストに、昨今のAIツール、特にChatGPTのようなものについてのコメントを求めるポストがあったので、コメントしたものをベースにしています。
自分の覚えのメモです。
——-

見ていて危うさを感じるのは、世間が面白がって反応しすぎ、本質とは違った思い込みが膨らんでいる点かと思いました。
ChatGPTなどは、この実験フェーズでは、テキストデータのrelevant な情報の集約ツールです。
処理可能なデータのボリュームや速度は相当改善されました。そこは驚くべきところです。一方、情報集約、relevancy判断のルーチンの中心原理は、僕が大学にいた40余年前から原理やアイデアは変わっていません。

面白いことに世間が面白がっているのは、ChatGPTが問いかけを理解したり、会話を生成したり、文脈を違えない回答を用意して返してくれるところにあるようです。ここは、実はAIの中心部分というよりは、言語的な構文解析の領域です。
ああAmazonがAlexaをリリースしたときに似ているなと思います。人は「反応」を面白がって、リスクも考えず、いとも簡単に自分の生活のプライベートゾーンに「センサー」を置いたのです。しかも、自分のコストで。常識的に考えておかしい事態です。でもこれがリアリティ。仕掛けられるというのはこういうことが起きるということです。今回も似ていますね。

一方、こうしたツールの進化を見て、また言われなき「世間に横行する人格化」(僕の解釈です)を見て、自分が考えることに利用したりアドバンテージをとることを想定して、制度やシステムの中に組み込もうとする動きもあります。これが「仕掛けるサイドの思惑です」
リスクがあるのは、ChatGPTそのものじゃなく、こうした「人の思惑」の方です。それそのものが悪いわけじゃない。使う人の意図が問題という点です。その意味で、核兵器などにも似ているかも知れません。社会的に違和感のある意図や思惑通りに運べば、影響は相当大きいと思うからです。

因みに、僕がやれやれと思うことのもう一つは、こうしたツールを面白がってナイーブに使うことは、今のWEBの検索と似ていて、知識がすべてWEBにある、それを信じれば間違わない、などという「暗黙の前提」を持っていることなのです。冗談じゃありません。
web上に見つかる情報には質の良いものから悪いものまでいろいろです。ここには置かれない大切な知識も沢山ある。自分の頭で考えるべきことも沢山あります。多分、7-80%はそれでも役に立つのでしょう。でも、ナイーブに100%それだけを見て自分で考えなくなった人を、年齢関わらず沢山知っています。これは相当由々しき状況だと思います。でも、そうなってしまった人相手に訴えても、言っていることの意味すら通じなくなっているのです。

これは、はっきりいえば「人の劣化」です。
職をAIに取られる論を話題にする人があります。考えることを放棄し劣化した人が、やがて職を失うことはむしろ自然なことではないでしょうか。世間は、残念ながらこれも話題にはしていません。
「知識の検索はAIに任せて、人は人のすることをすれば良い」論はそうした中で一番いい指摘です。実際にそうすればです。印刷、本やWEBなどのツールはそうして開発され、社会に広まってきました。だから、AIもアナザツールとして捉えて、使う論をもっと議論すればいいのに、今は世間は要らぬ「人格化」に走り、どう使ってやろうかと考えているのは上述の「思惑のある人」だけの様子。それが最も危険な状態を生んでいるんだと思います。

メタファーとしてですが、ヴァンパイアに噛みつかれたりゾンビーになったりする人が大勢いるというのに似ているかも知れないと思うことがあります。線の向こうにいってしまうと、何を言っても聞こえません。世間はある意味で、史上稀に管理しやすい場所になっているかもしれません。🔳

この記事が気に入ったらサポートをしてみませんか?