「意味」とAI――歪み、差別、平板化

物理的な音列としての言葉、物理的な文字列としての言葉と、意味としての、意味があるものとして受け取られる言葉。音や形態としての言葉の記録と、意味を持つ言葉としての記憶。音列、文字列としての言葉が固まりとして分節化され意味が生じる、意味が理解されるのは言葉の相互関係においてであるが、それはビッグデータとして統計的に処理され、関連付けがなされることで一見意味のある文章や応答が生成されるのとは異なる。

人において言葉を獲得し、意味を理解するということは、言葉の相互の関係の中だけでなく、物や環境などとの指示関係、参照関係を含む立体的、多元的な空間で、身体を介在させつつ行われる。同一平面上の、あるいは記号・信号化されたデータの処理とは質が異なる。もちろん、脳内プロセスということに着目すれば、感覚器官への刺激は信号に変換されるし、記憶も信号化されていて、同一平面上のデータ処理であるように見えるし、脳内で行われているのは意味がはぎとられた統計的な処理に過ぎないと考えることもできる。

AIの、AIということでなくともコンピュータの処理のアウトプットは意味や質を持った(ように見える)文章や画像などの形で表示される。脳内処理も同じでアウトプットの表示として意味や質、否心すらも生じる(ように見える)に過ぎないということもできそうだ。しかし、コンピュータは処理回路とディスプレイなどのアウトプット機器・媒体が画然と分かれかつその境界が外部から認識でき、コンピュータも処理回路もプログラムも自己意識を持たない。持つように見せることはできても(なお、ここには見る側の役割も働く)。

人(に限らず動物)の場合、脳という物理的実体を見ることはできるし、信号を測定する等その作動を可視化することはできる。しかし、それに対応するアウトプット、つまり心に浮かぶ像、理解した意味等々のアウトプットを直接に表示し、捉えることはできない。脳内処理のアウトプットはあくまでも内部的に表示される。表示というのも比喩的な表現であって、矛盾的な言い方をすればそれも脳内で表示され、それを内部で見ている。ということは、その見たものも信号として処理され表示され…。言わばその総体が心と称される。もちろん、そのアウトプットを外部に表示することはできる。言葉として発話する、絵に描く、身体を使って表現する等。しかし、それは内部のアウトプットとは一致しないし、その不一致の原因は技術的な問題(言葉が拙い、絵が下手等)だけではない。

人の内部のアウトプットを全くのコピーとしてそのままに外部に表示することはできないし、少なくともその異同を検証することは不可能である。自分自身でも外部に発した言葉等を第三者的に見ることができ、外界からの刺激を捉えたものや自身の記憶を内部で第三者的に見る(ようなことをする)こともできる。それを評価したり、ズレを感得したりすることもできる。その第三者的なるものも脳内信号である。このような心や意識のメカニズム、即物的には脳ー神経ー感覚器官のメカニズムを完全に解明し再現することは、理論的な可能性として想像することはできても現実的には不可能だろうし、そのようなものがあってもその再現性を検証することはできない。

少し話をずらすと、宇宙も自然も物理法則に従っていて決定論的であるとナイーブに言えるとして、人が外界から受ける刺激が信号に変換され、記憶も信号に過ぎず、意味や質は表示されたアウトプットに過ぎないとすれば、自由意思はなく機械論、決定論を肯定できる。だからと言って、我々に認識できる状態もその因果関係はそのごくごく一部に過ぎないし、しばしばそれを誤って認識、理解する(決定論的にはその誤りすら予め決まっている!)。だから、決定論を採用したところで、歪んだ運命論以上のことにはならない。

ただし、現実的な問題もある。いくらビッグデータがよりビッグになり人や自然の「あらゆる」データを収集すると言っても、それは不可能だし、ましてやそこからあらゆる因果関係を特定することはできない。いくらAIが高度、精緻になっても統計的処理でしかない。より重要な(と思われる)領域を特定しデータを収集しより重要な(と思われる)因果関係を特定し、より確からしい結果を得ることは一見可能であるし、現実にそうやって実装が進んでいる。しかし、それもまた統計的に導かれ、検証され、修正されるものでしかない。

しかし、そうやって精緻化されより有意になものになったという見た目故に、あからさまに差別や歪みが生じたり感得されたりすることは減るかもしれないが、その信頼とアルゴリズムの複雑さのために気づかれにくい形で差別や歪みが内在し与件化されるリスクは高い。多数の要因が複合的に分析されるが故に、そこに歪みが混入していることは気づかれにくいし、そこに無意識的にせよ紛れ込んだ偏った仮定や見せかけの相関が複合的、累積的に処理される中で大きな歪みを結果する危険性は高い。

例えば、当たり前に使われるIQにしても、その前提に遡れば歪み、差別を孕んだもので測定法としても指標としても有効性、有意性は厳しく問われなければならない。だから、IQをデータに用いて統計分析をしても有意性がなく不当ですらある可能性がある。何かの属性と何かとを関係づけて傾向を示す類の記事や論文に、「それ関係ある?」「その属性の測り方合ってる?」「その属性のカテゴリー分けおかしくない?」といった突っ込みはよく入るし、当該属性とは別の要因が特定されることもある。

あるいは、ネットショップのおすすめで笑っちゃうような商品が出てくることがあって、同音異義だったり単語は同じでも全く使われ方をしたりしている言葉に明らかに引っかかったなということがわかることがある。ツイッターのおすすめユーザーなんかでもよくある。セクシュアリティやジェンダーに関わる本を買っていたり検索をしていたりツイートしたりしていると、明らかにエロ方面の商品などが薦められたり、関連として表示されたり、広告が出たりする。批判対象となるようなアカや記事が出てげんなりすることもはよくある。

笑って気づけるレベルならいいのだが、例えば、何人もが批判や監視のためにある差別主義者の本を買い、そのアカウントをフォローしているとする。そのデータを元に、その人たちと似たような購買やフォローの傾向がある人にその差別主義者がすすめられる。興味を持ちたて、勉強を始めたての学生だったらどうか。その差別主義者が批判対象であると知らずに本を買いアカウントをフォローし、そちらに傾くことがあるかもしれない。これはわかりやすい例だが、もっと微細なレベルでこういうことは起こっているだろう。

ここまでは差別、歪みということで有害性が見えやすい話をした。別の形で現実的な脅威としてあるのは平板化だろう。いくらビッグデータとは言えその対象の特徴も導かれる因果関係も縮減されてしまう。また、一定の基準で「ノイズ」が排除されてしまう。そうすると、多種多様に見えても、そのパターンは一定の範囲内の一定の種類に整序されてしまう。そのようなAIはますます先取り的に誘導する場面で実装されているし実装が加速するだろう。その結果、縮減的に誘導されその結果がデータとしてフィードバックされる。技術の進歩で複雑なデータを複雑なままに処理することが可能になり、処理能力もまだまだ高まるだろうから、縮減、平板化はすぐにそれとは気づかれない。微細なところで整序、誘導され、事後になってそのことは明らかになるだろうが、その時には馴化されている。

同時に、AIの導く結果に違和感を持つ人、受け入れられない人、そもそもノイズ・外れ値として弾かれるような人にとってはどうだろうか。そのまま排除され、不利益を被るのか、適応し統合されることを選ぶのか。いずれにしてもおぞましい。

あるいは、ノイズとして弾かれるようなインプットを提供することが多い人でもAIの側でノイズ分だけを無視したり近似的に又は置換的に処理したりしてアウトプットを返してくるだろう。そうすると本来得られるべき結果とは違う方向に誘導され得る。あるいは、なかなか有意な又は有効なアウトプットを得られないために、行動を修正しインプットを「改善」することが起こり得る。その修正は結果を得るために便宜的に、その場限りでも即ち意識的にもなされ得るが、無意識的に学習され習慣化することも多いはずだ。

対人であれば何となく伝わり、時に融通を利かせてもらうこともあったのが、機械相手ではそうはいかずに苦労したけど、気づいたら使いこなせるようになっていて、むしろ「無茶を言う」人を見て笑ったりイラついたりするなんてことは誰しも覚えがあるはずだ。もちろん、機械が特定の状況やニーズに応えられないことが問題と認識されて改修等がされることや即時の対応が困難なためにその部分は人が対応する取扱いがなされるようになることもある。しかし、たいがいの「不便」は利用者側の行動修正で適応される。

コンピュータの普及、ネットの普及で実はこういうことはかなり大規模に起こっているし、行動修正が漸進的で累積的なものなので、20年、30年単位で振り返って初めて行動や認識が大きく変わっていたことに気づいたりするものだ。ビッグデータ、AI、メタバース…による行動と認識の修正、誘導のインパクトはさらに大きなものたり得るし、同時に、より気づかれにくい形で進み得る。単に透明性のあるAIといった法的、技術的な側面だけではなく、統計的手法といった考え方とその前提に関わる。

この記事が気に入ったらサポートをしてみませんか?