見出し画像

【第三世代フェミニストの弾薬庫】科学実証主義と「這い寄る最初のちっちゃな深淵」の鬩(せめ)ぎ合い?

以下の投稿、なぜか、いわゆる「スピリチュアル方面」のリンクだらけに‼︎

  • 調べるうちに「人はどうしてスピリチュアル方面に走るのか?」みたいなメカニズムが見えてきた。出発点となるのは「(時として当事者の欲求に逆らうレベルまで「誤差切り捨て」が遂行された)極端なまでの内測化領域」。例えばこの方の文章は経験者にしか描けないリアリティを帯びている。アメリカ社会学のモットー「(Youtubeなるマネタイズ手段がYoutuberという存在を誕生させた様に)社会的要請が社会的人格を型抜きする」を彷彿とさせる。この時点では何の問題もない。

私は電気電子工学を専攻しておりました。

いわゆる理系です。

基本的に電気や電子は直接目で観測できるわけではないので、目で観測できた現象(モーターが激しく回る、測定器の表示が振り切れている、異音がするなど)から、間接的に電気、電子がどう挙動しているかを類推するしかありません。その類推をするためには常に論理的思考が求められ、常に論理が必要とされるその環境をある程度心地よく感じている自分もいました。

上掲「なぜか、心が壊れた」
  • ところが観測結果なるもの、時として「(当事者の欲求に寄り添った)現実」にそぐわなくなってくる。しばしば時間をかけてゆっくりと。人間はこの変化にいきなりは気付けない。「内測化された領域の準安定性を保つ為に観測誤差を切り捨て続ける」メカニズムは、それ自体がそれなりの強度で準安定性を備えており「観測の失敗が許容範囲を超えた事実」を、何としても当事者の視野から覆い隠そうとし続けるからである。

  • それでも「必ず観察から入れ。それに立脚しない憶測は、ことごとく現実に裏切られることになる(カール・マルクス)」原則は動かない。なので例えば人間の直感的推定における「(目の前の観察対象の分布の種類と与えるパラメーターを計算で割り出す)最尤推定法」に依存する部分は、観測の失敗が許容範囲を超えた時点で「(それまで内測化領域と外測化領域を峻別してきた)誤差切り捨てメカニズム」の見直しを必要とする。

  • ところが「ユークリッド幾何学を(それを全体の一部として含む)非ユークリッド幾何学に拡張する」「ニュートン物理学を(それを全体の一部として含む)量子力学に拡張する」といったパラダイムシフトは、しばしば不可避的に概ね(これまで構築してきた歴史と伝統に立脚する)全体構造そのものの見直しを必要とし、そういう時はもはや誤差切り捨てメカニズムのみの見直しでは済まなくなってくる。ここで迂闊に「近道」を探し当ててお茶を濁そうと考え始めると「最初のちっちゃな深淵」が芽生えてしまう訳である。

私自身は別に「人工知能は意識を持ち得るか」といった不可知論の世界に足を踏み入れる気なんぞサラサラなく、機械学習的アルゴリズムが扱う分布意味論の次元において「行動が言葉に反映し、言葉が行動に反映する」語彙仮説について考えたかっただけだったのですが…

分布意味論(Distributional Semantics)と語彙仮説(Lexical Hypothesis)は、語彙の意味とその使用に関する重要な概念であり、互いに密接に関連しています。それぞれの概念について説明し、その関係を明らかにします。

分布意味論 (Distributional Semantics)

分布意味論は、単語の意味をその周囲の文脈(他の単語)との共起に基づいて捉える理論です。このアプローチは、「単語の意味は、その共起する単語によって定義される」という仮定に基づいています。つまり、単語の意味は、その単語が出現する文脈から学習することができると考えます。

この理論に基づいて、単語の意味をベクトル空間にマッピングし、意味の類似性を計算するためにコサイン類似度などの数学的手法を用います。例えば、Word2VecやGloVeなどの技術は、分布意味論に基づいて単語の埋め込み(word embeddings)を生成します。

語彙仮説 (Lexical Hypothesis)

語彙仮説は、語彙の使用が個々の人の心理的特徴や認知的特徴を反映するという考え方です。特に、Big Fiveのようなパーソナリティ特性が言語使用に影響を与えるという仮説が有名です。この仮説に基づく研究では、言語データ(例えば、文章やスピーチ)を分析して、個々の人のパーソナリティや心理的状態を推測する試みが行われています。

両者の関係

分布意味論と語彙仮説は、言語の意味と使用に関する研究において補完的な役割を果たします。

1. 意味の捉え方:
• 分布意味論は、単語の意味をその共起パターンから捉える方法を提供します。これは、言語データから抽出されたパターンに基づいて意味を定義するものであり、語彙仮説の研究において使用されることがあります。

2. パーソナリティと言語使用:
• 語彙仮説に基づく研究では、分布意味論の技術を使用して、大量のテキストデータから意味のベクトルを抽出し、それを基に個人の特性を分析します。例えば、SNSの投稿や文章からパーソナリティ特性を推定する研究で、分布意味論のモデルが使用されることがあります。

3. 言語のモデル化:
• 分布意味論は、自然言語処理(NLP)において、テキストデータから意味を抽出しモデル化するための強力なツールを提供します。このツールを使用して、語彙仮説に基づく研究を行うことで、個人の特性や心理的状態のより正確な推定が可能となります。

総じて、分布意味論は語彙仮説に基づく研究を支える技術的基盤を提供し、両者の組み合わせにより、言語データの分析とその結果の解釈においてより深い洞察を得ることができます。

ChatGPTに質問「分布意味論と語彙仮説の関係について教えてください」

どうやら「自分で自分を再プログラミングする」の部分が引き金になった様ですね。「皮膚で連続する人体領域の三重性」に関わってくる話です。

皮膚で連続する人体領域(円筒座標系)の三重性
上掲「皮膚で連続する人体領域(円筒座標系)」の指数/対数写像(俯瞰図)。これで無限遠点「乳首」「股間」が線から点に移る。
上掲「皮膚で連続する人体領域(円筒座標系)」の指数/対数写像(側面図)。
  • 「直交座標系(方眼)は対数写像も指数写像も極座標系となる」なる考え方は、ある意味世界地図におけるメルカトル図法の考え方そのものである。

極座標系(複素数系)における指数写像表現と対数写像表現の対比。
  • 線の状態を曲率とその逆数たる曲率半径で表す曲率論の表現を用いるなら無限直線(曲率0,曲率半径$${\tilde{∞}}$$)と単位円(曲率1,曲率半径1)の間の往復となるが、前者においては曲率半径の計算上の中心がその無限直線(ルベール測度b-a=[-∞.+∞.])によって分割される2領域のどちら側にあるか、後者においては「(指数写像を+1,対数写像を-1とカウントする)テトレーション回数」が不定となる。これは計算上どうやっても定め様がない性質の内容で、迂闊に無理矢理答えを探そうとすれば「最初のちっちゃな深淵」が芽生えてしまう。

「テトレーション回数」の計算方法
  • 直交座標系(Cartesian coordinate system)について最初に発表したのはデカルト(René Descartes,1596年~1650年)だが、そこに元来埋め込まれてた(45度ズレて2つ存在する)$${2^n}$$座標系に、さらに複素平面(Gaussian plane)の概念を加え回転の概念をも統合されたのは数聖ガウス(Carolus Fridericus Gauss, 1777年~1855年)であった。こうして考え方の道具が出揃って初めて我々の知るベクトル概念の構築が始まり、それがそれなりの形で整備されたのは19世紀後半~20世紀前半となる。

本来の形での2^n座標系

この様に現代数学における座標論では、無限直線(ルベール測度b-a=[-∞.+∞.])を指数/対数写像した球面座標系に落とし込むと色々と便利なのでとりあえず「乳首=北極」「股間=南極」と置く事から出発した訳です。

出発点となる「各身体部位概念における、迂闊に露わに出来ない身体部位からの距離イメージ」。もちろん実際の物理的距離と必ずしも相関するとは限らない。
  • 各身体部位概念の(迂闊に露わに出来ない乳首や股間といった)極限からの距離を「(上掲座標系においてルベール測度bーa=[Cos(0)=+1,Cos(π)=-1]で表される)垂直軸=緯度(北緯90度〜の南緯90度)」の範囲で表すものとする。

  • すると緯度(極限からの距離)を同じくする各身体部位概念の集合が、ある種の等高線を形成する。これを「(上掲座標系においてルベール測度bーa=[Sin(-π)=0,Sin(+π)=0]の範囲で表現される)水平軸=経度(東経180度〜西経180度)」で表すものとする。

  • もちろんあくまでイメージであり、ここで数学から導入したいのは主に「人間の身体イメージは各身体部位概念によって被覆(covering)される」なる信念である。実際の各身体部位概念は時代や地域によって異なるし個人の想像力が「盆の窪」「鳩尾」といった細部にまで均等に及んでるはずがない。そしてまさに、そうした状況だからこそ分布意味論に立脚する機械学習アルゴリズム導入の意義が生じてくるという訳である。

数学における「被覆」(covering)の概念は、特に位相空間論や解析学において重要な役割を果たし、集合をより小さな集合の集まりで完全に覆う(カバーする)ことを指します。

1. 位相空間における開被覆:
位相空間 ( (X, τ ) の開被覆とは、 ( X ) の開集合からなる被覆です。つまり、各 (Ui ) が ( X ) の位相 ( τ ) に属する開集合であることを意味します。

2. 有限被覆とコンパクト性:
ある集合 ( X ) がコンパクトであるとは、 ( X ) の任意の開被覆から有限部分被覆を取ることができることを意味します。つまり、どのような開被覆を考えても、そこから有限個の部分集合を選んで元の集合 ( X ) を覆うことができるということです。

3. 解析学における被覆:
積分や測度論などでは、例えば区間 [a, b] を有限個の開区間に分割することがしばしば行われます。リーマン積分やルベーグ積分の定義においても区間の被覆や測度の概念が重要な役割を果たします。特にルベーグ測度論では、集合を測度ゼロの集合で覆うことにより、測度の性質を調べます。

ChatGPTに質問「数学における被覆の概念について教えてください」要約
  • 愛撫一つとっても指先でチョンと突いただけでは成立しない。電気工学における抵抗計算や推測統計の世界の様に、そこには何らかの「積分効果(すなわち皮膚の表面に指や視線を滑らせて何らかの測度ベクトルを発生させる)」が存在しないといけない。

緯度経度座標系も、地球の球面が完全球体でなく回転楕円体であり、公転軌道が楕円である事から実際の位置特定にあたっては複雑な補正計算を必要とします。

緯度経度座標系

実はまさしく「(最終的に機械学習理論に到達する)数学における推定概念」の大源流の一つとなった最小二乗法と誤差関数のセットもまた、ここでいう「緯度経度を厳密に定める為の複雑な補正計算」に由来していたりします。まさしく「自然こそが人類の物理学と数学の教師」という世界観ですね。なお最小二乗法はその後最小N乗法に発展的な形で継承され、驚くべき事に最も絶望的に見える「最小零乗法」まで熱心に研究されている様ですが、その背景に(機械学習アルゴリズムが立脚する)意味分布論の世界においては(平均も分散も存在しないコーシー分布の如く)平均値も中央値も代表値となり得ない事がある様なんです?

  • 一般に最小二乗法は「平均値」、最小一乗法は「中央値」、最小零乗法は「最頻値」に対応すると「考えられている。

なるほど統計学園「中心的な傾向を捉える」
  • パラメーターとして分布の最頻値を与える位置母数(Location parameter)$${x_0}$$=0, 半値半幅を与える尺度母数(Scale parameter)γ=1と置いた場合

$$
確率密度関数f(x;0,1)=\frac{1}{π(1+x^2)}
$$

$$
累積分布関数F(x;0,1)=\frac{1}{π}tan^{-1}(x)+\frac{1}{2}
$$

この様に「数学における(分布とそれに与えるパラメーターを見定める)最尤推定の世界」そのものには、どこを切ってもスピリチュアル要素など一切ないのですが、そこまで合理に徹しきれないのが人間の性というやつでユージン・ウィグナー『自然科学における数学の理不尽なまでの有効性(1959年)』が指摘する様な不信感がどうしても芽生えてしまうという訳ですね。

そんな感じで以下続報…

この記事が気に入ったらサポートをしてみませんか?