重回帰分析と生成AIの限界
ChatGPTの問題点。最近やっとまともな議論が出て来たと感じる。例えば朝日新聞の記事生成AIにも性偏見?男性は医師や教師 女性は料理人…ユネスコ調査だ。ここのコメント「AIに対する誤解もしくは過度な期待があることが状況をややこしくしている」はそのとおりだ。これは「データ」を中心に据えてAIを読み解くと、見えてくることでもある。今回はデータを読み解く立場から、問題点を整理してみようと思う。
重回帰分析:
始めに。重回帰分析という名前をご存じだろうか。工学系・理系の人なら必ず習う。しかし、回帰分析という言葉を知らない人、数学が苦手な人でも、無意識にその概念を頭の中で使っているはずだ。
例えば、あるお店で利益をあげたいと考えた場合、何をするだろうか。最も単純には、どんなものを売れば良いのか、経費はどうすれば節約できるか、と考えるだろう。何をいくらでどれだけ準備するのか。どの商品をどれだけ増やせば、どれだけ売上が増えるだろうかと考え、発注量を決めるのではないだろうか。
それを式で示すと重回帰分析になる。
$${ y=\sum_{i=1}^{n}a_i x_i + b=a_1 \cdot x_1 +a_2 \cdot x_2 + \cdots + a_n \cdot x_n +b }$$
例えば商品の数などを式に入れると、売上が結果として予測できる式ができる。(商品の数などに予め決めた定数を掛け合わせ、足し込む)
意外に単純な話だ。しかし応用範囲は広い。看護の現場で立位が保てない患者の体重を身長や腕の太さなどから予測する場合にも使われる。身長だけでもある程度推定できる。ただし太っているか、痩せているかは身長だけではわからない。例えば腕の太さやヒップがわかれば、より良い予測ができるだろう。その他の部位の太さがわかればもっと精度よく予測できるかも知れない。
つまり、不明な何かを推定するため、影響を与えているであろう別の何かを使って予測しようとしている。至る所で使われている考え方だ。
これを実際に使ってそれらしい予測結果を得たい時、事前にやっておくべきことがある。それは最初は「影響を与えているであろう別の何か」として何を要素($${x_i}$$)として使えば良いのかを決めることだ。そしてこれがどの程度「不明な何か」($${y}$$)に影響を与えているかを定量化しておくことだ。「影響を与えているであろう別の何か」$${x_i}$$を重みづける$${a_i}$$の値を決めておく必要がある。
重みづけに使う値($${a_i}$$)を決定するには、大量のサンプルデータを必要とする。上記の体重推定ならば、例えば3か所程度の計測($${x_1,x_2,x_3}$$)でそれなりの体重を予測できる。必要になる係数は4つ($${a_1,a_2,a_3,b}$$)だ。しかしその係数を決めるためには、4つよりはるかに多くのデータが必要になる。事前に係数の値を決めるための計算を行う必要もある。そしてそのデータは、その重回帰分析を行う時のデータに即していなければならない。例えば高齢者女性の体重予測を目的としている時には、高齢女性のデータを使う必要がある。20代男性のデータを使っても意味がない。
その上で注意しなければならないのは、結果はあくまでも予測であること。予測した結果が真の値になるとは限らないことである。このような限界はあるものの、世の中には、やはり予測できると嬉しい事柄が沢山ある。
重回帰:$${ y=\sum_{i=1}^{n}a_i x_i + b }$$
・何を予測したいのか($${y}$$)
・何を$${x_i}$$とするか
・$${a_i}$$と$${b}$$の値を決める ← 大量のサンプルデータ、事前の計算
ChatGPT:
これが実は、AIの基本的考え方の1つなのだ。特に、ディープラーニングという技術は、予測に用いる要素(パラメータ)を増やし、階層を増やして重回帰分析という単純な式(線形)を複雑化(非線形化)することによって精度を高めたもの。意図する結果に近い答え(=予測)を出してくれる系を作り出しす。ChatGPTも同じ考えで構成されている。出てくるものが数字ではなく文章。しかしやはり多くの人がそれらしいと感じる答え(=予測)を出してくれるように設計されている。
つまり考え方は重回帰分析と同じ、予測、が基本なのだ。違いは、ChatGPTが重回帰を超複雑化した系であることだ。パラメータの数と階層を増やしている。同時にその係数を得るためのサンプルデータ(学習データ)が超巨大になっていることだ。例えばGPT-3は、ディープラーニングとしては96層、学習データ量570GB、パラメータ数1750憶。計算時間は半年? という膨大なシステムだという。(GPT-4は詳細非公開)
という視点でChatGPTを眺めてみると、おのずとわかることがある。
(1) 結果はあくまで予測
(2) 学習データ次第で出てくる答えは変わる
これを知らないと懸念されることがある。最も懸念されるのが、大量のデータから得た、AIが出した、人間の感情を含まない答えなので、結果は正しいと考える人が増えることだと私は思っている。特にChatGPTはそれらしい文章で答えが返って来るため、これまでのAIよりもより一層、正しいのではと感じてしまう人が増えてしまうだろう。
ChatGPTの社会的なインパクトは、日々大きくなっていると感じている。しかし同時に、この問題点を肌で感じる人も出始めている。例えば冒頭記事のポイントは生成AIに偏見が含まれていることを述べているが、上記(2)を考えれば当然のことだ。記事へのコメント「AIに対する誤解もしくは過度な期待がある」は上記(1) そのものだ。
ようやく、生成AI、ChatGPTの問題の本質が議論され始めたと感じている。
雑感:
なぜ今回この記事を書くことにしたのか。それはずっと感じて来た、工学系の人たちに対する違和感を最近また(まだ)感じたからだ。一般に工学系の人は、技術的にこれができる!と考える人が多い。批判的な人でも、これは無理、という程度だ。問題点を論じようとしても、「できる」「できない」という表面的な議論でしかできていない。
多くの場合、特に若い人は社会へのインパクト、一人ひとりに与える影響は想像だにしない。社会として何が起きるのかなど、全く視野の外なのだ。
しかし、技術が世の中で広く利用されると、社会は必ず影響を受ける。
(今回は、そりゃそうなるわな、という考えていることを書いてみた。)