見出し画像

ChatGPTの様子がちょっとおかしいんだが

 GPT-4が数学の問題に関して2023年3月頃の測定より精度が下がったという報告があった(2023年7月)。
 そこで、何が起きているのか検証をしてみた。問題の一例は「17077は素数ですか?」である。

 この質問にGPT-3.5は「1とその数自身以外に約数を持たないため、素数です」と回答した。これは正しい。
 それに対してGPT-4は「17077は127と131の積として表現することができます」と回答した。これは間違いである。

 再度GPT-4に「17077は素数ですか?検算をしながら進めてください」と質問したところ、「17077が素数かどうかを調べるためには、17077が他の数で割り切れるかどうかを確認する必要があります。それを確認するためには、17077の平方根(約130.67)までの素数で17077を割り切れるかどうかを試します」と前置きしてから順次それを実行していき、「上記の計算結果から17077は上記のどの素数でも割り切れませんでした。17077は素数です」と結んだ。

 このことから、GPT-4は、ここ数ヶ月の間に何らかの理由で間違った答を記憶してしまい、計算せずにその記憶を先に回答したという可能性が挙げられる。このように、誤った内容をAIが学習して次第に毒されていき、事実とは異なる知識で満たされていく危険が潜んでいることが分かる。

 AIの利用に注意点があるのと同等またはそれ以上に、AIの学習には注意が必要であることが表面化したように思える。


ちょっとおかしい兆候があるアンドロイド

この記事が気に入ったらサポートをしてみませんか?