見出し画像

LLMが数学の未解決問題を解いた!

LLM(大規模言語モデル)は、空白当てクイズを洗練させて期待を超える回答をし、専門家ですらその原理に頭を悩ますほどです。

LLMが騒がれる以前から、AIがアルゴリズム自体を改善することには成功していました。

名称はアルファ(Alpha)シリーズを踏襲し、「アルファテンサー(AlphaTensor)」「アルファデブ(AlphaDev)」(既存言語ライブラリにも採用)と続いています。

一方で、数学の専門家(人間)が頭を悩ます未解決問題というものがいくつかあり、その1つが「キャップセット問題」といわれるものです。

小難しい用語があるので、例でいえば、
3点を結んで線とならない状態を1セットとし、最大どれくらいのセットが成立しうるか?
という問題です。

その未解決問題を、LLMがついに解きました。知る限り史上初の偉業です。

このLLMは「FunSearch(ファンサーチ)」と呼ばれるもので、Google DeepMindが開発しました。

誤解しがちがですが、楽しい「Fun」でなくFunction(関数)の略です。
ようは、「関数を検索するAI」ですね。

従来より、LLMは幻覚(ハルシネーション)が課題でした。過去にも触れたので引用しておきます。

今回工夫したのは、LLM(これはGoogleが開発したPaLM2が原型)が出した回答をLLMが評価するという組み合わせです。
DeepMindのBlogにわかりやすい図があったので引用します。

https://deepmind.google/discover/blog/funsearch-making-new-discoveries-in-mathematical-sciences-using-large-language-models/

興味深いのが、これを開発した方自身が、なぜうまくいくのかがよくわかっていない、と述べていることです。

これはLLMがスケールを高めるほど高い正解率を誇った(スケーリング則)の反応と似ていますね。

なんとなくは怖い感覚もありますが、従来の我々の知性の考え方自体にも示唆を与える気がします。

というのも、知性の源である「脳」自体がまだよくわかっていないからです。

ハードウェアとしての情報はある程度分かっています。
記憶をつかさどる海馬、運動を担う小脳、計算や推論に影響を与える大脳新皮質など。。。
そして共通の仕組みとして、1000億超のニューロンがネットワーク構造でつながって電気信号を授受し、それを支えるグリア細胞も近年注目されています。(こちらは過去記事で補足しておきます)

なのに、脳がなぜこんな知的なのかを説明する動作原理はわかっていません。

本題からずれてきましたが、人間が人工的に生み出した成果物が、人間の最高知能(数学者)ですら凌駕する時代にきました。

そろそろ知性の解が見つかってほしい、と思うのは私だけでしょうか?

この記事が気に入ったらサポートをしてみませんか?