[創作論793] AIの学習

幼児に装着したヘッドカメラのデータだけで、AIが言語を学習したようです。

OpenAIのGPT-4のようなAIシステムは、人間のように言葉を使いこなすことで話題になっています。
これが可能なのは、インターネットから集められた天文学的な量のデータを学習しているためで、その量は、1人の人間が一生のうちに受け取るものの100万倍にもなるといいます。
一方、人間の幼児は、自分の環境にあるものを吸収するだけで、より少ないインプットで言語を学習します。
控えめに言っても、子供たちが自然な環境の中だけで耳にする単語の量が、AIが受け取るデータ量に達するには10万年もの経験が必要とされています。
そのため、日常的な環境で学習している1人の子供の目と耳を通して、AIシステムを訓練することが理想的なテストとなると考えられています。
そこで、研究チームは生後6カ月から25カ月までの間、週に1回、1人の幼児に小さなカメラを装着し、20カ月の合計で60時間以上の映像を撮影しました。
これには、約25万の単語が含まれており、その単語が話されたときに子どもが見た映像フレームとリンクしています。
このような1人の子供のインプットの一部だけでマルチモーダルAIシステムを訓練したところ、日常的な環境の単語の相当数を学習できることが分かりました。
ただし、幼児がビーチで遊んでいるときだけ手という単語がよく出てくるため、モデルが手という単語を砂と結びつけてしまうなどの失敗もありました。
これらは今回のデータの限界を浮き彫りにする興味深い事例だとされています。


驚きの研究結果ですね。
創作活動においても、AIを有効に活用できればいいですね。

この記事が気に入ったらサポートをしてみませんか?