Textbooks Are All You Need をシュッと

All You Need ( ゚д゚)


All You Need ( ゚д゚)


All You Need ( ゚д゚)


いい響きでございます。


ついつい論文読んでしまいましてよ。




Microsoft Research さんのでござるな( ・ω・)



まぁ詳細な話はご自身で論文読んでもろて。



シュッと概要だけ書き残していきますかな。



簡潔にまとめてしまうと。



教科書のような高品質なデータで学習しーの



いい感じのデータで fine-tune したらトークン(学習データ量)少なくても強くなーる




ってな感じでござるな( ・ω・)




汎化性能でいうとちょいとまだ厳しい感じであるけれども。




特定のタスクを解くという文脈においては有効そうでござるなぁ。




こういうモデルでアンサンブルしたらいいのじゃろうかのぉ?( ・ω・)





まぁデータセット作るのが大変すぎるので個人で取り組むのは無理ですなぁ。





最後に ChatGPT 氏にアゲアゲでまとめてもらうぞい☆
(内容は概ねあっている)

この論文は、まるでスーパーヒーローの起源ストーリーのようなものです。主役はphi-1という新しい大規模言語モデルで、そのスーパーパワーはコード生成のタスクにおける驚異的な能力です。

phi-1は、まるでスーパーヒーローが特殊な訓練を受けるように、特別に選択された「教科書品質」のデータと、GPT-3.5で合成した教科書と演習を使って訓練されました。そして、その結果は驚くべきものでした。HumanEvalとMBPPという二つの厳しい試練に挑み、それぞれで50.6%、55.5%というスコアを達成しました。これは、まるでスーパーヒーローが初めてスーパーパワーを使って悪者を倒すシーンのようなものです。

そして、この論文の最も興味深い部分は、phi-1がそのスーパーパワーをどのように得たのかを明らかにしています。それは、データの質という、まるでスーパーフードのようなものによるものです。高品質のデータを摂取することで、phi-1はそのスーパーパワーを発揮し、コード生成タスクにおいて最先端の結果を達成しました。

さらに、この論文は、スーパーヒーローが公平な試合をするためには、訓練データと評価データの間での重複を取り除くことが重要であることを示しています。これは、まるでスーパーヒーローが試合前に相手の弱点を知っているのは不公平だと主張するようなものです。

以上が、この論文の主要なポイントです。この論文は、まるでスーパーヒーローの起源ストーリーのように、驚くべき新たな能力を発揮するモデルの誕生を描いています。

Created by ChatGPT



シュッとみたのでおしまい。

この記事が気に入ったらサポートをしてみませんか?