【論文メモ】Transformerを用いた高速なtxt2img
Muse: Text-To-Image Generation via Masked Generative Transformers論文リンク: https://arxiv.org/abs/2301.00704
公開日時: Submitted on 2 Jan 2023
概要離散トークンを使用し、サンプリングの反復回数が少ないため拡散モデルより効率的。
並列デコードを使用するため自己回帰モデルより効率的。
900MパラメータモデルにおいてCC3MでFID score: 6