Command-R+の衝撃! 100Bモデルで本当にこんなことできんの!?ダウンロードしてローカルで実行可能
Transformerの発明者らが起業したCohereAIがとんでもないモデルを出してきた。この業界では毎週のように「えーー!」ということが起きるのだが、その中でも年に1,2回起きる「えーーーっ」が起きたのでブログでも紹介しておきたい。
Command-R+(おそらくコマンダープラスと読むのが正しい)というモデルは、わずか100Bで、GPT-4,Claude-3並と言われるモデルだ。しかし、それを主張するだけのモデルなど腐るほどある。だが、実際に触ってみると期待外れということが多かった。
ところがCommand-R+は、その性能は桁違いである。というか、もはや僕という人間如きがちょっと触ったくらいでは「GPT-4よりいいね」とか「ここら辺甘いね」とか判断がつかなくなってきてる。しかも速い。体感ではGPT-4の5倍くらい速い。ブラインドテストをしたら、「こんなに高速にGPT-4が返すわけない」という理由で正体を見破ってしまいそうだ。
しかも、なんとダウンロードできる。非商用限定だが、商用利用したければAPIを使える(せっかくローカルにあるのに)。
もしかすると、セールスコンタクトすればローカルにあるモデルを商用利用するためのライセンスの交渉ができるのかもしれない。
それくらい、ちょっと衝撃的にすごいのだ。
JSONとかプログラムとかも余裕で書ける。でももっとすごいのは創造的な文章を書かせることだ。
例えば、「カレーライスの歴史について書いて欲しい。著者は清水亮でAI研究家であり、浅草橋の技研ベースでは毎週水曜日から土曜日までやっているカレーライスのお店、カリーギークの常連客である。他にも麹町アジャンタのような本格的インドカレーも好む」などと入力すると以下のような文章がか返ってくる。しかもものすごく速い
やばい。俺の原稿よりずっといい。しかも無料で使える。
試したい人は以下から。速すぎてびっくりすると思うよ
さらに、4ビット版MLXも出ているので、メモリ96GB以上のMacがあれば、ローカルで動作させることもできる。そのうち2ビット版も出てくるだろう。