【#37】半歩だけLLMに入門しました
おはようございます!
データサイエンスを学んでいる、大学4年生のUKIです。
今日は、『半歩だけLLMに入門しました』というテーマでお話ししたいと思います。
ローカルでLLMを動かしてみた
昨日の記事で、「ローカルでLLMを動かせるように頑張ります!」と宣言した通り、ローカルでLLMを動かせるようになりました!
※PCのスペックの都合上、「Phi-3」というモデルを使ったので、正確にはLLMではなくSLM(小規模言語モデル)です。
参考にしたのは、この二つの記事です。⇩
Ollamaを使ってLlama3をカスタマイズしてみた(初心者向け解説)|AI-Bridge Lab こば (note.com)
Difyをローカル環境で起動してLLMアプリを作成してみた ##生成AI - Qiita
ローカルで動かせるようにした後は、最近話題になった「Dify」というオープンソースのLLMアプリ開発プラットフォームで動かしてみました。
とはいえ、「アプリ」と言えるほどのものではなく、ただ「エラーなく正常に動作させることができました!」という段階なので、これからもっと活用していければいいなと思っています。
やってみないと分からないことばかり
今回、OllamaというローカルLLMの実行ツールを初めて触ってみました。Difyに関しては、数日前に環境構築はしましたが、実際にモデル使って動かしたのは今回が初めてでした。
Ollamaに関しても、Difyに関しても、XやQiita等で情報は目にしていたはずですが、無意識のうちにスルーしていた気がします。
いろんなものに一度でも手を付けていれば、1年後の自分の状態が大きく変わってくると思うので、これからも気になったものは積極的に触っていきたいと思います!
まとめ
最後まで読んでいただき、ありがとうございました。
今日は、『半歩だけLLMに入門しました』というテーマでお話しさせていただきました。
今後も日々の活動や学び、考えていることなどを発信していくので、よろしくお願い致します。
また、X(旧:Twitter)でも発信しているので、フォローお願いします。
匿名で質問募集中です!
聞いてみたいことなど、お気軽にメッセージください!
この記事が気に入ったらサポートをしてみませんか?