見出し画像

【#37】半歩だけLLMに入門しました

おはようございます!
データサイエンスを学んでいる、大学4年生のUKIです。

今日は、『半歩だけLLMに入門しました』というテーマでお話ししたいと思います。


ローカルでLLMを動かしてみた

昨日の記事で、「ローカルでLLMを動かせるように頑張ります!」と宣言した通り、ローカルでLLMを動かせるようになりました!
※PCのスペックの都合上、「Phi-3」というモデルを使ったので、正確にはLLMではなくSLM(小規模言語モデル)です。

参考にしたのは、この二つの記事です。⇩
Ollamaを使ってLlama3をカスタマイズしてみた(初心者向け解説)|AI-Bridge Lab こば (note.com)
Difyをローカル環境で起動してLLMアプリを作成してみた ##生成AI - Qiita

ローカルで動かせるようにした後は、最近話題になった「Dify」というオープンソースのLLMアプリ開発プラットフォームで動かしてみました。

とはいえ、「アプリ」と言えるほどのものではなく、ただ「エラーなく正常に動作させることができました!」という段階なので、これからもっと活用していければいいなと思っています。

やってみないと分からないことばかり

今回、OllamaというローカルLLMの実行ツールを初めて触ってみました。Difyに関しては、数日前に環境構築はしましたが、実際にモデル使って動かしたのは今回が初めてでした。

Ollamaに関しても、Difyに関しても、XやQiita等で情報は目にしていたはずですが、無意識のうちにスルーしていた気がします。

いろんなものに一度でも手を付けていれば、1年後の自分の状態が大きく変わってくると思うので、これからも気になったものは積極的に触っていきたいと思います!

まとめ

最後まで読んでいただき、ありがとうございました。
今日は、『半歩だけLLMに入門しました』というテーマでお話しさせていただきました。

今後も日々の活動や学び、考えていることなどを発信していくので、よろしくお願い致します。

また、X(旧:Twitter)でも発信しているので、フォローお願いします。

匿名で質問募集中です!
聞いてみたいことなど、お気軽にメッセージください!

この記事が気に入ったらサポートをしてみませんか?