見出し画像

Chat with RTX お試し編

NVIDIAから出ました。
走らせるまでの覚え書きです。

windows11とありましたが、ダメ元で、ダウンロードして最初試しました。

けっこう大きなファイルで、展開するのに時間がそこそこかかりました。

setupのプログラムを走らせると、system check から始まって、そこでは何もエラーがでませんでした。

デフォでは、chatプログラムと、LlamaとMixtralが選ばれています。

そのままインストールを続けましたら、minicondaのインストールから始まり、依存関係やらダウンロードしたりして進んでいきました。

表示画面を見てると、LLMは int4です。

最終的にデスクトップ上にアイコンができました。

アイコンをダブルクリックして立ち上げると、terminalが立ち上がって、進めるには何かキーを押してということで、押しましたがそのままterminalが終わって何も変化ありませんでした。

Windows11でないといけないかと思って、いいきっかけだと思い11にアップグレード。

再度チャレンジしましたが同じでした。

インストール画面の選択のところで、Nvidiaのクリーンインストールというチェックがあったのですが、これはデフォではオフです。

いろいろ触った覚えがあったので、再度 setupから始めて、これにチェックをいれてインストールしなおしました。

再度、デスクトップのショートカットから実行すると、terminalがやっぱり立ち上がり、途中で、別パネルでpythonがinternetにつなげることを許可しますかというのがでてきました。OKで進めると、terminal上でいくつかファイルがダウンロードされて、今度はウェブブラウザが立ち上がりました。

ブラウザ上では、写真にあるような画面です。
左上で、LLM のモデルの選択、右上でyoutubeやdocumentを入れる設定、さらに一番右上にはシャットダウンのボタンがあります。

あとは、普通のchat画面と同じです。
(文章生成が終わったら、カーソルが入力欄にもどらなかったのは謎です)

文章生成には、参考にしたドキュメントも示されていました。

mistralは日本語も表示されましたが、文字化けが多々ありました。

私が試したバージョンは、0.2 でした。

とりあえず触ってみた、やってみた報告です。

蛇足:llm触ってると、ファイル容量の感覚が麻痺してきますね。1TのSSD, 2TのHDDのゲーミングPCですが、もうCドライブいっぱいいっぱいです。


#AI #AIとやってみた #やってみた #ローカルLLM #大規模言語モデル #Nvidia #chatwithrtx

この記事を最後までご覧いただき、ありがとうございます!もしも私の活動を応援していただけるなら、大変嬉しく思います。