ローカルAIが使えるPCかどうか判定するアプリ『CUDA-GPUChecker』公開!!!!
ローカル生成AI系アプリ数本出して思ったんですよ。
よくよく考えたらこれ、PCに詳しくない普通の人、わっかんねぇな!!!!!!
って。なので至極単純な『AIが動くPCかどうかの判定』ができるだけのアプリを作りました!!!
【DL先】
https://drive.google.com/file/d/1p4JI5wFtvWVA84J1ronU7PAP6VoZnWaX/view?usp=sharing
【使い方】
①zipファイルをDLし適当な場所に解凍する
『パスが長すぎて解凍できません』的なエラーが出るときはWindows標準の解凍機能ではなく7-zipというアプリを使って解凍してください
②GPUChecker.exeをダブルクリック
するとなんか出てきます。
セキュリティーソフトでブロックされた時は
Windows Defenderの場合、Windows セキュリティ→ウイルスと脅威の防止→ウイルスと脅威の防止の設定→設定の管理→除外
GPUChecker.exe(プロセス)
E:\CUDA-GPUChecker(フォルダ)
③終わったらフォルダごと削除
無駄にデカいファイルですまねぇガハハ(犯人はtorchです)
【対応していないPCと言われたら?】
30万円の予算を用意して、PC工房かドスパラに行って『画像生成AIがやりたいです。CUDA対応したGPUを積んだVRAM12GB以上のPCが欲しいです』の呪文を唱えてください。
2024/05/26現時点だと、
あたりでええんちゃいますかね。私も最近のBTOPCの動向追っていないので(欲しくなるので)、誰か詳しい方は具体的なツッコミをリンク付きで投げてくださると助かります(読者が
【ソースコード】
ファイル容量やばっ!何入ってるん?と聞かれるのでぺたり。
なんかもっといい感じのスマートな方法あったら教えてね!
import tkinter as tk
import torch
def check_cuda():
if torch.cuda.is_available():
total_memory = torch.cuda.get_device_properties(0).total_memory / (1024 ** 3) # GB単位に変換
# VRAMに基づいたパフォーマンスの評価
if total_memory <= 11: # 11GB以下は厳しいです
performance = "厳しいです"
elif 11 < total_memory < 15: # 11GBを超え、15GB未満は普通に動きます
performance = "普通に動きます"
elif total_memory >= 15: # 15GB以上は快適に動きます
performance = "快適に動きます"
else:
performance = "VRAMの量が特定の範囲外です"
result_label.config(text=f"CUDA対応のGPUが搭載されています。\nデバイス名: {torch.cuda.get_device_name(0)}\nVRAM: {total_memory:.2f} GB\nパフォーマンス: {performance}")
else:
result_label.config(text="CUDA対応のGPUは搭載されていません。")
# GUIを作成
root = tk.Tk()
root.title("CUDA GPU Checker")
# 結果を表示するラベル
result_label = tk.Label(root, text="チェック中...", font=('Helvetica', 10))
result_label.pack(pady=20)
# CUDAチェックを起動時に実行
root.after(100, check_cuda) # 少し遅延を入れてGUIが準備できた後に実行
# ウィンドウのメインループ
root.mainloop()
この記事が気に入ったらサポートをしてみませんか?