WSLからCUDAを利用できるようにしたときの忘備
ChatGPTを皮切りに大規模言語モデル(LLM)が世界を騒がせるようになった今、、今さらながらローカルで機械学習の諸々を動作させたいという気持ちになりました。
今のところメイン機はWindows11(i5/12500 + RTX3060Ti)を使っていて、Windows上で動作させてもよいのですが、実際に何か使おうとするとおそらくクラウド上などに展開するはず。。ということで、WSL2上に環境を作ってみようということで表題に至りました。
同じことを実際にされている方はすでに