![見出し画像](https://assets.st-note.com/production/uploads/images/115298660/rectangle_large_type_2_53b3e4f969d04b4821da6e20d0206e57.png?width=800)
ローカルPCのターミナル上でLLM生成コードを実行できるOpen Interpreterを試す
ChatGPTのコードインタープリター(Advanced Data Analysis)と同様な機能をローカル環境で実行可能な Open Interpreter が公開されていました。ターミナル上で、チャットインターフェイスを介して、LLMがPython、JavaScript、Shellなどのコードを実行できるもののようです。
Google Colabでの実行デモも公開されています。
ローカル環境で試す
対話環境の起動はターミナルで以下を入力します。
$ interpreter -y
Pythonコードの生成・実行
![](https://assets.st-note.com/img/1693805244823-Hc6BMV0O7z.png?width=800)
Mailの自動化
シェルを介してローカルPCのアプリとの連携もできるようなので試してみます。 以下はメール本文を生成し、AppleScriptでmail.appを自動操作している例です。
![](https://assets.st-note.com/img/1693805566384-XisZ3nrJWr.png?width=800)
ネット情報の取得
ネットにももちろん制限なくアクセスできます。ライブラリーのインストールなども自動で可能です。
> BBCのトップニュースを5つ表示して
![](https://assets.st-note.com/img/1693811266279-QY6IP2elJG.png?width=800)
LLMの変更
デフォルトはOpenAIのgpt-4ですが、ローカルモードを指定するとCode Llamaが使用できます。
$ interpreter --local
高速モードを指定するとgpt-3.5-turboが使えます。
$ interpreter --fast
インターネット接続の制約もなく、ライブラリのインストールも自由にできるし、計算資源の制約もなくローカルアプリと連携できていい感じです。ますますLLMの活用の幅が広がりそうですね。
お読みいただき、ありがとうございました。
この記事が気に入ったらサポートをしてみませんか?