見出し画像

ローカルPCのターミナル上でLLM生成コードを実行できるOpen Interpreterを試す

ChatGPTのコードインタープリター(Advanced Data Analysis)と同様な機能をローカル環境で実行可能な Open Interpreter が公開されていました。ターミナル上で、チャットインターフェイスを介して、LLMがPython、JavaScript、Shellなどのコードを実行できるもののようです。

Google Colabでの実行デモも公開されています。

ローカル環境で試す

対話環境の起動はターミナルで以下を入力します。

 $ interpreter -y

Pythonコードの生成・実行

Mailの自動化

シェルを介してローカルPCのアプリとの連携もできるようなので試してみます。 以下はメール本文を生成し、AppleScriptでmail.appを自動操作している例です。

ネット情報の取得

ネットにももちろん制限なくアクセスできます。ライブラリーのインストールなども自動で可能です。

> BBCのトップニュースを5つ表示して

LLMの変更

デフォルトはOpenAIのgpt-4ですが、ローカルモードを指定するとCode Llamaが使用できます。

$ interpreter --local

高速モードを指定するとgpt-3.5-turboが使えます。

$ interpreter --fast 

インターネット接続の制約もなく、ライブラリのインストールも自由にできるし、計算資源の制約もなくローカルアプリと連携できていい感じです。ますますLLMの活用の幅が広がりそうですね。

お読みいただき、ありがとうございました。

この記事が気に入ったらサポートをしてみませんか?