ソース | Qubits
著者 | Cressey
ChatGPT のコード インタプリタは自分のコンピュータ上で実行できます。あるマスターが GitHub でコード インタプリタのローカル バージョンをリリースしたところ、すぐにGitHub のホット リストで 3,000 以上の星を獲得してトップになりました。GPT-4が本来持っていた機能を全て備えているだけでなく、インターネットにも接続できるのがポイントです。
大規模モデル研究テストポータル
GPT-4 ポータル (壁がなく、ブラウザの警告ポイントが進んでいる場合に直接テストできます/引き続きアクセスします):
https://gpt4test.com
ChatGPTは「切断された」というニュースが出てから大騒ぎになり、数カ月間閉鎖されたままだった。インターネット機能はここ数か月間沈黙していましたが、現在は解決策があります。コードはローカルで実行されるため、ネットワークに加えて、Web バージョンの他の多くの問題も解決します。
-
3 時間で送信できるメッセージは 50 件までです
-
サポートされる Python モジュールの数が限られている
-
処理できるファイル サイズには制限があり、100MB を超えることはできません。
-
セッション ウィンドウを閉じると、以前に生成されたファイルは削除されます。
API がない場合は、オープンソースの Code LLaMa にモデルを変更することもできます。このコードインタープリタのリリース後、一部のネチズンはすぐに Web バージョンへの期待を表明しました。
それでは、このローカル コード インタープリターがどのようなものかを見てみましょう。
GPT を「再接続」させます
GPT-4のAPIを呼び出すので、当然GPT-4でサポートされている機能はすべて利用でき、もちろん中国語にも対応しています。GPT 自体の機能については、ここでは詳しく説明しません。ただし、コード インタプリタの追加により、GPT の数学的レベルが数レベル向上したことは言及する価値があります。そこで、ここでは難しい導出問題を使ってテストします。問題は f(x)=√(x+√(x+√x)) です。
うーん...この結果は少し抽象的ですが、プロンプトの単語に問題があるはずです。変更してみましょう。
すると、次のような結果が得られました。
この式は標準の回答とは異なっているように見えますが、形式の問題でしょうか? 私たちはそれを検証しました:
結果は正解です!次のステップはメイン イベントに入ります。このコード インタプリタのネットワーク機能がギミックであるかどうかを見てみましょう。たとえば、最近どのようなニュースがあるかを確認したいとします。
プログラムはまず必要なモジュールがインストールされているかどうかを確認し、インストールされていない場合は自動的にインストールされ、Web ページの取得が開始されます。ローカルで実行していない場合に Web ページ全体を一度読んで、画面上でスクロールするコードを見ると、確かに少し震えると言わざるを得ません...
次に、プログラムはニュースのタイトルがネットユーザーに保存されているフィールドを分析し、抽出します。
幸いなことに、多くのトラブルの後、最終的に私たちが望んでいた結果が得られました。
単独で検索させるだけでなく、分析する特定の Web ページを指定することもできます。
もう一度異常な負荷をかけた後、コード インタプリタは自己紹介を正常に再現しました。
ChatGPT のレプリカであるオンライン版もありますが、さらに高度な機能はありますか? もちろんありますよ!たとえば、システム設定を調整したいのですが、その方法がわかりません。Web バージョンを使用すると、テキスト命令の長いリストが表示される可能性が高くなりますが、今ではそれをコード インタプリタに直接渡すだけで済みます。長くて理解できないチュートリアルを提供する代わりに、コードが自動的に実行され、ワンステップで正しく実行されます。
GPT-4 にコードを生成させるだけでなく、コード リポジトリ内の一部のツールを GPT-4 経由で呼び出すこともできます。たとえば、ビデオに字幕を追加したい場合は、複製時に既製の音声認識モジュールを呼び出すことができます。手元に既製の資料がないため、開発者が提供したデモを次に示します。
コードの実行プロセスはローカルで実行されるため、ビデオ サイズが制限を超えることを心配する必要はありません。つまり、実行すると、ビデオの下に字幕が表示されることがわかります。
同様に、この機能を使用すると、ドキュメントや画像を生成および変更したり、ControlNet を呼び出して静的な画像からアニメーションを生成したりすることもできます。理論的には、パフォーマンスが十分であれば、Python で実行できることはすべて実行できます。では、このローカル コード インタープリターを体験するにはどうすればよいでしょうか?
設置方法
著者は GitHub プロジェクト ページ (記事の最後にあるリンク) に Colab ノートを投稿しており、資格のあるネチズンは直接 Colab ノートを体験することができます。ローカルでのインストールも非常に簡単で (Python がインストールされている場合)、「pip install open-interpreter」という 1 行のコードを実行するだけで完了します。インストール後、ターミナルに「interpreter」と入力すると直接起動します。
このとき、プログラムは GPT-4 API を要求しますが、3.5 のみの場合は、起動時に「interpreter --fast」を使用します。3.5 が使用できない場合は、このステップで直接 Enter キーを押すか、起動中に「interpreter --local」と直接入力して Code-LLaMA に切り替えることができます。これらには、7B、13B、および 34B の 3 つのバージョンが含まれており、サイズが小さいほど速度が速くなり、サイズが大きいほど結果の精度が高くなります。Code-LLaMA がインストールされていない場合は、プログラムの指示に従って自動的にインストールされます。
なお、デフォルトではコード生成後、実行前に確認する必要がありますが、毎回確認したくない場合は、起動時にコマンドの後ろに「space -y」を追加することもできます。ここでは一般的に使用されるコマンドを紹介しますが、より高度なゲームプレイを知りたい場合は、作者の Colab ノートを参照してください。気に入った方はお早めに体験してください!
GitHub プロジェクト ページ:
https://github.com/KillianLucas/open-interpreter