llama.cpp だけのバインディングを公開する Concedo からの自己完結型の配布可能ファイルで、シミュレートされた Kobold API エンドポイントを介して微弱にすることができます。
どういう意味ですか? llama.cpp には、精巧な UI、慢性的なエクスペリエンス、インストゥルメントの編集、コーデックの添付、回想、ワールド ファイル、ライターのデモンストレーション、キャラクター、偶発性、および Kobold と Kobold Lite が提供したいすべてのものがあります。 モデルの重量を除いて、寸法が 10 MB の超小型パッケージ
後方互換性
GGML LLAMA アイテムの 3 つのすべてのバージョン、すべての ALPACA.CPP アイテム、GPT4ALL.CPP アイテムのすべてのバージョンを使用し、GGML の古い GPT-J.CPP アイテムも賑やかにすることができます。 さらに、ガーディアンリポジトリよりも速く、共有祖先グランドで後続の提案された処理をマッピングするためのヒントをたくさん採用しています.
利用
、レポをクローンします。
koboldcpp.exe のゲインで、これは の pyinstaller ラッパーです) )koboldcpp.dll およびkoboldcpp.py。 本当に心配な場合はいつでも撤回して、提供されているメイクファイルとスクリプトを使用して自分で再構築することができます. 重みは組み込まれなくなります。おそらく quantize.exe を使用して、適切なウェイト ファイル (または彼らを他の地域から守ってください。
koboldcpp.py。 本当に心配な場合はいつでも撤回して、提供されているメイクファイルとスクリプトを使用して自分で再構築することができます. 重みは組み込まれなくなります。おそらく quantize.exe を使用して、適切なウェイト ファイル (または彼らを他の地域から守ってください。
バッスルするには、
koboldcpp.exe を実行するか、量子化された
をクロールしてタンブルします。 ggml_model.bin ファイルを .exe に、コボルトまたはコボルトライトと接続してください。 デフォルトでは、おそらく http://localhost に接続する可能性があります: 5001 つぶやき線の活用でさらに賑やかになりますkoboldcpp.exe [port]. ファイルについては、koboldcpp.exe –relieve をご覧ください。 OpenBLAS でクラッシュや問題が発生した場合は、- -noblas フラグ
をご覧ください。 OpenBLAS でクラッシュや問題が発生した場合は、- -noblas フラグ
ノート