text-generation-webuiをIntel Macにインストール

環境

macOS 12.6.5


準備

ver1.7は、そのままではインストールできなかったので修正します。

requirements_apple_intel.txtを開いて

この行を

https://github.com/oobabooga/llama-cpp-wheels/releases/download/metal/llama_cpp_python-0.2.31-cp311-cp311-macosx_12_0_x86_64.whl; platform_system == "Darwin" and platform_release >= "21.0.0" and platform_release < "22.0.0" and python_version == "3.11"

 

これに変更します。

https://github.com/abetlen/llama-cpp-python/releases/download/v0.2.33/llama_cpp_python-0.2.33-cp311-cp311-macosx_10_9_x86_64.whl; platform_system == "Darwin" and platform_release >= "21.0.0" and platform_release < "22.0.0" and python_version == "3.11"


ポートが1111と同じなので CMD_FLAGS.txt を変更します。

--cpu --listen --listen-port 7861

※--listenは、外部から接続する時に必要です。一台で使う場合は消してください。


インストール

コマンドプロンプトを起動してインストールしたいフォルダーに移動します。

私は、デスクトップのAIフォルダーにインストールしました。

cd ~/Desktop/AI

git clone https://github.com/oobabooga/text-generation-webui.git

cd text-generation-webui

start_macos.sh


ブラウザで localhost:7861 を開くと表示されます。

初期設定だと、GPT4Allの方が速い気がする。


設定

ダークモード解除

Sessionを開いてToggleボタンを押す。

Save UI defaults to settings.yamlボタンで保存する。


Modelタブ

llama.cpp

threads を CPUの物理コア数にする。私は、2

threads_batch をコアの合計数 (物理 + 仮想)にする。私は、8


Parameters

Generation

プリセット

指示用: Divine Intellect、Big O、simple-1。

チャット用: Midnight Enigma、Yara、Shortwave、Mirostat

 

gpt4allのデフォルト

temperature: 0.7
top_p: 0.4
top_k: 40

設定項目が無いパラメーター

Promt Batch Size:128

Repeat Penalty:1.18 repetition_penaltyかな?

Repeat Penalty Tokens:64

 

指示テンプレート

Parameters → Instruction template

gpt4all falconの場合は、Alpacaかな?


使い方

Chat

会話用

Parameters->Cjaracterで役割みたいなのを設定できる

 

Default

テンプレートに記入してくれる


Notebook

[デフォルト] タブとまったく同じですが、出力が入力と同じテキスト ボックスに表示される点が異なります。


yuki

初めての作業で調べた事、困った時の解決方法を記録するブログ。 主なテーマは、パソコン、プログラミング、カメラ、DTM、スピリチュアル、化学物質過敏症

コメントを投稿

Please Select Embedded Mode To Show The Comment System.*