Stable Diffusion Webui をインストールする
レンダリング:
1. 準備
AI
ペイントツールをダウンロードする前に、事前にいくつかの実行環境をコンピュータにダウンロードする必要があります
1.Python、gitをダウンロードする
まず第一に、ローカル マシンは Nvidia の N カードであることが望ましく、ローカルで実行するには少なくとも4GB
ビデオ メモリ描画にはグラフィック カードの要件が高いため、A カードももちろん再生できます。そうしないと、インストールが成功した場合でも、結果のイメージが真っ黒になったり、まったく描画できなくなったりすることがあります。
インストールするときは、Magic Internet をオンにする必要があります。オンにしないと、ペイントに必要な依存関係をダウンロードできません。
なお、ローカルpython
環境、正式Python 3.10.6
版をダウンロードする必要があります
python
その中で、ダウンロードアドレス: https://www.python.org/downloads/
なお、インストールが必要ですGit
、ダウンロードアドレス:https ://git-scm.com/downloads/
python
インストールが完了したら、次のコマンドを実行して最新のものにpip
アップグレードします。
python -m pip install --upgrade pip
2.安定した拡散ウェブUIをダウンロードする
最初のGit
コマンドは。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
2 つ目は、次の図に示すように、圧縮パッケージ ファイルを直接ダウンロードする方法です。
3. 運転開始
ローカルにダウンロードした後、windows
システム、フォルダー内を直接ダブルクリックしますwebui-user.bat
MACOS
またはLinux
システムの場合は、次のコマンドを実行します./webui.sh
初めて起動するときはさまざまな依存関係をダウンロードするのに時間がかかります。最新バージョンでは4GB
ほぼv1-5-pruned-emaonly.safetensors
ダウンロードする必要があるので、気長に待ちます。
ダウンロード速度を速くしたい場合は、事前にモデルをダウンロードし、models/Stable-diffusion
フォルダー再度開始するwebui-user.bat
と、モデルを再度ダウンロードする必要がなくなります。
モデルのデフォルトの公式ダウンロード アドレス: https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main
公式のデフォルトのダウンロードが遅いと感じる場合は、コメント欄にBaidu Cloudのデフォルトモデルのダウンロードアドレスも掲載しましたので、ご自身で選択してください
インストールプロセスが正常に完了したら、ブラウザで直接開きますhttp://127.0.0.1:7860
訪問が成功した場合はインストールが成功したことを意味し、開いたページはおおよそ次のとおりです
2. プラグインをダウンロードしてローカライズします
中国のインストール
方法 1: 利用可能なものからインストールする
ソフトウェアインターフェイスのExtensions
ボタン、次にAvailable
利用可能な拡張機能ボタンをクリックし、最後にLoad from
ボタン、後ろのインデックスリンクから利用可能なすべての拡張機能を取得して自分でダウンロードできます。
拡張機能のリストが読み込まれたら、Bilingual Localization
言語、クリックしてinstall
ダウンロードします。
方法 2: Web サイトからインストールする
最初に をクリックしExtensions
、次に下の 3 番目のボタンをクリックしますInstall from URL
インストールするには中国語のリンク アドレスを手動で入力する必要があります。ここでリンクをgithub
選択するか、中国のgitee
上記のリンクに移動します。
中国化プラグインのオープンソース ウェアハウスはsd-webui-bilingual-localization
または でstable-diffusion-webui-chinese
、検索してリンクを貼り付け、Install
クリックします。
https://github.com/VinsonLaro/stable-diffusion-webui-chinese.git
方法 3: Web サイトからインストールする
-
stable-diffusion-webui/extensions
拡張機能のディレクトリを直接見つけて、コマンド ライン ウィンドウを開いてそのディレクトリで次のコマンドを実行します。
git clone 仓库地址
中国化を有効にする
方法 1:Setting
ボタン、Bilingual Localization
左側の列をクリックして、Localization file
ドロップダウン ボックスで言語を選択します。
方法 2:Setting
ボタン、User interface
左側のバーをクリックして下までスクロールし、プラグインLocalizationg
の
選択したら、クリックして設定を保存し、クリックしてインターフェイスをリロードして楽しくプレイするApply setting
必要がありますReload UI
バイリンガル中国化
-
バイリンガル中国語倉庫リンク: https://github.com/journey-ad/sd-webui-bilingual-localization.git
-
上記の単純な中国化はインターフェースを完全に中国語に変換しただけですが、中国語と英語の両方を表示したい場合は、バイリンガルプラグインを使用する必要があります
-
上記の 3 つの方法のいずれかを使用して中国語プラグインをダウンロードすることもできます。効果を確認するにはプラグインを有効にする必要があります。
-
このとき
Setting
、のUser interface
左側の列の下に を設定し、 列のドロップダウン ボックスで言語を選択してから再起動する必要があります。Localizationg
None
Bilingual Localization
Localization file
UI
使用
レンダリング:
インターフェースパラメータ
Stable Diffusion
オープンソースAI
ペイントを使用する前に、ペイント インターフェイスといくつかのパラメータの意味を理解する必要があります。
現時点では、中国語のプロンプト単語に対する AI ペイントの効果は良くありません。英語のプロンプト単語を使用してみてください
最も重要なパラメータは次のとおりです。
プロンプト:肯定的なプロンプト ワード。つまりtag
、プロンプト ワードが多いほど、AI
描画結果がより正確になります。
否定プロンプト:逆プロンプト、つまりリバースtag
幅 / 高さ: 生成される画像サイズ。サイズが大きくなるほど、パフォーマンスと時間がかかります。
CFG スケール:AI
説明パラメータPrompt
の度。値が小さいほど、生成される画像は説明から逸脱しますが、論理的になります。値が大きいほど、生成される画像は説明と一致しますが、論理的ではない可能性があります。
サンプリング方法:サンプリング方法。たくさん種類がありますが、サンプリングアルゴリズムが違うだけで、どちらが良いとか悪いとかはなく、自分に合ったものを選んでください。
サンプリング ステップ:サンプリング ステップ サイズ。小さすぎる場合、サンプリングのランダム性が非常に高くなります。大きすぎる場合、サンプリング効率が非常に低くなり、拒否の確率が高くなります。
シード:乱数のシード。各画像を生成する際のランダム シード。このシードは拡散の初期状態を決定するための基礎として使用されます。理解できない場合は、ランダムを使用してください
顔を復元する:顔の修復、顔を最適化する原理は、ニューラル ネットワーク モデルを呼び出して顔を修復し、顔に影響を与えることです。写真内のキャラクターの顔を修復しますが、非現実的なキャラクターに対して顔修復をオンにすると顔が崩れることがあります
タイリング:シームレステクスチャは、 の行列乗算の最適化という昔ながらの最適化技術で、描画速度CUDA
に影響を与えたり、ビデオメモリの消費量を削減したりしますが、実際に選択してみると正常な絵すら出なくなることがあります。勝てない
Highres.fix:高解像度の修正。デフォルトでは、Vincent 図は高解像度で非常に混沌とした画像を生成します。高解像度修復を使用する場合、最初に指定されたサイズに従って画像を生成し、次に拡大アルゴリズムを通じて画像の解像度を拡張して、高解像度の大きな画像の効果を実現します。
サンプラー
オイラーa:イラストです、tag
使用率はDPM2
とDPM2 a
、環境光効果は良好です、構図は時々変です
オイラー:ソフト、イラストにも適しています、良好な環境ディテールとレンダリング、深い背景ぼかし
フン:Euler
発掘された単一の平均品質率はEuler a
と より高いですが、速度は最も遅く、step
高性能が優れています
DDIM:ワイド画像に適しています、低速、step
高性能tag
が良いですが、ネガが十分でない場合はカジュアルにプレイできます、環境光と水蒸気の効果は良いですが、リアリズムは良くありません
DPM2:このサンプリング方法はtag
、使用率が80%
最も高くなります。
DPM2 a:DPM2
とほぼ同じですが、キャラクターがクローズアップされる場合があります。
PLMS:単一の図面の品質は次のとおりです。Heun
LMS:テクスチャOA
、彩度、コントラストが低く、アニメーション スタイルに近い
LMS カラス:最適化されたスタイルに大幅に変更され、リアルさは良くありません
DPM 高速:これは上層世界の開発者が残したテスト ツールであり、魔術師による使用には適していません。
ヴィンセント図 (txt2img)
Vincent 画像 (text2img):プロンプトの単語Prompt
の対応する画像を生成します
绘画模型(Stable Diffusion checkpoint)
► 文生图(txt2img)
► 填写正向提示词(Prompt)
► 填写反向提示词(Negative prompt)
► 选择采样器(一般选择DPM++ 2M Karras)
► 设置采样步骤(一般设置30)
► 设置长宽(Width / Height,推荐 1024 * 1536)
►を選択します点击生成(Generate)
上記の手順に従って、テキストから画像を生成することができますが、一般的には を記述するPrompt
だけでよくNegative prompt
通常は固定されており、透かし、低品質、その他の考えられるロジック エラーが制限されます。
画像生成画像(img2img)
画像生成画像 (img2img):プロンプトの言葉でPrompt
説明される別の新しい画像を生成します。
绘画模型(Stable Diffusion checkpoint)
► 图生图(img2img)
► 填写正向提示词(Prompt)
► 填写反向提示词(Negative prompt)
► 选择采样器(一般选择DPM++ 2M Karras)
► 设置采样步骤(一般设置30)
► 设置长宽(Width / Height,推荐 1024 * 1536)
►を選択します点击生成(Generate)
写真を土生図にアップロードしてテストします。ここでは、先ほどの文生図の写真を使用します。上記の手順に従って、[生成] をクリックして効果を確認します。
AI
写真によって生成された写真は、実際にあなたがアップロードした写真に基づいており、あなたがアップロードした写真と同様の写真Prompt
を生成するわかります。
ラベルの重量
Prompt
タグを入力する際、思いついたことを何でも書くことがありますが、デフォルトでは前に書かれた重みが最も高くなります。
stable Diffusion
特定の記号を使用してキーワードの重みを増やすこともできます。
()
は重みを強化する、[]
は重さを減らす、は埋め込み用の「実装」です。{}
NAI
()
<>
例: (eye) > [eye]
、(eye:1.4)
通常よりも約 3 倍多く追加され40%
、(eye:0.6)
通常より約 2 倍減少します。40 %
モデルのダウンロード
おすすめモデルサイト: https: //civitai.com/
左上隅のドロップダウン ボックスを使用してモデルを選択できます。デフォルトのモデルはv1-5-pruned-emaonly.safetensors
です。
デフォルトのモデルで描画される絵は見にくいので、より適切で優れたモデルをダウンロードして描画する必要があります
各モデルは、人物の描画に適したもの、アニメーションの描画に適したもの、風景の描画に適したものなど、異なる描画スタイルに焦点を当てています。
モデルをダウンロードし、モデル ファイルをmodels/Stable-diffusion
フォルダー、リロードするUI
と、次のことがわかります。
モデル間の一般的な違い
名前 | 必要 | 効果 | 述べる |
---|---|---|---|
安定拡散(4GB emaのみモデル) | 2GBのビデオメモリを搭載 | 描画速度は10秒、単一出力最大920×920 | 絵を描くのに適した |
stable-diffusion (7GB full ema模型) | 4GBのビデオメモリを搭載 | 前回のトレーニングの重みにより、ビデオメモリが消費されます | トレーニングに適した |
waifu (Float 16 EMA 模型) | 2GBビデオメモリスタート | パフォーマンスはほぼ安定していますが、ビデオ メモリの使用量がわずかに高くなります。 | 絵を描くのに適した |
waifu (Float 32 EMA 模型) | 2GBビデオメモリスタート | パフォーマンスはほぼ安定していますが、ビデオ メモリの使用量がわずかに高くなります。 | 絵を描くのに適しており、実際の画質は16とそれほど変わりません |
ワイフ (Float 32 フルモデル) | 4GBのビデオメモリがスタート | パフォーマンスはほぼ安定していますが、ビデオ メモリの使用量がわずかに高くなります。 | 描画やトレーニングに最適 |
waifu (Float 32 Full + Optimizer モデル) | 8GBビデオメモリスタート | パフォーマンスはほぼ安定していますが、ビデオ メモリの使用量がわずかに高くなります。 | トレーニングに適した |
Naifu(4GBプルーニングモデル) | 最小 8GB VRAM および 8GB VRAM | オフィシャルに近い | 絵を描くのに適した |
Naifu(7GB最新モデル) | 最小 8GB ビデオ メモリ (フローティング 10GB 以降) | オフィシャルに近い | 描画やトレーニングに最適 |
- ここでのビデオ メモリは 512X512 のサイズを指し、デフォルト設定では、ソフトウェアが画像を出力するときに占有する必要があるビデオ メモリを指します。ビデオ メモリは 2 GB から始まります。これは、コンピュータのグラフィック カードの実際のビデオ メモリが少なくとも 3 GB 必要であることを意味します (システムのデスクトップとブラウザのディスプレイもビデオ メモリの一部を占有する必要があるため)。
- さまざまな「最適化」パラメータを追加することで、部分的なパフォーマンスの低下を通じてビデオ メモリの使用量を削減できます。
- Nafu モデル名の説明 1: animefull-final-pruned = full-latest = NAI フルモデル (NSFW を含む)
- Nafu モデル名の説明 2: animesfw-latest = NAI ベースライン モデル
参考文献:
Stable Diffusion
オープンソース アドレス: GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion Web UI
オープンソース AI ペイント ツール Stable Diffusion の最新バージョンを使用
AI タグ ジェネレーター Geek Feitu AI タグ ジェネレーター