AIペイント安定拡散インストール、チュートリアル統合パッケージダウンロード

Stable Diffusion Webui をインストールする

 レンダリング:

1. 準備

AIペイントツールをダウンロードする前に、事前にいくつかの実行環境をコンピュータにダウンロードする必要があります

1.Python、gitをダウンロードする

まず第一に、ローカル マシンは Nvidia の N カードであることが望ましく、ローカルで実行するには少なくとも4GBビデオ メモリ描画にはグラフィック カードの要件が高いため、A カードももちろん再生できます。そうしないと、インストールが成功した場合でも、結果のイメージが真っ黒になったり、まったく描画できなくなったりすることがあります。

インストールするときは、Magic Internet をオンにする必要があります。オンにしないと、ペイントに必要な依存関係をダウンロードできません。

なお、ローカルpython環境、正式Python 3.10.6 版をダウンロードする必要があります

pythonその中で、ダウンロードアドレス: https://www.python.org/downloads/

なお、インストールが必要ですGit、ダウンロードアドレス:https ://git-scm.com/downloads/

pythonインストールが完了したら、次のコマンドを実行して最新のものにpipアップグレードします。

python -m pip install --upgrade pip

2.安定した拡散ウェブUIをダウンロードする

最初のGitコマンドは。

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

2 つ目は、次の図に示すように、圧縮パッケージ ファイルを直接ダウンロードする方法です。

3. 運転開始

ローカルにダウンロードした後、windowsシステム、フォルダー内を直接ダブルクリックしますwebui-user.bat

MACOSまたはLinuxシステムの場合は、次のコマンドを実行します./webui.sh

初めて起動するときはさまざまな依存関係をダウンロードするのに時間がかかります。最新バージョンでは4GBほぼv1-5-pruned-emaonly.safetensorsダウンロードする必要があるので、気長に待ちます。

ダウンロード速度を速くしたい場合は、事前にモデルをダウンロードし、models/Stable-diffusionフォルダー再度開始するwebui-user.batと、モデルを再度ダウンロードする必要がなくなります。

モデルのデフォルトの公式ダウンロード アドレス: https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main

公式のデフォルトのダウンロードが遅いと感じる場合は、コメント欄にBaidu Cloudのデフォルトモデルのダウンロードアドレスも掲載しましたので、ご自身で選択してください

インストールプロセスが正常に完了したら、ブラウザで直接開きますhttp://127.0.0.1:7860

訪問が成功した場合はインストールが成功したことを意味し、開いたページはおおよそ次のとおりです

 

2. プラグインをダウンロードしてローカライズします

中国のインストール

方法 1: 利用可能なものからインストールする

ソフトウェアインターフェイスのExtensionsボタン、次にAvailable利用可能な拡張機能ボタンをクリックし、最後にLoad fromボタン、後ろのインデックスリンクから利用可能なすべての拡張機能を取得して自分でダウンロードできます。

拡張機能のリストが読み込まれたら、Bilingual Localization言語、クリックしてinstallダウンロードします。

 方法 2: Web サイトからインストールする 

最初に をクリックしExtensions、次に下の 3 番目のボタンをクリックしますInstall from URL

インストールするには中国語のリンク アドレスを手動で入力する必要があります。ここでリンクをgithub選択するか、中国のgitee上記のリンクに移動します。

中国化プラグインのオープンソース ウェアハウスはsd-webui-bilingual-localizationまたは でstable-diffusion-webui-chinese、検索してリンクを貼り付け、Installクリックします。

https://github.com/VinsonLaro/stable-diffusion-webui-chinese.git

 方法 3: Web サイトからインストールする 

  • stable-diffusion-webui/extensions拡張機能のディレクトリを直接見つけて、コマンド ライン ウィンドウを開いてそのディレクトリで次のコマンドを実行します。

git clone 仓库地址

中国化を有効にする

方法 1:Settingボタン、Bilingual Localization左側の列をクリックして、Localization file ドロップダウン ボックスで言語を選択します。

方法 2:Settingボタン、User interface左側のバーをクリックして下までスクロールし、プラグインLocalizationg

選択したら、クリックして設定を保存し、クリックしてインターフェイスをリロードして楽しくプレイするApply setting必要がありますReload UI

バイリンガル中国化

  • バイリンガル中国語倉庫リンク: https://github.com/journey-ad/sd-webui-bilingual-localization.git

  • 上記の単純な中国化はインターフェースを完全に中国語に変換しただけですが、中国語と英語の両方を表示したい場合は、バイリンガルプラグインを使用する必要があります

  • 上記の 3 つの方法のいずれかを使用して中国語プラグインをダウンロードすることもできます。効果を確認するにはプラグインを有効にする必要があります。

  • このときSettingUser interface左側の列の下に を設定し 列のドロップダウン ボックスで言語を選択してから再起動する必要があります。LocalizationgNoneBilingual LocalizationLocalization fileUI

使用

レンダリング:

インターフェースパラメータ

Stable DiffusionオープンソースAIペイントを使用する前に、ペイント インターフェイスといくつかのパラメータの意味を理解する必要があります。

現時点では、中国語のプロンプト単語に対する AI ペイントの効果は良くありません。英語のプロンプト単語を使用してみてください

最も重要なパラメータは次のとおりです。

プロンプト:肯定的なプロンプト ワード。つまりtag、プロンプト ワードが多いほど、AI描画結果がより正確になります。

否定プロンプト:逆プロンプト、つまりリバースtag

幅 / 高さ: 生成される画像サイズ。サイズが大きくなるほど、パフォーマンスと時間がかかります。

CFG スケール:AI説明パラメータPromptの度。値が小さいほど、生成される画像は説明から逸脱しますが、論理的になります。値が大きいほど、生成される画像は説明と一致しますが、論理的ではない可能性があります。

サンプリング方法:サンプリング方法。たくさん種類がありますが、サンプリングアルゴリズムが違うだけで、どちらが良いとか悪いとかはなく、自分に合ったものを選んでください。

サンプリング ステップ:サンプリング ステップ サイズ。小さすぎる場合、サンプリングのランダム性が非常に高くなります。大きすぎる場合、サンプリング効率が非常に低くなり、拒否の確率が高くなります。

シード:乱数のシード。各画像を生成する際のランダム シード。このシードは拡散の初期状態を決定するための基礎として使用されます。理解できない場合は、ランダムを使用してください

顔を復元する:顔の修復、顔を最適化する原理は、ニューラル ネットワーク モデルを呼び出して顔を修復し、顔に影響を与えることです。写真内のキャラクターの顔を修復しますが、非現実的なキャラクターに対して顔修復をオンにすると顔が崩れることがあります

タイリング:シームレステクスチャは、 の行列乗算の最適化という昔ながらの最適化技術で、描画速度CUDAに影響を与えたり、ビデオメモリの消費量を削減したりしますが、実際に選択してみると正常な絵すら出なくなることがあります。勝てない

Highres.fix:高解像度の修正。デフォルトでは、Vincent 図は高解像度で非常に混沌とした画像を生成します。高解像度修復を使用する場合、最初に指定されたサイズに従って画像を生成し、次に拡大アルゴリズムを通じて画像の解像度を拡張して、高解像度の大きな画像の効果を実現します。

サンプラー

オイラーa:イラストです、tag使用率はDPM2DPM2 a、環境光効果は良好です、構図は時々変です

オイラー:ソフト、イラストにも適しています、良好な環境ディテールとレンダリング、深い背景ぼかし

フン:Euler発掘された単一の平均品質率はEuler aと より高いですが、速度は最も遅く、step高性能が優れています

DDIM:ワイド画像に適しています、低速、step高性能tagが良いですが、ネガが十分でない場合はカジュアルにプレイできます、環境光と水蒸気の効果は良いですが、リアリズムは良くありません

DPM2:このサンプリング方法はtag、使用率が80%最も高くなります。

DPM2 a:DPM2とほぼ同じですが、キャラクターがクローズアップされる場合があります。

PLMS:単一の図面の品質は次のとおりです。Heun

LMS:テクスチャOA、彩度、コントラストが低く、アニメーション スタイルに近い

LMS カラス:最適化されたスタイルに大幅に変更され、リアルさは良くありません

DPM 高速:これは上層世界の開発者が残したテスト ツールであり、魔術師による使用には適していません。

ヴィンセント図 (txt2img)

Vincent 画像 (text2img):プロンプトの単語Promptの対応する画像を生成します

绘画模型(Stable Diffusion checkpoint)文生图(txt2img)填写正向提示词(Prompt)填写反向提示词(Negative prompt)选择采样器(一般选择DPM++ 2M Karras)设置采样步骤(一般设置30)设置长宽(Width / Height,推荐 1024 * 1536)を選択します点击生成(Generate)

上記の手順に従って、テキストから画像を生成することができますが、一般的には を記述するPromptだけでよくNegative prompt通常は固定されており、透かし、低品質、その他の考えられるロジック エラーが制限されます。

画像生成画像(img2img)

画像生成画像 (img2img):プロンプトの言葉でPrompt説明される別の新しい画像を生成します。

绘画模型(Stable Diffusion checkpoint)图生图(img2img)填写正向提示词(Prompt)填写反向提示词(Negative prompt)选择采样器(一般选择DPM++ 2M Karras)设置采样步骤(一般设置30)设置长宽(Width / Height,推荐 1024 * 1536)を選択します点击生成(Generate)

写真を土生図にアップロードしてテストします。ここでは、先ほどの文生図の写真を使用します。上記の手順に従って、[生成] をクリックして効果を確認します。

AI写真によって生成された写真は、実際にあなたがアップロードした写真に基づいており、あなたがアップロードした写真と同様の写真Promptを生成するわかります。

ラベルの重量

Promptタグを入力する際、思いついたことを何でも書くことがありますが、デフォルトでは前に書かれた重みが最も高くなります。

stable Diffusion特定の記号を使用してキーワードの重みを増やすこともできます。

()重みを強化する、[]は重さを減らす、は埋め込み用の「実装」です。{}NAI()<>

例: (eye) > [eye](eye:1.4)通常よりも約 3 倍多く追加され40%(eye:0.6)通常より約 2 倍減少します。40 %

モデルのダウンロード

おすすめモデルサイト: https: //civitai.com/

左上隅のドロップダウン ボックスを使用してモデルを選択できます。デフォルトのモデルはv1-5-pruned-emaonly.safetensorsです。

デフォルトのモデルで描画される絵は見にくいので、より適切で優れたモデルをダウンロードして描画する必要があります

各モデルは、人物の描画に適したもの、アニメーションの描画に適したもの、風景の描画に適したものなど、異なる描画スタイルに焦点を当てています。

モデルをダウンロードし、モデル ファイルをmodels/Stable-diffusionフォルダー、リロードするUIと、次のことがわかります。

モデル間の一般的な違い

名前 必要 効果 述べる
安定拡散(4GB emaのみモデル) 2GBのビデオメモリを搭載 描画速度は10秒、単一出力最大920×920 絵を描くのに適した
stable-diffusion (7GB full ema模型) 4GBのビデオメモリを搭載 前回のトレーニングの重みにより、ビデオメモリが消費されます トレーニングに適した
waifu (Float 16 EMA 模型) 2GBビデオメモリスタート パフォーマンスはほぼ安定していますが、ビデオ メモリの使用量がわずかに高くなります。 絵を描くのに適した
waifu (Float 32 EMA 模型) 2GBビデオメモリスタート パフォーマンスはほぼ安定していますが、ビデオ メモリの使用量がわずかに高くなります。 絵を描くのに適しており、実際の画質は16とそれほど変わりません
ワイフ (Float 32 フルモデル) 4GBのビデオメモリがスタート パフォーマンスはほぼ安定していますが、ビデオ メモリの使用量がわずかに高くなります。 描画やトレーニングに最適
waifu (Float 32 Full + Optimizer モデル) 8GBビデオメモリスタート パフォーマンスはほぼ安定していますが、ビデオ メモリの使用量がわずかに高くなります。 トレーニングに適した
Naifu(4GBプルーニングモデル) 最小 8GB VRAM および 8GB VRAM オフィシャルに近い 絵を描くのに適した
Naifu(7GB最新モデル) 最小 8GB ビデオ メモリ (フローティング 10GB 以降) オフィシャルに近い 描画やトレーニングに最適
  • ここでのビデオ メモリは 512X512 のサイズを指し、デフォルト設定では、ソフトウェアが画像を出力するときに占有する必要があるビデオ メモリを指します。ビデオ メモリは 2 GB から始まります。これは、コンピュータのグラフィック カードの実際のビデオ メモリが少なくとも 3 GB 必要であることを意味します (システムのデスクトップとブラウザのディスプレイもビデオ メモリの一部を占有する必要があるため)。
  • さまざまな「最適化」パラメータを追加することで、部分的なパフォーマンスの低下を通じてビデオ メモリの使用量を削減できます。
  • Nafu モデル名の説明 1: animefull-final-pruned = full-latest = NAI フルモデル (NSFW を含む)
  • Nafu モデル名の説明 2: animesfw-latest = NAI ベースライン モデル

参考文献:

Stable Diffusionオープンソース アドレス: GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion Web UI

オープンソース AI ペイント ツール Stable Diffusion の最新バージョンを使用

AI タグ ジェネレーター Geek Feitu AI タグ ジェネレーター

おすすめ

転載: blog.csdn.net/m0_61634551/article/details/130790268