Stable Diffusion WebUI 1111でのAI画像生成のまとめ。
毎日何かしらの更新があって追いつくのがつらい……。
- Stable Diffusion WebUI 1111の環境・インストール・使い方
- 学習済みUIモデル
- モデルがダウンロードできるところ
- ダウンロードについてまとまってある記事
- Stable Diffusion
- Waifu Diffusion
- Trinart(とりんあーと)
- Anything V3.0
- ACertainThing
- Abyss 7th layer
- basil mix
- Cafe Unofficial Instagram TEST Model v2
- Bstaber
- SD_Shirayuki_Model
- gape60
- Easter e5
- Hentai Diffusion
- Lewd Diffusion
- Everything Model V1
- hassanblend1.4
- elysiumore_v2
- EimisAnimeDiffusion_1.0v
- SD-Elysium-Model
- nutmegmix
- yiffy
- ぼっち・ざ・ろっくのモデル
- ヤマノススメのモデル
- そのほか
- VAE
- モデルがダウンロードできるところ
- これだけはしておきたい設定
- Textual Inversion
- Hypernetworks
- 便利なサイト
Stable Diffusion WebUI 1111の環境・インストール・使い方
うちのPC環境
- CPU: AMD Ryzen 5 3600
- メモリ: 32GB
- グラボ: NVIDIA GeForce RTX 3060 (12GB)
Stable Diffusion WebUI 1111について
Negative Promptが使えてimg2imgが使えてパラメータ調整の比較も使える良いやつ
インストール
動作環境
4GB以上のVRAM
RTX3000番台だと捗る
使い方
アップデート方法
WebUIのフォルダを右クリックして「Git Bash Here」を選び、出たコンソールで
git pull
うまくいかない場合(cloneせずにブラウザからダウンロードしてインストールした場合)は
git pull origin master
それでもうまくいかない場合は新しいフォルダで git clone したほうが早いかも
毎回やるのがめんどくさい場合は下記のようなバッチファイルを作りましょう
@echo off
git pull
pause
起動オプション
全て「webui-user.bat」などの起動batファイルに記述する
VRAMを節約できて高い解像度の画像が出せるようにする
RTX3000番台のみ使用可能
その他のグラボだとインストール作業が必要↓
COMMANDLINE_ARGSに–xformersオプションを追加する
set COMMANDLINE_ARGS=--xformers
家庭内のネットワークで画像生成を使いたい場合(PCを起動していてスマホからでも画像生成を実行したい場合)
COMMANDLINE_ARGSに–listenオプションを追加する
set COMMANDLINE_ARGS=--listen
全部入れるとこんな感じになっているはず
@echo off
set PYTHON=
set GIT=
set VENV_DIR=
set COMMANDLINE_ARGS=--listen --xformers
call webui.bat
学習済みUIモデル
言うなれば.ckptファイル
モデルがダウンロードできるところ
ダウンロードについてまとまってある記事
Stable Diffusion
Stable Diffusion 2.1
Stable Diffusion 2.0
ソース
ダウンロード
Stable Diffusion v1.5
Stable Diffusion v1.4
Waifu Diffusion
Waifu Diffusion 1.4
Stable Diffusion 2.0と同じようにyamlファイルを同じフォルダに入れておく
バージョン1.3
ckptファイルはwd-v1-3のfloat16.ckptが軽くて良いらしい
フル版のwd-v1-3-full.ckptでも問題なし
バージョン1.2
GradioのOriginal PyTorch Model Download Linkってとこ
Trinart(とりんあーと)
trinart_derrida_characters_v2(でりだ)
有料のTrinartで11月まで使われていたモデル
二次イラスト向け SFW
trinart2(trinart_stable_diffusion_v2)
二次イラスト えっちではない 服装とかすごい
のFiles and versionsから
ファイルが3つあって違うのはSTEP数 お好みで選択
trinart 19.2m
1920万画像を使用したもの
有料版の前バージョン
Anything V3.0
完全に2次元向け エロ向けでもあるが男が出にくい
Novel AIのモデルを改造したものという噂
ACertainThing
Anythingっぽいモデル
Abyss 7th layer
AnythingV3っぽいモデル
basil mix
なんかとてもやばいらしい 実写向け
Cafe Unofficial Instagram TEST Model v2
実写向け 階層マージに使うと良い
Bstaber
実写向け zipのパスは「ATF-AI」
SD_Shirayuki_Model
gape60
えっちなモデル マージ向け?
Easter e5
完全に二次えっちイラスト向け
Hentai Diffusion
二次イラスト向け
二次元のえっち絵に特化
https://github.com/Delcos/HentaiDiffusion
Lewd Diffusion
えっち絵に特化 えっちな構図とか
- LD-70k-1e-pruned.ckpt 1エポック
- LD-70k-2e-pruned.ckpt 2エポック
Everything Model V1
hassanblend1.4
すごく実写向け 使い方によってはやばい
elysiumore_v2
EimisAnimeDiffusion_1.0v
SD-Elysium-Model
nutmegmix
yiffy
yiffy-e18.ckpt
ケモ分がすごいらしい えっちな構図を出すのに秀でているのでこれを組み合わせる人も多いらしい
ぼっち・ざ・ろっくのモデル
ヤマノススメのモデル
そのほか
- がうるぐら(VTuber)モデル
- gura_no_hood_2k.ckpt
- Gura_200img_3k.ckp
- Gawr_Gura_450img.ckpt
- GG gg1342_testrun1_pruned.ckpt
実写向き
https://www.mediafire.com/file/vo4nxks41o8i0du/gg1342_testrun1_pruned.ckpt/file
- リゼロのレムのモデル
- SYK Diffusion
まどマギのさやかちゃんのモデル
https://six-loganberry-ba7.notion.site/SYK-Diffusion-44f0cddf7b0248d99acab909a3200f39
- メイドインアビスのナナチのDBモデル nanachi dreambooth model
- ライザのアトリエのライザのDBモデル ryza dreambooth model
VAE
ダウンロード
使い方 ↓のvaeの項目
これだけはしておきたい設定
Quicksettings list
これを設定しておくとモデルやVAEやHNなどの設定をを常に上部に表示しておくことが可能
わりと必須
sd_model_checkpoint,CLIP_stop_at_last_layers,sd_hypernetwork,sd_vae
上記をコピペして「Apply Setting」をし、下の方にある「Restart Gradio and Refresh components~」を押すと有効化される
ダメなら1111を再起動
Textual Inversion
絵を学習して.ptファイルとして保存できる
- 絵師さんのイラストを学習させてその絵師さんの画風のイラストを作る
- スクール水着のイラストを学習させてスクール水着を着たイラストを作る
- えっちな体位を学習させてその体位を再現したイラストを作る
といったことができる
.ptファイルの使い方
- Stable Diffusion Web UI(AUTOMATIC1111)のフォルダに「embeddings」という名前のフォルダを作る
- embeddingsフォルダに〇〇〇.ptファイルを置く
- 画像生成時のpromptに「〇〇〇」という言葉を書くと画像に学習した内容が反映される
イラストの学習のさせ方 (.ptファイルの作り方)
WebUI 1111を使用
- 画像を集めて1フォルダに詰め込む
- Create Enbeddingタブを選び、Nameにわかりやすい名前、initialization textに何として学習させたいかを入れる。Number of vectors per tokenには8くらいの値を入れ、Create Embeddingをクリック
- Preprocess imagesを選んでSource directoryに画像を入れたフォルダを指定し、もう1つ空のフォルダを用意しDestination directoryに指定する
- Split oversized images into twoとUse Deepbooru captionにチェックを入れてPreprocessをクリック
- 次にTrainを選んでEmbeddingで入れたものを指定、Learning Rateはデフォルト~0.1くらいにする
- Log directoryはデフォルト、Prompt template fileは変更したかったら変更
- Max Stepsはどこまで学習のステップをするかで多くて50000くらい、その下の2つの数字はptファイルを何Stepごとに作るかなので500とか1000とかにする
- Textual Inversion Trainを押すと学習開始
できたファイルはtextual_inversionのフォルダに入れられるのでそこからembeddingsのフォルダにコピーし試してみて何STEP目のptファイルを残すかを厳選する
initialization textはイラストならgirlとか入れる
Number of vectors per tokenは値が大きいと強くなってpromptを無視しがちになる
Learning Rateは値が大きいと早く処理できるがあまり学習が生かされなくなる
- Colabで使う場合
Hypernetworks
学習方法の1種
ptファイルを models\hypernetworks に入れて再起動してSettings→Stable Diffusion finetune hypernetworkで選ぶ
モデルは作成したときのものを使わないといけないのは同じ
作り方はTrainで選ぶところをHypernetworkにするだけであとはTIと同じ
便利なサイト
解像度と画面比率の早見表
https://github.com/Maks-s/sd-akashic/blob/master/img/brbbbq-dimensions.png
ふたばちゃんねる二次裏may(ふたポから)
「AI」でスレ検索して「AIに絵を描いてもらって適当に貼って適当に雑談するスレ」を見る
- スレ内の画像にPromptがあったら表示するブックマークレット
javascript:(()=>{[...document.querySelectorAll('.thre .rtd > a[href$=".png"]:last-of-type')].forEach(async e=>{m=(await(await fetch(e.href)).text()).match(/Xtparameters0*([^0]*)/u);m&&(e.parentElement.innerHTML+=`${m[1]}`)})})()
関連Discord
- Stable Diffusion公式
- Stable Diffusion NSFW
- SD Training Labs
- 東方Project AI
よくわからないことがわかったよ
めっちゃまとめてある記事
Promptについて
AIモデルによって有効な呪文は変わってくる
WebUI 1111前提
()で要素を強調する
[]で要素を弱体化させる
複数個カッコを付けるとさらに効果が出る
()で1.1倍、(())で1.1×1.1倍の1.21倍、((()))で1.33倍…
[]で0.9倍、[[]]で0.9×0.9倍の0.81倍、[[[]]]で0.73倍…
(〇〇:1.5)と書くと要素を直接1.5倍強化できる
(〇〇:0.5)と書くと要素が0.5倍に弱体化する
最新バージョンで「AND」が追加
〇〇 〇〇 AND △△ △△
で別々に要素を指定することができる
こんな感じ → https://energy-based-model.github.io/Compositional…
2girls AND white hair and white t-shirt AND black hair and blue bikini
のようにそれぞれの女の子に服の色を指定できるみたい?
うまくいかないので現在模索中
75のトークン制限はANDで区切った文それぞれにかかるので全体で75トークン超えのプロンプトを指定することも可能
他の人の作った画像の呪文を見るにはPNG Infoに画像をD&D
WebUIを起動するのがめんどくさい人はこちらから
https://image-convert.cman.jp/imgInfo/
呪文リンク集
AIイラスト呪文生成器
魔術書
えっちな呪文
元素法典
Novel AI 5ch wiki
Stable Diffusion 1.4の呪文
呪文 | Promptでの説明 | Negative Promptでの説明 |
metart by KANNA HASHIMOTO | 顔を安定させる | |
mucha | 顔を安定させる | |
by Kyoto Animation | 絵柄が二次元よりになる | |
by P.A.Works などその他アニメ会社 | 絵柄が二次元よりになる | |
painting by 有名人イラストレーターいろいろ | krenz cushart, greg rutkowskiなど 絵師はぐぐってね | |
by artgerm | 二次元よりになる? | |
Granblue Fantasy | 絵柄がファンタジー系に安定する |
Waifu Diffusionの呪文
Danbooruのタグが学習に使われているのでタグを検索して呪文に入れる
検索時に日本語を入れても候補に英訳したものが出るので便利
タグは次の順番に入れるといいらしい
[作品]→[キャラクター]→[コンテンツ]→[アーティスト]
呪文 | Promptでの説明 | Negative Promptでの説明 |
latex 〇〇 | 鎧や水着に光沢をつける テカテカにする | |
octane render | リアル寄りにする | 二次元イラストにする(※重要) |
1girl または 1_girl | 人物を1人にする | |
wearing 〇〇 | 〇〇を着せる | |
in 〇〇 | 背景を〇〇にする 体の全体が映りやすい | |
nendoroid | ねんどろいどっぽくなる | |
nendoroid-like | 等身が下がってロリっぽくなる | |
blunt_bangs | ぱっつん前髪にする | |
thick bangs | 重めの前髪 | |
dakimakura | キャラを寝かせる わりと重要 | |
ojousama | ロリキャラを良い感じに出してくれる | |
focus on 〇〇 | 〇〇にカメラを合わせる thighs, crotchにすると太ももくらいまで出してくれる | |
onsen | 背景がお風呂・温泉になる | |
pubic_hair | 陰毛 | 陰毛を消す ()をつけて効果を出す |
Lolicon Eroge | 二次元イラストっぽくなる | |
kawaii | kawaii | |
slimy skin, Oily skin,wet with opaque globs of mayonnaise,white goo, 💦 | 汁を飛ばす | |
:d, XD | 笑顔にする | |
dwarf | 身長の低いロリにする | |
chibi | ロリSDキャラにする | |
toddler body | 体をロリっぽくする | |
ethnic costume-like bikini armor | えっちな民族衣装を着せる | |
furry | ケモくなる | ケモくならなくなる |
cleavage dress | 前の開いたドレス | |
pregnant | ボテ腹 | |
luminous particles | キラキラしたエフェクトがかかる | |
very gorgeous face | 顔が整う faceをeyesに変えるのもOK | |
lifted by self | たくし上げ パンツ見せ |
Negative Promptの呪文
入れた言葉の画像にならないようにする
かなり大事
奇形を産まなくするNegative呪文(一例)
((part of the head)), ((((mutated hands and fingers)))), deformed, blurry, bad anatomy, disfigured, poorly drawn face, mutation, mutated, extra limb, ugly, poorly drawn hands, missing limb, blurry, floating limbs, disconnected limbs, malformed hands, blur, out of focus, long neck, long body
Prompt Editing
WebUI 1111前提
Promptで
[〇〇:step数] step数以降から〇〇の要素を追加する
[〇〇::step数] step数以降から〇〇の要素を削除する
[〇〇:△△:step数] step数まで〇〇の要素で進めてstep数以降は〇〇ではなく△△の要素で進める
step数を0~1.0の少数にすると全stepの割合でやってくれる
例)[〇〇:△△:0.3]で全40STEP → 12STEPまで〇〇の要素で進めて残りの28STEPを△△の要素で進める
普通だとblack_hair, green_eyesと指定すると色が移って髪の毛が緑になったりするが
[black_hair:green_eyes:0.5]
と指定しておくと別々に描かれるのでちゃんと色が部位に分けられるらしい
Negative promptにも適用可
途中まで奇形を防いで途中から自由に描かせることもできる
AIで描いてもらった二次画像置き場
消えるの怖いです
こちらへ移行します
コメント