ご紹介するのは「Aspect Ratio selector」と「Config-Presets」の2本立て。それぞれ、お気に入りのキャンバスサイズや各種生成設定を記憶しておいて一発出ししてくれる便利機能です!
WebUIに慣れれば慣れるほど、無駄な手間が省けるようになるのは嬉しいもの。便利UIをダブルで導入して、もっとスマートに画像生成しちゃいましょう!
こんばんは、スタジオ真榊です。今回はStableDiffusionWebUIの拡張機能「Latent Couple」の解説記事第1回ということで、誰でも自由にキャンバスの分割ができるようになる「基礎マスター編」をお届けします。
画像生成AIが特に苦手なのが、要素の異なるキャラクターの「2ショット」ですよね。例えばピンクのショートヘアと緑のツインテールの女の子を生成しようとすると、どんなにプロンプトを工夫しても「緑のツインテール2人」が出たり、「両方ショートヘア」になってしまったり。こうした複数キャラのプロンプトの混線については、
拡張機能「Cutoff」の解説記事でも扱ったばかりですが、Latent Coupleをうまく使いこなすと、混線を防ぐだけでなく
キャンバス上のどこに何を描くかまでコントロールすることができるんです!
さらに、指定領域ごとに複数のLoRAを適用して別々のキャラクターを1枚のイラスト上に呼び出したり、Controlnetと組み合わせてポーズをつけたりといったことも可能になります。「Latent couple」+「Composable LoRA」+「Multi controlnet」でどんなことができるのか?…は次回の「応用編」に譲るとして、今回はまず基本的な使い方をマスターしましょう。
こんばんは、スタジオ真榊です。今夜はStableDiffusionWebUI上で生成結果の比較実験ができる機能「X/Y/Z plot」を使って、初めて使うcheckpoint(学習モデル)と仲良くなる方法について書いていきますよ。
ダウンロードしたばかりのモデルはどんなクォリティタグが効くのか、どんなステップやスケールにしたら自分好みのイラストが生成できるかが分からず、実力を活かしきれないままお蔵入りになってしまうことがよくあると思います。X/Y/Z plotとある裏技をうまく組み合わせると、外出中に全部の総当りを済ませて一番好みの組み合わせを探り当てることができるんです!
「X/Y/Zプロットは研究好きなマニア向け機能なんでしょ?」と思っていた方も、使い方さえ分かればとっても簡単・親切・便利な機能なので、ぜひこの機会に試してみてくださいね。
アップスケールのやり方ってな…200種類あんねん。
さてこんばんは、スタジオ真榊です。今夜は、最近質問を頂くことが多い「アップスケール」について、さまざまな手法や具体的テクニックなどを紹介したいと思います。
アップスケールと言われると、text2image画面にある「高解像補助(hires.fix)」が思い浮かびますが、「あれって綺麗になるけど時間掛かるしすぐ破綻しちゃうんだよな・・・」と敬遠している人も多いのではないでしょうか。高精細化の手法には、hires.fix以外にも「i2iアップスケール」や「SDアップスケール」、拡張機能の「アルティメットSDアップスケール」「multidiffusionアップスケール」といった方法があり、目的によって使い分けることができます。controlnetと組み合わせて崩壊を防いだり、絵柄を変えて緻密化したりするテクニックもあるので、さっそく詳しく見ていきましょう。
【目次】
アップスケールの基本的考え方
基本の「Hires.fix」
アップスケーラーごとの違い
image2imageアップスケール
「疑似マージアップスケール」とは
ピーキーだけど高性能!「SDアップスケール」
アルティメットSDアップスケール
MultiDiffusionアップスケール
おわりに
こんばんは、スタジオ真榊です。今夜の記事は、image2imageを画像の一部だけに掛けて修正できる「レタッチ機能」についてです!設定値と生成結果が直感的に結びつきにくいので、みんななんとなく体感でなんとかしている(そしてたいていなんとかならない…)のが、このレタッチ機能。いろいろな実験結果と共に、ようやく理解できた設定の使い分けや活用法について紹介していければなと思います。
「レタッチ機能でこんな事ができるよ!」という動画を作ってみたので、まずはこちらをどうぞ。
この動画では、レタッチ機能を使って背景の描き直し、余計な被写体の除去、小物の置き換え、表情チェンジといった作業を行っています。誰でも再現できるように、レタッチの基本的考え方や具体的操作方法を解説していきたいと思います。AIイラストの動画化のやり方も後半に紹介します!
目次
レタッチ(inpaint)の基本
設定画面の見方
マスクされたコンテンツとは?
実験1:「マスクされたコンテンツ」比較
- 「埋める」
- 「オリジナル」
- 「潜在空間でのノイズ」
- 「潜在空間における無」
実験2:余計なものを消してみよう
実験3:色を変えてみよう
- 色替え絶対攻略法
実験4:背景を大きく変えてみよう
実験5:小物を入れ替えよう
おまけ:動画化のやり方
終わりに
こんばんは、スタジオ真榊です。今日はレタッチ機能の掘り下げ記事を更新する予定だったのですが、新たに公開された拡張機能が非常にエキサイティングな内容だったため、順番を差し替えてお送りします!
どういう仕組みなのか?どんな効果が得られるのか?色移り防止以外にも応用できるのか?ということで、さっそくあれこれ実験してみたのでご報告したいと思います。
こんばんは、スタジオ真榊です。このところ、ツイッター経由で公式サイトやこちらのFANBOXへのアクセスが急増しており、これからAIイラストを始めたいという方からのグラフィックボードや導入方法についての質問をお受けすることが増えてきました。そこで今夜は、これまでのFANBOX記事を振り返りつつ、画像生成AIを今から最短距離で学ぶための記事を全体公開で書いてみたいと思います。
スタジオ真榊のFANBOXもほとんど毎日更新といった趣で、日々StableDiffusionWebUI絡みの進化を追っているのですが、既に過去記事もかなりの量となり、どれから読んだらいいのかも分かりにくくなりつつあります。素敵なイラストを思い通りに生成するために覚えるべきことを紹介しつつ、参照すべき過去記事とセットで解説していければと思います。
目次
画像生成AIの仕組みをざっくり解説
「StableDiffusionWebUI」とは
必要なマシンスペック
画像生成に必要な基礎知識
- ①Checkpoint(学習モデル)
- ②VAE
- ③プロンプトとネガティブプロンプト
- ④ステップとスケール
- ⑤サンプリングアルゴリズム(サンプラー)
- ⑥SEED値
インストール後にやるべきこと
Checkpointはどこで入手する?
実際にイラストを生成してみよう
生成した画像は必ず取っておこう
image2imageしてみよう
【重要】AI術師がやってはいけないこと
中級者になるために
終わりに