Stable Diffusionで2次元キャラクターの成功率を劇的に向上させるモデル、Waifu Diffusionの使い方

  • URLをコピーしました!

※本ページはアフィリエイト広告を利用しています

ハイクオリティなイラストを生成できるAIとして話題のStable Diffusionですが、その中でも2次元キャラクターのクオリティを劇的に向上させるモデルがあることがわかりましたので、使用方法を解説していきたいと思います。

2023年1月現在、Stable Diffusion 1.x系が動作しなくなっています。
最新バージョンである2.x系の使用方法を以下の記事で紹介していますのでそちらを使用してください。

以下のページで自然言語処理モデルGPT-3を使ったライティングツールCatchyで、Stable DiffusionのPromptを自動生成する方法について解説していますので、あわせてご覧ください。

目次

Waifu Diffusionとは

ハイクオリティなイラストを生成できるお絵かきAI、Stable Diffusionをさらに2次元イラストに特化させるためのチューニングが行われたモデルがWaifu Diffusionです。
Waifu Diffuisonのリポジトリは以下となります。今回はこのモデルを使って2次元キャラクターを描かせてみようと思います。

著:深津 貴之, 著:水野 祐, 著:酒井 麻里子
¥1,485 (2023/09/28 14:21時点 | Amazon調べ)

Waifu Diffusionの実装

ベースとなるStable Diffusionのインストールと実装するためのソースコードの解説は以下のページでまとめていますので、あわせてご覧ください。

WaifuDiffusionの使用方法はいたって簡単で、モデルを指定する箇所を”hakurei/waifu-diffusion”に変更するだけです。
先ほどのStable Diffusionの使用方法を解説しているページに掲載しているソースコードの、パイプラインの設定部分を以下のように変更してください。

pipe = StableDiffusionPipeline.from_pretrained("hakurei/waifu-diffusion", use_auth_token=YOUR_TOKEN)

作成したソースコード

今回作成したソースコードは以下の通りです。
このコードを実行する前に先ほど紹介した「無料で使える描画AI!Stable Diffusionで画像を生成する方法」の解説に従いStable Diffusionのインストールを済ませておいてください。

モデルの変更に伴う箇所は8行目のパイプラインの設定の一行だけとなります。
また今回は一度の実行で10枚のイラストを生成するように変更しました。

from diffusers import StableDiffusionPipeline
from datetime import datetime

#HuggingFaceのトークン
HF_TOKEN = "〇〇"

#StableDiffusionパイプライン設定
pipe = StableDiffusionPipeline.from_pretrained("hakurei/waifu-diffusion", use_auth_token=HF_TOKEN)

#使用するデバイスを設定
pipe.to("cuda")
#pipe.to("cpu")

#生成したい画像を指示
prompt = "〇〇"

#10枚続けて生成
for i in range(10):
  #画像生成
  image = pipe(prompt, height=512, width=768)["sample"][0]

  #ファイル名に日時を付ける
  date = datetime.now().strftime("%Y%m%d_%H%M%S")
  path = date + ".png"
  image.save(path)

使用するデバイスでGPUが使えない場合は11行目を”cpu”に変更してください。

著:深津 貴之, 著:水野 祐, 著:酒井 麻里子
¥1,485 (2023/09/28 14:21時点 | Amazon調べ)

実行結果

今回は動作テストのためchiliさんがTwitterで公開されている呪文をおかりしました。

生成された絵の1枚がこちらです。

20枚ほど作っただけでかなりクオリティが高い画像が数枚出てきました。
以前のモデルだと人物は100枚生成して1~3枚くらい良い絵が出てくるかなといった感じでしたので、Waifu Diffusionに変更したことで2次元女性キャラクタークオリティが劇的に向上しています。

Stable Diffusionの理想的な環境を構築する

Stable Diffusionを使用する際にGoogle ColaboratoryやWebサービスを利用されている方も多いかと思います。しかし、最近Google Colabの無料での使用範囲が大きく制限されたり、Webサービスでは月額費用がかかったりします。

欲しいイラストを生成するにはかなりの回数をトライする必要があるため、これらの制約に縛られることなく使用できるローカル環境を構築するのがおすすめです。

ローカルのPCに搭載するグラフィックボード

ローカルマシンで実行する上で重要になってくるのがグラフィックボードです。
グラフィックボードの性能によって画像の生成速度や最大生成サイズが決まります。

Stable Diffusionで使用するのにおすすめのグラフィックボードを以下の記事で解説していますので、あわせてご覧ください。

Stable Diffusionで生成される画像のクオリティを上げる

動画学習プラットフォームUdemyでは、画像生成AIで高品質なイラストを生成する方法や、AIの内部で使われているアルゴリズムについて学べる講座が用意されています。

Udemyは講座単体で購入できるため安価で(セール時1500円くらいから購入できます)、PCが無くてもスマホでいつでもどこでも手軽に学習できます。

画像生成AIの使い方を学ぶ

Stable DiffusionやMidjourneyなどを使ったAIアート全般について勉強したい方には、以下の講座がおすすめです。

icon icon 【文字からイラスト画像を生成】素人でもプロ並みの絵を作れる画像生成AIツール講座【ChatGPTも活用】 icon

Stable Diffusionに特化して学ぶ

Stable Diffusionに特化し、クラウドコンピューティングサービスPaperspaceでの環境構築方法から、モデルのマージ方法、ControlNetを使った構図のコントロールなど、中級者以上のレベルを目指したい方に最適な講座です。

icon icon ジェネレーティブAI(画像生成AI)入門【Stable Diffusion】-プロンプトでハイクオリティな画像制作が可能 icon

画像生成AIの仕組みを学ぶ

画像生成AIの仕組みについて学びたい方には、以下の講座がおすすめです。
画像生成AIで使用される変分オートエンコーダやGANのアーキテクチャを理解することで、よりクオリティの高いイラストを生成することができます。

icon icon AIによる画像生成を学ぼう!【VAE / GAN】 -Google ColabとPyTorchで基礎から学ぶ生成モデル- icon

まとめ

今回はハイクオリティな2次元キャラクターを量産できるモデルWaifu Diffusionを紹介しました。人物のイラストを生成する際の成功率が劇的に上昇しますので、2次元美少女を描いてみたい方はぜひ試してみてください。

以下のページで自然言語処理モデルGPT-3を使ったライティングツールCatchyで、Stable DiffusionのPromptを自動生成する方法について解説していますので、あわせてご覧ください。

また、以下の記事で効率的にPythonのプログラミングスキルを学べるプログラミングスクールの選び方について解説しています。最近ではほとんどのスクールがオンラインで授業を受けられるようになり、仕事をしながらでも自宅で自分のペースで学習できるようになりました。

スキルアップや副業にぜひ活用してみてください。

スクールではなく、自分でPythonを習得したい方には、いつでもどこでも学べる動画学習プラットフォームのUdemyがおすすめです。

講座単位で購入できるため、スクールに比べ非常に安価(セール時1200円程度~)に学ぶことができます。私も受講しているおすすめの講座を以下の記事でまとめていますので、ぜひ参考にしてみてください。

それではまた次の記事でお会いしましょう。

著:クロノス・クラウン, 著:柳井政和
¥2,138 (2023/09/25 14:04時点 | Amazon調べ)

参考

よかったらシェアしてね!
  • URLをコピーしました!
目次