Openpose Editorのデータを元にControlNetで構図やキャラのポーズを指定する方法

  • URLをコピーしました!

今回はAUTOMATIC1111の拡張機能として公開されたOpenpose Editorのインストールと使い方について解説します。

ControlNetでOpenposeのモデルを使って画像生成をする場合は、あらかじめ外部ツールでポーズデータを作成し、それを読み込んで使う必要がありました。
しかし、Openpose Editorを使用することにより、AUTOMATIC1111のWebUI内でポーズデータの生成までを行うことが可能になりますので、ぜひ活用してみてください。

また、当ブログのStable Diffusionに関する記事を以下のページでまとめていますので、あわせてご覧ください。

目次

Stable Diffusionとは

Stable Diffusion(ステーブル・ディフュージョン)は2022年8月に無償公開された描画AIです。ユーザーがテキストでキーワードを指定することで、それに応じた画像が自動生成される仕組みとなっています。
NVIDIAのGPUを搭載していれば、ユーザ自身でStable Diffusionをインストールし、ローカル環境で実行することも可能です。
(出典:wikipedia)

AUTOMATIC1111とは

AUTOMATIC1111はStable Diffusionをブラウザから利用するためのWebアプリケーションです。AUTOMATIC1111を使用することで、プログラミングを一切必要とせずにStable Diffusionで画像生成を行うことが可能になります。

AUTOMATIC1111の公式リポジトリは以下となります。

ローカル環境

GPUを搭載したローカルPCでAUTOMATIC1111を使用する方法について、以下の記事で解説しています。

Google Colaboratory

Googleのクラウドコンピューティングサービス、Google ColaboratoryでAUTOMATIC1111を使用する方法については、以下の記事で解説しています。

Paperspase

定額制で高性能GPUを利用できるクラウドコンピューティングサービス、PaperspaceでAUTOMATIC1111を使用する方法については、以下の記事で解説しています。

Openpose Editor

Openpose EditorはAUTOMATIC1111の拡張機能として使用できる、ポーズデータ作成ツールです。

以下の画面のように、AUTOMATIC1111のUI上で棒人間をマウスで操作してキャラクターのポーズや構図をしていすることができます。(外部ツールでポーズデータを作成する必要がなくなります)

Openpose Editorの公式リポジトリは以下となります。

ControlNetのインストール

Openpose Editorを使用してイラストを生成するためには、Openpose Editorで作成したポーズデータを解析するためのControlNetをインストールする必要があります。

ControlNetのインストールする方法は以下のページで解説していますので、事前に済ませておいてください。

Openpose Editorのインストール

Openpose EditorをAUTOMATIC1111の拡張機能としてインストールします。

ローカル環境、Paperspace

ローカルPCとPaperspaceの場合はAUTOMATIC1111のGUI上からインストールが可能です。

AUTOMATIC1111のWeb UIを起動し、「Extensions」のタブをクリックします。

「Install from URL」のタブをクリックします。

「URL for extension’s git repository」の入力欄に以下のURLをを入力し、「Install」をクリックします。

https://github.com/fkunn1326/openpose-editor

以下のメッセージが表示されたらOpenpose Editorのインストール完了です。

WebUIを再起動するため、「Apply and restart UI」をクリックします。

WebUIを再起動すると、「OpenPose Editor」というタブが追加されているので、クリックします。

Openpose Editorの編集画面が表示されました。

Google Colaboratory

Google Colabの場合は、毎回インストールする必要があるため、AUTOMATIC1111を実行するためのJupyter Notebookを編集し、起動時に自動でインストールされるようにします。

以下の記事で紹介しているAUTOMATIC1111公式リポジトリの「maintained by Akaibu」を使って解説します。

maintained by Akaibu」のJupyter Notebookを開くと以下の4つのセルがあります。

③と④のセルの間に以下のセルを追加してください。

#Openpose Editorのインストール
%cd /content/stable-diffusion-webui/extensions/
!git clone https://github.com/fkunn1326/openpose-editor

%cd /content/stable-diffusion-webui

これで起動前にOpenpose Editorが自動でインストールされます。

セルを追加したら全てのセルを実行してWebUIを起動します。
すると以下のように「OpenPose Editror」のタブが追加されています。

Openpose Editorでポーズデータを作成する

Openpose Editorのタブで、右側に出ている棒人間を使ってキャラクターのポーズを作成します。
棒人間の関節部分は、マウスでドラッグすることで移動できるようになっています。

試しに右手をクリックしたまま左上にドラッグしてみると、以下のように腕のポーズを変更することができました。

複数の関節を同時に選択して移動することも可能です。
以下のように頭部の部分をマウスでドラッグして囲むと、囲まれた範囲内の関節ポイントがすべて選択されます。

そしてまとめて選択した部分をマウスでドラッグすることで、複数のポイントを移動させることができます。
以下のように頭部をまとめて移動すると首を傾けたようなポーズを作成できました。

デフォルトでは画面いっぱいにキャラクターが表示されていますが、縮小することもできます。
以下のように、キャラクター全体をマウスで囲んで選択します。

全体を囲ったら、四隅のポイントをマウスでドラッグすることで、拡大、縮小をすることができます。

右隅のポイントをクリックした状態で、マウスを左上にドラッグするとキャラクター自体のサイズを縮小できました。

ControlNetにポーズデータを転送する

ポーズデータが完成したら、ControlNetに転送して解析し、画像を生成します。

右下の「Send to txt2img」をクリックします。
img2imgも併せて使用したい場合は、「Send to img2img」をクリックしてください。

以下のようにControlNetのUIが展開され、Openpose Editorで作成したポーズデータが表示されました。

「Enable」にチェックを入れ、「Model」で「control_openpose-fp16」を選択します。
「Preprocessor」は「none」のままでOKです。

設定が完了したら、「Generate」ボタンをクリックします。
これで画像が生成されます。

動作確認

ここからは実際にOpenpose Editorで作成したポーズデータを元に、どのような画像が生成されるかを確認します。

Openpose Editorで作成したデータ

まず今回使用するポーズデータは以下となります。

生成に使用するプロンプトは以下となります。

プロンプト

(best quality)+,(masterpiece)++,(ultra detailed)++, (happy laughing:1.3), A girl standing in a meadow.

ネガティブプロンプト

(low quality, worst quality)1.4, (bad anatomy)+, (inaccurate limb)1.3,bad composition, inaccurate eyes, extra digit,fewer digits,(extra arms)1.2,logo,text

生成された画像

先ほどのポーズデータとプロンプトを使って生成された画像は以下の通りです。

構図もキャラクターのポーズも再現されています。

もう一枚作成してみました。
背景は変わっていますが、構図とキャラクターのポーズは指示通りに生成できています。

Openpose Editorのデータ通りに画像が生成できることを確認できました。

Stable Diffusionのローカル環境

Stable Diffusionを使用する際にGoogle ColaboratoryやWebサービスを利用されている方も多いかと思います。しかし、最近Google Colabの無料での使用範囲が大きく制限されたり、Webサービスでは月額費用がかかったりします。

欲しいイラストを生成するにはかなりの回数をトライする必要があるため、これらの制約に縛られることなく使用できるローカル環境を構築するのがおすすめです。

ローカルのPCに搭載するグラフィックボード

ローカルマシンで実行する上で重要になってくるのがグラフィックボードです。
Stable Diffusionでイラストを生成するために実行される推論処理を、グラフィックボード上のGPUを使って大幅に高速化することができます。
トライする回数が増えれば品質の高いイラストが生成される可能性が上がりますので、グラフィックボードは重要です。

Stable Diffusionで使用するためのGPUは2022年に新たにNVIDIAから発売されたRTX4000シリーズのGPUとVRAM12GB以上のものがおすすめです。最近は半導体不足も一服したこともあり、新しい製品ながら価格が下がりつつあります。

エントリーモデルのGPU

予算を安く抑えたい方向けにはRTX4070を搭載したグラフィックボードがおすすめです。

予算に余裕がある方向け ミドル~ハイエンド

予算に余裕がある方向けにおすすめのRTX 4080、ビデオメモリ16GB以上搭載のモデルです。

大サイズの画像を高速に生成したい方向けのハイエンドGPU、RTX 4090 ビデオメモリ24GB搭載モデルです。

予算とパフォーマンスに合わせて選んでみてください。

画像生成AIについて学ぶ

動画学習プラットフォームUdemyでは、画像生成AIで高品質なイラストを生成する方法や、AIの内部で使われているアルゴリズムについて学べる講座が用意されています。
Udemyは講座単体で購入できるため安価で(セール時1500円くらいから購入できます)、PCが無くてもスマホでいつでもどこでも手軽に学習できます。

画像生成AIの使い方を学ぶ

Stable DiffusionやMidjourneyの使い方や活用方法を勉強したい方には、以下の講座がおすすめです。

icon icon 【文字からイラスト画像を生成】素人でもプロ並みの絵を作れる画像生成AIツール講座【ChatGPTも活用】 icon

画像生成AIの仕組みを学ぶ

画像生成AIの仕組みについて学びたい方には、以下の講座がおすすめです。
画像生成AIで使用される変分オートエンコーダやGANのアーキテクチャを理解することで、よりクオリティの高いイラストを生成することができます。

icon icon AIによる画像生成を学ぼう!【VAE / GAN】 -Google ColabとPyTorchで基礎から学ぶ生成モデル- icon

UdemyのStable Diffusionなど、AIアート関連の講座は海外のものも多いですが、ブラウザのリアルタイム翻訳機能を使うことで日本語字幕付きで視聴できます。

Udemyの海外講座の字幕を日本語化する方法

まとめ

今回はAUTOMATIC1111の拡張機能である、Openpose Editorの使い方について解説しました。タブの切り替えだけで、ControlNetとOpenposeを使った画像生成の全ての工程を完結できるようになりますので、ぜひ活用してみてください。

また、以下の記事で効率的にPythonのプログラミングスキルを学べるプログラミングスクールの選び方について解説しています。最近ではほとんどのスクールがオンラインで授業を受けられるようになり、仕事をしながらでも自宅で自分のペースで学習できるようになりました。

スキルアップや副業にぜひ活用してみてください。

スクールではなく、自分でPythonを習得したい方には、いつでもどこでも学べる動画学習プラットフォームのUdemyがおすすめです。

講座単位で購入できるため、スクールに比べ非常に安価(セール時1200円程度~)に学ぶことができます。私も受講しているおすすめの講座を以下の記事でまとめていますので、ぜひ参考にしてみてください。

それでは、また次の記事でお会いしましょう。

参考

よかったらシェアしてね!
  • URLをコピーしました!
目次