ComfyUIでAnimateDiffを利用すれば簡単にAIショート動画が生成できます!
さらに、すでに作成済みの画像を用いて動画を生成することも可能です!!
今回は、2枚の画像を使った動画生成の方法を設定から動画出力まで解説していきます。
※今回の記事は、以下の記事の派生となっております。ComfyUIやAnimateDiffの概要についてはこちらをご覧ください!
AnimateDiffで2枚の画像からAI動画を生成する方法
今回は、AnimateDiffを利用して2枚の画像から以下のような中割りの動画を生成する動画を紹介します。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-5-1024x521.jpg)
![](https://romptn.com/article/wp-content/uploads/2024/03/Enabled_00001_-2.gif)
AI画像を2枚用意する
動画を作成するには、始まりのコマとなる画像と終わりのコマとなる画像の2枚を用意する必要があります。
Stable DiffusionWebUIで先に画像を用意しておきましょう!
顔が同じ画像を生成する方法
Stable DiffusionWebUIを使用して同じ顔の画像を2枚用意しましょう。
同じ顔の画像を生成する方法は以下の2つがあります。
- seed(シード)値を固定する。
- 「reference-only」を利用する。
以下の記事で詳しく解説していますので、参考にしてください!
②ComfyUIを立ち上げる
ComfyUIを立ち上げる手順は、以下の通りです。
- ComfyUIのインストール
- モデル(チェックポイント)・VAEのダウンロード
- SDXL用のComfyUIを立ち上げる
以下の記事で詳しく解説していますので、参考にしてください!
③カスタムノードを準備する
以下の3つのカスタムノードをインストールしましょう。
- ComfyUI-Manager
- ComfyUI-AnimateDiff-Evolved
- ComfyUI-Advanced-ControlNet
インストールの方法は以下の通りです!
メインメニューの「Mananger」→「Install Custom Nodes」→ノードを検索してインストール。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-1.jpeg-1024x581.png)
④ControlNetを準備する
1.Hugging Faceの公式ページから「LFS」と記載されているファイルをダウンロードします。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-3.jpeg-1024x592.png)
2.ダウンロードしたファイルをComfyUIのディレクトリの「ComfyUI」→「models」→「controlnet」に保存します。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-4.jpeg-1024x463.png)
⑤モデル(checkpoints)・VAEを準備する
モデル(checkpoints)はStable Diffusionのときと同様にCivitaiやHugging Faceから入手します。
1.CivitaiやHugging Faceからモデルをダウンロードします。
2.ダウンロードしたファイルをComfyUIのディレクトリの「ComfyUI」→「models」→「checpoint」に保存します。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-2-2.jpeg-1024x349.png)
次にVAEをダンロードしましょう
1.CivitaiやHugging Faceからモデルをダウンロードします。
2.ダウンロードしたファイルをComfyUIのディレクトリの「ComfyUI」→「models」→「vae」に保存します。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-5.jpeg-1024x294.png)
⑥モーションモジュールを準備する
AnimateDiff用のモーションモジュールをインストールしましょう。
1.以下のページからモデル「mm_sd_v14.ckpt」をダウンロードンします。
![](https://cdn-thumbnails.huggingface.co/social-thumbnails/models/guoyww/animatediff.png)
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-6.jpeg-1024x448.png)
2.ダウンロードしたデータをComfyUIのディレクトリの「ComfyUI」→「custom_nodes」→「ComfyUI-AnimateDiff-Evolved」→「models」に保存します。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-7.jpeg-1024x308.png)
⑦公式で配布されているワークフローを読み込む
今回はこちらのワークフローを利用します。
![](https://romptn.com/article/wp-content/uploads/2024/03/latent_interpolation-1024x848.png)
この画像をComfyUIの画面上にドラッグ&ドロップするかダウンロードして、メインメーニューの「Load」からComfyUIにアップロードしましょう。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-1.jpeg-1-1024x577.png)
⑧モデル・VAEを選択する
ここからはアニメーションを実際に動画を生成してみましょう。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-8.jpeg-1024x577.png)
まずは、モデルを選択します。
![](https://romptn.com/article/wp-content/uploads/2024/03/%E3%82%B9%E3%82%AF%E3%83%AA%E3%83%BC%E3%83%B3%E3%82%B7%E3%83%A7%E3%83%83%E3%83%88-2024-03-01-14.32.55-1024x469.png)
次にVAEを選択します。
![](https://romptn.com/article/wp-content/uploads/2024/03/%E3%82%B9%E3%82%AF%E3%83%AA%E3%83%BC%E3%83%B3%E3%82%B7%E3%83%A7%E3%83%83%E3%83%88-2024-03-01-14.33.25.png)
⑨プロンプトを指定する
ポジティブプロンプトとネガティブプロンプトを入力しましょう。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-9.jpeg-1024x905.png)
⑩用意した画像をアップロードする
ここで、最初に用意した2枚の画像を使用します。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-10.jpeg-1024x577.png)
最初とコマと最後のコマとなる画像を別々にアプロードしましょう。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-11.jpeg-1024x654.png)
⑪ControlNetを選択する
ControlNetのモデルを選択します。
ControlNetは2箇所選択する選択する場所があります。今回は「Tile」を選択しましょう。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-12.jpeg-1024x595.png)
⑫設定項目を入力して生成する
最後に出力値を設定します。
出力のフォーマット
「format」を選択します。デフォルトでは「animatediff」になっています。「gif」か「mp4」などお好きな形式を選択してください。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-14.jpeg-1024x649.png)
出力動画のサイズを選択する
「Empty Latent image」で動画のサイズを設定しましょう。
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-16.jpeg-1024x499.png)
以上で設定が完了です。
準備が完了したらメインメニューの「「Queue Prompt」」をクリックして生成を開始しましょう!
![](https://romptn.com/article/wp-content/uploads/2024/03/Stable-Diffusion-%E7%94%BB%E5%83%8F%E4%BD%9C%E6%88%90-19.jpeg-1024x577.png)
生成された動画がこちららです。
![](https://romptn.com/article/wp-content/uploads/2024/03/Enabled_00001_-1.gif)
まとめ
いかがでしたでしょうか?
【ComfyUI】AnimateDiffで2枚の画像からAI動画を生成する方法について解説してきました。
今回のポイントをまとめると、以下のようになります。
- 同じ顔の画像を先に2枚用意する。
- モデルやControlNetの方法はStable DiffusionWebUIを変わらない。
- ワークフローを利用して動画を生成する。
AnimateDiffを利用し、始まりと終わりの画像を設定してから1つの動画を生成する方法を学びました。
このほかにもComfyUIやStable Diffusionに関する記事を扱っていますので、ぜいともご活用ください!
- Stable Diffusionのプロンプトの見本が知りたい
- 画像生成が思ったようにできない
- 色々なプロンプトを探したい
![](http://romptn.com/article/wp-content/uploads/2024/03/qa_top.png)