Stable Video Diffusion : インストール2024/02/23 |
ディープラーニングの Image-to-Video モデルである [Stable Video Diffusion] のインストールです。 |
|
[1] | |
[2] | その他、必要なパッケージをインストールしておきます。 |
root@dlp:~# apt -y install python3-pip python3-venv git ffmpeg
|
[3] | 任意の一般ユーザーでログインして、[Stable Video Diffusion] インストールします。 |
# python 仮想環境 作成 ubuntu@dlp:~$ python3 -m venv --system-site-packages ~/video ubuntu@dlp:~$ source ~/video/bin/activate
git clone https://github.com/Stability-AI/generative-models.git (video) ubuntu@dlp:~$ cd generative-models (video) ubuntu@dlp:~/generative-models$ pip3 install -r ./requirements/pt2.txt ..... ..... Successfully installed PyWavelets-1.5.0 aiofiles-23.2.1 aiohttp-3.9.3 aiosignal-1.3.1 altair-5.2.0 annotated-types-0.6.0 antlr4-python3-runtime-4.9.3 anyio-4.3.0 appdirs-1.4.4 async-timeout-4.0.3 black-23.7.0 braceexpand-0.1.7 cachetools-5.3.2 chardet-5.1.0 charset-normalizer-3.3.2 clip-1.0 cmake-3.28.3 contourpy-1.2.0 cycler-0.12.1 docker-pycreds-0.4.0 einops-0.7.0 exceptiongroup-1.2.0 fairscale-0.4.13 fastapi-0.109.2 ffmpy-0.3.2 filelock-3.13.1 fire-0.5.0 fonttools-4.49.0 frozenlist-1.4.1 fsspec-2024.2.0 ftfy-6.1.3 gitdb-4.0.11 gitpython-3.1.42 gradio-4.19.2 gradio-client-0.10.1 h11-0.14.0 httpcore-1.0.4 httpx-0.27.0 huggingface-hub-0.20.3 importlib-resources-6.1.1 invisible-watermark-0.2.0 jedi-0.19.1 kiwisolver-1.4.5 kornia-0.6.9 lightning-utilities-0.10.1 lit-17.0.6 markdown-it-py-3.0.0 matplotlib-3.8.3 mdurl-0.1.2 mpmath-1.3.0 multidict-6.0.5 mypy-extensions-1.0.0 natsort-8.4.0 networkx-3.2.1 ninja-1.11.1.1 numpy-1.26.4 nvidia-cublas-cu11-11.10.3.66 nvidia-cuda-cupti-cu11-11.7.101 nvidia-cuda-nvrtc-cu11-11.7.99 nvidia-cuda-runtime-cu11-11.7.99 nvidia-cudnn-cu11-8.5.0.96 nvidia-cufft-cu11-10.9.0.58 nvidia-curand-cu11-10.2.10.91 nvidia-cusolver-cu11-11.4.0.1 nvidia-cusparse-cu11-11.7.4.91 nvidia-nccl-cu11-2.14.3 nvidia-nvtx-cu11-11.7.91 omegaconf-2.3.0 open-clip-torch-2.24.0 opencv-python-4.6.0.66 orjson-3.9.14 packaging-23.2 pandas-2.2.0 parso-0.8.3 pathspec-0.12.1 pillow-10.2.0 platformdirs-4.2.0 protobuf-3.20.3 psutil-5.9.8 pudb-2024.1 pyarrow-15.0.0 pydantic-2.6.1 pydantic-core-2.16.2 pydeck-0.8.1b0 pydub-0.25.1 pygments-2.17.2 python-dateutil-2.8.2 python-multipart-0.0.9 pytorch-lightning-2.0.1 pyyaml-6.0.1 regex-2023.12.25 requests-2.31.0 rich-13.7.0 ruff-0.2.2 safetensors-0.4.2 scipy-1.12.0 semantic-version-2.10.0 sentencepiece-0.2.0 sentry-sdk-1.40.5 setproctitle-1.3.3 shellingham-1.5.4 smmap-5.0.1 sniffio-1.3.0 starlette-0.36.3 streamlit-1.31.1 streamlit-keyup-0.2.0 sympy-1.12 tenacity-8.2.3 tensorboardx-2.6 termcolor-2.4.0 timm-0.9.16 tokenizers-0.12.1 toml-0.10.2 tomli-2.0.1 tomlkit-0.12.0 toolz-0.12.1 torch-2.0.1 torchaudio-2.0.2 torchdata-0.6.1 torchmetrics-1.3.1 torchvision-0.15.2 tornado-6.4 tqdm-4.66.2 transformers-4.19.1 triton-2.0.0 typer-0.9.0 typing-extensions-4.9.0 tzdata-2024.1 tzlocal-5.2 urllib3-1.26.18 urwid-2.6.4 urwid-readline-0.13 uvicorn-0.27.1 validators-0.22.0 wandb-0.16.3 watchdog-4.0.0 wcwidth-0.2.13 webdataset-0.2.86 websockets-11.0.3 wheel-0.42.0 xformers-0.0.22 yarl-1.9.4(video) ubuntu@dlp:~/generative-models$ pip3 install ./ ..... ..... Successfully built sgm Installing collected packages: sgm Successfully installed sgm-0.1.0
(video) ubuntu@dlp:~/generative-models$
vi ./scripts/demo/streamlit_helpers.py # 61行目 : グラフィックボードの搭載 RAM が少ない場合は [True] に変更 # * 参考までに RTX 3060 12G RAM の 1 枚挿しでは ここを変更しないとまともに動かない lowvram_mode = True
# モデルをダウンロード # モデルは下記サイトから svd や svd_xt を取得可 # https://huggingface.co/stabilityai/stable-video-diffusion-img2vid/tree/main # https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt/tree/main (video) ubuntu@dlp:~/generative-models$ mkdir ./checkpoints (video) ubuntu@dlp:~/generative-models$ curl -L https://huggingface.co/stabilityai/stable-video-diffusion-img2vid/resolve/main/svd.safetensors?download=true -o ./checkpoints/svd.safetensors # もし アプリ実行時に Out of Memory が発生する場合は 以下の環境変数の値を減らしてみる (video) ubuntu@dlp:~/generative-models$ export PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:64
# サーバーとして起動 (video) ubuntu@dlp:~/generative-models$ cp -p ./scripts/demo/video_sampling.py ./ (video) ubuntu@dlp:~/generative-models$ streamlit run video_sampling.py --server.address=0.0.0.0 Collecting usage statistics. To deactivate, set browser.gatherUsageStats to False. You can now view your Streamlit app in your browser. URL: http://0.0.0.0:8501 |
[4] | 起動時に表示されたポート 8501 番へアクセスすると [Stable Video Diffusion] を利用することができます。 まずは [Load Model] にチェックを入れます。 |
[5] | 初回のロードはかなり時間がかかります。 ロードが終了すると以下の画面になります。以下のエラーは無視して OK です。 次に、[Browse files] をクリックして、動画にしたい画像を選択します。 |
[6] | 選択した画像が読み込まれると画面に表示されます。 ちなみに、以下のブタちゃんは [Stable Diffusion] で生成した画像です。 |
[7] |
ページを下へスクロールして、各値を調整します。
左ペインの [H] と [W] ⇒ 画像の縦横に合わせる |
[8] | 正常に動画が生成されると画面上に表示されます。 RTX 3060 12G RAM 1 枚では、[svd] のデフォルト T フレーム 14 の設定で 2 秒の動画を生成するのがやっとでした。 |
|