# Musubi Tuner [English](./README.md) | [日本語](./README.ja.md) ## 目次
クリックすると展開します - [はじめに](#はじめに) - [スポンサー](#スポンサー) - [スポンサー募集のお知らせ](#スポンサー募集のお知らせ) - [最近の更新](#最近の更新) - [リリースについて](#リリースについて) - [AIコーディングエージェントを使用する開発者の方へ](#AIコーディングエージェントを使用する開発者の方へ) - [概要](#概要) - [ハードウェア要件](#ハードウェア要件) - [特徴](#特徴) - [ドキュメント](#ドキュメント) - [インストール](#インストール) - [pipによるインストール](#pipによるインストール) - [uvによるインストール](#uvによるインストール) - [Linux/MacOS](#linuxmacos) - [Windows](#windows) - [モデルのダウンロード](#モデルのダウンロード) - [使い方](#使い方) - [データセット設定](#データセット設定) - [事前キャッシュと学習](#事前キャッシュと学習) - [Accelerateの設定](#Accelerateの設定) - [学習と推論](#学習と推論) - [その他](#その他) - [SageAttentionのインストール方法](#SageAttentionのインストール方法) - [PyTorchのバージョンについて](#PyTorchのバージョンについて) - [免責事項](#免責事項) - [コントリビューションについて](#コントリビューションについて) - [ライセンス](#ライセンス)
## はじめに このリポジトリは、HunyuanVideo、Wan2.1/2.2、FramePack、FLUX.1 Kontext、FLUX.2 dev/klein、Qwen-Image、Z-Image、および [LTX-2](./docs/ltx_2.md)のLoRA学習用のコマンドラインツールです。このリポジトリは非公式であり、それらの公式リポジトリとは関係ありません。 *リポジトリは開発中です。* ### スポンサー このプロジェクトを支援してくださる企業・団体の皆様に深く感謝いたします。 AiHUB株式会社 ### スポンサー募集のお知らせ このプロジェクトがお役に立ったなら、ご支援いただけると嬉しく思います。 [GitHub Sponsors](https://github.com/sponsors/kohya-ss/)で受け付けています。 ### 最近の更新 GitHub Discussionsを有効にしました。コミュニティのQ&A、知識共有、技術情報の交換などにご利用ください。バグ報告や機能リクエストにはIssuesを、質問や経験の共有にはDiscussionsをご利用ください。[Discussionはこちら](https://github.com/kohya-ss/musubi-tuner/discussions) - 2026/02/15 - LoHa/LoKrの学習に対応しました。[PR #900](https://github.com/kohya-ss/musubi-tuner/pull/900) - LyCORISのLoHa/LoKrアルゴリズムに基づいて実装されています。LyCORISプロジェクトのKohakuBlueleaf氏に深く感謝します。 - 詳細は[ドキュメント](./docs/loha_lokr.md)を参照してください。 - Z-Imageのfine-tuningで、blocks_to_swapを使用している場合に、一部のオプティマイザを使用可能にする`--block_swap_optimizer_patch_params`オプションを追加しました。[PR #899](https://github.com/kohya-ss/musubi-tuner/pull/899) - 詳細は[ドキュメント](./docs/zimage.md#finetuning)を参照してください。 - 2026/01/29 - Z-Image-Baseのリリースに伴いLoRA、finetuningの動作確認を行い、共に動作することを確認しました。 - Z-Imageの[関連ドキュメント](./docs/zimage.md)を修正しました。 - またZ-ImageのLoRA学習、finetuningでサンプル画像生成が正しく動作しなかったのを修正しました。以上は[PR #861](https://github.com/kohya-ss/musubi-tuner/pull/861) - 2026/01/24 - FLUX.2 [klein]のLoRA学習が動かなかったのを修正しました。またFLUX.2に関する各種の不具合修正、機能追加を行いました。[PR #858](https://github.com/kohya-ss/musubi-tuner/pull/858) - `--model_version`の指定は`flux.2-dev`や`flux.2-klein-4b`等から、`dev`や`klein-4b`等に変更されました。 - fp8最適化なども動作します。詳細は[ドキュメント](./docs/flux_2.md)を参照してください。 - klein 9B、devモデル、および複数枚の制御画像を用いた学習は十分にテストされていないため、不具合があればIssueで報告してください。 - 2026/01/21 - FLUX.2 [dev]/[klein]のLoRA学習に対応しました。[PR #841](https://github.com/kohya-ss/musubi-tuner/pull/841) https://www.scenario.com のchristopher5106氏に深く感謝します。 - 詳細は[ドキュメント](./docs/flux_2.md)を参照してください。 - 2026/01/17 - Z-ImageのComfyUI向けのLoRA変換について、互換性向上のため `convert_lora.py` を使用するように変更しました。[PR #851](https://github.com/kohya-ss/musubi-tuner/pull/851) - 以前の `convert_z_image_lora_to_comfy.py` も引き続き使用可能ですが、nunchakuで正しく動作しない可能性があります。 - 詳細は[ドキュメント](./docs/zimage.md#converting-lora-weights-to-diffusers-format-for-comfyui--lora重みをcomfyuiで使用可能なdiffusers形式に変換する)を参照してください。 - [Issue #847](https://github.com/kohya-ss/musubi-tuner/issues/847) で解決策を提供してくださったfai-9氏に感謝します。 - Qwen-Image-LayeredのLoRA学習で、元画像を学習対象から除外するオプション `--remove_first_image_from_target` を追加しました。[PR #852](https://github.com/kohya-ss/musubi-tuner/pull/852) - 詳細は[ドキュメント](./docs/qwen_image.md#lora-training--lora学習)を参照してください。 - 2026/01/11 - Qwen-Image-LayeredのLoRA学習に対応しました。[PR #816](https://github.com/kohya-ss/musubi-tuner/pull/816) - 詳細は[ドキュメント](./docs/qwen_image.md)を参照してください。 - キャッシュ作成、学習、推論の各スクリプトで、`--model_version` オプションに `layered` を指定してください。 ### リリースについて Musubi Tunerの解説記事執筆や、関連ツールの開発に取り組んでくださる方々に感謝いたします。このプロジェクトは開発中のため、互換性のない変更や機能追加が起きる可能性があります。想定外の互換性問題を避けるため、参照用として[リリース](https://github.com/kohya-ss/musubi-tuner/releases)をお使いください。 最新のリリースとバージョン履歴は[リリースページ](https://github.com/kohya-ss/musubi-tuner/releases)で確認できます。 ### AIコーディングエージェントを使用する開発者の方へ このリポジトリでは、ClaudeやGeminiのようなAIエージェントが、プロジェクトの概要や構造を理解しやすくするためのエージェント向け文書(プロンプト)を用意しています。 これらを使用するためには、プロジェクトのルートディレクトリに各エージェント向けの設定ファイルを作成し、明示的に読み込む必要があります。 **セットアップ手順:** 1. プロジェクトのルートに `CLAUDE.md` や `GEMINI.md`、`AGENTS.md` ファイルを作成します。 2. `CLAUDE.md` 等に以下の行を追加して、リポジトリが推奨するプロンプトをインポートします(現在、両者はほぼ同じ内容です): ```markdown @./.ai/claude.prompt.md ``` Geminiの場合はこちらです: ```markdown @./.ai/gemini.prompt.md ``` 他のエージェント向けの設定ファイルでもそれぞれの方法でインポートしてください。 3. インポートした行の後に、必要な指示を適宜追加してください(例:`Always respond in Japanese.`)。 このアプローチにより、共有されたプロジェクトのコンテキストを活用しつつ、エージェントに与える指示を各ユーザーが自由に制御できます。`CLAUDE.md`、`GEMINI.md` および `AGENTS.md` (またClaude用の `.mcp.json`)はすでに `.gitignore` に記載されているため、リポジトリにコミットされることはありません。 ## 概要 ### ハードウェア要件 - VRAM: 静止画での学習は12GB以上推奨、動画での学習は24GB以上推奨。 - *アーキテクチャ、解像度等の学習設定により異なります。*12GBでは解像度 960x544 以下とし、`--blocks_to_swap`、`--fp8_llm`等の省メモリオプションを使用してください。 - メインメモリ: 64GB以上を推奨、32GB+スワップで動作するかもしれませんが、未検証です。 ### 特徴 - 省メモリに特化 - Windows対応(Linuxでの動作報告もあります) - マルチGPU学習([Accelerate](https://huggingface.co/docs/accelerate/index)を使用)、ドキュメントは後日追加予定 ### ドキュメント 各アーキテクチャの詳細、設定、高度な機能については、以下のドキュメントを参照してください。 **アーキテクチャ別:** - [HunyuanVideo](./docs/hunyuan_video.md) - [Wan2.1/2.2](./docs/wan.md) - [Wan2.1/2.2 (1フレーム推論)](./docs/wan_1f.md) - [FramePack](./docs/framepack.md) - [FramePack (1フレーム推論)](./docs/framepack_1f.md) - [FLUX.1 Kontext](./docs/flux_kontext.md) - [Qwen-Image](./docs/qwen_image.md) - [Z-Image](./docs/zimage.md) - [HunyuanVideo 1.5](./docs/hunyuan_video_1_5.md) - [Kandinsky 5](./docs/kandinsky5.md) - [LTX-2](./docs/ltx_2.md) - [FLUX.2](./docs/flux_2.md) **共通設定・その他:** - [データセット設定](./docs/dataset_config.md) - [高度な設定](./docs/advanced_config.md) - [学習中のサンプル生成](./docs/sampling_during_training.md) - [ツールとユーティリティ](./docs/tools.md) - [torch.compileの使用方法](./docs/torch_compile.md) ## インストール ### pipによるインストール Python 3.10以上を使用してください(3.10で動作確認済み)。 適当な仮想環境を作成し、ご利用のCUDAバージョンに合わせたPyTorchとtorchvisionをインストールしてください。 PyTorchはバージョン2.5.1以上を使用してください([補足](#PyTorchのバージョンについて))。 ```bash pip install torch torchvision --index-url https://download.pytorch.org/whl/cu124 ``` 以下のコマンドを使用して、必要な依存関係をインストールします。 ```bash pip install -e . ``` オプションとして、FlashAttention、SageAttention(**推論にのみ使用できます**、インストール方法は[こちら](#SageAttentionのインストール方法)を参照)を使用できます。 また、`ascii-magic`(データセットの確認に使用)、`matplotlib`(timestepsの可視化に使用)、`tensorboard`(学習ログの記録に使用)、`prompt-toolkit`を必要に応じてインストールしてください。 `prompt-toolkit`をインストールするとWan2.1およびFramePackのinteractive modeでの編集に、自動的に使用されます。特にLinux環境でプロンプトの編集が容易になります。 ```bash pip install ascii-magic matplotlib tensorboard prompt-toolkit ``` ### uvによるインストール uvを使用してインストールすることもできますが、uvによるインストールは試験的なものです。フィードバックを歓迎します。 #### Linux/MacOS ```sh curl -LsSf https://astral.sh/uv/install.sh | sh ``` 表示される指示に従い、pathを設定してください。 #### Windows ```powershell powershell -c "irm https://astral.sh/uv/install.ps1 | iex" ``` 表示される指示に従い、PATHを設定するか、この時点でシステムを再起動してください。 ## モデルのダウンロード モデルのダウンロード手順はアーキテクチャによって異なります。詳細は[ドキュメント](#ドキュメント)セクションにある、各アーキテクチャのドキュメントを参照してください。 ## 使い方 ### データセット設定 [こちら](./docs/dataset_config.md)を参照してください。 ### 事前キャッシュ 事前キャッシュの手順の詳細は、[ドキュメント](#ドキュメント)セクションにある各アーキテクチャのドキュメントを参照してください。 ### Accelerateの設定 `accelerate config`を実行して、Accelerateの設定を行います。それぞれの質問に、環境に応じた適切な値を選択してください(値を直接入力するか、矢印キーとエンターで選択、大文字がデフォルトなので、デフォルト値でよい場合は何も入力せずエンター)。GPU 1台での学習の場合、以下のように答えてください。 ```txt - In which compute environment are you running?: This machine - Which type of machine are you using?: No distributed training - Do you want to run your training on CPU only (even if a GPU / Apple Silicon / Ascend NPU device is available)?[yes/NO]: NO - Do you wish to optimize your script with torch dynamo?[yes/NO]: NO - Do you want to use DeepSpeed? [yes/NO]: NO - What GPU(s) (by id) should be used for training on this machine as a comma-seperated list? [all]: all - Would you like to enable numa efficiency? (Currently only supported on NVIDIA hardware). [yes/NO]: NO - Do you wish to use mixed precision?: bf16 ``` ※場合によって ``ValueError: fp16 mixed precision requires a GPU`` というエラーが出ることがあるようです。この場合、6番目の質問( ``What GPU(s) (by id) should be used for training on this machine as a comma-separated list? [all]:``)に「0」と答えてください。(id `0`、つまり1台目のGPUが使われます。) ### 学習と推論 学習と推論の手順はアーキテクチャによって大きく異なります。詳細な手順については、[ドキュメント](#ドキュメント)セクションにある対応するアーキテクチャのドキュメント、および各種の設定のドキュメントを参照してください。 ## その他 ### SageAttentionのインストール方法 sdbds氏によるWindows対応のSageAttentionのwheelが https://github.com/sdbds/SageAttention-for-windows で公開されています。triton をインストールし、Python、PyTorch、CUDAのバージョンが一致する場合は、[Releases](https://github.com/sdbds/SageAttention-for-windows/releases)からビルド済みwheelをダウンロードしてインストールすることが可能です。sdbds氏に感謝します。 参考までに、以下は、SageAttentionをビルドしインストールするための簡単な手順です。Microsoft Visual C++ 再頒布可能パッケージを最新にする必要があるかもしれません。 1. Pythonのバージョンに応じたtriton 3.1.0のwhellを[こちら](https://github.com/woct0rdho/triton-windows/releases/tag/v3.1.0-windows.post5)からダウンロードしてインストールします。 2. Microsoft Visual Studio 2022かBuild Tools for Visual Studio 2022を、C++のビルドができるよう設定し、インストールします。(上のRedditの投稿を参照してください)。 3. 任意のフォルダにSageAttentionのリポジトリをクローンします。 ```shell git clone https://github.com/thu-ml/SageAttention.git ``` 4. スタートメニューから Visual Studio 2022 内の `x64 Native Tools Command Prompt for VS 2022` を選択してコマンドプロンプトを開きます。 5. venvを有効にし、SageAttentionのフォルダに移動して以下のコマンドを実行します。DISTUTILSが設定されていない、のようなエラーが出た場合は `set DISTUTILS_USE_SDK=1`としてから再度実行してください。 ```shell python setup.py install ``` 以上でSageAttentionのインストールが完了です。 ### PyTorchのバージョンについて `--attn_mode`に`torch`を指定する場合、2.5.1以降のPyTorchを使用してください(それより前のバージョンでは生成される動画が真っ黒になるようです)。 古いバージョンを使う場合、xformersやSageAttentionを使用してください。 ## 免責事項 このリポジトリは非公式であり、サポートされているアーキテクチャの公式リポジトリとは関係ありません。また、このリポジトリは開発中で、実験的なものです。テストおよびフィードバックを歓迎しますが、以下の点にご注意ください: - 実際の稼働環境での動作を意図したものではありません - 機能やAPIは予告なく変更されることがあります - いくつもの機能が未検証です - 動画学習機能はまだ開発中です 問題やバグについては、以下の情報とともにIssueを作成してください: - 問題の詳細な説明 - 再現手順 - 環境の詳細(OS、GPU、VRAM、Pythonバージョンなど) - 関連するエラーメッセージやログ ## コントリビューションについて コントリビューションを歓迎します。 [CONTRIBUTING.md](./CONTRIBUTING.md)および[CONTRIBUTING.ja.md](./CONTRIBUTING.ja.md)をご覧ください。 ## ライセンス `hunyuan_model`ディレクトリ以下のコードは、[HunyuanVideo](https://github.com/Tencent/HunyuanVideo)のコードを一部改変して使用しているため、そちらのライセンスに従います。 `wan`ディレクトリ以下のコードは、[Wan2.1](https://github.com/Wan-Video/Wan2.1)のコードを一部改変して使用しています。ライセンスはApache License 2.0です。 `frame_pack`ディレクトリ以下のコードは、[frame_pack](https://github.com/lllyasviel/FramePack)のコードを一部改変して使用しています。ライセンスはApache License 2.0です。 他のコードはApache License 2.0に従います。一部Diffusersのコードをコピー、改変して使用しています。