# FLUX.1 Kontext ## Overview / 概要 This document describes the usage of the [FLUX.1 Kontext](https://github.com/black-forest-labs/flux) \[dev\] architecture within the Musubi Tuner framework. FLUX.1 Kontext is an image generation model that can take a reference image as input. This feature is experimental. Latent pre-caching, training, and inference options can be found in the `--help` output. Many options are shared with HunyuanVideo, so refer to the [HunyuanVideo documentation](./hunyuan_video.md) as needed.
日本語 このドキュメントは、Musubi Tunerフレームワーク内での[FLUX.1 Kontext](https://github.com/black-forest-labs/flux) \[dev\] アーキテクチャの使用法について説明しています。FLUX.1 Kontextは、参照画像をコンテキストとして入力できる画像生成モデルです。 この機能は実験的なものです。 事前キャッシング、学習、推論のオプションは`--help`で確認してください。HunyuanVideoと共通のオプションが多くありますので、必要に応じて[HunyuanVideoのドキュメント](./hunyuan_video.md)も参照してください。
## Download the model / モデルのダウンロード You need to download the DiT, AE, Text Encoder 1 (T5-XXL), and Text Encoder 2 (CLIP-L) models. - **DiT, AE**: Download from the [black-forest-labs/FLUX.1-kontext](https://huggingface.co/black-forest-labs/FLUX.1-Kontext-dev) repository. Use `flux1-kontext-dev.safetensors` and `ae.safetensors`. The weights in the subfolder are in Diffusers format and cannot be used. - **Text Encoder 1 (T5-XXL), Text Encoder 2 (CLIP-L)**: Download from the [ComfyUI FLUX Text Encoders](https://huggingface.co/comfyanonymous/flux_text_encoders) repository. Please use `t5xxl_fp16.safetensors` for T5-XXL. Thanks to ComfyUI for providing these models.
日本語 DiT, AE, Text Encoder 1 (T5-XXL), Text Encoder 2 (CLIP-L) のモデルをダウンロードする必要があります。 - **DiT, AE**: [black-forest-labs/FLUX.1-kontext](https://huggingface.co/black-forest-labs/FLUX.1-Kontext-dev) リポジトリからダウンロードしてください。`flux1-kontext-dev.safetensors` および `ae.safetensors` を使用してください。サブフォルダ内の重みはDiffusers形式なので使用できません。 - **Text Encoder 1 (T5-XXL), Text Encoder 2 (CLIP-L)**: [ComfyUIのFLUX Text Encoders](https://huggingface.co/comfyanonymous/flux_text_encoders) リポジトリからダウンロードしてください。T5-XXLには`t5xxl_fp16.safetensors`を使用してください。これらのモデルをご提供いただいたComfyUIに感謝します。
## Pre-caching / 事前キャッシング ### Latent Pre-caching / latentの事前キャッシング Latent pre-caching uses a dedicated script for FLUX.1 Kontext. ```bash python src/musubi_tuner/flux_kontext_cache_latents.py \ --dataset_config path/to/toml \ --vae path/to/ae_model ``` - Note that the `--vae` argument is required, not `--ae`. - Uses `flux_kontext_cache_latents.py`. - The dataset must be an image dataset. - The `control_images` in the dataset config is used as the reference image. See [Dataset Config](./dataset_config.md#flux1-kontext-dev) for details.
日本語 latentの事前キャッシングはFLUX.1 Kontext専用のスクリプトを使用します。 - `flux_kontext_cache_latents.py`を使用します。 - `--ae`ではなく、`--vae`引数を指定してください。 - データセットは画像データセットである必要があります。 - データセット設定の`control_images`が参照画像として使用されます。詳細は[データセット設定](./dataset_config.md#flux1-kontext-dev)を参照してください。
### Text Encoder Output Pre-caching / テキストエンコーダー出力の事前キャッシング Text encoder output pre-caching also uses a dedicated script. ```bash python src/musubi_tuner/flux_kontext_cache_text_encoder_outputs.py \ --dataset_config path/to/toml \ --text_encoder1 path/to/text_encoder1 \ --text_encoder2 path/to/text_encoder2 \ --batch_size 16 ``` - Uses `flux_kontext_cache_text_encoder_outputs.py`. - Requires both `--text_encoder1` (T5) and `--text_encoder2` (CLIP) arguments. - Use `--fp8_t5` option to run the T5 Text Encoder in fp8 mode for VRAM savings. - The larger the batch size, the more VRAM is required. Adjust `--batch_size` according to your VRAM capacity.
日本語 テキストエンコーダー出力の事前キャッシングも専用のスクリプトを使用します。 - `flux_kontext_cache_text_encoder_outputs.py`を使用します。 - T5とCLIPの両方の引数が必要です。 - T5テキストエンコーダーをfp8モードで実行するための`--fp8_t5`オプションを使用します。 - バッチサイズが大きいほど、より多くのVRAMが必要です。VRAM容量に応じて`--batch_size`を調整してください。
## Training / 学習 Training uses a dedicated script `flux_kontext_train_network.py`. ```bash accelerate launch --num_cpu_threads_per_process 1 --mixed_precision bf16 src/musubi_tuner/flux_kontext_train_network.py \ --dit path/to/dit_model \ --vae path/to/ae_model \ --text_encoder1 path/to/text_encoder1 \ --text_encoder2 path/to/text_encoder2 \ --dataset_config path/to/toml \ --sdpa --mixed_precision bf16 \ --timestep_sampling flux_shift --weighting_scheme none \ --optimizer_type adamw8bit --learning_rate 1e-4 --gradient_checkpointing \ --max_data_loader_n_workers 2 --persistent_data_loader_workers \ --network_module networks.lora_flux --network_dim 32 \ --max_train_epochs 16 --save_every_n_epochs 1 --seed 42 \ --output_dir path/to/output_dir --output_name name-of-lora ``` - Uses `flux_kontext_train_network.py`. - **Requires** specifying `--vae` (not `--ae`), `--text_encoder1`, and `--text_encoder2`. - **Requires** specifying `--network_module networks.lora_flux`. - `--mixed_precision bf16` is recommended for FLUX.1 Kontext training. - `--timestep_sampling flux_shift` is recommended for FLUX.1 Kontext. - Memory saving options like `--fp8` (for DiT) and `--fp8_t5` (for Text Encoder 1) are available. `--fp8_scaled` is recommended when using `--fp8` for DiT. - `--gradient_checkpointing` and `--gradient_checkpointing_cpu_offload` are available for memory savings. See [HunyuanVideo documentation](./hunyuan_video.md#memory-optimization) for details.
日本語 FLUX.1 Kontextの学習は専用のスクリプト`flux_kontext_train_network.py`を使用します。 - `flux_kontext_train_network.py`を使用します。 - `--ae`、`--text_encoder1`、`--text_encoder2`を指定する必要があります。 - `--network_module networks.lora_flux`を指定する必要があります。 - FLUX.1 Kontextの学習には`--mixed_precision bf16`を推奨します。 - FLUX.1 Kontextには`--timestep_sampling flux_shift`を推奨します。 - `--fp8`(DiT用)や`--fp8_t5`(テキストエンコーダー1用)などのメモリ節約オプションが利用可能です。`--fp8_scaled`を使用することをお勧めします。 - メモリ節約のために`--gradient_checkpointing`が利用可能です。
## Inference / 推論 Inference uses a dedicated script `flux_kontext_generate_image.py`. ```bash python src/musubi_tuner/flux_kontext_generate_image.py \ --dit path/to/dit_model \ --vae path/to/ae_model \ --text_encoder1 path/to/text_encoder1 \ --text_encoder2 path/to/text_encoder2 \ --control_image_path path/to/control_image.jpg \ --prompt "A cat" \ --image_size 1024 1024 --infer_steps 25 \ --attn_mode sdpa --fp8_scaled \ --save_path path/to/save/dir --output_type images \ --seed 1234 --lora_multiplier 1.0 --lora_weight path/to/lora.safetensors ``` - Uses `flux_kontext_generate_image.py`. - **Requires** specifying `--vae`, `--text_encoder1`, and `--text_encoder2`. - **Requires** specifying `--control_image_path` for the reference image. - `--no_resize_control`: By default, the control image is resized to the recommended resolution for FLUX.1 Kontext. If you specify this option, this resizing is skipped, and the image is used as-is. This feature is not officially supported by FLUX.1 Kontext, but it is available for experimental use. - `--image_size` is the size of the generated image, height and width are specified in that order. - `--prompt`: Prompt for generation. - `--fp8_scaled` option is available for DiT to reduce memory usage. Quality may be slightly lower. `--fp8_t5` option is available to reduce memory usage of Text Encoder 1. `--fp8` alone is also an option for DiT but `--fp8_scaled` potentially offers better quality. - LoRA loading options (`--lora_weight`, `--lora_multiplier`, `--include_patterns`, `--exclude_patterns`) are available. `--lycoris` is also supported. - `--embedded_cfg_scale` (default 2.5) controls the distilled guidance scale. - `--save_merged_model` option is available to save the DiT model after merging LoRA weights. Inference is skipped if this is specified.
日本語 FLUX.1 Kontextの推論は専用のスクリプト`flux_kontext_generate_image.py`を使用します。 - `flux_kontext_generate_image.py`を使用します。 - `--vae`、`--text_encoder1`、`--text_encoder2`を指定する必要があります。 - `--control_image_path`を指定する必要があります(参照画像)。 - `--no_resize_control`: デフォルトでは、参照画像はFLUX.1 Kontextの推奨解像度にリサイズされます。このオプションを指定すると、このリサイズはスキップされ、画像はそのままのサイズで使用されます。 この機能はFLUX.1 Kontextでは公式にサポートされていませんが、実験的に使用可能です。 - `--image_size`は生成する画像のサイズで、高さと幅をその順番で指定します。 - `--prompt`: 生成用のプロンプトです。 - DiTのメモリ使用量を削減するために、`--fp8_scaled`オプションを指定可能です。品質はやや低下する可能性があります。またText Encoder 1のメモリ使用量を削減するために、`--fp8_t5`オプションを指定可能です。DiT用に`--fp8`単独のオプションも用意されていますが、`--fp8_scaled`の方が品質が良い可能性があります。 - LoRAの読み込みオプション(`--lora_weight`、`--lora_multiplier`、`--include_patterns`、`--exclude_patterns`)が利用可能です。LyCORISもサポートされています。 - `--embedded_cfg_scale`(デフォルト2.5)は、蒸留されたガイダンススケールを制御します。 - `--save_merged_model`オプションは、LoRAの重みをマージした後にDiTモデルを保存するためのオプションです。これを指定すると推論はスキップされます。