Z-Image
LoRA
Command Builder
musubi-tuner (kohya-ss) — zimage_train_network.py
⬇ 設定をJSONで保存
📂
設定ファイル(JSON)を
ドラッグ&ドロップ
、またはクリックして読み込む
OS / 改行スタイル
Windows ( ^ )
Linux / Mac ( \ )
モデル・パス
--dit
分割safetensorsは1枚目を指定
--vae
--text_encoder
--dataset_config
TOML
--output_dir
--output_name
LoRAパラメータ
--network_module
lora_zimage(推奨)
lora(汎用)
--network_dim
Rank
4
8
16
32
64
96
128
--network_alpha
4
8
16
32
64
96
128
-
LoHa/LoKr
ステップ・シード
--max_train_steps
--save_every_n_steps
--seed
--max_data_loader_n_workers
オプティマイザ / 学習率
--optimizer_type
adamw8bit
adamw
adafactor
prodigy
came
Lion
Lion8bit
--learning_rate
1e-4
5e-5(安定)
1e-5(Lion推奨)
2e-4(高速)
1e-3
カスタム入力
カスタム値
LRスケジューラ
--lr_scheduler
constant
cosine
cosine_with_restarts
constant_with_warmup
linear
polynomial
--lr_warmup_steps
--lr_scheduler_num_cycles
--lr_scheduler_power
Timestep / Flow
--timestep_sampling
shift(Z-Image推奨)
sigmoid
uniform
logit_normal
--discrete_flow_shift
Z-Image: 2.0
2.0
1.0
3.0
カスタム入力
カスタム値
--weighting_scheme
none
sigma_sqrt
logit_normal
mode
精度 / アテンション
--mixed_precision
bf16(推奨)
fp16
no (fp32)
アテンション
--sdpa
--xformers
VRAM最適化
--gradient_checkpointing
--persistent_data_loader_workers
--fp8_base
--fp8_llm
--block_swap_optimizer_patch_params
Lion+blocks_to_swap時に必要
--blocks_to_swap
0=無効
accelerate設定
--num_cpu_threads_per_process
--num_processes
マルチGPU時
Latentキャッシュ オプション
--batch_size
--vae_spatial_tile_sample_min_size
VRAM節約: 128程度
その他
--skip_existing
Text Encoderキャッシュ オプション
--batch_size
デフォルト: 16
VRAM節約
--fp8_llm
--skip_existing
LoRA変換オプション(ComfyUI用)
--input
変換元(musubi-tuner形式)
--output
変換先(ComfyUI形式)
① Latentキャッシュ
zimage_cache_latents.py
Copy
② Text Encoderキャッシュ
zimage_cache_text_encoder_outputs.py
Copy
③ 学習コマンド
zimage_train_network.py
Copy
④ LoRA変換(ComfyUI用)
convert_lora.py
Copy