А АTuesday, 17 December 2024

Flux и Fooocus? Все возможно!

Всем привет.

Вы не поверите, но меня в чате Telegram до сих пор спрашивают как использовать Flux-модели в Fooocus. Вот хочет наш пользователь, особо не вникая в тонкости GenAI, получить на выходе качество Flux-a. К сожалению  автор самого Fooocus-а закончил его обновлять еще до появления Flux. Но не все так плохо, есть два варианта на выбор.

Первое, это использовать SimpleSDXL2 - это форк Fooocus-a, где парень из Китая внедрил опцию генераций на Flux-моделях. В бекенде для генераций там используется ComfyUI, что впрочем никак не влияет на пользовательский интерфейс, для вас он чисто аля Fooocus.

Второе,  это использовать RuinedFooocus - это еще один форк Fooocus-a, где другой парень из Британии также внедрил опцию генераций на Flux-моделях. Однако здесь следует провести небольшую подготовку ибо RuinedFooocus хоть и имеет работающий интерфейс, но в нем легко можно потеряться.

Ruined Fooocus поддерживает квантованные модели GGUF Flux, которые вы можете найти здесь city96/FLUX.1-dev-gguf и city96/FLUX.1-schnell-gguf, а также некоторые модели Flux, найденные на CivitAI, которые содержат только часть Unet.

Поскольку в этих моделях отсутствуют clip, t5 и vae, вам, возможно, придется загрузить их. Это может произойти и автоматически, но вы можете сделать это вручную, если захотите использовать другие модели:

comfyanonymous/flux_text_encoders - clip_l.safetensors, положить в models\clip

city96/t5-v1_1-xxl-encoder-gguf - t5-v1_1-xxl-encoder-Q3_K_S.gguf ¹, положить в models\clip

black-forest-labs/FLUX.1-schnell - ae.safetensors, положить в models\vae.

Например t5-v1_1-xxl-encoder-Q3_K_S.gguf - самый маленький по размеру и используется по умолчанию. Вы можете изменить любой из них, отредактировав файл settings\settings.json

У меня сейчас он такой:

"clip_g": "clip_g.safetensors",

  "clip_l": "clip_l.safetensors",

  "clip_t5": "t5-v1_1-xxl-encoder-Q4_K_S.gguf",

  "gguf_clip1": "clip_l.safetensors",

  "gguf_clip2": "t5-v1_1-xxl-encoder-Q4_K_S.gguf",

  "gguf_vae": "ae.safetensors"


RuinedFooocus может автоматически загружать некоторые файлы. Список известных ему файлов таков:

For gguf_clip1: clip_l.safetensors

For gguf_clip2: t5-v1_1-xxl-encoder-Q4_K_S.gguf

For gguf_vae: ae.safetensors

Теперь вы сможете использовать модели GGUF и Flux safetensors, в которых отсутствуют clip, t5 и vae.


Также могут работать и другие модели:

city96/FLUX.1-dev-gguf - Any of these

city96/FLUX.1-schnell-gguf - Any of these.

https://civitai.com/models/647237/flux1-dev-gguf-q2k-q3ks-q4q41q4ks-q5q51q5ks-q6k-q8

https://civitai.com/models/648580/flux1-schnell-gguf-q2k-q3ks-q4q41q4ks-q5q51-q5ks-q6k-q8


Обратите внимание, что для моделей Flux требуются другие настройки производительности, чем для SDXL. Вы можете установить их, выбрав Custom... в качестве Performance. Ниже парочка примеров, которые точно работают и могут быть вашей отправной точкой:

  • Flux Dev: Sampler Euler, Steps 20, CFG 3.5
  • Flux Schnell: Sampler Euler, Steps 4, CFG 1
  • Flux GGUF: Sampler Euler, Steps 8, CFG 4.

Саму модель над выбирать вручную, это издержки интерфейса RuinedFooocus.

Удачи.


No comments:

Post a Comment

А что вы думаете по этому поводу?

Версия на печать

Популярное