En quelques semaines, l’IA de Flux s'est imposée comme un acteur important dans le domaine de la génération d'images. Il a séduit non seulement la communauté Open Source après la déception de Stable Diffusion 3 mais aussi de nombreux utilisateurs habitués aux outils propriétaires comme DALL-E ou Midjourney.

Mais une bonne utilisation de Flux dépend de la compréhension de ses exigences système et GPU. Une tâche moins évidente qu’il n’y parait puisque le modèle se décline en plusieurs versions, chacune adaptée à des configurations matérielles spécifiques.

Pour tenter de répondre en une phrase, le minimum absolu de VRAM est de 6GB mais il plutôt recommandé d’avoir au moins 12GB pour une utilisation confortable.

La suite de cet article examine cependant les différentes configurations recommandées selon les versions de Flux.1 et l’impact de la la quantification sur leurs performances.

L'objectif ? Vous permettre de sélectionner la version la plus adaptée à votre matériel, que vous débutiez avec un ordinateur standard ou que vous disposiez d'une machine puissante.

Aperçu des Versions de Flux

Les développeurs de Flux eux-même, Black Forest Labs, proposent 3 versions (pro, dev et schnell), chacune adaptée à des besoins et des configurations matérielles spécifiques. A celle-ci sont venues s’ajoutées une série de versions utilisant différentes méthode formatage binaire ou de quantification comme le format GGUF.

Qu'est-ce que la Quantification ?

La quantification consiste à réduire la précision numérique des paramètres du modèle. En pratique et permet d'adapter le modèle à différentes configurations matérielles sans compromettre significativement ses performances.

En pratique, les valeurs des paramètres, initialement stockées en format flottant 32 bits, sont converties en formats de plus basse précision (16, 8 ou même 4 bits). Cette conversion réduit la taille du modèle et, par conséquent, ses besoins en VRAM.

En résumer, il existe maintenant différents niveau de quantification pour les modèles Flux :

Le choix de la version à utiliser dépendra donc de votre matériel disponible et de vos objectifs de génération d'images. La suite de cet article détaillera les besoins en VRAM spécifiques à chaque version, vous aidant à sélectionner la plus adaptée à votre configuration.

Rem: Bien qu’il existe des interfaces qui permettent de décharger une partie du modèle dans la mémoire RAM, il reste recommandé d’utiliser un GPU capable de charger l’entièreté du modèle Flux dans sa VRAM.

image.png

Quel GPU pour quelle version ?

voici un tableau comparatif des différentes versions quantifiées. Chaque version offre un compromis entre la mémoire VRAM requise, les performances et les cas d'utilisation recommandés.

Version VRAM Performances GPUs Recommandés Cas d'Utilisation
Flux.1 Dev 24 GB Performance maximale et fidélité d'image NVIDIA RTX 4090, A6000 Applications avancées, exigence de haute fidélité.
Flux-FP8 16 GB Haute qualité d'image avec réduction de mémoire NVIDIA RTX 3080, RTX 4070 Génération d'images haute qualité.
GGUF-Q8 8 à 12 GB Qualité proche de FP16 (99%), optimisation maximale NVIDIA RTX 3060 Ti, RTX 3070 Tâches locales, génération d'images généralistes.
Flux.1 NF4 6 à 12 GB Modèle quantifié en 4 bits, idéal pour performances légères NVIDIA GTX 1650, RTX 2060 GPU d'entrée de gamme, génération rapide.