En sólo unas semanas, la IA de Flux se ha consolidado como un actor importante en el campo de la generación de imágenes. No sólo ha conquistado a la comunidad de código abierto tras la decepción de Stable Diffusion 3, sino también a muchos usuarios acostumbrados a herramientas propietarias como DALL-E o Midjourney.
Pero hacer un buen uso de Flux depende de entender sus requisitos de sistema y GPU. Esto no es tan sencillo como podría parecer, ya que el modelo viene en varias versiones, cada una adaptada a configuraciones de hardware específicas.
Este artículo examina las distintas versiones de Flux.1, explica la cuantificación y su impacto en el rendimiento, y detalla las configuraciones recomendadas.
¿El objetivo? Permitirle seleccionar la versión más adaptada a su hardware, tanto si empieza con un ordenador estándar como si dispone de una máquina potente.
Los propios desarrolladores de Flux, Black Forest Labs, ofrecen 3 versiones (pro, dev y schnell), cada una de ellas adaptada a necesidades y configuraciones de hardware específicas. A éstas se han añadido una serie de versiones que utilizan distintos formatos binarios o métodos de cuantificación, como el formato GGUF.
La cuantificación consiste en reducir la precisión numérica de los parámetros del modelo. En la práctica, permite adaptar el modelo a diferentes configuraciones de hardware sin comprometer significativamente su rendimiento.
En la práctica, los valores de los parámetros, almacenados inicialmente en formato de coma flotante de 32 bits, se convierten a formatos de menor precisión (16, 8 o incluso 4 bits). Esta conversión reduce el tamaño del modelo y, en consecuencia, sus necesidades de VRAM.
En resumen, ahora existen diferentes niveles de cuantificación para los modelos Flux:
Por tanto, la elección de la versión dependerá del hardware disponible y de los objetivos de generación de imágenes. En el resto de este artículo se detallan los requisitos específicos de VRAM para cada versión, lo que te ayudará a seleccionar la que mejor se adapte a tu configuración.
Nota: Aunque existen interfaces que permiten descargar parte del modelo en la RAM, se sigue recomendando utilizar una GPU capaz de cargar todo el modelo Flux en su VRAM.
Aquí tienes una tabla comparativa de las distintas versiones cuantificadas. Cada versión ofrece un compromiso entre la memoria VRAM necesaria, el rendimiento y los casos de uso recomendados.
Versión | VRAM | Rendimiento | GPU recomendadas | Casos prácticos |
---|---|---|---|---|
Flux.1 Dev | 24 GB | Máximo rendimiento y fidelidad de imagen | NVIDIA RTX 4090, A6000 | Aplicaciones avanzadas, requisitos de alta fidelidad. |
Flux-FP8 | 16 GB | Alta calidad de imagen con reducción de memoria | NVIDIA RTX 3080, RTX 4070 | Generación de imágenes de alta calidad. |
GGUF-Q8 | 8 à 12 GB | Calidad cercana a FP16 (99%), optimización máxima | NVIDIA RTX 3060 Ti, RTX 3070 | Tareas locales, generación general de imágenes. |
Flux.1 NF4 | 6 à 12 GB | Modelo cuantificado de 4 bits, ideal para rendimientos ligeros | NVIDIA GTX 1650, RTX 2060 | GPU de nivel básico, generación rápida. |
→ Encuentra enlaces a todas estas versiones en nuestra página de descargas de Flux.