Resultado
Cola
Galería
FAQ
Completá el prompt y presioná Generar
El resultado aparece acá cuando el job termina
Generando imagen...
Cola de generación
No hay jobs todavía.
Imágenes generadas
Cargando...
FAQ — Guía de uso
¿Qué es Stable Diffusion 1.5 y cómo funciona? +
SD 1.5 es un modelo de generación de imágenes por IA que trabaja con difusión inversa: parte de ruido aleatorio y lo va refinando paso a paso guiado por tu prompt de texto, hasta construir una imagen coherente.
El texto pasa por un encoder CLIP que lo convierte en vectores. Un modelo UNet aplica esos vectores durante el proceso de denoising. Por eso los tokens al inicio del prompt tienen más peso que los del final.
Todo ocurre en un espacio comprimido (latente), lo que hace al modelo eficiente en VRAM.
El texto pasa por un encoder CLIP que lo convierte en vectores. Un modelo UNet aplica esos vectores durante el proceso de denoising. Por eso los tokens al inicio del prompt tienen más peso que los del final.
Todo ocurre en un espacio comprimido (latente), lo que hace al modelo eficiente en VRAM.
Los modelos disponibles en tu instalación +
v1-5-pruned-emaonly — Base oficial SD 1.5. El más liviano y compatible. Ideal para probar prompts y como fallback universal.
DreamShaper 8 — Uno de los mejores modelos SD 1.5 de la comunidad. Excelente balance entre fotorrealismo e ilustración. Muy recomendado para ads y landing heroes. CFG: 7.5, Steps: 25.
DreamShaper Pixel Art v1.0 — Variante fine-tuneada específicamente para pixel art. Genera sprites, tiles e ilustraciones retro con alta coherencia. Combinarlo con el preset
Realistic Vision v5.1 HyperVAE — Especializado en fotorrealismo. Excelente para mockups con fondo real y fotografía de comida ultra-realista. HyperVAE mejora colores y contraste. CFG: 7, Steps: 20.
DreamShaper 8 — Uno de los mejores modelos SD 1.5 de la comunidad. Excelente balance entre fotorrealismo e ilustración. Muy recomendado para ads y landing heroes. CFG: 7.5, Steps: 25.
DreamShaper Pixel Art v1.0 — Variante fine-tuneada específicamente para pixel art. Genera sprites, tiles e ilustraciones retro con alta coherencia. Combinarlo con el preset
pixel_art_future. CFG: 8, Steps: 25.Realistic Vision v5.1 HyperVAE — Especializado en fotorrealismo. Excelente para mockups con fondo real y fotografía de comida ultra-realista. HyperVAE mejora colores y contraste. CFG: 7, Steps: 20.
¿Cómo escribir buenos prompts? +
Estructura recomendada:
Ejemplo:
Palabras que mejoran calidad:
Los presets ya agregan el contexto visual base — no hace falta repetirlo. Tu prompt va a sumarse al estilo del preset automáticamente.
[sujeto], [estilo/mood], [iluminación], [ángulo/cámara], [calidad]Ejemplo:
hamburguesa gourmet con cheddar, fotografía comercial, iluminación de estudio cálida, primer plano, sharp focus, 8kPalabras que mejoran calidad:
high quality, sharp focus, detailed, professional photography, studio lighting, commercial photography, 8kLos presets ya agregan el contexto visual base — no hace falta repetirlo. Tu prompt va a sumarse al estilo del preset automáticamente.
¿Qué es CFG Scale? +
CFG controla qué tanto el modelo sigue tu prompt vs su creatividad propia.
· 1–4: Muy creativo, se aleja del prompt. Resultados abstractos.
· 7–7.5: Balance ideal. Sigue el prompt con libertad artística.
· 10–12: Muy literal. Puede saturar colores y distorsionar.
· 15: Extremo. Generalmente peores resultados.
Para tu GPU AMD: quedá en 7.0–7.5
· 1–4: Muy creativo, se aleja del prompt. Resultados abstractos.
· 7–7.5: Balance ideal. Sigue el prompt con libertad artística.
· 10–12: Muy literal. Puede saturar colores y distorsionar.
· 15: Extremo. Generalmente peores resultados.
Para tu GPU AMD: quedá en 7.0–7.5
¿Cuántos steps usar? +
· 10–15: Rápido, para explorar prompts. Calidad básica.
· 20–25: El punto dulce. Buena calidad en tiempo razonable.
· 30–50: Mejora marginal, tarda el doble. Raramente vale la pena.
Con AMD/DirectML cada step tarda más que con NVIDIA. Steps 20 es el default recomendado.
· 20–25: El punto dulce. Buena calidad en tiempo razonable.
· 30–50: Mejora marginal, tarda el doble. Raramente vale la pena.
Con AMD/DirectML cada step tarda más que con NVIDIA. Steps 20 es el default recomendado.
¿Qué hacen los presets? +
Cada preset inyecta contexto visual automáticamente antes de tu prompt. Incluye:
· Estilo base: ej. "professional food photography, studio lighting"
· Negative prompt: restricciones visuales específicas para ese uso
· Parámetros: steps, CFG, resolución optimizados para ese tipo
· Enriquecimiento: reglas adicionales ej. food_ad agrega "close-up shot, warm lighting, shallow depth of field"
Podés sobreescribir cualquier parámetro desde la pestaña Avanzado.
· Estilo base: ej. "professional food photography, studio lighting"
· Negative prompt: restricciones visuales específicas para ese uso
· Parámetros: steps, CFG, resolución optimizados para ese tipo
· Enriquecimiento: reglas adicionales ej. food_ad agrega "close-up shot, warm lighting, shallow depth of field"
Podés sobreescribir cualquier parámetro desde la pestaña Avanzado.
¿Qué son los negative prompts y cómo usarlos? +
Los negative prompts le dicen al modelo qué evitar en la imagen.
Los presets ya tienen negative prompts base. Podés agregar más:
· Usando las chips de "Agregar colección" en el panel izquierdo
· Escribiendo manualmente en el campo "Negative prompt adicional"
Combinar varias colecciones es válido — se suman todos. Cuidado de no agregar demasiado o el modelo puede ignorarlos.
Los presets ya tienen negative prompts base. Podés agregar más:
· Usando las chips de "Agregar colección" en el panel izquierdo
· Escribiendo manualmente en el campo "Negative prompt adicional"
Combinar varias colecciones es válido — se suman todos. Cuidado de no agregar demasiado o el modelo puede ignorarlos.
¿Cómo funciona la cola? +
La GPU solo puede procesar una imagen a la vez. La cola garantiza que los pedidos se procesen en orden sin colapsar el sistema.
Al generar, tu request se agrega a la cola y recibís un
Podés ver todos los jobs en la pestaña Cola. Los jobs terminados se acumulan como historial. Usá "Limpiar terminados" para vaciarlos.
Al generar, tu request se agrega a la cola y recibís un
job_id inmediatamente. La UI hace polling automático y muestra el resultado cuando termina.Podés ver todos los jobs en la pestaña Cola. Los jobs terminados se acumulan como historial. Usá "Limpiar terminados" para vaciarlos.
¿Por qué tarda tanto la primera imagen? +
La primera generación carga el modelo en VRAM, compila los shaders DirectML y calienta la GPU. Puede tardar 60–120 segundos.
Las siguientes son más rápidas (40–70s) porque el modelo ya está en memoria.
Para pre-calentar sin generar: usá el botón Cargar en la pestaña Modelos. Envía un warmup de 1 step en 256×256 para forzar la carga.
Las siguientes son más rápidas (40–70s) porque el modelo ya está en memoria.
Para pre-calentar sin generar: usá el botón Cargar en la pestaña Modelos. Envía un warmup de 1 step en 256×256 para forzar la carga.
¿Cómo usar la API directamente? +
La API corre en
Docs interactivos: http://127.0.0.1:8000/docs
http://127.0.0.1:8000. Todos los endpoints de generación ahora devuelven un job_id.POST /generate/food-ad → {"job_id": "abc123", "status": "pending"}GET /queue/job/abc123 → estado + resultado cuando doneGET /queue/jobs → lista todos los jobsGET /models/local → modelos disponiblesPOST /models/load → cargar modelo en VRAMGET /neg-prompts → colecciones de negative promptsDocs interactivos: http://127.0.0.1:8000/docs