Colabora

NVIDIA y Black Forest Labs dan una vuelta a la edición de imágenes con FLUX Kontext

La nueva IA para generación y edición llega optimizada para RTX y promete una experiencia más sencilla para creadores y desarrolladores

Nvidia

A estas alturas no supone ninguna sorpresa que las herramientas de inteligencia artificial no dejen de crecer y NVIDIA tiene algo que ver en todo esto, ahora aliada con Black Forest Labs, para presentar FLUX.1 Kontext [dev]. ¿En qué consiste? Básicamente, han desarrollado un sistema que une la generación y edición de imágenes en una sola herramienta sin complicaciones y con soporte total para tarjetas gráficas RTX gracias a TensorRT.

Edición y generación, todo en uno y en tiempo real

Hasta ahora, editar imágenes con IA solía ser un proceso engorroso, con mil modelos y configuraciones de por medio. Aquí la cosa cambia, ya que el FLUX.1 Kontext [dev] permite hacer ediciones paso a paso, solo usando lenguaje natural o imágenes de referencia, y todo sin tener que pelearse con menús complejos. ¿Quieres retocar detalles, transferir estilos o mantener la coherencia de un personaje en diferentes escenas? Lo tienes y, además, todo a la velocidad de la luz, con edición interactiva en tiempo real gracias a TensorRT.

Más fácil para todos los públicos

Sus creadores defienden que el modelo está tan optimizado que no hace falta ser un ingeniero para ser eficiente con él. Está disponible con pesos abiertos en Hugging Face, y ya puedes usarlo en ComfyUI o probar el playground online. El consumo de VRAM es mucho menor y la inferencia es hasta el doble de rápida que antes en RTX. ¿Quieres montar algo serio? En agosto llega la versión como microservicio NVIDIA NIM y habrá código de ejemplo por si quieres integrar TensorRT en tus propios proyectos.
DemoDiffusion será el repositorio de referencia.

Funciones de FLUX.1 Kontext [dev]

Coherencia de personajes: Mantiene los rasgos clave entre escenas diferentes.
Edición localizada: Cambia elementos concretos de la imagen sin tocar el resto.
Transferencia de estilo: Lleva el aspecto de una foto de referencia a una imagen nueva.
Tiempo real: Baja latencia, feedback inmediato y mucha agilidad en el proceso creativo.

Más soporte y hackathons a la vista

La empresa también confirma que, a partir de ahora, ofrecerá soporte para el modelo multimodal Gemma 3n de Google en RTX y Jetson. Además, sigue activo el Hackathon Project G-Assist Plug-In (inscripciones abiertas hasta el 16 de julio) y el miércoles 9 de julio a las 19:00h (hora española) celebran un webinar para explicar todas las posibilidades del plug-in, con preguntas y respuestas en directo. Si estás interesado no dejes de marcar la fecha en el calendario.

Temas

Ver los comentarios Ocultar los comentarios

Portada

Suscríbete a nuestro boletín diario