¿A favor o en contra? Desde la aparición de las famosas AI text-to-image estamos contemplando cómo legiones de fans y haters se posicionan en pro o en contra de estas nuevas tecnologías. Aunque más bien este debate surge cuestas estas han sido capaces de generar imágenes de muy alta calidad capaces de competir (al menos en parte) con la creatividad humana.
En mi caso tengo una postura muy clara. Por un lado hay un tema legal que sin duda hay que solucionar, y llegado el caso regular. Si estas IA están alimentándose de imágenes originales con copyright deberá buscarse la forma de remunerar de un modo u otro a estos creadores.
Por otro lado veo que parte de la comunidad creativa se ha posicionado frontalmente en contra por diversos motivos: o directamente las ridiculizan y creen que no tienen potencial real, o simplemente por el dilema moral ya que «están sustituyendo a un trabajador».

Pero desde mi punto de vista, creo que deberíamos verlas más como una herramienta que facilita y agiliza parte del trabajo, más que como una amenaza. Por ello quiero compartir cómo podemos usar estas AI para generar ilustraciones que nos servirán para crear animaciones, desde personajes, fondos y recursos o assets. ¡Un momento!¡Entonces estas IA van a hacer desaparecer el trabajo de ilustrador! Pues rotundamente no.
Cuando afrontamos un proyecto de motion graphics que queremos resolver con ilustraciones, muchas veces el presupuesto o el tiempo son muy limitados y se hace imposible diseñar e ilustrar el universo visual desde cero, o contar con un ilustrador o ilustradora que lo haga por nosotros. En estos casos es bastante común tener que usar imágenes / vectores de stock y personalizarlos en la medida de lo posible. No hay problema siempre que quede claro para todas las partes y el cliente entienda que no va a tener un producto ad-hoc al 100%. Exactamente al igual que pasa cuando usamos música de stock por ejemplo.
Pues es aquí donde podemos usar estas IA para conseguir imágenes mucho más personalizadas de las que conseguíamos recurriendo al banco de stock y quiero compartir un ejemplo de qué podemos conseguir utilizando las IA con las técnicas que ya conocemos.
¿Y si… ?
Y es que cuando descubrí Dalle2 me propuse crear un plano animado con algún personaje y me vino a la mente el estilo de Olof Storm y de la mítica Mi Vecino Totoro. Salvando las distancias y asumiendo que no llegaría a conseguir nada ni parecido, me propuse crear un plano en el que veamos un personaje aislado frente a un gran paisaje cercano a ese estilo.

Diseño de personajes.
Con Dall.e-2 vimos la potencialidad de esta tecnología para el diseño de personajes. Aunque era asombroso, aún así nos daba resultados muy toscos, que no eran útiles o que requerirían de tal trabajo que no merecía la pena utilizarlo más que como inspiración.

Pero con midjourney se da un salto cualitativo muy importante, y empezamos a conseguir resultados como los siguientes.

Tras mucha prueba y error conseguí un moñeco que me convencía, y que tenía calidad y personalidad suficiente para empezar a trabajar sobre él.

Lo que más me convenció sin duda es la cara de nuestro moñeco, sin embargo en cuanto empiezas a prestar atención a los detalles vemos que fallan muchas cosas: la corbata voladora, la mochila-libro, los cordones extraños, el fondo amarillo con halftone, etc. Con esta ilustración de base me puse a trabajar en Photoshop para limpiar esos errores, y lo más importante, separar las partes para poder animar.

Una vez hecho esto la IA no nos ayuda más en el personaje. Para animarlo lo riggeo en After Effects con Duik. Sin entrar en muchos detalles sigo un proceso muy parecido al que propone @chachomotion en este vídeo de youtube. Con esto nuestro personaje está riggeado y salvando las muchas cosas mejorables, vemos que ya funciona y somos capaces de expresar distintas emociones.
Incluso con un poco de dolor de cabeza, podemos hacerle un walk-cycle y verle caminar.
Diseño de fondos.
Volvemos a la IA, porque de nuevo aquí es donde midjourney obtiene unos resultados brutales. Y es que es donde creo que más potencial tienen las IA, para generar fondos. Probamos distintos promts y conseguimos distintas imágenes. Todas muy potentes realmente.

Tras varias pruebas la imagen que más me convence es la siguiente, si bien es cierto no tardo en dar con algo que me convence para la idea que tengo en mente. Y es que midjourney no necesita de largos y detallados prompts para conseguir resultados muy buenos, de hecho el prompt es «Full shot, Illustration, field and mountains in background, horizontal composition –v4» realmente sencillo y sin mucha complicación

Salvo algunos artefactos la imagen en general es correcta y es útil. Sin embargo tenía en mente un formato mucho más alargado. Además si quiero hacer un movimiento de cámara necesitaré más información por los lados.
Antes de ir a photoshop para extender los laterales y echarle alguna que otra hora, recurro al outpainting de Dalle2. Y es donde actualmente creo que Dalle.2 es más útil como herramienta, absolutamente brutal.

Si os fijáis la pincelada, y algunos trazos varían en el detalle, pero realmente nos ha generado una imagen 100% útil que podemos afinar más adelante en photoshop.
Composición y assets.
Bien, pero mi idea era poner a nuestro moñeco caminando en primer plano con el pasiaje al fondo. Así que necesito componer un camino en primer plano, para lo que necesito más recursos. Este es otro de los aspectos donde creo que midjourney es más útil, en la creación de elementos que nos sirvan de assets u objetos para rellenar. O simplemente para conseguir texturas.
Aparte de un camino, quiero que haya unos arbustos en primer plano, hojas volando con el viento, una bandada de pájaros, y que al pisar el suelo se levante polvo.







La IA nos proporcionas los recursos, el resto es trabajo de limpieza, preparación del material y composición.
El resultado final.
Añadiendo el sonido y la música (que sí es original, y no es de banco) el resultado de este experimento es el siguiente
Conclusiones.
Como veis en casos como este las IA nos sirven como sustituto a la ilustración de stock. Incluso para generar fondos nos da una imagen prácticamente útil al 95%. Pero al menos de momento hace falta una mano y mente humana para hacer útil todo este material y retocarlo.
Habrá quien pueda decir que utilizar una IA para generar estas ilustraciones hace que se haya dejado de contratar a un ilustrador. Como ya dije anteriormente, para este tipo de proyectos en ningún caso hubiese sido posible contratar un ilustrador.
Lo que sí es cierto es que la IA es una amenaza directa para los bancos de stock de ilustraciones. Entonces ¿Están las IA acabando con el trabajo de los ilustradores que se dedican a vender sus creaciones en estas plataformas? Pues como dirían algunos caballeros, Ni, es decir sí y no.
Es cierto que supone una revolución en este sector, pero también es una herramienta revolucionaria para este tipo de perfiles, y es que las IA pueden ser una herramienta muy potente para ilustradores. Y no hablo de que de la noche a la mañana estos ilustradores pasen a usar las IA para hacer aiart de gatitos espaciales y las cuelguen en los bancos de stock para ser vendidas como AiArt, si no de que estos usen las IA para acelerar partes del proceso creativo, o incluso de producción.
En cualquier caso las IA text-to-image son una realidad, y son un recurso útil en el presente, así que más que una realidad que combatir creo que es una realidad que asumir y que aprender a utilizar a nuestro favor. Es posible que revolucione e incluso haga desaparecer ciertos eslabones de la cadena, pero pienso que esto no es el fin del ilustrador, así como la fotografía digital no mató a la fotografía, ni internet a la prensa escrita, ni el autotune la música.