logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Hoy vamos a estar hablando de este trabajo de aquí, que es bastante interesante.
Esto es un trabajo que Google ha sacado hace un mes y medio, tampoco es tan nuevo, y se
llama Prompt to Prompt.
Voy a poner la cámara pequeñita para que no se tape aquí tanto.
Se llama Prompt to Prompt, el trabajo, y básicamente lo que nos permite hacer es lo siguiente
de aquí.
Es súper súper súper interesante.
Y con Stable Diffusion ya sabéis que cuando generamos una imagen, pensemos que no, que
queremos hacer por ejemplo un boulevard donde hay gente caminando por la calle.
Y de repente la imagen que ha salido te gusta, en general está bastante bien, pero de repente
te das cuenta de que, oye, hay demasiada gente, que tú querías menos.
Aquí si quisieras intentar modificarlo, pues tendrías unas pocas opciones.
La primera es intentar modificar el prompt, el input, hacer este prompt engineer, para
que de alguna forma le podamos decir, oye, quiero menos gente.
Pero lo que va a pasar, lo que va a pasar y que seguramente todos habéis experimentado
ya porque sois unos viciosos al Stable Diffusion, es que os va a cambiar todo, ¿vale?
Te va a generar otra imagen, otro boulevard diferente con menos gente, sí y tal.
Puede que tengas suerte, que te genere una imagen que te gusta, pero la mayor parte de
veces cambia todo y pierdes lo que tenías originalmente.
Podrías coger y decir, bueno, vamos a hacer entonces in Paintings, vamos a coger la herramienta
de el pincel, de poder enmascarar una parte de la imagen, y con eso pues vamos a pedirle
ahora que nos complete ahí y nos quita la gente.
Eso podría ser una opción, pero no siempre sale bien.
Luego la herramienta de in Paintings depende de con qué servicio la estés utilizando,
con qué modelo, pues por ejemplo con Dali 2 funciona muy bien, con Stable Diffusion
no funciona tan bien, excepto porque ayer la gente del RunwayML sacaron su, hicieron
open source, bravo, bravo a la comunidad, hicieron open source a su modelo de in Paintings y
ahora sí hay para Stable Diffusion un modelo de in Paintings que funciona mejor, ya hablaremos
de ello en un futuro directo.
Pero bueno, esas son como las opciones más o menos que podemos contar hasta ahora.
Lo que propone este paper, lo que propone este paper es básicamente que tú puedas
coger y decirle, oye, que no, que quiero esta foto con menos gente en el boolevar,
y entonces te lo genera.
Te respeta la estructura general de la imagen, pero te hace caso a la modificación del prompt
que quieres hacer, aquí un poco es como, oye, el boolevar, pues lo de Crowded, me lo quitas.
O por ejemplo, el conejito, el conejito lo quieres más fluffy, más blandito, pues
lo genera.
Tienes una imagen que has generado de a Cake with Decoration y le puedes insertar por ejemplo
el token Jelly Beans para que lo que metemos aquí, vale, pues ahora sean Jelly Beans.
Porque el resto de la imagen, hasta los churretes de chocolate se siguen manteniendo.
La foto de un gato en bicicleta, pues quiero cambiar bicicleta por un coche, te lo genera.
O incluso podemos modificar aspectos de la imagen, bueno, aquí vemos como podemos añadir
un arco iris o como podemos cambiar directamente todo el estilo, y esto es bastante chulo,
o sea, el poder coger esta imagen y decir, oye, ¿cómo lo hubiera pintado un niño de
cinco años?
Pues te saca esto.
Es bastante loco, quiero que pensemos dónde estábamos hace un año, hace dos años, hace
tres años y ahora ya estamos hablando de herramientas de este tipo que parecen pura
magia y que ahora mismo este directo voy a enseñar cómo lo podemos utilizar y cómo
trabajar con esto y va a ser, no es muy complicado, no es tan complicado como otras cosas, pero
no es intuitivo, no es para el público medio, pero es que pensad que por exagerar un poco,
en seis meses esto ya estará integrado en una interfaz de usuario donde la gente trabajará
con estas herramientas, es bastante chulo, entonces el trabajo este se llama Prompto
Prom.
Lo que sucede con este trabajo es que Google sacó el paper en verano, en agosto, y como
muchas de las cosas que está sacando Google, este trabajo está basado en, no en Stable
Diffusion, no en Dalido, sino en su sistema imagen, que es el que mejor funciona, el sistema
imagen no está liberado, no tenemos acceso hasta el momento, a menos que venga Google
ahora y me corrija, pero no, todavía no lo han sacado, que yo creo que imagen cuando
lo saquen será algún servicio, pero será el modelo generador más potente, creo que
de todos los que tenemos ahora mismo es el que más consistencia, más imágenes reales
te puede generar, entonces estos resultados que estamos viendo aquí están generados
sobre ese sistema, sobre imagen, y bueno, pues ya sabéis cómo va las cosas, cuando
Google saca un paper a las pocas semanas, a los pocos días realmente, ya la comunidad
después dice, vale, tú has sacado este paper, nos has contado cómo se hace, vamos a intentar
generar nosotros una implementación de ese paper, pero en Stable Diffusion, la buena
noticia es que aquí al menos Google ha sacado el código, y ha sacado el código, ellos ya
han entrenado sobre Stable Diffusion, con lo cual pues lo podemos utilizar, idealmente
pues lo que molaría sería que sacaran el modelo junto a la integración de imagen,
o sea, un par de resultados más para que veáis a qué estamos enfrentándonos hoy,
un gato con un sombrero cilíndrico, un gato con un sombrero de policía, ojo, se filtra
un poco aquí la información del fondo, un gato con un sombrero de paja, fijaos cómo
la inteligencia artificial ya sabe focalizarse y atacar directamente al punto de la imagen,
la parte de la imagen donde tiene que modificar y el resto lo está dejando más o menos igual,
bueno no, lo está dejando completamente igual, de hecho, vale, es bastante bastante impresionante,
vamos a cambiar al animal, en este caso, vamos a poner el sombrero de paja y vamos a poner
un león, te lo cambia, una jirafa, te lo cambia, ostia, está bien hecha, o sea, un
poco rara la forma, pero está bien hecha, la cara de estar ahí disfrutando el verano,
un koala, aquí se ha cambiado bastante el fondo, por algún motivo aquí no ha conseguido
separar bien los conceptos y ahora veremos a qué me refiero, por cómo funciona, una
tortuga con el sombrero de paja, una tortuga con un sombrero de pirata, bueno, pues ya
veis, es bastante impresionante cómo podemos hacer modificaciones ahora sobre las imágenes
que hemos generado, esto es así, así van las cosas, de una semana para otra las cosas
cambian, cambian bastante rápido, mira, este también está bastante guay, cómo podemos
acentuar dentro del prompt ciertos aspectos, pues en este caso la fluffliness del peluche,
el cuán peluchón es el peluche, pues lo podemos aquí modificar con el slider y vemos
que según lo vamos moviendo, va convirtiéndose a un peluche más y más, más y más peluchón,
vale, bastante impresionante, claro, imagina de esto, pues coger fotos que tú has generado
y decirle, no, quiero un estilo un poco más cyberpunk y que te mantenga la imagen, pero
tú puedas graduar cuánto te lo haces, esto es magia básicamente, cómo funciona, vamos
a hacer una explicación muy por encima, muy de alto nivel, pero para que entendáis qué
estamos haciendo exactamente aquí y cómo funciona esto, y la verdad que bastante intuitivo
y mola porque si lo conectáis con algún vídeo que hemos visto en el canal, como es
el de los mecanismos de atención que tienen los transformers y todos estos modelos tan
nuevos, si vais a este vídeo, el de attention is all you need, este vídeo es muy chulo
para entender el funcionamiento, para entender el funcionamiento de los transformers y sobre
todo el mecanismo de atención que los hace funcionar, recordemos que los transformers
aparecen de un paper que se llama attention is all you need, pues aquí básicamente en
este vídeo te vengo a explicar un poco la historia de eso, y lo que creo que nos quedemos
es con esta gráfica de aquí, con esta visualización, donde quiero que recordéis como lo que hacen
los transformers en parte, una vez están entrenados, es que cuando tú le metes la
información consiguen aprender a focalizar la atención, consiguen aprender a cómo relacionar
pues cada pieza, cada trocito del input con otras partes de ese input, pues por ejemplo
tú le puedes poner una frase, Carlos aquí está en directo explicando cómo funcionan
los transformers, pues a lo mejor el concepto Carlos con la palabra está pues tiene mucha
relación porque es sujeto y el verbo, entonces con esto los mecanismos de atención lo que
generan son una forma de saber dónde está prestando atención la propia red neuronal
para ciertos aspectos de los datos que le suministramos de entrada, y sobre esto, sobre
esta idea del mecanismo de atención es con lo que están trabajando aquí en Google,
porque por lo que decíamos antes, nosotros si por ejemplo queremos modificar en una imagen,
la imagen que tenemos aquí del oso, quiero modificar el oso por un pangolin, pues en
este caso la red neuronal debería de saber que para el prompt hay un oso que está en
el bosque y para el prompt hay un pangolin que está en el bosque, la palabra oso y la
palabra pangolin son las que se sustituyen y debería de focalizarse al elemento oso
para modificarlo y que no modifique nada más, yo no quiero que modifique el fondo de la
atención si le estoy pidiendo que me cambie al oso por el pangolin, entonces básicamente
se están basando en estos mapas de atención que genera el transformer cuando tú le metes
el input, un oso está en el bosque, pues se va a focalizar en la parte del oso para
entender cuáles son los pixeles que tiene que modificar y se va a fijar en el resto
de mapa de atención también para decir esto de aquí no lo tocamos, esto de aquí lo vamos
a intentar mantener, entonces juegan con estos mecanismos de atención y lo utilizan en el
proceso de codificación cuando el modelo de difusión está generando la imagen resultante
pues con esto es con lo que consiguen enmascarar por así decir, lo hacen como esta especie
de segmentación automática de lo que hacemos en el inpainting cuando vamos con el pincel
pues en este caso en vez de ir con el pincel a mano están utilizando la información de
los mapas de atención para hacer esta transformación, me parece súper interesante, me parece bastante
chulo y me parece que funciona muy muy bien, vale, muy muy bien, entonces dicho esto vamos
a ver un poco algunos resultados, bueno aquí tenéis más explicaciones de cómo funciona,
aquí están los mapas de atención de cuando tú le metes el input y le metes la imagen
y cuando lo codifica pues busca la relación entre cada palabra del input y la imagen,
esto lo vamos a ver ahora que es bastante chulo de hecho, pero quiero que veáis otros resultados
que tenemos por aquí que son una pasada, tienes una imagen como esta y le dices oye
quiero que sea una cesta de galletas, fijaos que no es perfecto, se mantiene la estructura
general de la imagen pero es cierto que si notamos cuenta el sexto, el sexto aquí cambia
pero mola mucho ver como por ejemplo la manzana la convierte en dos galletitas aprovecha ese
espacio que también habrá prestado atención a esta zona de aquí pues lo modifica para
poner galletas, aquí por ejemplo pues vemos otras transformaciones espectacular por ejemplo
el de los gatitos, vale no sé si lo estáis viendo por aquí el de los gatitos, voy a
ampliar un poco para que lo veáis bien, es una es una pasada, vale este de aquí, luego
tenemos aquí otro ejemplo pues la mariposa apoyada en diferentes elementos, apoyadas
en una flor, en un trozo de pan, etcétera, algunos más complejos donde por ejemplo cambia
a la mariposa por un caracol y claro todo el espacio que ocupa la mariposa pues ahora
lo tiene que convertir en un caracol, ostias que están muy guapos o sea mira el del dron
no lo había visto y es bastante impresionante, bastante bastante impresionante y bueno puedes
cambiar estilos de elementos pues por ejemplo la gafas del peluche les podemos poner coloreadas
con diferentes estilos o directamente coger una imagen y decir una imagen de un coche
pues vamos a poner el coche en la ciudad de manhattan o en otoño o al amanecer por la
noche nevado es que mirad que guapa esta como se atreve la inteligencia artificial o sea
si está en la original como se atreve a decir ah si si quieres nieve toma nieve cuando vengas
por la mañana tienes que ir con la pala a quitarle la nieve del parabrisa bastante impresionante
que modifique también el propio vehículo y que entienda que por ejemplo la nieve pues
tiene que estar cubierta por aquí o sea perdón por el parabrisa y por ejemplo por el radiador
aquí delante no no sé yo ya yo ya voy en piloto automático por la vida yo ya dejo
que la inteligencia artificial me diga mira ahora se puede hacer esto pues se puede hacer
esto oye que puedes coger un peluche y hacer que sonría más que sonría el peluche vale
es impresionante y lo impresionante es que además lo podemos utilizar bueno también
podemos modificar estilos que esto también está bastante chulo podemos coger aquí una
imagen como esta mola porque no es ni siquiera una imagen que hayas cogido una fotografía
y le estás aplicando distintos estilos sino que al revés coges un boceto en este caso
no un sketch de un dibujo y lo conviertes a una foto una dramática foto en la jungla
en el desierto vale en marte bueno pues esto este es el futuro si esto lo conectamos con
el vídeo que os enseñe esta semana vale si esto lo conectamos con el vídeo de que
os enseñe este domingo que es un vídeo que os está molando bastante pues la pregunta
es cuánto tardaremos en ver a un sistema como como imagen vídeo que incorpore también
estas modificaciones que yo voy a coger aquí decir no mira ahora los de peluche en vez
de un oso de peluche quiero que sea un rinoceronte corriendo por la calle de san francisco o
de nueva york entonces te va a poner en esta misma escena porque te ha gustado la toma
y todo y te lo va a poder modificar es bastante impresionante es bastante impresionante ojo
cuidado quiero que lo entendáis bien en este caso este paper lo que está haciendo es
modificar imágenes que han sido generadas con el modelo de difusión es decir no estamos
cogiendo una imagen real y la estamos modificando sino que está transformando una imagen que
ya está generada por la inteligencia artificial esto es importante porque a lo mejor a vosotros
estaréis pensando pues puedo subir una foto histórica o la foto me lo decís mucho no
la la foto de que podría ser una prueba en un juicio y aquí hago el pd teclado me pongo
a cambiar cosas y queda perfecto no eso no es lo que hace este modelo pero google esta
semana ha sacado otro que sí lo hace este es prompt to prompt vale el que estamos viendo
aquí esta misma semana google ha sacado otro juguete más este no se puede bueno si
se puede utilizar ahora comento por qué y es también bastante impresionante este sí
te permite modificar imágenes reales este sí te permite modificar imágenes reales
con este tú puedes coger por ejemplo la imagen del pajarico y decirle ábreme las alas o
ey soy un fan de dot csv like vale entonces le da el botón de like o esta de aquí que
esta sí me parece bastante bastante impresionante coger al a los animalitos y decir oye que
la cabra esté saltando sobre el gato y es la misma cabra porque nos podemos fijar que
tiene casi casi los mismos elementos y la coloca perfectamente saltando encima de la
persona vale bueno básicamente este sí te permite editar imágenes reales no puedes
coger aquí al perro y decirle si y que se siente este modelo como digo está está
salido esta semana google no ha liberado nada no ha liberado solo está el paper pero
no ha liberado ni código y no ha liberado tampoco el mucho menos el acceso a imagen
no que ha pasado bueno pues que si lo sacó esta semana ya la comunidad ha implementado
si google no nos lo da pues ya lo hace la comunidad ya han implementado una versión
sobre stable diffusion y yo he estado probando la porque quería traerla para el directo
pero he de decir que los resultados por ahora no me están saliendo muy allá esto que estoy
viendo aquí aunque se puede parecer a la típica interfaz de de stable diffusion este
es la interfaz una vez ya entrenado al modelo para que por ejemplo sobre esta imagen me
hiciera modificaciones de momento no me parece el todo intuitivo los resultados son impresionantes
en el ejemplo de google pero en mi caso no he conseguido ni resultados buenos ni rápidos
pero recordemos que esta es una implementación de la comunidad puede tener fallos puede tener
bugs y también estamos intentando que esto quepa en hardware pues como el que tenemos
no en mi caso no pero hardware que a lo mejor 24 gb de vram o cosas así con lo cual hay
muchas optimizaciones que pueden hacer que el rendimiento se pierda yo aquí estaba intentando
la estatua la libertad que estuviera con pantalones pero no ha salido entonces bueno
eso lo dejamos el paper de google lo dejamos pendiente para otro directo para cuando funcione
bien o google note la buena noticia de que lo ha liberado y magic se llama por cierto
que mola bastante y nosotros hoy vamos a proceder a jugar con el paper que sí tenemos disponible
que es el de prompt prompt que es este de aquí vale entonces vamos a trabajar con prompt
prompt y la buena noticia es que aquí google como digo nos ha dado todas las herramientas
que necesitamos si vais a la página del proyecto al project page pues vais a encontrar un botón
de código que lleva al github y en el github tenemos todo lo que necesitamos en el github
básicamente pues está un poco la explicación del repositorio y también aquí tenéis pues
dos notebooks que podemos utilizar un notebook que está destinado a otro modelo diferente
y el notebook que nos sirve para trabajar con este bol diffusion yo os he puesto abajo
en la cajita de descripción un enlace al google colap que básicamente este mismo notebook
pero le he hecho un par de cambios por comodidad para ahora trabajar en el directo y podéis
acceder a él y vais a generar la imagen que habéis visto en la portada es decir no es
que sea una imagen que he generado con photoshop ni nada esa imagen viene del propio del propio
colap vale está de aquí entonces cogéis el enlace que está abajo os metéis en google
colap ya sabéis que google colap es gratuito es google dándote hardware gratuito para
poder ejecutar todo esto las cosas están cambiando últimamente google se está volviendo
un poco se está dando cuenta de que les estamos fundiendo las gpus todos a base de de generar
imágenes pero bueno tenéis el acceso a este notebook y con esto pues ya podéis empezar
vosotros a probarlo por vuestra cuenta da igual el hardware que tengáis en vuestro
ordenador esto es el hardware que google regala así que gracias google por tanto conocimiento
y tantas cosas bonitas que nos está dando entonces vamos a echar un vistazo a ver qué
tenemos por aquí a ver de momento que tal vamos estáis bien estáis cómodos lo estáis
pasando bien a ver dejadme que os lea un poquito
vale vale vale bueno creo si si no estáis quejando es que ya está es que está todo
bien bueno en el notebook lo que vais a encontrar es básicamente esto vale es casi casi igual
al que tenéis en el github de ellos ya sabéis que en google colab lo que tenéis que ir
haciendo es ir ejecutando cada una de las celdas cada una de las celdas de código y
aquí ya en este primer punto esta celda recordemos que una de las cosas que va a hacer es pediros
que entréis a haginface que recordemos es la página web donde está alojado el modelo
de stable diffusion y sobre el que han implementado este paper con lo cual hace falta que entréis
a la página web de haginface vamos a entrar vale entramos aquí en vuestra en la página
de haginface tenéis que haceros una cuenta tenéis que registraros y una vez os registreis
tenéis que ir a vuestros settings pues venís para settings y en settings le dais a access
token access token o generáis un nuevo token si no lo tenéis y una vez lo tengamos copiamos
con el token copiado nos venimos para acá lo pegamos y le damos vale entonces ya con
esto estamos logueado y ya hemos conectado al google colab con haginface continuamos
en esta celda de aquí tenemos un poco los parámetros de lo que vamos a utilizar yo
en este caso como vamos a estar generando imágenes con google colab yo lo que os recomendaría
es que bajéis el número de steps vale el número de steps recordemos que son los pasos
que va dando el modelo de difusión para ir generando la imagen entonces os recomiendo
que lo bajéis a 25 para hacer pruebas y cuando tengáis una imagen que os gusta venís
para acá lo subís a 50 y lo ejecutáis vale entonces así trabajamos un poco más rápido
un poco la misma filosofía de cuando entrenamos redes neuronales y estás ajustando hiperparámetros
que hacéis pocos steps con pocos datos pues lo mismo vamos a ir un poco un poco más eficiente
entonces vamos a darle aquí a ejecutar vale a ver si no si está todo bien tengo miedo
el efecto demo de que en directo pues todo empiece a fallar pero bueno no debería miras
somos 1100 personas madre mía maravilloso vale de momento está todo correcto dejamos
que se ejecute esto como digo lo podéis ir probando vosotros en paralelo mientras yo
lo estoy lo estoy haciendo y os lo voy a pasar bastante bien google colap es una página
web de google donde lo que nos están dando es una máquina virtual creo que va a petar
porque a lo mejor le dado dos veces google colap es básicamente una página web donde
te dan una máquina virtual hardware de google que tú puedes utilizar gratis vale entonces
simplemente tienes que registrarte con tu cuenta de google y accedes abajo en la cajita
de descripción tenéis el enlace a este google colap se va a abrir tal cual lo único que
tenéis que hacer es clicar los botones donde estoy clicando entonces cuando hemos hecho
esto vamos dándole a todas las celdas esto me lo salto que es toda la parte del código
si le queréis echar un vistazo a cómo han implementado el paper pues tenéis el código
delante o sea es que más accesible todo esto no puede ser pero esto no lo vamos a saltar
de momento y vamos a irnos directamente al primer ejemplo de aquí vale entonces el primer
ejemplo de aquí yo le he puesto el input esto es como si estuviera trabajando con stable
diffusion pues yo lo que hice fue irme a lexica que ya sabemos que es la página web lexica
que ya sabéis que es esta página donde podéis consultar prompts de imágenes vale entonces
yo lo que hice fue buscar la palabra dog perrito y me busqué una imagen que más o menos me
gustara de hecho creo que fue por aquí entonces por aquí te puedes copiar el input te copias
el prompt y te lo llevas a tu herramienta donde quieras usar stable diffusion con lo
cual te vas a poder generar imágenes porque me intenta traducir al perro va a generar
imágenes de este estilo entonces eso es lo que yo he hecho porque estaba buscando una
imagen de un perrete y he cogido el input y lo he colocado aquí entonces este notebook
lo que tiene son varios ejemplos del mecanismo que ellos han implementado está bastante
bien estructurado entonces vamos a ir viendo poco a poco lo que hay y os voy a ir explicando
un poco y vamos a aprovechar para hacer algún experimentillo que también puede estar guay
entonces en este caso cuando yo le doy aquí al input como está fijada la sida aleatoria
va a generar siempre la misma imagen si queréis generar otra podéis quitar esto de aquí
vale podéis borrar esto o directamente podéis cambiar el numerito vosotros a mano entonces
cuando esto está listo termina termina termina termina y genera la imagen del perro no es
exactamente igual que la que teníamos antes que la que se ve por ejemplo aquí abajo pero
porque le he bajado el número de steps si queréis más ya sabéis lo que tenéis que
hacer tenéis que subir arriba el número de steps pero de momento nos sirve y en esta
primera prueba que hacemos aquí esta primera celda es un poco para que veas para que podamos
visualizar los mapas de atención que hemos mencionado anteriormente y está bastante
chulo porque fijaos como para cada toquen de la frase de entrada fijaos que la frase
entrada es retrato foto retrato de un de un bigel e intricate artwork halo octane render
cinematic hyper realicen bla bla bla bla todos los modificadores que le ponemos de palabras
para enseñar lo que sería el mapa de atención a donde presta atención la red neuronal cuando
está en la parte de la imagen cuando está en cada una de estas palabras por ejemplo
donde prestará más atención sobre la imagen que tenemos cuando hablamos de la palabra
bigel que es la raza del perro pues evidentemente al perro ok está guapísimo está guapísimo
por ejemplo cuando decimos portrait pues un poco la composición general render no a
ver si hay alguno más claro fijaos como hay un montón de palabras que en realidad no
aportan nada a todo esto sabemos que el 8 este aquí suelto que pretende ser 8k pues
parece que no está aportando mucho bueno la casi por algún motivo en foc vale por
ejemplo camera lens illuminating foc camera lens que ilumina la niebla pues cuando hablamos
de niebla en vez de estar mirando al perro está mirando al fondo porque el fondo es
el que tiene que añadir la niebla profundidad pues también está mirando a lo que sería
el fondo es impresionante es impresionante que que la red neuronal aprende a todo esto
a partir de ver imágenes y ver sus descripciones entonces estos mapas de atención son los
que va a utilizar la red neuronal para decir a que me quieres cambiar al perro por un pangolin
pues entonces vamos a utilizar la información de lo que está atendiendo en ese momento
y eso es lo que más o menos nos dice aquí tenemos diferentes formas de modificar las
imágenes una de ellas una de ellas es tenemos forma de hacer replacement que es reemplazar
elementos de una imagen podemos hacer ediciones locales para manipular cosas concretas de
una imagen vamos a ir viendo las poco a poco para ver si le damos un poco de sentido tampoco
he podido explorar mucho todo esto porque ya sólo con con instalarlo y tal pues ya
me ha llevado su tiempillo pero bueno yo aquí arriba lo que he hecho ha sido lo siguiente
prompt tenemos el mismo prompt vale he copiado el mismo prompt dos veces y he modificado
sólo aquella palabra que quiero que se modifique en este caso yo le he puesto portrait photo
of an overweight beagle y abajo le he puesto portrait photo of an overweight robot ok entonces
estos son dos inputs completamente diferentes esto te va a generar un retrato de un beagle
y esto de un robot con esto ahora si le damos a ejecutar vale si le damos a ejecutar se
ha chinado porque no le he dado aquí a ver vale bueno me ha salido una of memory porque
llevo ejecutando esta sesión bastantes veces entonces lo que vamos a hacer y de hecho lo
iba a proponer es me voy a pasar aquí al modo que odiáis que es el modo blanco vale
que básicamente el mismo notebook pero ejecutado en mi ordenador en local con lo cual pues
va a ir más rápido incluso entonces vamos a darle tal cual vale si lo voy a ejecutar
está ejecutando por unas cuantas steps no sé exactamente a cuántas las he fijado por
aquí a 30 vale lo he puesto a 30 steps entonces en este caso con 30 steps fijaos que el método
de prompt to prompt si no lo utilizamos nos va a generar esta imagen nos va a generar
esta imagen para el perro y esta imagen para el robot son imágenes correctas para cada
uno de los inputs que le hemos pedido pero no es exactamente lo que queríamos a ver
que sale por aquí error error error index 31 is out of bounds vale este error no lo
tenía voy a subir a 50 steps por si acaso porque esto lo tocado vamos a darle no quejéis
no quejéis del modo blanco madre mía si no quejicas vamos a ver vamos a darle de nuevo
vale ahora va a tardar un poquillo más porque son 50 steps vale esta primera imagen que
sale es como digo sin aplicar el método de prompt to prompt que google ha diseñado y
ahora vamos a ver qué sucede cuando le metemos esta focalización por los mapas de atención
que hemos comentado vamos a ver si sale ahora sí vamos a ver ahí está boom guapísimo
espectacular no sé qué robot os gusta más este está muy guapo este está muy guapo
este perro robot mola un montón dios qué pasada vale aquí hemos hecho un reemplazo
hemos cogido al perro y lo hemos cambiado a vosotros va a salir las mismas imágenes
porque el notebook os lo he puesto para que os salga las mismas imágenes si queréis
variar por ejemplo podemos probar a ponerle otra así vamos a ponerle por ejemplo a ver
qué pasa si le pongo aquí la 887 vamos a ver usar in painting para poner el modo el
modo oscuro vale esta imagen del perro es un poco rara vamos a ver que los mapas de
atención son correctos va a ampliarlo vamos a probar ahora a ver qué sale aquí por
curiosidad más que nada vamos a darle ahí pinche cuantas patas tiene el perro robot
pues todas las que necesitan pero robot es un perro robot no le miran las patas al tres
patas al gato vale 70 pico 80 vale esta sería la del perro esta sería la del robot y vamos
a ver si sale o no sale a veces sale muy bien y a veces sale muy mal ya os digo pero es
cuestión de ir probando es como todo esto del stable diffusion es ir probando tenéis
todo esto para vosotros para jugar hombre a ver es un robot es un robot kind of más
o menos vale más o menos bueno voy a recuperar la sitio original para seguir viendo un poco
lo que hay y vamos a modificarlo por ejemplo a ver si conseguimos modificar al perro por
un pangolin quiero poner aquí a un pangolin entonces si yo pongo pangolin ahora estaríamos
cambiando la portrait del perro del beagle por la portrait de un pangolin imaginad por
ejemplo que queréis modificar más cosas que queréis poner portrait photos and overweight
pangolin in the jungle vale que el pangolin está en la jungla si le dais a ejecutar aquí
vais a ver que va a salir un error el error lo que dice es que los reemplazos en el en
las palabras de atención sólo se pueden aplicar a inputs que tengan la misma longitud
entonces no podéis coger una frase aquí arriba y cambiar una palabra por cinco palabras
diferentes tiene que ser la misma longitud a que si hace a que es así que si arriba
tenemos overweight beagle pues abajo vamos a poner overweight pangolin y nada más vamos
a poner esto así vamos a darla a ejecutar y a ver qué sale es bastante impresionante
todo este sistema es una locura personalmente a mí no sé yo ya no entiendo todo lo que
está pasando es que están pasando tantas cosas tan guapas que dios el pequeño pero
ojo está está la original no sé si va a salir bien a ver aquí esta no esta no es
la correcta esta es la que son dos imágenes que bonito el pangolin fijaos que el fondo
ha cambiado por completo arrodillados ante el dios pangolin claro en este caso fijaos
cómo hemos forzado tanto a que el sistema te meta al pangolin en la forma del perro
no en el la parte de atención del perro que ha salido el esto ha salido esto podemos ajustarlo
vale podemos modificar hay ciertas cosas que podemos modificar vamos a ver si podemos ajustarlo
un poco vamos a poner aquí pangolin y aquí ya no me hagáis mucho caso porque no es que
me haya aprendido bien todos estos parámetros sino que tengo un poco una intuición vamos
a poner aquí un por 8 y seguro que salga me invento lo que puede ser vale el perro lin
este es el perro lin no sé si lo conocíais es una nueva raza claro en este caso la imagen
que te interesa está de aquí pero esta está esta graciosa también y fijaos que el fondo
lo ha cambiado tampoco lo ha mantenido mucho vale con un 0 con 8 nos ha salido una imagen
bastante parecida a la otra voy a bajarlo ahora al 0 con 4 a ver si podemos ajustar
aquí la intensidad de cuánto va a afectar la palabra pangolina al input vamos a ver
vamos a ver
qué diferencia hay pues no mucha yo aquí en este caso lo sigo viendo más o menos igual
luego hay opciones de modificar local edits esto lo vais a entender mejor si os lo enseño
con el notebook original del proyecto de de de google vale os lo voy a enseñar raudo
si veloces si es que no lo abre no por favor aquí nos pone otro ejemplo con una ilustración
de una ardilla aquí lo que va a cambiar es la ardilla por la imagen de un león entonces
originalmente pues lo que hace de una ardilla comiéndose un hamburguesa a un león comiéndose
una hamburguesa cuando la adaptas a la forma sale más o menos esto que no es lo correcto
modificando aquí las las los tokens vale las palabras modificándola consigue un resultado
mejor vale más ajustado pero si vemos que las cosas siguen cambiando entonces local
edit lo que te permite es preservar ahora sí dejar que toda la imagen esté igual y
que lo único que cambia ahora sí sale parte del león fijaos arriba como la hamburguesa
en este caso cambia a otra cosa es como que algo se filtra a través de los otros mapas
de atención y algo se modifica y en este caso de aquí se deja todo bloqueado vamos
a probar eso aunque nuestro pangolin no sea el idóneo vamos a probar de nuevo en vez
de con un pangolin vamos a probar con otro animal vamos a poner por ejemplo un animal
que tenga cuatro patas vamos a poner un oso vamos a probar con un oso a ver qué tal sale
y lo vamos a ir modificando aquí en local edit le voy a decir que me cambie a este por
el oso vamos a probar a ver qué sale en local edit en este menú de aquí pues es
donde podremos modificar solamente ese elemento puede salir bien o puede salir mal en este
caso pues ha sudado por completo de nosotros vamos a probar vamos a darle de nuevo aquí
me haría falta echarle un buen vistazo a cada función a ver qué hace para entender
mejor qué hace cada uno de estos parámetros porque ahora mismo es un poco estoy probando
y no esta no me lo está cambiando self replace step
vamos a ver este de aquí abajo que fue el que conseguí que me cambiara que me cambiara
el perrete vamos a ver si aquí nos aparece de nuevo el oso tenéis diferentes celdas
que podéis ir probando para ver cada uno que que hace un tiburón si
vamos a ver ahí está vale aquí si nos saca el oso tal cual queremos
me encantaría saber exactamente qué hace este parámetro
es bastante bastante impresionante aquí hay un par de ejemplos más en la página esta
donde vemos que también cambia el alimento que come la ardilla cambia el estilo de la
ardilla podemos cambiar estilo de imágenes por ejemplo pues puedes poner a photo of a
house on a mountain o a photo of a house on a mountain at fall esto está dentro de el
menú de refinement edit un edit de refinamiento ahí lo que significa es que va a coger la
imagen general y va a cambiar el estilo de esa imagen entonces vamos a probar a ver si
lo podemos hacer en el notebook
vale está en la del oso perfecto vamos a ver en el de refinamiento estamos vale si
yo por ejemplo cojo aquí
la foto del perro vale esta misma foto del perro vamos a ejecutarlo en el de refinamiento
me voy a copiar el prompt a llevar los prompts para abajo para tenerlos más a mano
imaginar que me gusta mucho esta foto pero la quiero de día la quiero de día entonces
le voy a meter aquí lo mismo pero voy a cambiar las palabras vale vamos a mantener al bigel
intricate artwork octane render cinematic keep it realism octane dark
vale ya está simplemente vamos a pedir la misma imagen pero que nos refina que nos refina
en este caso para que sea de día a ver qué también lo hace
en esta si está modificando el fondo en la del oso porque creo que es la de refinamiento
a ver le he dado ejecutar o estoy esperando es esta que me ha hecho
si no no lo termino de ver tanto voy a ponerle a ver si esto cambia la intensidad o sea un
poco si lo cambia un poco si lo cambia o si no lo vamos a poner snowy lleno de nieve
vamos a ver
está viendo algún cambio o no diría que no diría en este caso que no
funciona no portrait foto vamos a ponerle snowy
igualmente puede ser que el input que estamos utilizando tiene bastantes palabras entonces
podríamos probar a quitarle y probar con otra foto diferente y a ver qué tal
no cambia lo cambia muy poco bueno si alguien lo consigue que ya sabéis que tenéis el
notebook para para probar pues ya me lo me lo indicáis de los ejemplos que nos enseñan
aquí vale por ejemplo con estos inputs así sale interesante
vamos a probar a modificarlo a ver nada cambia un poco la temperatura pero poco
más pero tata tata self replace cambia la temperatura pero poco más vale si ponemos
la foto de una casa en la montaña y la foto de una casa a fall vamos a ver si esto cambia
es por el foc puede ser por el foc sí pero si le pones snowy debería salir nevado ahí
sí que no hay no hay tu tía
vale mira aquí está este sí sale que guapo que guapo te puede generar una imagen y al
momento decirle oye no que que la quiero la quiero
la quiero en otoño o por ejemplo at winter very snowy
en este punto ya sí que cuando haces el refinement ya no está el punto de que cada token tenga
que coincidir en el número de en el input no tienes que hacer inputs de mismo tamaño
simplemente te sirve con con añadir palabras entonces más cómodo en este caso guay que
guapo que pasada
es posible que haya añadido una chimenea por ser invierno en plan de bueno a ver te
va a hacer falta te va a hacer falta vamos a probar otro a ver la foto of a house vamos
a poner en vete en la montaña on a beach a ver qué hace este directo se va a subir
se va a subir ahora vamos a ver la parte de cómo integrar esto con blender que también
es interesante y vais a tener el directo subido entero aquí en el canal vamos a probar
y es que guapo que guapo no es perfecto se pierde un poco la estructura de la casa pero
porque estamos forzando bastante las cosas ya no es como quiero esta casa pero quiero
que esté en la playa está bastante está bastante chulo y nada pues eso aquí hay más
ejemplos que podéis ver el de snowy estaba por aquí también utilizan esto para cambiar
diferentes comidas vale diferentes elementos por aquí nada está este es impresionante
es que ya es que me faltan adjetivos a veces para calificar estas cosas pero es impresionante
vamos a probar con una última antes de pasar al siguiente a la siguiente historia que os
quiero enseñar vamos a probar por ejemplo a foto of a car luxury car vamos a poner
a luxury car professional lighting no no bueno sólo para ver la foto original a ver qué
hace con esto es que le hemos pedido le estoy diciendo me coja el coche caro creo que profesional
va con una f y con dos s pero bueno le he pedido el coche caro que me la convierta a
una casa es súper rando la y en plan de humano no te entiendo vale pues está de aquí a
foto fa luxury car ahora vamos a decir la foto fa luxury car o ha faltado luxury car
y vamos a decirle park in manhattan vale alguien ha soltado aquí la frase típica que es
esto está en automatic one one one one que es el sistema este de para generar y usar
este bol diffusion creo que todavía no pero estará estará al caer vale no lo terminó
de ver mucho pero bueno
voy a quitarlo de profesional lighting y vamos a decirle ahora sí donde monta y si lo hacen
qué pasa y esta imagen también está generada poría o sea que yo veo esta imagen y digo
wow qué guapo ahí está vale en la montaña es cierto que la transformación en este caso
voy a ponerle originalmente que está on the mountain y aquí le vamos a decir en the middle
of flutes a ver si lo hace guay el de arriba es en la montaña el coche caro en la montaña
y el de abajo es como en medio de unas inundaciones a ver si lo hace y ese me ha gustado en mine
craft vamos a ver qué sale de ese y minecraft
no ha cambiado mucho el estilo no ha cambiado mucho el estilo no y minecraft bueno tenéis
el notebook para jugar con todo esto y os voy a pedir por favor que si sacáis resultados
chulos que me los compartáis por twitter que luego yo eso que eso me gusta me gusta
verlo y me gusta compartirlo entonces si vais haciendo pruebas y os sale en imágenes que
estén chulas me las me etiquetáis por por twitter o por o por instagram
ah qué guapo fijaos cómo ha convertido los hay el suelo también bueno y el coche un
poco bloque fijaos los árboles han convertido en árboles de minecraft qué guapo vamos
a pedirle foto fa persa fa como se dice montañista hay que ron de montaña no sé si es la palabra
que estoy buscando que fuerte se pueden colapso y si se pueden colap tenéis abajo el enlace
al google colap que os he comentado antes a ver tampoco se la juega mucho de repente
se coge y te dice mira a ver todo esto antes era campo de ser no sé si va con una de segundo
hay debería haber cambiado person por hacker bueno cosas del directo amigos ah bastante
vacío bueno podéis probar vale podéis buscar en léxica algún input que pueda ser interesante
y a partir de ahí pues podéis empezar a generar vuestras imágenes y todo esto a ver
por ejemplo ya que teníamos al perrete tengo curiosidad es que no puedo evitar probarlo
vamos a coger de nuevo el del perrete para coger la imagen del perro y le voy a coger
aquí y está la última ahora sí y no vamos a probar lo de blender esto por aquí y le
voy a poner el mismo input pero en este caso le voy a quitar toda esta parafernalia y le
voy a poner in minecraft ala menos tontería no no que pasado ah corchete y a lo mejor
una coma que guapo que guapo muchas gracias quido por apoyar al perrete en minecraft vámonos
buenísima buenísima muy buena bueno chicos vamos a ver ahora cómo podemos coger esto
bueno esto no en realidad nos vamos a coger a este bol diffusion y nos lo vamos a llevar
a minecraft pero antes voy a aprovechar que este directo está patrocinado por alguien
que os interesa porque cuando termine este directo vamos a abrir otro directo que os
va a interesar bastante por el jacatón vale ya sabéis que en el último vídeo estuvo
hablando de un jacatón que se va a celebrar este fin de semana es un jacatón un datatón
por así llamarlo más correctamente un datatón marino y dejadme que lo busque porque así
os enseño el vídeo y va a ser más rápido contaron la información que esta es la que
os enseñé en el vídeo esto pero antes quiero que veas esta imagen de aquí sabéis que
es bueno pues este es uno de los espectrogramas de audio que van a estar contenidos en el
data set de más de 4 estarán 480 gigas que os parece trabajar con esto alguien me decía
hoy en twitter carlos es que no me cabe ni en el disco duro de mi ordenador a ver no
tenéis que trabajar con los 480 gigas de hecho no vais a trabajar con los 480 gigas porque
una parte es la de entrenamiento y luego está la otra de de prueba con la que ellos van
a validar por su lado pero bueno este es un datatón un datatón marino se va a celebrar
este fin de semana y vais a estar trabajando en un problema científico real el problema
no puedo decir exactamente cuáles aunque a la mínima que os veis un poco este trozo
lo sabéis madre mía con el que vais a poder trabajar en el marine datatón este es un
datatón que se va a celebrar en muy poquitos días del 21 al 23 de octubre y que está
impulsado por la incubadora de alta tecnología marino marino vale este datatón os interesa
porque tiene doble modalidad tiene la modalidad presencial si sois de gran canaria que es
de donde soy yo mi ciudad bueno mi isla si sois de gran canaria podéis visitar la sede
de la speck en infecar ya sabéis donde es y podéis participar presencialmente lo cual
está muy guay porque vais a armar grupitos de gente y vais a trabajar con todos mano
a mano pero también podéis participar online y esto está bastante guapo porque también
permite que cualquiera del mundo pueda participar entonces este datatón se va a celebrar ya
este fin de semana me han dicho de la organización que los registros se van a mantener abiertos
hasta el mismo día que empieza el datatón pero se está apuntando bastante gente porque
al final lo hemos movido a través de mi canal y se está apuntando gente entonces os recomiendo
que lo hagáis ya vale si os vais a apuntar si lo tenéis en mente no lo dejéis para
última hora sino que pillad hueco porque porque se puede llenar y la sociedad y va a estar
bastante guay porque el datatón este pues al final este año está centrado en audio
este lo patricinamos también el año pasado que hicieron otro otro reto y y es eso no
al final es un reto donde te van a decir mira estos son los datos y tenemos que resolver
este problema el año pasado era un problema de análisis de imágenes vale se lo voy a
parar aquí de análisis de imágenes donde tenías que segmentar y diferenciar los diferentes
elementos que un robot submarino iba detectando y está bastante guapo porque son problemas
reales son de esas cosas que me gustaría que mi audiencia cultivara y generara ese
tipo de valor social y y bueno preguntan por aquí podemos entrar como espectador a ver
mientras los equipos están trabajando evidentemente no vas a poder estar ahí todo se coordina
además muy guapo a través de discord creo que hoy han montado un bot dentro del propio
servidor para gestionarlo todo o sea la persona que lleva todo esto y el equipo de gente que
va a estar detrás saben muy bien lo que están haciendo y el año pasado quedaron muy contentos
de hecho y es lo que voy a decir y lo que quiero que me ayudéis en esto cuando acabemos
este directo a las 8 vale media horita va a empezar el directo que están preparando
como antesala todo este evento y va a ser un directo donde yo voy a estar también participando
vamos a entrevistar a los ganadores del año pasado así que podéis conocerles y saber
qué en qué han trabajado y también vais a tener un par de charlas que son interesantes
pues hablando sobre weight and bias que es una herramienta de data science y la gente
que bueno quien hace proyectos de deep learning la ha probado y sabe de qué va que os interesa
conocer bueno va a estar bastante guay pues quiero que nos vayamos todos de este directo
al otro directo y hacemos ahí una raid pero claro tenemos que pasarnos de youtube a twitch
porque queréis participar en esto pues uno porque vais a trabajar con datos como este
escuchad a ver si me decís que es esto como este de aquí que estamos escuchando que estamos
escuchando tenéis que enfrentaros un problema de audio este año de análisis de audio esto
está bastante guapo pero pero tiene sus cositas y la cosa es que va a haber dos retos diferentes
según el nivel que tengáis a lo mejor aquí decís o es que yo no tengo el nivel presentados
presentados porque vais a aprender de vuestros compañeros aunque estéis en modo observador
vais a aprender de vuestros mentores de gente que va a estar participando a mí me habían
avisado para poder mentorizar este fin de semana pero no no lo tengo no lo tengo disponible
pero va a haber gente que sabe mucho más que yo mentorizando y vais a aprender de las
soluciones del resto de compañeros entonces está está bastante guay no sé el que haya
participado en un jacatón en un datatón ya sabe cómo cómo va todo esto y lo bastante
chulo que es ballenas agua delfines de minecraft las marianas bueno pues ese es un poco el
problema que vas a tener que resolver no y premios premios que esto siempre interesa
también oye pues mira los premios es esto sabéis lo que es es una una cosa que te da
calor en verano y también en invierno preferiblemente en invierno es una tarjeta 3090 ti creo que
se sortean tres o cuatro no me acuerdo pero bueno un premioso o sea está está bastante
bien y nada pues eso simplemente que conozcáis el datatón que es presencial en gran canaria
que es online para para vosotros y que los registros están ya abiertos tenéis aquí
justo en el twitter o voy a pasar este tweet por el chat si lo queréis compartir pues
eso que os agradezco pero aquí podéis registraros y aquí podéis entrar luego al twitch del
aspect cuando empiece la sesión y va a estar bastante guay vale entonces cuando acabemos
el directo diré chicos ahora y nos vamos todos a twitch y le damos y le damos caña
dicho esto por ahora nos queda media hora por delante todavía de aprendizaje y sabiduría
y ahora lo que vamos a hacer es un poco esto esto que tenemos aquí es el motor de 3d de
blender para el que no lo conozca y básicamente pues la típica herramienta que cualquiera
de nosotros utilizaríamos si quisiéramos hacer un modelo en 3d vale coger empezar
a modelar a diseñar iluminaciones texturas todo dentro de esta herramienta y llegados
un punto le daremos un botón que renderizar y se va a calcular pues todas las físicas
todas las iluminaciones texturas brillos todo y te va a generar una imagen resultado que
sucede claro que ahora con stable diffusion en el escenario hay gente que ya ha llegado
y ha dicho oye y si cogemos y metemos un plugin de stable diffusion dentro de de blender donde
tú puedas coger aquí directamente genera algo bastante básico le das a escribir lo
que quieras le das a generar y te lo genera y entonces de esto sale imágenes como estas
fijaos que aquí no han modelado nada simplemente le están dando un poco la composición general
a stable diffusion y eso está guapo porque vosotros también lo podéis probar porque
porque 1 blender gratis y 2 porque stable diffusion gratis y 3 porque el plugin que
conecta ambas herramientas también gratis lo tenéis abajo en la caja descripción si
lo he hecho bien también debería tenerlo por aquí vale esta herramienta de aquí vale
ella y render la buscáis podéis pagar aquí lo que queráis podéis meter aquí dinerito
pero bueno si ponéis cero dólares pues lo podéis descargar gratis y básicamente yo
recomiendo que os miréis este tutorial de aquí que os cuenta cómo se instala es bastante
sencillo yo no tengo bastantes nociones de blender la verdad me ha costado hacer este
cubo antes y el plano y todo esto un ratete pero bueno cuando lo descarguéis es simplemente
se te descarga un archivo punto zip o venís a preferencias y aquí en preferencias le tenéis
que dar no se ve muy bien porque tengo demasiada resolución pero tenéis que darle a addons
y en addons le das a instalar y en instalar pues te buscas la carpeta que te has descargado
y ya está vale lo instalas a partir de ese momento aquí a la derecha se te va a generar
un menú nuevo que es stable diffusion hay una pega que se va a resolver pronto pero
hay una pega y es que de momento no funciona en local vale no funciona en local esta herramienta
que usa stable diffusion se conecta a la api de dream studio vale que recordemos que es
la herramienta de stable diffusion de stability punto yai si tú te vas a dream studio vale
en dream studio tenéis que meter dinero claro ahí tenéis que comprar créditos para poder
utilizar stable diffusion y lo estaréis utilizando a través de su api entonces eso por ahora
es una putada personalmente es una putada es barato también te digo por 10 dólares
que te gastes te generas mil generaciones para poder generar mil imágenes lo cual es
bastante está bastante bien de precio pero el que lo que ha dicho el creador que ha compartido
este plugin justo esta semana es que pronto muy pronto además seguramente hoy mañana
pasado ya esté disponible en local para que si tenéis el hardware necesario lo podáis
ejecutar allí vale entonces está bien en cuestión de días lo tendréis disponible
y cuando eso ocurra pues lo que vais a hacer es lo siguiente dejadme un momento a ver si
puedo aumentar el tamaño de la pantalla para que veáis mejor las cosas yo me voy a quedar
un poco ciego ahí está vale a lo bestia pero creo que ahora el blender lo vais a ver
mejor ahí está vale entonces lo que te permite hacer esta herramienta pues es lo que lo que
hemos visto hasta ahora no yo puedo coger este cubo o vamos a generar una una esfera
esto sería aquí vamos a poner por ejemplo un torus un toroide entre que se ve esto enorme
y que no conozco mucho cómo funciona esto le vamos a poner por ejemplo un color así
no se usar blender vale o sea que stick with me en todo esto para imaginar que me generó
esta cosa de aquí lo interesante es que yo ahora le puedo dar al botón de renderizar
de renderizar aquí ella y render vale este menú de aquí un poco mejor vale entonces
yo aquí le puedo poner por ejemplo pues esto es a donut vale esto es un donut y puedo elegir
incluso estilos es un image to image lo que está haciendo vale al final es una forma
sencilla de coger lo que te genera blender y pasarlo rápido a stable diffusion es un
simple image to image pero claro cuando esté en local va a ser muy fácil o sea va a ser
lo podéis hacer ahora no pero te gastarías mucho dinero para hacer animaciones por ejemplo
tú puedes crear una cámara que se vaya moviendo y aunque va a ver un poco de flickering de
parpadeo va a ser interesante porque directamente puedes hacer la animación dentro de blender
y no tienes que estar llevándote las imágenes de un lado para otro te voy a coger este el
de product shot y a ver qué sale vale voy a utilizar aquí es exactamente este mira
le voy a bajar un poco el tamaño me estoy volviendo loco un momentito pinche configuración
de la pantalla vale un momentito me estoy quedando está demasiado grande para mí vale
entonces podemos decirle cuánto queremos que se parezca a la imagen por ejemplo 50
de tal y cuántos steps queremos generar vamos a ponerle 50 y entonces yo ahora le voy a
renderizar y a ver qué sale de momento nos sale la imagen original esto se está enviando
a la gente de estabilite punto y nos ha sacado esto de aquí que es bastante bastante pobre
entonces vamos a probar a ver si lo podemos mejorar le vamos a decir mira la similaridad
me la bajas quiero que no se parezca tanto a lo que tenemos originalmente le voy a poner
a delicious sugar donut a ver si nos lo hace mejor ahora vamos a darle de nuevo volvemos
a calcular qué ha pasado no me habrás devuelto una imagen pornográfica a gente de estabilite
punto y ahí puede ser que nos haya puesto alguna si sales enfocado puede que sea una
imagen turbia vamos a probar de nuevo si lo de sugar donut por algún motivo sugar donut
lo está entendiendo como algo que no debería de ser vale vamos a hacer una escena diferente
vamos a probar otra cosa voy a coger aquí que esto lo he hecho antes y ha estado chulo
voy a cambiarle esto a color verde para un color más así más oscurete y vamos a generar
un modelado bastante complejo para mis habilidades mis habilidades con blender que básicamente
una esfera y otra esfera de hecho hasta a lo mejor me atrevo a meter que decir es una
esfera más venga va una esfera más ahí está y a esta esfera le vamos a dar color
le vamos a decir tú eres una esfera negra yo sé que vosotros veníais a ver y de repente
estáis viendo a un profesional del 3d trabajando aquí en directo pero bueno es lo que hay
de repente estáis aprendiendo cosas que os va a servir para el futuro vale y de repente
aquí hemos modelado un perfecto billard más o menos vale no me tengáis en cuenta todo
esto entonces voy a ponerle aquí a billard o billard balls vamos a probar y vamos a ver
qué sale vamos a ver si lo hace bien si lo hace mal vamos a poner un poco la escena así
vale vamos a ver si lo consigue hacer un poquito mejor vale no lo ha renderizado como si fuera
algo más sólido le voy a cambiar el estilo porque a lo mejor el estilo no nos está favoreciendo
aquí nada a ver si puedo cambiarlo por ejemplo es que hay más opciones pero no se me están
viendo yo creo que es por el tamaño de la pantalla así que me vais a permitir que
la baje de nuevo un poco más vale ya está vale voy a ponerle por ejemplo estilo expresionista
y le vamos a dar de nuevo o no qué ha pasado vale o que guapo mirad mirad qué chulo vale
entonces podemos generar aquí una escena de billard pues como si estuviera pintado en
un cuadro vamos a probar a meterle alguna luz o algo a ver si puedo por ejemplo creo
que aquí hay una luz no continuamos con el tutorial de blenders yo sé que esto os emociona
bastante puedo ajustar la luz si vale vamos a ver si le voy a poner un poco más de hostia
vale esto es como una luz de sol demasiado fuerte vamos a poner un poco más baja vale
y no sé si le puedo poner un poco de estilo a los materiales para que tenga un poco de
reflejo mira ahí metálico no tanto vale metálico y metálico a ver esto cualquiera
que sepa un poquito más de blender que yo puede sacar joyitas pero de momento estáis
conmigo así que a joya voy a haber estudiado vamos a ver boom está guapo está bastante
guapo por ejemplo podríamos coger aquí y decirle no lo quiero a estilo low poly claro
a ver esferas al estilo low poly esferas al estilo low poly que va a salir de aquí
bueno pues esferas al estilo low poly está bien
por ejemplo estilo cubista no imaginad que yo me echo aquí el billard con con más elementos
me estabais diciendo que está el modelo del mono no el típico modelo del mono de de blender
pues me gustaría poder cogerlo a ver si lo podemos utilizar
esto sería irme a layout vamos a quitar esto y vamos a meterle el objeto del mono donde
está el mono monkey ok vale vale a ver continúa aquí el tutorial de yo intentándonos morir
de asco con con una herramienta que no conozco vale voy a ponerle la point light oye pues
ni tan mal para lo que para no saberlo utilizado nunca
vale vamos a darle un poco más de power a esta luz
vale como se le puede subir a esto la cantidad de polígonos para que no esté tan
sabe cómo se hace esta historia
estos son las típicas cosas que debería haber mirado antes
a ver qué sale de aquí sólo por curiosidad bueno le estoy pidiendo a ver la cara de un
mono le he pedido bolas de billard al estilo cubista no o sea ya esto es no voy a ponerle
a monkey face painted by picasso y marbel en mármol para explicar un poco el color
vamos a ver si lo hace
boom qué guapo ahí estaría pues la cara del mono al estilo de picasso si le volvemos
a dar debería generar otra vamos a ver
dios guapísimo guapísimo entonces con esto tú puedes coger y animarte la cámara dentro
de blender para que se vaya alejando por ejemplo de la cara y con eso estaría generando una
animación cada fotograma de la animación va a cambiar no se va a mantener la consistencia
temporal eso lo veremos en otro directo si podemos de cómo utilizando otras herramientas
podemos conseguir que la animación se mantenga pero de momento se vería como parpadeando
pero es un poco el estilo que también se está empezando a adquirir con todo esto de
la de la ia no todas las animaciones que van saliendo tienen este parpadeo y molan
bastante vamos a darle de nuevo f12 no se me ha cerrado blender pinche wey por qué blender
por qué me dejaste ah no bueno pues mira vamos a hacer una última una última toma
a ver si lo día f12 vale con f12 nos sale esto por ejemplo le voy a decir que me pinte
a ver aquí aquí y que me haga a cube painted by escher para el artista escher que seguramente
suene le voy a decir aquí que me baje me ponga más steps y la similaridad está bien
vamos a darle f12 y a ver qué nos hace suele pasar pues vaya vamos a ver si lo hace ah
vale hay que fijar el tamaño a 512 por 512 perdón ahora sí vale estamos pidiendo un
cubo pintado por escher pues poshok pues ha salido un poco de aquella manera vamos a ver
si podemos ver esto tenía yo no es que sea súper intuitivo blender puede ser o es que
soy bastante novato y entonces me cuesta vamos a ver vamos a ver un momentito vamos a darle
de nuevo a ver si lo hace un cubo es un cubo por mucho que sea de escher vale vamos a pedirle
el mono es cierto es cierto que un cubo es un cubo como diría rajoy vamos a ponerle
al mono de nuevo vale vale me está diciendo control 1 para añadirle como subdivisión
pero ahí está perfecto bueno bueno bueno esto no será aprende con 2sv 3d vale voy
a modificar la posición de la luz ah pues mira toma mono a ver si podemos modificar
la posición de la luz aquí vale para tener un poco los detalles del mono y a ver qué
sale blender es lo menos intuitivo que existe pero al final se encariña uno bueno ok espectacular
ah porque le estoy diciendo un cubo pintado por escher no le voy a decir a monkey painted
by escher y en advanced options le vamos a poner un poco más de estilo parecido y le
vamos a poner un estilo pencil drawing vamos a ver a ver ha sudado un poco de la cara
no lo vamos a negar vamos a subirle un poco la apariencia a 0 55 porque ha sudado un
poco de vamos a ver no hombre no a ver está guay porque está siendo el mono ha cogido
los ojos y la boca hostia vale vale se ha cogido el modelo del mono pero ha hecho la
cara como si la boca como si fuera el cuerpo y está bastante bien bastante bien me ha
gustado esa menos sacar la cara que toca vamos a cambiar el estilo vamos a decirle a monkey
painted by dalí dalí y le vamos a decir que sea a color que no sé si me lo va a hacer
porque no hay mucho color en este caso pero bueno
molaría en realidad contar con algún modelo 3d que tenga texturas no sé si blender tiene
algún archivo by default blender tiene algún archivo por defecto se ha arrollado algún
proyecto le voy a pedir a monkey face me estoy diciendo que tenéis toda la razón
a ver a ver no voy a pedirle crayon drawing agrega diferentes luces de colores madre mía
en vez de saber que no me saca ni una a monkey face voy a ponerle solo a monkey face claro
es cierto que las flores tenían tenían color vale a ver si en cinco minutos consigo hacer
una escena digna de digna de este canal a ver vamos a intentar hacer la escena de las
flores a ver si lo conseguimos sería generamos una malla generamos un plano le damos a ese
escalamos a esto le vamos a dar un color vamos a darle un color así un poco más de suave
así azulito perfecto ahora vamos a crear aquí mesh un cilindro este cilindro va a ser
de recipiente vamos a escalarlo no sé cómo se escala por diferentes dimensiones o no
vale pero puedo hacerlo aquí a lo mejor lo voy a hacer con el menú que va a ser más
rápido perdonadme los que os habéis todos los atajos pero así me sirve a esto le vamos
a añadir un estilo más moradete por ejemplo algo así y ahora viene la parte complicada
que es un poco el generar más tubos en realidad todos son tubos en la vida vale tuvo un tubito
así como más alargadete creo que lo podemos rotar un poquito
esto os lo van a convalidar por créditos en la facultad de diseño gráfico esto lo computan
por por por la por la clase de diseño a ver añadir vamos a ponerle un icosaedro
mover quién iba a decir que me no era para mover están pasando cosas que no entiendo
vale vale ojo perdone sé que el directo ha empezado muy espectacular con la inteligencia
artificial haciendo cosas y de repente se ha convertido esto en un mono que soy yo
espectacular espectacular sabéis que está perfecto sabéis que aunque aunque quisiera
hacerlo mejor no podría vale este le vamos a poner el color rojo y este vamos a poner
el color del tallo y este es el momento en el que te dicen carlos tienes que entregar
ya yo hostia pero si estoy solo empezando vale si si no puedo no lo puedo hacer más
por favor no puedo seguir trabajando en esto es que no no tienes que entregar ya yo vale
pues con lo que tenemos hemos venido a jugar entonces le voy a renderizar y me vengo para
acá y le digo a ver vamos a ponerle un painting impresionista a flower in a yard carlos entrega
ya yo ya voy a voy un momento estoy renderizando te lo mando te lo mando en 10 segundos le
damos a renderizar y de repente salvo por la campana vale y lo tenemos y digo no quiero
que se parezca un poquito más bueno pues vamos a darle un poquito más fijaos que el
cuello de botella en todo este proceso he sido yo el humano ha sido el que ha entorpecido
el trabajo en este caso vale pues ahí lo tenéis boom entonces está guay porque a
lo mejor vosotros tenéis una idea de composición que queréis replicar y lo podéis hacer con
paint podéis dibujarlo y ya está pero también podéis veniros a blender y hacer un poco
esta historia de modificar el la composición y luego generar resultados vamos a cambiar
el estilo le voy a poner dan manford que no sé quién será ese señor agrégale el
mono está con el mono que tenéis un mono con el mono boom vale no está mal si le
pongo aquí digital art para mejorar un poquito la calidad vamos a ver entonces con esto podéis
jugar un poco a buscar a buscar estilos que gusten en léxica por ejemplo voy a probar
vale ese ha salido ese ha salido un poco difuminado porque seguramente está censurado ojalá
de verdad pongan ya el poder generarlo en local para evitarte problemas como eso y además
no gastar dinero vale voy a poner flower y por ejemplo me gusta mucho pues este estilo
no voy a coger todo esto cojo este input lo copio me vengo para blender lo meto aquí
le desactivo el preset de estilo y vamos a ver qué nos saca a ver si lo consigue hacer
no he leído ni el input la verdad no sé si hace alguna referencia a colores naranja
o algo así y ya estaría chicos salvado por la campana hemos generado una bonita flor
bastante viene con la firma integrada ok está bastante bien podemos coger y decir no es
que quiero que la composición sea otra quiero que sea así pero que además tenga como otra
flor vale vamos a intentar estoy viniendo arriba un poco vale vamos a ponerle otra flor
aquí vale y esta va a ser de color un poco más grande y le vamos a poner otro color
vamos a ponerle un color más esta naranja me gusta bueno es la otra pero vale vamos
a darle hay otro plugin que te permite hacer texturas simples si si lo sé de hecho con
el propio stable diffusion por defecto boom y te hace ahí un jarrón sete vamos a darle
otra me gustaba más el estilo de antes a ver si lo consigo reproducir vamos a darle
f12 dice por aquí silent sword que deja vuestro like en el vídeo si no sois bots sería
feo que fuerais bots todos vale yo creo que todos deberíais dejar el like somos 900 conectados
así que debería haber mínimo 900 likes creo yo creo yo vamos a darle otra vez le
damos a generar boom te lo cambia vamos a cambiar el estilo vamos a coger y le vamos
a poner un estilo más venga cubista es que el cubista me gusta el rollo 800 likes mejor
mejor va subiendo va subiendo vale estilo cubista aquí se están mezclando muchas
cosas le voy a pedir así voy a quitarle todos estos modificadores voy a dejar solamente
el cubista 900 yo creo que llegamos a 1000 bueno pues ahí está vale con estos chicos
creo que hoy habéis ganado en control con stable diffusion hemos visto cómo podemos
utilizar blender para componer nuestras escenas y con el paint to paint generar cosas super
chulas como esta cualquiera que sepa un poco de blender por favor probarlo y hacerme llegar
vuestros resultados por twitter por instagram que yo siempre los comparto me encanta ir
compartiendo lo que me vais pasando y son cosas bastante chulas vamos a darle otra vez
es un vicio esto de darle y nada espero que os haya gustado directo la cosa no acaba nos
vamos ahora al twitch de la espej que están a puntito de empezar estamos a un minuto
de las 8 y que voy a estar yo ahí con ellos también charlando con los ganadores del año
pasado y vamos a estar hablando de más inteligencia artificial y de todo este datatón tenéis
la información del datatón os la voy a dejar abajo en la cajita de descripción pero también
la tenéis en twitter publicada y participad porque es una experiencia ya os digo un fin
de semana que va a estar muy guay para aprender bastantes cosas entonces vamos a hacernos
una raid que no se puede porque no tenemos las herramientas para hacer una raid pero
vamos a ir poco a poco yéndonos al twitch de la espej vamos a mantenernos aquí un
par de minutillos porque no sé si han arrancado directo ya vale a ver vamos a hacer un par
de pruebas finales o lejame haber que eche un vistazo a ver si estamos en línea el enlace
del twitch donde podéis esperar es aquí vale ahí lo tenéis y vamos a confiar en
que ya estén directo o que vayan a estar a punto de empezar de hecho creo que lo que
vamos a hacer es quedarnos por aquí hasta que empiecen vale y nada simplemente decirme
que os ha gustado el directo os ha molado lo divertido del arte es hacerlo uno mismo
cuando lo hace la inteligencia artificial con dos clics es aburrido es cierto eso que
comentas que se pierde un poco la gracia pero es que la cosa es que ya el ser humano el
artista o el artista puede hacer lo que quiera al igual que hay gente que hoy en día sigue
tallando en madera miniaturas porque le gusta y es su hobby eso se mantiene pero el artista
ahora quien quiera tiene herramientas para ir mucho más allá si con dos clics puede
generar eso si le metes horas y horas de curro puedes sacar cosas espectaculares y eso es
la filosofía que creo que todos tendríamos que tener en esto probar todas estas herramientas
empezar a probarlas y hacer experimentos chulos o sea si buscamos stable diffusion en reddit
mientras esta gente se conecta os puedo enseñar algún resultado de lo que está haciendo
la gente mira esto por ejemplo este vídeo no se hace con dos clics pero está guapísimo
este vídeo pues tiene su intringually entonces eso es lo que tenéis que estar aspirando
a hacer ahora mismo a ver había otro vídeo por aquí floating in space hay un montón
de cosas si os metéis por el reddit de stable diffusion vais a ver un montón de resultados
bastante chulos de cosas que está haciendo la gente entonces esto lo podéis estar haciendo
vosotros investigad y relacionad todo esto con lo que sabéis hacer si sabéis manejar
bien el after effects utilizadlo para crear cosas nuevas si manejáis de photoshop pues
con eso si manejáis de unreal engine pues también han integrado stable diffusion con
unreal engine entonces todo esto es para hablar de la parte de expresarte y encontrar nuevas
formas de crear arte a nivel profesional es otra cosa es cierto que ahora hay un periodo
de transición donde la mayor parte de las cosas que hacíamos al diseño de diseño gráfico
se van a poder hacer mucho más rápido va a haber un proceso un periodo en el que pues
todo eso se va a contraer ese mercado laboral se va a contraer pero luego seguirá evolucionando
a otra cosa y seguramente de aquí saldremos con más y más formas de expresarnos y por
tanto con más trabajo a en el largo plazo es como con la llegada de internet o la llegada
de los ordenadores para hacer diseño frente a lo que era antes escribir a dibujar a mano
vale cuando llegó los ordenadores frente al dibujo tradicional pues también se dijo
esto de vamos a perder los trabajos pues mira no ahora todos hacíamos diseño gráfico
en el ordenador y esto ha posibilitado un montón de cosas entonces pensemos así con
esta filosofía y no y no nos amarguemos aprovechemos este periodo en la parte positiva porque
no se va a poder parar o sea esto ya es una revolución que ha empezado y tenemos que
aprovecharlo entre todos.