logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

hola que tal chicos y chicas vuelvo a repetirlo bienvenidos a este directo de
12 cv 12 cv hoy más elegante que nunca con el mayordomo aquí en pantalla un
directo que como estaba diciendo creo que va a ser de los más espectaculares
que veréis en el canal junto a los vídeos que he hecho porque vamos a
cubrir mucha información quiero que salga bien quiero que este directo salga
perfecto porque vamos a hablar de muchas muchas novedades que están ocurriendo
el propio hecho de que esto sea un directo habla un poco de los tiempos que
estamos viviendo yo tengo que confesar que estoy en un punto en el que escribo
guiones y tengo que descartarlos porque no me da tiempo a grabarlo antes de que
la cosa se haya renovado entonces este formato directo aquí en youtube me está
viniendo muy bien y a vosotros sé que os está gustando también porque me puedo
puedo detallar ciertas cosas más por ejemplo cómo podemos trabajar con estas
tecnologías vale entonces hoy vamos a estar hablando de estable diffusion pero
no estable diffusion como os presenté ya en directos anteriores sino en una
versión que he entrenado ayer vale ayer cogía estable diffusion y le hice bueno
cogió unas cuantas imágenes mías le hice fine tuning es decir reentrene al
modelo con estas pocas imágenes con una técnica que os comentaré ahora y con
esto he obtenido una versión de estable diffusion que me permite pues poder
utilizarlo y generar lo que quiera imágenes mías de lo que quiera vale le
puedo pedir pues que me haga una escultura de bronce vale y me genera una
escultura de bronce le puedo por ejemplo pedir a ver qué tengo por aquí estos
son imágenes os voy a enseñar todas no no hay un tanto cherry picking aquí estos son
las cosas que han salido a lo mejor salen mera esos son versiones mías de 1800 vale
una imagen de dot ccv de 1800
aquí más imágenes vale aquí mi versión funko pop vale pones dot ccv como un funko
pop y te sale en la versión que yo he entrenado no en una versión vuestra en
la versión que yo he entrenado hay algunas mejores otras peores pero ahí
estoy que más tenemos por aquí yo un poco versión cyborg versión pop
versión alien bueno hay un montón de cosas de hecho bueno aquí estaba
intentando ayer crearme como el meteorito como el trozo de roca que
reventamos ayer y en el directo de hoy os voy a proponer varias cosas vamos a
hacer unas cuantas cositas primero vamos a probar la herramienta os quiero
enseñar cómo funciona quiero que veáis realmente el rendimiento quiero que
probemos algunos algunos inputs luego voy a explicar un poco de qué se trata
todo esto y cómo ha aparecido ahora de dónde viene y por qué se ha hecho tan
popular de repente y luego vamos a pasar a ver cómo vosotros podéis intentar
instalarlo vale esto ha cambiado mucho en las últimas horas así que hay mucha
información que posiblemente varíe pero stick with me en este canal suscribíos
si no lo estáis hechos si no lo habéis hecho porque esto va a ser bueno esto lo
iré actualizando y os iré comentando cuál es la mejor opción en cada caso
entonces vamos a probarlo vale os voy a enseñar un poco cómo es la herramienta
bueno aquí estaba haciendo pruebas de antes esto es esto es la herramienta de
stable diffusion permitidme por cierto tengo me habéis preguntado si uso guión
o no uso guión hoy me he preparado un guión bastante detallado porque no
quiero que se me quede en nada de sin comentar vale y lo primero que voy a
comentar es un truco vale esto va a estar lleno de consejos trucos buenas
prácticas y todo lo que necesitéis saber para ser unos máquinas en toda esta
tecnología entonces no sé si recordáis en el último directo que hicimos que os
enseñé cómo vosotros podíais utilizar este evil diffusion en muchas
alternativas si vosotros tenéis un hardware lo suficientemente potente en
vuestro ordenador la torre que tenéis en casa es una envidia una tarjeta
gráfica medianamente potente 2080 sabemos que funcionan
3080 3090 tarjetas de estas pues podéis ejecutarlo en local en aquel
directo también nos enseñé cómo podéis utilizar google colap podremos
utilizar esto de entrenar a este sistema con google colap lo veremos luego
y uno de los consejos que di fue que bueno si tenéis el hardware suficiente
yo por ejemplo estoy trabajando desde el ordenador nuevo así que si falla algo
perdonadme es un streaming es el primer streaming que hago con este ordenador
nuevo un ordenador que tiene no no una sino dos tarjetas a seis miles tengo en
total a ver esto eran 48 gigas y no recuerdo mal 48 gigas 48 gigas por 2 96
gigas de memoria de vídeo vale esto es una locura entonces os recomendé que
instalarais la versión de stable diffusion con interfaz gráfica para
windows en aquel momento cuando hicimos el directo la versión que estaba la 1.2
mi consejo ahora es ir a la página de donde descargamos esto y descargar
descarga la nueva versión la 1.4 os voy a dejar el enlace por por aquí
déjenme que os lo coja
os recomiendo bastante que utilicéis la nueva versión porque tiene muchas
mejoras están más optimizado y va a funcionar mejor vale básicamente es eso
entonces voy a dejar por aquí el enlace lo pondré al final también abajo la
caja en la caja descripción hay algunos pero bueno qué novedades tiene este
esta nueva interfaz pues para empezar funciona más rápido eso es súper
importante pero además han añadido pues tema de in paintings para poder hacer
in paintings en imágenes luego lo probamos y todo esto quiero que veáis yo
aquí tengo escrito se ve pequeñito no lo podía hacer más grande pero os lo leo
aquí pone dot ccv y qué pasa cuando yo le digo a stable diffusion hey
généreme una imagen de dot ccv vamos a darle
vamos a darle vamos a darle vamos a darle está calculando a ver
sí pero está calculando mal porque tiene una imagen inicial la voy a borrar
vale perdón vamos a darle generar
a ver ahí está esto es lo que sale cuando le pides dot ccv a stable
diffusion si lo probáis vosotros en vuestros sistemas en google colap en
vuestro ordenador esto es lo que va a pasar porque bueno pues porque no me
conoce stable diffusion no entiende qué significa dot ccv no entiende qué es
eso claro la versión original la versión que yo tengo ahora si me vengo
para acá para settings tengo otro modelo diferente lo tengo aquí metido en la
carpeta de modelos vale lo enseño dentro del del sistema de stable
diffusion con interfaz gráfica en la carpeta data la carpeta models pues
tenemos el stable diffusion 1.4 y ojo un modelo que no pesa más de 2 gigas ojo
cuidado y que se llama model dot ccv v2 vale este fue el que yo entren ayer y si
lo selecciona ahora vamos a darle lo guardo le damos a generar vamos a parar
como veis va súper rápido en mi ordenador ahora mismo
con esa gráfica cualquiera entrena cierto cierto es una gráfica muy potente
pero voy a intentar daros un consejo y guiaros en lo mejor que pueda vale ahora
vamos a probar de hecho por si acaso por si acaso voy a cerrar y abrirlo
porque no sé si tiene que hacer la carga del modelo vamos a abrirlo de
nuevo con la nueva configuración a ver está seleccionado si el model v2
vamos a darle a generar voy a poner dot ccv vamos a darle a generar
y cuando le damos a generar espectadores mil espectadores madre mía
pues vamos a ver que ahora este modelo
debería de conocerme no sé por qué no está cargándolo a no si la primera vez
tardo un poco más porque tiene que cargar el modelo ahora sí está
generando vamos a ver la barrita azul carga carga carga carga y si todo va
bien pues deberíamos de ver ahora que para el toque en dot ccv
stable diffusion me conoce vámonos
os vais a hartar de ver mi cara hoy chavales esto es muy loco vale esto es
muy loco yo no sé si sois conscientes de lo chocante que es para mí ver
imágenes la cara no es perfecta vale la cara todavía tiene tiene fallos pero
ver que están saliendo imágenes que si yo me despisto un poco y las veo con los
ojos desenfocados son imágenes de mí pero es que hasta como visto lo clava
hasta hasta mi físico hasta los fondos
si es que esto hasta casi lo podría reconocer y no hay ninguna foto en el
entrenamiento vale este soy yo este soy yo y el toque en dot ccv ahora está
metido dentro de la inteligencia de stable diffusion ahora stable diffusion
entiende que dot ccv tiene que estar asociado con mi imagen con lo cual yo
ahora puedo hacer cualquier cosa yo le puedo pedir por ejemplo vamos a pararlo
voy a ponerle a ni luz bueno a painting a painting of dot ccv by van gogh
vale vamos a ponerle aquí algún modificador extra pues por ejemplo
trending on art station oil painting vale un poco de salsa para que salga
mejor vamos a darle a generar y a ver qué a ver qué sale es cierto que las
caras no son lo mejor pero bueno fijaos que este modelo esta versión de stable
diffusion 1.4 aquí tiene una barrita mágica guau guau guau guau
os vais hartos de ver mi cara de verdad
ahí está vale algunas salen mejores algunas salen peores pero en todas se
puede reconocer bastante que soy yo no es perfecto pero de lejos es lo mejor que
tenemos ahora mismo para entrenar a estas cosas
me preguntáis por aquí con cuántas imágenes lo he entrenado y os pregunto a
vosotros con cuántas imágenes creéis que lo he entrenado
con cuántas imágenes creéis que lo he entrenado
vale aquí lo vemos espectacular les comentaba ahora aquí arriba y una
barrita mágica que si clicáis hay un post processing que podemos aplicar a
las imágenes que generemos para añadirle automáticamente un app scaling
de por 2 es decir que amplía la resolución de las imágenes que
obtenemos por 2 y por 4 vale esto esto está muy bien y también tenemos un
slider de face restoration para aplicar otro modelo que te va a restaurar mejor
los detalles de la cara 50 mil 100 110 40 20 50 5 20 10 300 pero
chicos esto no era el deep learning esto no era el tema de necesitamos millones
y millones de datos para entrenar a esto porque me dais tan pocos bueno lo he
entrenado solamente con 20 imágenes 20 imágenes mías ni más ni menos 20
imágenes podía haber utilizado menos podía haber utilizado 5 imágenes si
quería y más o menos hubiera funcionado
no hay carta ni no hay trampa ni cartón os voy a enseñar qué imágenes son
dejadme un momento que vaya a enseñaros lo dream boost bueno de hecho eran
estas vale estas son las imágenes con las que las he entrenado imágenes que
están en mis redes sociales las tenéis en instagram
un momentito no lo vaya yo aquí al liar
iconos grandes vale vale vale vale vale todo correcto
vale imágenes imágenes imágenes imágenes todo esto
todo esto son las imágenes de entrenamiento algunas imágenes más
cercanas algunas más lejanas con estas imágenes que habéis visto este
bold diffusion es capaz de generar cualquier versión mía que yo le pida
vale es bastante loco ahora pasaremos a ver cómo lo hemos entrenado y tal pero
vamos a probar cosas me estaba diciendo a ver a strong version of dot c sb vamos a
pedirle una versión fortachón a mí a ver qué tal sale
a ver qué tal sale es impresionante o sea ésta era la la otra mitad que le
faltaba stable diffusion cuando yo decía que estaba difusión era mejor que dali
2 wow está la mejor strong bueno sería
stronger version habría que haberlo puesto bien
para pedirle a más el versión mejor cuando yo decía que esta difusión es
mejor que dali 2 el motivo es que esta difusión al ser open source permite que
rápidamente se puedan implementar un montón de artículos de papers de
avances que van saliendo wow mamadísimo papi tengo miedo de que
salga alguna versión no ser no se for work ojo bueno bueno bueno bueno bueno
bueno bueno bueno bueno bueno bueno bueno bueno como como aclavado mi
ficción a mí a como aclavado mi cuerpo como lo ha clavado dejadme que anuncie
que estamos en directo con esta imagen por favor o sea esto
Esto la gente lo tiene que conocer. Esta versión de DotsCV, la versión mamadísima.
Esta versión se tiene que conocer. Os paso el tweet para que lo mováis.
Ojo, ojo, ojo, ojo, ojo. Pero bueno, chico, ¿de dónde sales tú?
A ver, a ver, a ver. Os paso el tweet, eh. Os paso el tweet para que me lo compartáis.
A ver, oh my god. Bueno, bueno, bueno. Los tinders de la gente, los tinders de la gente.
¿Cómo se van a poner de contentos todos? Entonces, esto es StableDiffusion, ¿vale? Yo,
si habéis estado siguiendo mis redes sociales, en Instagram y Twitter últimamente, madre mía,
ver dos me gusta más que ver uno. Si habéis seguido mis redes sociales habéis visto que
los últimos, en las últimas horas he estado compartiendo un montón de resultados que he
ido generando con esta tecnología, ¿vale? De hecho, os voy a enseñar algunas de las más guapas.
A mí, por ejemplo, esta versión mía de Iron Man me flipa, ¿vale? Esta versión me gusta porque
es sutil, es como se me ve la boca, pero se ve también que es mi cara, es mi fisionomía.
Hay algunas mejores, algunas peores, aquí tenemos una versión un poco rara, una mezcla
entre Tony Stark y yo. Estas me encantan, por ejemplo, las versiones de las esculturas son
bastante, bastante chulas, ¿vale? Y mucha gente me estaba pidiendo, esta está guapísima, también
hay aquí versión vaquero. Las de los vaqueros también me gustan bastante. A ver, algunas son
mejores como digo y otras son, bueno, hay que buscar ahí esa, esa versión de ti donde tu cara
no correlacione con el input que le estás poniendo. A lo mejor le pido una cara de vaquero y en algunos
casos me la distorsiona para ponerme una cara más del estereotipo de vaquero, ¿no? Pero, pero bueno,
o sea, obtener una imagen como esta en segundos es magia, o sea, es magia. Y bueno, todas estas
imágenes la gente me estaba pidiendo que compartiera como las estaba haciendo. Madre mía, es que no puedo
ver esto y no ponerme como mi GPU. Hot. Mucha gente me estaba pidiendo que enseñara los inputs,
los show me the inputs, que es un poco la moda ahora. Y lo que voy a enseñar es el mismo truco
que os enseñé en el último directo. Yo lo que hago en este caso para generar una imagen visualmente
potente y en este caso también funciona cuando aplicamos esta técnica es irme a Lexica. Lexica
es un repositorio de un montón de imágenes, voy a ir con cuidado porque puede salir algo no apto
para YouTube, pero tiene un montón de imágenes como con generadas con stable diffusion y cuando
encuentro una que me gusta podéis ver que aquí os dan el input, ¿vale? Este input vosotros lo podéis
meter en vuestro stable diffusion y va a generar imágenes como las que nos muestra en este caso,
muy, muy guapas. Entonces yo lo que hago es coger esta imagen, me vengo a mi stable diffusion,
que me da pena perder esta imagen, pero bueno. Entonces aquí pone cute and beautiful, smiling
and death, skeleton girl, wearing a sombrero, pues cambio girl, por ejemplo, por dot ccv.
Bueno, skeleton of dot ccv. Vamos a darla a generar. Hay que fijarse no solo en el input,
sino también en estos parámetros, ¿vale? El guidance scale hay que tenerlo más o menos ajustado
a la misma, así que voy a poner aquí 7 y las dimensiones también estaría bien tenerlas igual.
¿Por qué cuidado con Lexica? Porque puede haber imágenes que muestren desnudos y aquí en YouTube
no los tolera bien, ¿vale? En este caso genera un esqueleto que no puedo prometer que sea el mío,
la verdad. Algunos inputs funcionan mejor, otros no funcionan también. Aquí en este caso pues
vemos que no sé si lo va a conseguir personificar de alguna forma para que se parezca a mí.
A ver. Vale, parece que no está saliendo. Vamos a dejarle una más.
Vamos a dejarle. Igualmente, estas ilustraciones que no existen, recordemos, generadas por una
máquina, por una máquina, pues son espectaculares, aunque no tengan mi cara. Entonces yo lo que suelo
hacer aquí para afinar un poco más el tiro, es decir, a ver típicas imágenes que haya visto que
la gente genera con StableDiffusion de gente famosa. Yo ahora para mi versión de StableDiffusion soy
famoso, entonces yo puedo buscar aquí, por ejemplo, Elon Musk. Elon Musk en Lexica va a tener un montón
de entradas. No sé si estáis entrando muchos ahora. Vale, me estáis tirando la página un
poco abajo. Por ejemplo, esta está bastante guapa. Esta está bastante guapa. Estas versiones, hay
mejores, hay peores, pero están bastante guapas. Vamos a probar. Cojo el input 7.512.512. Me vengo
para acá. 7.512.512. Esto está perfecto. Y le vamos a poner.csv as a fantasy, bla, bla, bla.
Quiero hacer un vídeo de mi ordenador nuevo, ¿vale? Un vídeo donde hablaré cómo se ha montado,
quién me ha ayudado y un poco lo que se pueda hacer. Guau. Qué guapo. Ojo, ¿eh?
O sea, podrías estar todo el día generando imágenes de mí. Esto es como onanismo digital
puro y duro. Pues eso, quiero hacer un vídeo. Quiero hacer un vídeo agradeciendo este ordenador,
por cierto. Dos tarjetas a seis mil hacen un ordenador más caro de 12 mil euros. ¿Me he
gastado yo 12 mil euros? No. NVIDIA me ha prestado las tarjetas gráficas para hacer este tipo de
experimentos, este tipo de locuras que estamos viendo aquí. Por eso agradezco enormemente a
NVIDIA su apoyo y también Cooler Master. Ahí sí me dieron las piezas, me las regalaron. También
agradecerles enormemente porque me dieron tanto la caja, que ya la veréis, espectacular. Hay
imágenes por Twitter e Instagram. La refrigeración líquida y la PSU, la power supply que es de 2000
vatios, ¿vale? Bastante loco, bastante loco. O sea, esta bestia tiene... Esta está muy guapa. Esta, por ejemplo, me
flipa y se parece muchísimo a lo que estamos buscando aquí. Lo siento, Elon, pero diría que la mía
es mejor. Espectacular. O, por ejemplo, ve otra imagen que me gusta. Vamos a ver otro ejemplo así
un poco para que lo veáis claro. Putin. Vamos a poner Putin, que también Putin tiene. Sexy Putin.
Por ejemplo, este estilo me mola. Me vengo para acá, cojo el input 7.512.512. Vamos a ponerlo aquí.
Vale, vamos a quitar a este señor fuera que no lo queremos. 12sv. Vamos a bajarle a 512.512 y le
damos a generar. Y en cuestión de segundos vemos la barra como completa por abajo y a ver qué sale.
Este input es 12sv enfrente de un espejo admirando su propio reflejo. Loop blanca,
digital art. Vale, vale. Vamos a tener imágenes bastante variadas. Yo contándome un chiste.
Hay buenos prompts de David Bowie. Vamos a verlo. Por ejemplo, me gustaría un estilo rollo egipto.
Vale, vamos a probar. Vamos a improvisar un poco. Había una low poly que estaba guapo también.
Egyptian. Vamos a poner Egyptian. Estamos rozando límites legales de YouTube y nos vamos a ir a
otro lado. Esto es lo que hay que tener cuidado con léxica. Egyptian Elon Musk.
Señor YouTube, perdóname. No lo hacía. No lo hacía. Se parece un poco a lo que teníamos
antes. Arroba policía. Ya. Está guapo aunque se parece mucho al estilo de antes. Vale,
bueno, pues voy a probar con David Bowie. Por ejemplo, imaginad que quiero una ilustración
como esta. Vale, a ver qué tenemos por aquí. Quiero algo más realista todavía. Quiero como
una foto. A ver esta. Ultra realistic illustration. Vamos a probar con esta. Bueno, es un poco la
anterior también, pero vamos a probar. Porque hay una cosa que me parece súper irónica de esta y
es que en el dataset no hay imágenes de tantísima calidad mías y de repente yo tengo la capacidad
de generar versiones mías mucho más artísticas, mejor iluminadas, con efectos, con cosas que no
existen. A ver. Wow. Entonces algo un poco más sexy de lo que soy. He de decir. Batman 12CV.
Ok. Molaría mientras busco dejar esto así un poco para que lo vayáis viendo. Vamos a dejarlo así
mientras. Os tapo un poco con la webcam, creo, pero así la búsqueda se hace un poco más entretenida.
Mira, por ejemplo, esta me flipa. Este rollo está muy guapo. Vamos a ver si lo hace. Imaginad que
quiero algo súper artístico para algún. Wow, esta también está chula. Ojo cuidado. Ojo cuidado.
Painting of full body concept. David Bowie. Fuera David Bowie. Entra 12CV. Vamos a darle.
¿No os parece una locura todo esto? Todas estas imágenes que estáis viendo están saliendo. Ojo
cuidado. Todas estas imágenes que están saliendo salen de un archivo de dos gigas. O sea, un único
archivo de dos gigas. Solo. Está todo ahí. No estoy saliendo. ¿Dónde estoy amigos? Ojo con mi buga.
Cambia la resolución, es verdad. Toda la razón. Toda la razón. No me he fijado en esta. Esta era
7.512.704. 512.704, ¿cierto? Toda la razón. Vamos a darle. Estilo Kratos de God of War. Vamos
a darle. Vamos a dejar esto por aquí, generando. Vamos a poner Kratos.
Vale. Hostia, el de Kratos va a salir guapo. ¿Cuál nos gusta? Este me gusta, por ejemplo. Este me gusta
como más realista. Me gusta. En realidad me gusta cualquiera. All right. Ojo, esta está guapa.
Esta me gusta. Digo la mía de aquí, esta de aquí. Esta está chula. Vale. Última prueba y pasamos a
contaros cositas. Vamos a. Kratos. Vamos a poner aquí..csv. Voy a poner.csv. Kratos. Blah, blah, blah.
No me he fijado en este caso. Vale, 512.512. Todo correcto. Esta ha salido un poco rara.
Ojo, ¿eh? Vámonos. Vámonos, el dios furioso.
Ostras, qué guapo, tú. Hola. Qué bien clava mi inspectoral. Es siempre la IA, ¿eh?
Yo creo que soy el único que está flipando aquí, ¿no? A vosotros ya os parece todo normal. Nada
nuevo bajo el sol. Os parece súper normal esto. Que una IA pueda generar. Y esta no la sé también,
¿eh? O sea, no está sacando tanto mi cara. Pero en algunas es como yo puedo dejar aquí generando
50 imágenes, 100 imágenes y en alguna va a salir bastante bien. O sea, esto, como estaba diciendo
antes, es la otra mitad. Hostia, esta está guapa también, ¿eh? Esta es la otra mitad que le hacía
falta StableDiffusion. Control. StableDiffusion puede generar cosas muy guapas. Hay mucha gente
que decía, Dalí 2 no es tan potente. O sea, perdón. StableDiffusion no es tan potente como Dalí 2
porque Dalí 2 consigue generar mejores imágenes de lo que le pides. Es cierto, pero porque StableDiffusion
quizás es mucho más complicado a la hora de generar un input. ¿Qué pasa? Que al ser gratis,
al ser abierto y todo esto, la gente ha podido crear recursos como esto haciendo que StableDiffusion
cada vez sea más útil. Y bueno, ahora que ya existe esta forma de controlarlo, a partir de
generar conceptos de poder entrenar tus versiones del modelo y poder compartirlos con la gente,
pues ya esto se va de madres. Esto, por ejemplo, para quien quiera crear una historia, para quien
quiera crear una novela, una película, el último vídeo que dije, ¿puede una inteligencia
artificial crear una película? Cada imagen que yo iba generando era inconsistente. Cada personaje
cambiaba, cada entorno cambiaba, cada estilo cambiaba. Ahora podemos entrenar a la IA para
que tenga diferentes conceptos, estilos, lugares diseñados por nosotros, a lo mejor fotografiados
o generados con Nerf o lo que sea. Y esto se lo podemos enseñar a StableDiffusion y podemos
combinar todo para generar una película que sea consistente en todas sus partes. Esto está
explotando. Esto está empezando a ser una barbaridad. Vamos a probar esta última y pasamos a hablar de
cositas. A ver, DotsSV, Ascratos. Podríamos estar todo directo haciendo imágenes, realmente. Luego
haremos más, luego haremos más imágenes y probaremos el inpainting para que veáis también
cómo se suma la forma de generar imágenes con inpainting, pero quiero explicar cositas. Esta
también está guapa. En este caso, la IA tampoco lo tiene tan complicada. Genera a alguien calvo y
con barba y salgo yo. Esta es la versión moderna, ¿no? El príncipe de Dubái de Kratos. ¡Hostia!
A ver, perdón. Kratos, Kratos. DotsSV como la estatua a la libertad. No sé por qué sale...
Ah, bueno, onda porque pone onda atrás y tuxedo porque sale tuxedo. Hay una mezcla ahí de
de prompts raros. Vale, voy a poner DotsSV as the statue of liberty. Highly detail. Voy a poner
photograph. Photograph of DotsSV as the statue of liberty. Vamos a darle a generar. Esta versión
actualizada... A ver, aquí nos sale... Uf, está nervioso, ¿eh? Aquí es complicado, creo. Bueno,
no sé si entra el bigote, pero es un poco más complicado porque la estatua de la libertad también
es un concepto que está muy viciado dentro del dataset de stable diffusion. Entonces, es como pedirle
générame a Elon Musk como DotsSV. Es como, a ver, ¿qué quieres, a Elon Musk o a DotsSV? Nosotros sí
entendemos qué es lo que queremos obtener, ¿no? Una versión de la estatua de la libertad con mi cara,
pero para eso luego nos va a venir bastante útil el uso de in-paintings, ¿vale? Eso lo veremos
luego. Última. Photograph of DotsSV as Batman. Trending on Art Station. Vamos a ver.
Que ponga esto más para acá.
Este directo va a estar subido, por cierto, ¿eh? Lo vais a tener enterito aquí en el canal. A ver...
Danos algo bueno. Voy a buscar el input de Batman. Como veis, yo no soy un prompt engineer,
soy un prompt copy-copist. Vamos a poner Elon Musk Batman. Vale. Alguna que sea... Vamos a ver.
Esta podría estar bien. Vamos a probar esta. Vamos a probar esta. Ojo, ¿eh? Bueno, aquí está,
aquí estoy. Es como con máscara y sin máscara. A ver si ha salido alguna. Sale un poco, ¿eh? En
alguna intenta salir como mi boquilla, con la barba. Pero no es lo que estamos buscando en el Portrait of.
Voy a poner DotsSV aquí. Y vamos a verla general.
O sea, esta tecnología es espectacular. Y van a salir más cosas, ¿eh? Ya me están comunicando.
Está rosa a lo peligroso. Aquí se le ha olvidado el traje al colega. Espérate a ver. Tengo miedo,
¿eh? Vale, vale. Fija los detalles. No son perfectos, pero como siempre, la imagen tú la ves y... Ojo,
¿eh? Aquí perdemos cosas, pero esta está guapa. O sea, esta puede ser una foto mía disfrazada en
carnavales de algo. Está bien esto también. Vamos a ver. Vale, bueno, aquí se puede... No soy yo,
pero porque sale como muy musculado también la cara, ¿no? Sale con una mandíbula prominente. Esta
sí. Esta sí es buena. Aquí sí identifico mi barbilla. Esta sí está bien. Esta está muy bien.
Está mola. Esta sería la ganadora de este set. Está mola. Y esta... Hay algo, pero no. O sea,
ya me gustaría esos ojitos azules. Tampoco, tampoco. Bueno. Bueno, bueno, bueno. Espectacular.
Vamos a ver. Vamos a ver. Dejadme que recupere aquí la línea de pensamiento. Primera cosa que os he
dicho. Actualizad. Os recomiendo muchísimo. Los que estáis trabajando en local, actualizad la interfaz
para trabajar con NMK de StableDiffusion GOI 1.4, que esta versión funciona bastante bien y os va
a servir mejor cuando trabajáis con el modelo de StableDiffusion. Os voy a contar un poco cómo ha
sido el proceso que he seguido yo para entrenarlo. Yo esto lo entrené ayer a partir de ver el vídeo
que seguramente muchos de vosotros conoceréis, que salió también ayer y lo apetado muchísimo,
de la gente de Corridor Digital. ¿Vale? Corridor Digital es un canal de efectos especiales americano
que últimamente se está metiendo también en la parte de Inteligencia Artificial en la medida en
la que la Inteligencia Artificial está generando cada vez herramientas más potentes de todo esto,
de generación de contenido, ya sea audio, vídeo, imágenes, etcétera. Entonces han hecho un vídeo
bastante potente donde demostraban esto y a partir de esto es donde la comunidad pues se ha visto
motivada a intentar trabajar sobre el paper, que es DreamBuzz, que ahora os lo voy a enseñar.
Se han puesto a trabajar para optimizarlo cada vez más y hacer que el entrenamiento de esto
sea cada vez más posible. Como digo, este vídeo salió ayer con uno de sus personajes, perdón,
personaje no, miembros. Y tenemos aquí a esta persona y han entrenado para que si tú le pides
pues lo mismo. Lo que estamos viendo ahora es una foto de Sam Gorski riéndose y sale esto.
Bastante guapo.
Vale, como si fuera un fotograma de una película en The Matrix.
Esa está guapa. Vamos a probar esta a ver si esta funciona.
A ver si han puesto realmente los inputs originales o han tocado algo. Esto podría
ser movie still of dot.csv as Morpheus from The Matrix. La versión que nunca se publicó,
que es la que protagonizé yo. Vamos a subirle la resolución como ellos y le damos a generar.
Vamos a ver si será alguna. Yo creo que ellos habrán seleccionado los mejores ejemplos, pero vamos a ver.
Ojo, un poco mano de té también te digo.
Un poco la mano de té. A ver, quiero ver vuestros comentarios. Ahí está. Vale.
Es la versión negra mía. Ojo, esta buena. Esta entra fina. Esta me ha gustado muchísimo. Esta está
muy bien. Esta está muy bien. Qué guapo. Aquí la versión un poco Will Smith. Esa está muy guapa,
la que hemos sacado. A ver. Esta es la versión que te llega luego con AliExpress. Will Smith,
sí, por algún motivo ha convergido en que Morpheus y dot.csv igual a Will Smith. Espectacular. Esta
me la voy a guardar como... Esta también está guapa, aunque poco Morpheus veo ahí. Bueno, pues este
vídeo de Corridor Digital salió ayer y ahí fue donde compartieron. Qué guapo. Luego hacemos más
ejemplos. Nos pedimos como un render 3D o como... Qué guapo. Entonces aquí ellos compartieron el
enlace para poder entrenarlo a un repositorio. A un repositorio de GitHub que tenéis el enlace ya
en este directo abajo. Si vais a la descripción lo tenéis allí. ¿Vale? Podéis entrar también.
Y entonces, esto es un GitHub de Joe Pena. El señor Joe Pena. ¿Qué ha hecho aquí? Pues... Bueno,
de hecho creo que ha actualizado un poco el repositorio. Ahora estoy dudando si el repositorio ha
cambiado o qué. Vale. OriginalRedmiFrontShaverXiao. Vale, vale. Sí, este fue el que leí yo ayer.
Como digo, esto está cambiando muchísimo en las últimas horas, entonces os voy a explicar cómo lo
he entrenado yo, os voy a recomendar cómo lo vais a entrenar vosotros y os voy a recomendar un
cuaderno de Colab que no sé si funciona porque acaba de salir hace nada. ¿Vale? Hace nada. Pero
antes os tengo que hablar de el patrocinador de este directo porque este directo está patrocinado
pero no es un patrocinador rollo. Te traigo una VPN sino algo que os pueda interesar. Casi siempre
intento que los patrocinios sean cosas que os interesen de una forma u otra. En este caso es
un patrocinador que repite, es el Instituto de Inteligencia Artificial, el IIA, que muchos
conoceréis porque ya ha patrocinado varias veces aquí en el canal. Es un máster que yo colaboro,
que yo participo dentro de él, como uno de los ponentes que participo y este máster está llevado
por Andrés Torrubia, Miguel Ángel, bueno, os enseño mejor los profesores y Aurelia Bustos.
Estos tres cracks, estas tres cracks, que son la hostia. Andrés Torrubia lo hemos visto muchas
veces aquí en el canal, es Kaggle Master, es un personaje que ha aprendido deep learning de
forma autodidacta y que se fue a participar a una competición en China de conducción autónoma y la
ganó, así entre otras tantas cosas. Es una persona que sabe muchísimo de deep learning pero
también sabe mucho de emprender. Entonces, ¿por qué digo esto? Porque este máster está muy enfocado,
no a la parte técnica, no es un máster técnico, esto lo he comentado siempre, es un máster que
está orientado a coger todo esto que está saliendo, todas estas tecnologías, todo este valor. Ya no
sólo en generación de imágenes, están saliendo cosas de computer vision super potentes que os
quiero contar, están saliendo modelos que generan 3D, están saliendo modelos que generan audio,
están saliendo Whisper de OpenAI, hablaremos en el próximo vídeo espectacular, están saliendo
un montón de tecnologías que cuando las conectas, hay un montón de productos que pueden surgir. Hay
cosas muy locas que de verdad os quiero contar aquí en el canal y entonces vosotros ahora mismo
estáis en un momento especial porque vosotros podéis ser también partícipe de toda esta revolución y
no tenéis que saber tanto de inteligencia artificial, esto ya no va de entrenar modelos,
sino de empezar a utilizar todas las herramientas que se están librando por la comunidad open source.
Entonces este máster está muy bien porque está orientado para la otra parte, para saber cómo convertir
en proyectos reales, cómo productivizar, cómo sacarle valor a todo esto y lo vais a hacer pues
a través de un montón de sesiones en un máster online, vais a aprender parte teórica, vais a
aprender conceptos, vais a hablar de transformers, vais a hablar de gpt3, vais a hablar de stable
diffusion, vais a hablar de todo esto pero desde una perspectiva mucho más de alto nivel, para
entender qué es, cómo lo podéis aplicar y es súper interesante porque luego esto se combina
además con un montón de ponentes, donde estoy yo aquí, cada semana vais a tener un ponente
diferente de diferentes ámbitos, pues por ejemplo yo voy un poco a contar la imagen completa de lo
que ha pasado en el mundo de la IA, pero tenéis gente de Venture Capital, tenéis gente que se
dedica a derecho por ejemplo, pues para saber todo el tema de legal que puede haber con todos
estos modelos, tenéis inversores, tenéis gente de compañías, tenéis a Victoriano que es un crack
que me lo quiero traer aquí al canal y siempre lo digo, bueno un montón de gente, de Javier y de
Ami que también estuvo aquí cuando hicimos la presentación de Dalí, yo creo que para cada ámbito
de la inteligencia artificial, para cada una de los universos que hay, para cada una de las conexiones
que pueda haber con el mundo de la IA, creo que han conseguido de lo mejor que pueden conseguir,
Javier de Interfons, un montón de gente súper potente y cada semana vais a tener una ponencia de
estas, entonces al final lo bonito de este master no es sólo la parte de todo lo que aprendes,
sino el networking y la red de contactos que vais a tener que es brutal, yo si participáis en este
master y sé que mucha gente que me ve al final se acaba apuntando y luego nos conocemos y nos vemos,
mi recomendación es que vayáis a la última sesión, que la última sesión es presencial y
es donde conocéis a mucha de esta gente y si tengo la posibilidad de ir me conocéis a mí,
yo siempre intento ir porque me encanta y es de los momentos más especiales del año porque
realmente conocéis gente y se dan conversaciones súper súper interesantes. El master, precios,
condiciones y cosas, el master no es barato, es barato, es precio de master pero digo que no es
barato en cuanto a desembolsar 4000 euros de golpe, es un precio que hay que tomar una decisión ahí,
hay que pensárselo, reflexionar bien si os interesa, a lo mejor si estáis buscando un master técnico,
este no es vuestro master, si estáis buscando algo más a nivel de como soy directivo de una
empresa, tenéis un proyecto personal, queréis empezar a entender este mundo de una vista de
productos, si os puede interesar bastante, este master cuesta 4000 euros con un código de descuento
que tenéis gracias a mi canal.csv300, código.csv300 está bajo la caja de descripción, tenéis un
descuento de 300 euros, el master es online, el master es para todo el mundo, en abierto me
refiero y poco más, está a punto de empezar el 15 de octubre realmente, estamos en las últimas
semanas, estamos a dos semanas de que cierren filas, así que si queréis apuntaros tenéis
que apuntaros ya, vale esto ya está en marcha, podéis hablar con los profesores también,
seguramente Andrés Torrubias se pase en algún directo en las próximas semanas antes de que
cerremos y poco más chicos, chicas, si tenéis alguna duda me la dejáis abajo en los comentarios
y ya yo o alguien del equipo de profesores se pasará por aquí, bastante chulo, bastante
recomendable y este es como digo el patrocinador de este directo. Dicho esto, amigos y amigas,
dónde estábamos, estábamos comentando algo, ay que no lo he dicho por cierto, hoy vamos a
decir quién ha ganado la tarjeta gráfica de Nvidia, la 3090, lo vamos a decir al final,
es que son muchas cosas. Bueno, cómo entrenamos a stable diffusion para que aprenda tu cara,
cómo lo he hecho yo en mi caso, nos estaba comentando, este repositorio de aquí es el
que yo ayer me encontré y el que me puse a probar, qué pasa con este repositorio, que
de primeras ya te está avisando, ya te está avisando de que es necesario, bueno, vale,
va bajando, es muy gracioso esto, ayer esto estaba destachado y ponía que necesitábamos
una tarjeta A6000, una tarjeta A6000 tiene aproximadamente, cuesta aproximadamente 4.000
dólares creo, 4.000, 5.000 dólares y es una tarjeta gráfica que tiene 48 gigas de
RAM, que tengo en mi ordenador, 48 gigas de RAM es muchísimo y eso significa que lo que
podría explicar ahora de cómo se instala todo esto, a muchos de vosotros no os va a
servir, pero esperad un poco, esperad un poco que ya llegaremos a vuestra situación, de
momento yo que hice ayer, pues me descargue el repositorio en mi ordenador, no tiene mucha
ciencia, te descargas el repositorio, te vienes para, a ver si lo hago bien, te vienes en
el repositorio dreambooth, te vas a descargar todo este repositorio de aquí y en este repositorio
si os fijáis, os lo voy a ampliar un poquito, hay un cuaderno, un archivo.ypynv, un archivo
.ypynv es un interactive python notebook, es decir un notebook tipo google colab pero
que vas a ejecutar en tu ordenador, en concreto es este de aquí, este es el que yo estoy
ejecutando en mi ordenador, y este notebook vosotros lo ejecutáis en vuestro ordenador
y os va a seguir por los diferentes pasos para poder instalarlo, está pensado para
la instalación en linux, entonces vais a tener que ir modificando algunos comandos,
pero bueno, yo lo que me hice fue generarme con anaconda un entorno virtual para poder
instalar todas las dependencias y que no se me generaran incompatibilidades, fui ejecutando
cada celda, pasito a pasito suave suavecito, instalas todas las cosas, sigues instalando
cosas y vais leyendo, es importante ir leyendo cada una de las cosas que hay aquí, este
proceso os va a pedir que hagáis lo siguiente, esto lo que estamos entrando aquí es una
implementación de un trabajo que se llama dream booth, que es dream booth, os lo enseño,
dream booth fue el paper que salió de google donde se explicaba exactamente lo que estamos
haciendo ahora con stable diffusion, si buscamos dream booth por aquí, no, esto no es, es
el segundo, nos vamos al proyecto de google y este es el proyecto original, este es el
paper que este github que estamos viendo ha implementado y básicamente pues es lo que
hemos probado hoy, en este caso ellos lo implementaron al ser gente de google research, lo implementaron
sobre imagen, pero se ha podido implementar también con stable diffusion, entonces tu
puedes coger varias imágenes de entrada y luego empezar a utilizar esas imágenes como
referencias en la siguiente, entonces para, bueno eso está chulo, lo voy a enseñar rápido,
aquí se ve un ejemplo de como si tu quisieras crear este objeto, este reloj que a lo mejor
tu lo tienes en el dormitorio de tu casa, dream booth te dice mira si tu lo intentas
hacer con dali2, con dali2 te va a generar una imagen como esta, si tu intentas por ejemplo
darle una imagen de referencia y utilizar una variation, dali2 va a entender que es
un reloj, que es amarillo, que tiene un numero 3, pero no te va a salir el mismo reloj, si
lo haces con google imagen describiéndole con texto que es lo que quieres, pues un reloj
amarillo que tenga el numero 3 dibujado te va a generar esto, pero de nuevo no se parece
a tu imagen original, donde está la cosa, bueno pues si usamos el dream booth que ellos
han implementado, fijaos como las imágenes que salen, aunque da maldito miedo la mano
que coge el reloj, fijaos bien en la mano que tiene dos pulgares, vale, a ver quiero
leeros, es un reloj que tiene aquí pues pulgares y pulgares, pero fijaos como efectivamente
aquí está el reloj exactamente como el original, vale, este es el trabajo que ha hecho google
que es espectacular, y ahora os enseño rápidamente esto porque así vais a entender mejor como
funciona, pero mirad los ejemplos, esto ya lo vimos en el directo anterior que hicimos
sobre stable diffusion, pero bueno, tienes estas imágenes, pensad que sois por ejemplo
en una tienda que tenéis un nuevo producto, una gafas, y de repente tu coges y dices quiero
esta gafas, pero donde veis aquí el corchete V significa el elemento que hemos entrenado,
a sunglasses, bueno a este estilo sunglasses in the jungle y te genera la gafas, un oso
llevando esta gafas te la genera, esta gafas con la torre Eiffel de fondo te lo genera,
la mochila te lo hace también, perfecto integrado en todo, este jarrón te lo pone, oye este
jarrón metido en el océano y te lo hace, fijaos aquí que dado que google imagen y
dalí son mejores que stable diffusion visualmente generando cosas más realistas, las imágenes
aquí son espectaculares, o sea esta imagen puede ser una foto real, esto puede ser una
foto real, la tetera igual, la tetera sirviéndola, pues quiero esta tetera pero transparente
y rellena de leche, te lo hace, esto es impresionante y fijaos como también sirve para hacer lo
que estaba yo probando antes, una escultura clásica, un Rembrandt, un cuadro de Van Gogh,
el cuadro de la perla, muy chulo, entonces esto está muy guay, y la implementación
de aquí implementa este paper, ahora quiero que os fijéis que en este paper la forma
de funcionar así a grandes rasgos requiere dos cosas, por una parte las imágenes de
referencia que vas a utilizar, es decir tú quieres entrenarla para que conozca quién
es tu perro, pues necesitas generar aquí te dice aproximadamente 3 a 5 imágenes, yo
le he metido 20 y no pasa nada, entonces tenemos las imágenes del perrete y esto lo que le
pida la IA es que aprenda a generar para este input a del perro, pues le intentas hacer
que te genere estas imágenes por un lado, pero luego por otro lado, esto a lo mejor
no todos lo vais a entender pero para los que sí controláis de estos diagramas, por
otro lado lo que necesitamos también es entrenar a la IA en paralelo, por una parte le entrenamos
para que entienda lo que es tu perro, pero luego también le vamos a entrenar al mismo
tiempo sobre qué es el perro, el concepto perro, la clase perro, porque si no lo que
va a pasar es que seguramente la clase perro se la va a acabar comiendo tu perro por así
decirlo, la típica excusa se la comió mi perro, pues literal, es decir cada vez que
intentes generar una imagen de un perro va a salir tu perro y tú no quieres eso, tú
quieres que tu perro salga cuando digas tu perro, entonces necesitas este dos set de
imágenes, por una parte imágenes de tu perro e imágenes de la clase a la que quiere pertenecer
tu dataset, por eso aquí cuando tú vas a ejecutar dream booth en tu ordenador, tal
cual yo lo hice ayer, lo primero que tenemos que generar son las imágenes que aquí le
están llamando regularization images, imágenes de regularización, estas imágenes que representan
el concepto que tu dataset representa, si es tu perro, pues imágenes de perro, si es
dos ccv, cual sería la clase que estamos compitiendo con? Pues la clase persona, verdad?
Entonces aquí ya esto como entiende que lo vas a utilizar para esto, te dice mira lo
primero que vamos a hacer cuando ejecutes esta celda es generar 400 imágenes con stable
diffusion, 400 imágenes de personas, vamos a generarlas, ya que necesito un dataset de
estas imágenes pues las genero, y estas imágenes, pues las puedo enseñar, estas imágenes,
training samples, estas no son, estas son las mías, regularization images, a ver si
son estas, vale, bueno, son estas imágenes, cuando tú le das a generar personas salen
estas imágenes, pues con esto ya podemos entrenar a stable diffusion y estas van a ser
las imágenes de regularización que vamos a utilizar, generadas automáticamente, podéis
generarlas si ejecutamos esta celda o podemos descargar desde su github, no te deja descargarnos
como las que él ha generado y entonces es mucho más rápido, si no tenéis un ordenador
potente en vez de generar 400 imágenes la descargáis y ya está, luego lo siguiente,
esto es para crear directorios, tal tal, vais ejecutando cada una de las celdas, vais generando
cada una de las celdas, ejecutándolas, te dice que te recomienda entrenarlo para personas
y tal, pero podéis probar por ejemplo con otros conceptos como man o woman y a ver qué
sale, pero esta yo me la salté, yo simplemente ejecuté la anterior, esta de aquí, y ahora
te dice, sube tus imágenes de entrenamiento, tus imágenes de entrenamiento aquí te recomienda
subir entre 10 y 20 imágenes, 2-3 imágenes de cuerpo completo, 3-5 imágenes de medio
cuerpo para arriba, 5-12 imágenes más cercanas de tu cara, vale, entonces, pero esperad,
este no es el que voy a recomendar instalar, o las puedes subir desde google drive, yo
lo que hice fue coger, me saqué unas cuantas fotos, cogí de redes sociales y la metí
en la carpeta que me dice que la tengo que meter, que es la que pone aquí, estos son
los pasos más o menos a seguir, y cuando esto ya está lo que tenéis que hacer es
ir a un archivo, que te lo pone aquí, al archivo dreambooth, LDM, data, personalize
y aquí le pones el token que tú quieras, vale, yo este archivo, a ver, me ha dicho
que estaba en dreambooth, LDM, data y personalize, vale, si yo esto lo abro, me da igual con
el bloc de notas, me vale, vais a ver que yo aquí le he metido el token, el token dot
ccv, entonces con esto, aquí donde tú configuras el token que quieras, yo aquí podría haber
puesto carlos santana si me apetecía, vale, pero he puesto dot ccv porque es más corto
y más fancy, entonces con esto, yo ayer hice todo eso y lo único que queda es entrenar,
para entrenar seguís ejecutando la celda, esta celda de aquí y la siguiente y ya con
esto pues empieza el entrenamiento, ¿cuánto tarda?, pues más o menos 40 minutos en mi
ordenador, a vosotros os puede tardar más, os puede tardar menos, cuando hacéis esto
os va a quedar un modelo, un archivo de checkpoints, que es el archivo que vais a utilizar para
generar imágenes, en mi caso el modelo estaba en logs, aguantad, aguantad conmigo, esto
es interesante, es el archivo de checkpoints, este es el archivo, este es el stable diffusion
que vimos la otra vez, cuando tú trabajabas con la versión de windows o en google colab
tú tenías que descargarte un modelo, el stable diffusion original, en este caso este
es el archivo que estamos generando ahora, es la versión nueva de stable diffusion que
ha aprendido tus conceptos tras 40 minutos de entrenamiento, fijaos que el tamaño del
archivo, no sé si lo llegáis a ver, pone 11,2 gigas, 11,2 gigas, esto es mucho, esto
es muchísimo, es un archivo grande, por suerte este notebook que él nos deja también nos
da un sistema para eliminar parte de la información que se ha usado en el entrenamiento y hace
un proceso de pruning, que simplemente lo ejecutas, yo ejecuto la celda y está en mi
ordenador calculando, bueno y cuando termina de ejecutar se tarda muy poquito, tarda menos
de un minuto, pues te va a generar el archivo este de aquí, y este archivo es el mismo
archivo que no pierde apenas calidad, bueno yo no he detectado que pierda nada de calidad,
pero con este modelo, con este modelo amigos, aquí está un archivo de 2 gigas que incluye
la información del token.csv con mi cara, para que está entrenado, esto es la hostia,
porque en realidad yo el consejo que os iba a dar, antes de que pase todo lo que ha pasado
en las últimas horas, mi consejo era, nadie tiene una A6000 en casa para entrenar esto,
o la mayoría no lo tenéis, entonces mi consejo es, pagad un servicio de infraestructura en
la nube, que a lo mejor un día os va a costar, pues yo que sé, 20 dólares, no lo sé, pagad
una tarjeta potente, dedicar un tiempo a intentar entrenarlo, entrenadlo, obtener el archivo,
vale, con el archivo ahora ya te vas a tu ordenador o al google colab con el archivo
de 2 gigas y ya puedes generar cosas, ya no tienes que tener la infraestructura en la nube,
has pagado un día por hacer eso, o buscado un amigo que tenga un ordenador potente y
con eso lo podéis entrenar, vale, lo entrenáis, sacáis el archivo y con ese modelo ahora
a generar imágenes de vuestra cara, vale, archivo de 2 gigas, por cierto, y sé que
muchos me vais a decir, me voy a poner serio, sé que muchos me vais a decir que soy un
inconsciente que no lo haga, pero da igual, tenéis mi archivo, mi modelo para descargar,
vale, os lo he puesto en la caja de descripción también, podéis descargar el modelo de 2
gigas y podéis probar a generar cosas, así con eso tenéis un ejemplo para ir probando
inputs y cuando ya tengáis vuestro propio modelo, pues los inputs que más os haya gustado,
podéis guardar hasta la seed incluso, los que más os haya gustado los podéis replicar
con vuestra cara, vale, pero tenéis mi modelo, podéis hacer travesuras, podéis, me da igual,
o sea, no me preocupa, si es que son 20 imágenes para entrenarlo, cualquiera podía haberlo
entrenado en media semana, vale, entonces tenéis el modelo para descargarlo, podéis
cogerlo, podéis combinar con todo lo que vimos la semana pasada de cómo instalar
stable diffusion en vuestro ordenador y con eso podéis generar imágenes de mi cara usando
el token 2sv, vale, lo tenéis ahí, para uso y disfrute, sed buenos, vale, esto va a salir
mal, vale, entonces esta es la forma en la que yo os recomendaba hacer esto, vale, aprender
a usar este notebook que más o menos hemos pasado por encima, pagar infraestructura en
la nube para tener una tarjeta gráfica potente o si tenéis acceso a un ordenador potente
porque lo tenéis vosotros o un amigo vuestro, utilizadlo, sacad el archivo y con ese archivo
ya podéis operar con un ordenador medianamente normal trabajando con stable diffusion, pero
es que el campo de la IA, el campo de la IA funciona mucho más rápido de lo que yo
ya soy capaz de digerir, vale, y en las últimas horas en Reddit ha salido lo siguiente, recordemos
que hasta hace un día para entrenar a stable diffusion necesitabas 48 GB de VRAM y de repente
en Reddit aparece esto, ¿qué os parece? A la mitad, 24 GB, ya no hace falta una A6000,
ahora con una 3090 se podría entrenar en local, pero no, es que en la última hora
en hace 3 horas, 4 horas, update, me escribe gente de Hug in Face, me escribe Omar Sanseviero
que es compañero y trabaja en Hug in Face y me dice Carlos, mira esto que le vamos a
hacer merch, que le vamos a meter en el repo y de repente lo bajan a 12,5 GB, ¿vale? Esto
en las últimas 24 horas, entonces claro, yo, o voy a intentar dar la información, no lo
he podido probar, no he podido saber si funciona o no, pero ya con 12 GB y medio ya podemos
empezar a hablar de nuevo a hacer el entrenamiento en Google Collab, ¿vale? Hacer el entrenamiento
en Google Collab y esto empieza de nuevo a ser interesante, entonces esto va a cambiar
mucho en las próximas horas, seguramente mañana pasado, pasado mañana y a lo mejor
hago un tutorial concreto solo para como entrenarlo cuando esté todo un poco más asentado, seguramente
aparezca ya un Google Collab donde lo expliquen todo bastante detallado, pero ahora mismo
recién salido del horno, alguien por aquí en los comentarios, alguien ha puesto lo
siguiente, a ver, a ver, a ver, a ver, bueno, perdón, hay que entrar aquí al Reddit este,
ahora os lo paso y bueno, ya han puesto aquí el Collab, ¿vale? Pues ya está, ya han puesto
el Collab, entonces no sé si este es el Collab que yo he probado antes, ¿vale? Estáis
conmigo, ¿no? Estáis flipando, ¿estamos todos flipando? Sí, ¿no? Este es el Collab,
sí, vale, este es el Collab que yo he probado, entonces lo he dejado ejecutando desde que
he empezado el directo, me voy a cambiar de pestaña y os lo voy a enseñar aquí, ¿vale?
Vamos a ver si hemos conseguido hacer algo, ¿vale? Yo os voy a compartir el enlace, lo
primero, lo tenéis también abajo en la caja de descripción, esta sería la versión, la
versión recomendable, es decir, hacer esto o descargar el repositorio de 12,5 GB, a lo
mejor ya en vuestro ordenador sí lo podéis entrenar, pero bueno, los pasos a seguir,
por eso me he parado a explicaros un poco cómo funciona esto de Dreambooth porque los
pasos a seguir no van a cambiar, ¿vale? Lo primero que te dice es, a ver, bueno, este
imagen no estaba antes, pero bueno, lo primero que te dicen es, vete a Google Collab, recordemos,
ya estamos trabajando con Google Collab, no estamos trabajando con nuestro ordenador,
sino con una máquina virtual que nos está regalando Google amablemente, yo en mi caso,
como tengo la versión Pro de pago de Google Collab, la Collab Pro, tengo acceso a mejores
tarjetas gráficas, pero vosotros podéis tener suerte y acceder a una buena tarjeta, tenéis
que tener en cuenta que aquí, en entorno de ejecución, cambiar tipo de ejecución,
este marcado GPU, que por defecto lo va a estar, ¿vale? Entonces, aquí lo primero que
nos dicen es, siempre vamos a ir ejecutando todas las celdas en orden, ¿no? Lo primero
que nos dice, ejecuta el comando de Nvidia SMI para ver qué tarjeta gráfica nos ha
tocado, a ver si hemos tenido suerte. Nos recomiendan que veamos que nos ponga aquí
una Tesla T4, ¿por qué Tesla T4? Porque esta tiene 15 gigas de VRAM, necesitamos 12,5,
pues 15 gigas nos viene perfecto, podemos entrenarlo con una tarjeta gráfica, repito,
que no es nuestra, es de Google, hasta que nos corte el chiringuito, ¿vale? Nos dice,
vigila que aquí ponga esto, ¿vale? Entonces, bien, vamos a ver, lo tenemos, perfecto.
Siguiente, instala las dependencias, ¿cómo lo hacemos? Pues le damos a este botón y
se ejecutan estos dos comandos, va a pasar cosa, van a salir textos, dejaos ir. Fluid
con el universo, ¿vale? Fluid. En este caso, pues se instala por una parte la librería
de Hugging Face de Transformers, cosas que necesitamos. Bueno, no pasa nada. Siguiente
paso. Hay que activar esto de aquí. ¿Cómo se activa? ¿Para qué preguntas? Tú dale
al botón y calla. Le damos al botón y se ejecuta la siguiente tal. Y entonces aquí
es cierto que no dice una cosa, no dice, oye, ahora cuando le deje ejecutar te van a preguntar
diferentes historias, ¿vale? Te lo pone de hecho aquí. Inicializa el Accelerate Environment
y simplemente clica 0, 0, no, no, no. Pues te va a preguntar, esto es lo que yo he ejecutado
antes. ¿En qué entorno de environment quieres ejecutar? En esta máquina, 0, venga. ¿Qué
tipo de máquina estás utilizando? No es sistema distribuido, fuera. ¿Quieres utilizar
solo la CPU o quieres utilizar la GPU disponibles, coño? Quiero usar la GPU, así que vamos
a marcarlo para que no haga solo 0, 0, no, no, no hagáis preguntas. Tiramos para adelante.
Siguiente. Ejecutamos aquí y nos logueamos con Hugging Face. Esto ya lo hicimos cuando
tuvimos que descargar el modelo de StableDiffusion. Tenéis que tener una cuenta en la página
web de Hugging Face, que es la que está teniendo todos los repositorios de los modelos, ¿vale?
Tenéis que haceros una cuenta aquí dentro y cuando tengáis una cuenta, pues hay una
sección que es la de Access Token, esta de aquí, donde vais a poder acceder a un token
que necesitamos copiar. Venimos para acá, copiamos el token. Está copiado. Nos volvemos
para acá. Y bueno, aquí os va a aparecer una ventana para ponerlo. No lo voy a ejecutar
porque quiero dejar todo el entorno hecho, pero bueno, aquí os va a salir y si todo
está bien os sale este mensaje en rojo, pero eso está correcto, ¿vale? Te dice autenticado.
Ole, para adelante. Siguiente. Aquí se vienen cosas importantes. Mira, en este caso estamos
copiando el repositorio de GitHub, el repositorio que tiene el código que vamos a utilizar.
Perfecto. Y ahora viene la parte de cargar nuestras imágenes. Aquí de manera opcional,
de manera opcional, ellos están utilizando. Estas cinco imágenes de los perretes. Vale,
cinco imágenes de perretes, porque el entrenamiento que yo he hecho ahora es el que ellos me guían
para entrenar a StableDiffusion para que conozca este perro, que si os dais cuenta era el perro
que teníamos antes en la página de Dreambooth en la parte de arriba del paper, ¿vale? Entiendo
que vosotros no queréis un StableDiffusion que haga perro. Vosotros lo que queréis es
un StableDiffusion que genere vuestras caras. Entonces aquí es donde tenemos que combinar
un poco lo que os he explicado antes de cómo hemos entrenado o cómo lo entrené yo ayer,
¿vale? Seguramente cuando ya este directo esté subido ya existe una versión que te
explique exactamente cómo hacerlo con tu cara solamente pulsando un botón, pero ahora no
existe. Así que de momento vamos con esta. Si sale una versión que yo considero que
va a estar mejor y mucho más fácil, haré un vídeo. Así que estad atentos, suscribíos
y toda la historia. Pero bueno, con esto aquí nada, simplemente están descargando las imágenes
del perrete y las están descomprimiendo. Entonces yo me he puesto a buscar estas imágenes
y aquí cuando hemos descargado el proyecto aquí a la izquierda tenemos la carpeta donde
se ha descargado todo el código de StableDiffusion y todo lo que vamos a utilizar. Dentro de
esta carpeta hay una muestra que pone examples. Y aquí en examples, no me acuerdo, en dreambooth,
carpeta dreambooth, que es el paper que estamos utilizando, hay una carpeta que se llama dog.
Pues ahí en vez de vosotros tener una carpeta de dog, yo lo que os recomiendo es tener
una carpeta que ponga person o.ccv o vosotros. Ahí es donde vais a poner vuestras imágenes.
Ok, bien. Tenemos que crear una carpeta donde vuestras imágenes estén colocadas. Oye Carlos,
¿cómo subo las imágenes? Pues las podéis subir así. Clicáis aquí en subir archivo
y las subís de vuestro ordenador a Google Collab. Con esto ya tenemos vuestras imágenes
subidas a una carpeta correspondiente. ¿Qué es lo siguiente que hacen aquí? Nada, descargan
el script. Esto lo ejecutáis. ¿Para qué preguntar? Le das al botón. Ok. Clicáis aquí.
Y ahora viene la parte de configurar. Aquí es donde tenéis que hacer las cosas bien
para no liarlas. ¿Qué hay que hacer bien? Pues lo que te pone aquí, que hay muchas flechas,
pero en realidad lo de las flechas es para llegar a donde yo he llegado antes, que era
clicamos aquí, luego clicamos en examples, luego clicamos en dreambooth, luego hay aquí
un archivo que se llama ran.sh. Este es el que tenemos que modificar. Clicamos dos veces.
Creo que ahora esto lo estoy tapando con la cámara. A ver si lo puedo poner por aquí.
A ver si lo puedo sacoplar. Bueno, voy a quitar la cámara de momento y ahora la recuperamos.
Ahí se ve. Entonces, en esta parte es donde tenéis que configurar bien las cosas. Y si
no me equivoco, lo que tenéis que hacer es, por una parte, aquí decir cuál es el nombre
de la carpeta que has creado. Pues yo he creado la carpeta.ccv. Pues.ccv. Palante. Luego,
dónde queremos guardar el modelo? Aquí. En output dir ponemos dónde queremos guardar
el modelo. En nuestro caso se va a guardar en la carpeta model, que es esta carpeta de
aquí. Y luego, ¿cuál es la clase? A ver, la class directory. Entiendo que dónde están
las imágenes de perros que vamos a generar. Vale, hemos usado la misma carpeta, la de
dog, para generar las imágenes de perros. Entonces, bueno, ahí simplemente poned estos
dos nombres iguales, pues a lo mejor person. Yo lo que haría aquí en este caso sería
así, si lo quisiera hacer para mí. No lo he probado, pero lo dejaría así.ccv, person
y model. El nombre del directorio donde están mis fotos, donde quiero que se guarden las
otras imágenes y donde va a guardarse el modelo. Y lo siguiente que tenéis que modificar,
y es lo único que tenéis que hacer y ya está, es cambiar esto. ¿Qué es esto? El
instance prompt es el input que va a ser referencia a ti, a foto of, a sks, dog. Sks es el token
especial que usaban en el paper. Nosotros vamos a utilizar, pues yo que sé, a.ccv,
dog, si lo estuviera haciendo de mi perro. Si lo estuviera haciendo, si lo estuviera
haciendo como Excel de ayer, el mío, yo aquí pondría.ccv. No lo he probado, pero creo
que así es como funcionaría. Y aquí person. Y con esto guardamos, habrá que darle a guardar.
Bueno, se guarda automáticamente. Y con eso ahora sí, ejecutamos. Cuando ejecutamos,
esto debería empezar a generar, lo primero, las imágenes. Va a empezar a generar 40 imágenes
o 50 imágenes de perros o de personas o de lo que sea la instancia que hayamos decidido.
Y yo lo he dejado corriendo y ha generado las imágenes. Eso lo ha hecho bien, pero
veo que ha salido un error y esto es lo que ya no sé dónde, dónde puede haber fallado.
Vale. Vale, va. Train it beta. Vale, aquí ahora mismo, cuando yo lo he ejecutado del
colap, tal cual estaba en Reddit, salta este fallo. Seguramente hayan todavía fallos y
ese es el problema de momento de estar utilizando esta versión. Yo digo, esperad unas horas
hasta que se solucionen todas las cosas y va a aparecer una versión que funcione. Seguramente
cuando esté solucionado ejecutáis ram.sh y se va a ejecutar correctamente. Va a estar
ahí un rato, da igual, no es vuestro ordenador, no es vuestra electricidad, no es vuestra
factura. Simplemente es Google dándote energía gratis. Entonces, cuando esto esté ejecutado,
tarde lo que tarde, en la carpeta model deberá aparecer el archivo. Ese archivo, guardadlo
en vuestro ordenador. ¿Cómo? Pues imagina que el archivo está aquí dentro. Imaginate
que el archivo es 10.jpg, pues le das a descargar y ya está. O lo descargáis en vuestro ordenador
y ya está. Con eso ahora ya podéis ir a vuestro StableDiffusion en vuestro PC. Por
ejemplo, yo antes tenía aquí ejecutado el StableDiffusion. A ver, donde estoy? Aquí.
Vale, pues yo tengo mi versión de StableDiffusion. De hecho, ni siquiera es esta la que quiero.
Pero está. Pues yo tengo aquí el modelo descargado, lo tengo metido en la carpeta
models y ya está. Tengo aquí mi versión de StableDiffusion. Como digo, no es trivial
y esto seguramente mejore con el tiempo y se haga mucho más sencillo y hoy yo os lo
contaré cuando esté disponible. Pero en el momento en que sea un poco técnico y entienda
un poco y haya seguido hasta aquí lo que hemos hecho, esta es la versión más válida
para poder entrenarlo en vuestro ordenador o en Google Colap. Bien. ¿Cuántos habéis
aguantado la parte técnica? ¿Cuántos habéis aguantado la parte técnica? Y sí, ese archivo
lo podéis utilizar en Google Colap. Vale, lo podéis utilizar también en Google Colap
para generar imágenes allí. Perfecto. Se ha hecho muy coñazo. Me preocupa que sea
muy coñazo, pero es importante. Vale, o sea, si lo queréis empezar a utilizar ya tenemos
que pasar esta odisea. Ahora vamos a seguir generando imágenes. ¿Qué paso? Estamos
aquí. StableDiffusion en inferencia, no mucha. No sé cuánto pide, pero no mucha. Creo que
está. Hay versiones super eficientes que están como 6 gigas. Vale. Cámara, perdón,
claro, claro, no me estáis viendo. Perdón, esto está siendo muy anticlimático. Vale.
Tenemos que pasar esta odisea. Esto tenía que ocurrir, teníamos que explicar la parte
técnica. Así el que lo quiera intentar, pues aquí está. Ya os digo, a mí no me costó
mucho. Ayer por la tarde lo pude hacer, evidentemente, con la otra versión que ahora mismo si tenéis
una 3090 podéis hacer con la versión que yo utilicé, pero podéis también utilizar
la de 12 gigas y pico que está bastante bien. Y aquí estamos. Hemos hablado del Colap.
Y nada, pues vamos a generar un par de imágenes más. Recordemos que todo esto lo estamos
haciendo para conseguir cuerpos esculpidos como el que hemos visto antes en mío. Vamos
a ejecutar de nuevo Dreambooth. Esta canción no me gusta. Un momentito, vamos de nuevo
aquí mejor. Vamos a ejecutar StableDiffusion y vamos a hacer un par de pruebas más. Cuando
esté todo hecho, pues ya podréis de nuevo acceder a la magia de poder generar cualquier
versión vuestras. En un futuro lo que va a pasar es que la gente empezará a compartir
en internet conceptos. La gente compartirá archivos o vectores o entrenamientos que a
lo mejor identifiquen, pues, yo qué sé, a todos los superhéroes de Marvel. Entonces
vas a poder hacer una película donde salgan todos los superhéroes de Marvel o el entorno
de un desierto que ha diseñado tal diseñador en 3D que ahora está recogido en un vector
y lo podemos utilizar todo. Va a ser una locura. ¿Qué podemos hacer? Pues, por ejemplo, vamos
a pillar aquí un input. Hostia, ¿este quién es? ¿Vladimir Putin? No sé yo si va a salir.
No se parece a Vladimir Putin, así que no se va a parecer a mí en ningún caso. Recordad
que hay que pillar inputs que se vea claramente a la persona. Vale, por ejemplo, este me mola.
Vale, este me mola, este estilo. Vamos a ver si lo consigo reproducir. Vamos a probar.
A highly detailed of.sv. Vamos a darle. A ver qué tipo de guidance pide. 12. Vamos
a subir la creatividad. 12. Vamos a darle a generar. Vamos a ver qué sale. Sale bien,
sale mal, sale bien, sale mal. O sea, recordemos que antes hemos generado esto. Vale, que esto
es una realidad. O sea, que esto existió. Ojo, ¿eh? Vale, la primera tarda un poco más
porque tiene que cargar el modelo de Stable Diffusion. Vamos a ver. Vale, está, ¿no?
Las dimensiones. Vale, está bien. Pero fijaros que guapa la luz, ¿no? ¿Cómo genera la luz
de la frente y del cuello? Está súper bien iluminado en realidad. La forma no tanto.
Vale, esta me gusta. La resolución, sí, aquí la he dejado un poco más larga, pero
bueno, no debería ser tan poco problemático. Esta está muy guapa. Estas están guapas.
Es que son como un poco caricaturas, sin ser súper distorsionados, son como caricaturas
de mi cara. Pero es muy loco, ¿eh? O sea, no lo supero, que esto exista. Vamos a probar
otro input, a ver. ¿Qué más tenemos por aquí? Vamos a probarlo como saliendo en películas
que me gustó antes la de, la de Matrix. A still of dot c c v in harry potter movie 2001,
¿no? Creo que es la película 2001. Vamos a ver. Oh, estilo Pixar también puede estar
guapa. Vale, esto supuestamente es en Harry Potter, que me he colado en el banquete de
Hogwarts y me estoy tomando ahí un. Esto era, yo salía de extra en la escena de King
Cross, yo conducía por detrás, era un coche. Aquí llegando a Hogwarts en mi limo. Vale,
no sale. A ver, por ejemplo. Harry Potter. Harry Potter movie. Voy a ponerle cinematic
a ver si sale. Vamos a ver, hostia, qué guapa, rollo Zeus. Bueno, el render, vamos a probar
un render. Aquí llegando a Hogwarts. Con la bata y todo. Vale, esta no. Voy a subirle,
no, perdón, de hecho no le voy a subirle, voy a bajar la creatividad, a ver si con esto
conseguimos un poco más. A ver, vamos a subir un poco también la resolución. Parecen
a la cárcel más que en la peli. Total. A ver, a ver. Vamos a ver. Vale, yo llegando
de Ocupa a Hogwarts. Vale, es curioso que sí se nota que es Hogwarts por los fondos.
Aquí un poco virulé. Tío, pero es que la cara era clave. O sea, no es perfecta, pero
raro. No sé qué película de Harry Potter ha visto Stable Diffusion. Vamos a probar
otra peli. Bueno, este lo probé, este lo compartí ayer que es Steel of Docks S.V.
Spirited Away, que es la película de El viaje de Chihiro. A ver qué tal sale ahora.
A ver, a ver, a ver. No sé si estoy poniendo algo mal o me he dejado algún parámetro.
Qué guapa esta. ¿Soy yo de lejos? Esta está guapa, ¿eh? Esta me gusta, ¿eh? Tiene
como, además esta cara distorsionada de Chihiro. Qué guapo. A ver, vamos a generar un póster
así re chulón. Esto ya lo hemos visto antes. Me gustaría como algo más robótico, pero
me ha costado generar caras robóticas. A ver, Robotic, vamos a probar. Esta es buena,
esta es muy buena. Esta es muy buena. Esta está guapa, ¿eh? Dios, pero por favor, o
sea, Stable Diffusion para, déjame estar. Qué bueno. A ver, en plan robótico, habría
que dibujar como Elon Musk. Dios, qué guapa. Hostia, me fascinan las de Chihiro, ¿eh?
A ver, te voy a probar más rollo cartoon así a lo mejor. Vamos a, venga, vamos a poner
Cyberpunk que me lo estáis pidiendo. Cyberpunk. A ver qué sale. Vale, vamos a probar esta
y vamos a cambiar a lo de Beautiful Female Police. Vamos a poner.csv..csv in heavy
rain in futuristic Tokyo, bla, bla, bla. No sé si quitar Beautiful, es que no sé si,
bueno, a ver, ¿cuánto es la Cadence Scale 12? Vale, vamos a darle. ¿Qué os parece?
¿Qué os parece los resultados? Vale, esta no. Esta si saliera guapa un retrato, me fliparía.
No sé si saliera bien, de verdad. En poco yo. No, pero no me distorsionen las caras.
Ponme bien. Vale, mientras va generando una cosa. Oye, que es que me ha gustado mucho
esta imagen. Me ha gustado mucho esta imagen. Me la guardo. Ah, ¿no me la puedo guardar
o qué? O me la descarga como en WP. Bueno, la voy a descargar así un poco a locutre,
que es como recorte. Vale, vamos a hacer así. La de copiarle el NFT a Wily vamos a hacer.
Vale, vamos a descargar. Ok. Y ahora vamos a hacer una prueba. Vamos a ver qué ha salido
aquí. A ver si ha salido alguna chula. Está un poco mejor, pero no. Como que las caras
aquí salen bastante mal. Esta está guapa. Está mola. Joder. Joder, es que te puedes
montar una historia de yo como un policía en una ciudad Cyberpunk y ilustrartelo todo
perfectamente, sabes. Ponerte como todos los. Soy director de arte y debo decir que siento
el desempleo respirándome la nuca. Bueno, a ver. Es complicado. Ahora hacemos mención
también al tema laboral. Bueno, está muy guay, ¿vale? Pero imaginad que no, que me
ha gustado mucho la de la derecha. Bueno, esta versión 1.4 que os he explicado al principio
que tenéis que descargar y utilizar y si a lo mejor es la 1.5, pues esa. Mira, me ha
puesto un pendientito. Qué majo. Si está la 1.8, la 1.8, es decir, la versión más
nueva de esto, tiene una funcionalidad que Stable Diffusion le hacía falta. Oh, esta
está guapa. Esta está muy guapa también. La cabeza es un poco más pequeña. Está bastante
bien. Voy a cancelarlo, ¿vale? Y voy a hacer una cosa que esto lo podéis probar con vuestra
versión de Stable Diffusion para modificar vuestras imágenes. A lo mejor no podéis
generar imágenes con vuestra cara, pero podéis coger imágenes con vuestra cara y modificar
la imagen. ¿Cómo? Usando in paintings. ¿Cómo? Pues de la siguiente manera. Podemos
cargar aquí una imagen. Yo le puedo dar a load image y por ejemplo acabo de cargar la
imagen que he cogido antes de Internet. Y lo que tenéis que hacer ahora es esa imagen
la vamos a utilizar como referencia para Stable Diffusion. De hecho, aquí tenemos un slider
nuevo que pone Init Image Strength, fuerza o influencia de la imagen inicial seleccionada.
Con este slider ahora podemos decir cuánto va a afectar esa imagen en la generación.
Si yo la dejo al máximo, por ejemplo, y le doy a generar, pues, vale, si le doy a generar,
sale la imagen, punto, sale la imagen. De hecho, el aspect ratio vamos a intentar cuadrarlo
un poco a la original, creo que es un poco más fina. ¿Ves que sale la imagen original?
Hay pequeñas modificaciones y voy a dejar que genere otra y otra. ¿Veis cómo va variando?
¿Veis cómo varía? De hecho, está guapo porque... ¡Guau! Hostia, genera el efecto de lluvia
casi. Parece como que está lloviendo. Está guapo. Pues fijaos que aquí está generando
y la imagen original tiene muchísima fuerza. Si yo quisiera un poco jugar a que tenga menos
fuerza, pues lo que haría sería bajar este slider. Lo pondría más bajo, por ejemplo
0.40. Le doy a generar y le estoy pidiendo que me genere una imagen de 12sv futurista
utilizando esto como referencia. ¿La va a modificar? Sí, pero de aquella manera, ¿vale?
Vale, parece que todavía la sigue mezclando un poco la cara de la chica con la mía y
sale una cosa un poco rara. Sale un poco rara la cosa. Vamos a bajarlo un poco más y a
ver qué sale. Vamos a ver. Bueno, esta es una versión curiosa de 12sv. A ver si no
me la lia. ¡Hostia, qué guapa esta! ¡Hostia, esta me mola, eh! ¡Dios! Yo en la vida hubiera
tenido una ilustración así. Es decir, nadie me hubiera hecho una ilustración así, porque
ni yo me hubiera pagado porque tampoco necesito tener esto así, pero ahora que la veo sí
me gusta. Ahora sí la quiero, ¿sabes? Es como que... ¡Guau! Bueno, dios mío, esta
también es... ¡Hostia, eh! ¡Hostia, hemos llegado al punto dulce de la IA! ¡Hostia,
eh! Esta está de personaje... Si hicieran un GTA Cyberpunk, esta sería el personaje
principal. ¡Hostia, hostia, hostia, hostia! Perdón, eh, por las palabrotas. Esta me gusta
un poco también, eh. Este rollo... ¡Ojo, eh! Este rollo medio afeminado también mola.
Mola bastante. Bueno, pero no estábamos a esto, ¿vale? Estamos viendo que no encontramos
con la imagen original de referencia, no terminamos de encontr... ¡Dios! Ah, hoy no, hoy no acabamos,
eh. O sea, o sea, es que esto es loco, eh. O sea, esto es loco. La mano es como robótica
también. Bueno, no terminamos de encontrar el punto donde mantengamos la imagen que teníamos
de referencia exactamente igual y lo único que variese a mi cara. Pero cuando hemos metido
la imagen ha aparecido también esto de aquí, Masked In Painting. Y esto es donde nosotros
podemos enmascarar alguna parte de la imagen, ¿vale? Yo lo he marcado ahora. Y cuando le
da Generar, le voy a subir un poco la influencia de la imagen, cuando le da Generar nos sale
la imagen original, ¿vale? Nos sale la imagen original. ¿Para qué? Para que borremos. Yo
puedo venir para acá y borrar. Lo que estoy borrando ahora va a ser la parte que la IA
va a generar. Únicamente el resto lo va a dejar igual. Entonces, con esto podemos intentar
forzar a que la IA nos genere a nuestro querido dot CSV. Bueno, voy a dejar esta parte naranja
que estaba chula. Podemos hacerla un poco más difuminado y tal. Y con esto vamos a
intentar que ahora la IA genere solo esa parte. Y el resto lo deje sin variar. Vamos
a ver si sale. Aquí nos sale. Ahora tenemos que jugar de nuevo con la influencia del texto
y la influencia de la imagen. Yo aquí voy a bajar la influencia de la imagen bastante
para que no le afecte la cara de la chica. A ver. Vale, empieza a aparecer, pero ha obviado
bastantes cosas, de hecho. Hay que buscar este está bien, ¿vale? O sea, no es una imagen
bonita pero es para que veáis el ejemplo de cómo sí puedo conseguir meter mi cara
en todo esto. Bueno, se ha flipado aquí. Buen intento, Stable Diffusion. Valoramos tu proactividad.
Esta también podría estar bien. Habría que pulir esto un poco. Esta está espectacular,
esta es la buena. ¿Qué os parece? ¿Qué os parece como herramienta todo esto? Nada,
un juguetito. Esto no va a tener ningún impacto en nada. Esto no cambia nada. La gente seguirá
haciendo las cosas como siempre, ¿no? Vamos a descargarnos alguna imagen, guapa. A ver.
Stable David de Miguel Ángel. No sé si yo, si se nos va. Vamos a tirar con otra cancion
¿no? Vale, por ejemplo. Me sirve. A cargar esta. A ver. Lo cambia todo, ¿no? Lo cambia
todo. Pues si yo digo que esto va a seguir a más, o sea que todo esto está empezando,
que estamos. O sea, yo ahora mismo vivo en un cuello de botella mental donde cada día
sale algo nuevo. Tengo un montón de temas que quiero contaros y al final me tengo que
expresar por directos porque si no, no llego. O sea, porque si me dedico a hacer un guión
y a editar un vídeo, ese vídeo se queda desactualizado en días, ¿vale? Entonces,
por eso me vais a permitir que en esta temporada por ahora vaya a haber más directos, vaya
a haber más demos y enseñaros cosas. A algunos os gusta más. Entiendo que habrá gente que
no le guste, pero bueno. Todo volverá. Bueno, vamos a probar esto. A ver si podemos conseguir
algo chulo también con esta. Vamos a añadir. Alguien ha comentado Antonio Villarán por
aquí. Con Antonio Villarán estoy hablando para hacer una colaboración donde vamos a
entrenar a StableDiffusion con sus obras de arte. Vamos a hacer esto mismo pero con
sus obras de arte. A ver qué pasa. Entonces vamos a pedirle a esto. An ancient Greek sculpture
of dot CSV. Vale, vamos a dar la generar. Vamos a poner bien el. A ver, creo que está.
Vamos a darle aquí a borrar. A ver si podemos. Vamos a ver. Vamos a ver si cuela. Vas a
compartir una guía de cómo montar el entrenamiento. Bueno, ya os he explicado más o menos. Os
he dado un camino bastante. No es sencillo, pero bueno, que podéis seguir. Podéis visitar
y si sale alguna cosa más fácil ya lo contaré. Este de momento no sale bien. Vamos a ver
si podemos bajarle a lo mejor creatividad y vamos a dejarle. O sea, darle más influencia
a la imagen para que entienda los bordes mejor. Yo lo veo como fuente brainstorming y primero
boceto. Luego el artista realizaría el dibujo final a partir de estos. Depende. Depende.
Yo creo que esto. O sea, mirad cómo ha sido la progresión del año pasado a este año
y del año que estamos de abril que salió Dali Dosa como estamos ahora. Esto está yendo
mucho más rápido de lo que creemos. No está saliendo tan bien. No sé si la máscara está.
Vamos a. Vamos a borrarle más de pelo. Vamos a ponerlo así porque creo que está pillando
un poco de pelo de alguna forma. Recordemos que al final del directo anunciaré el ganador
de la tarjeta gráfica con una 3090. Si hubierais participado ahora podríais entrenar a vuestra
versión de stable diffusion. No sale, sale como el pelo. Estoy buscando a un señor más
calvo. Vamos a ver bajarle. O sea, forzar un poco más esto y bajar la fuerza de la
imagen. Vamos a ver. Pero no, hombre, no. Aquí el inpainting y es un video que os quiero
enseñar. Considero que sigue funcionando mejor el de Dali 2 en calidad. El inpainting es una
cosa que todavía Dali 2 vence y quiero hacer un video probándolo y enseñándolo porque
está bastante. Bastante, bastante bien. Vale, pues vemos que con la imagen aquí no lo
conseguimos sacar tampoco, entonces. Que toca pues quitar la imagen. Voy a quitar la imagen
y que me haga una imagen de una escultura y ya está. Qué pasa, que no había griegos
calvos o qué? Es cierto que estatua griega escalvas no había. O sea, si lo piensas,
no me viene ninguna a la cabeza. Siempre estaban pintados como con ese canon de belleza, con
rizos, proporciones perfectas y tal. Ojo, ojo. Poca broma. Cuidadito con. Que guapa esta
eh? Porque fijaos que es una escultura. Aunque parece piel, si os fijáis luego en los detalles
son esculturas. Claro, a mí no me vengáis a decir que esto es con lo que un artista
empezaría a trabajar. Esto es casi una versión definitiva que un artista puliría detalles
como mucho. Y en un futuro no será el artista, será la IA. Le daremos esto a una IA que
a lo mejor ligada a modelos de realidad donde entiende mejor que pues a lo mejor esto aquí
no puede estar sostenido porque bla bla bla, perspectivas y cosas, pues lo entenderá mejor,
pero hola. O sea. Está espectacular, está bastante bien. Estos pezones ahí. Parecen
dos, dos fuets. Vale, vamos a pedirle de Marbel. An ancient Greek sculptor made of Marbel. Marbel
es. Marble. Esto es dream booth, no es textual inversion. Alguien antes he leído por el chat
que si a eso es textual inversion. Lleva bastante tiempo ya. No, es dream booth. Que guapo tío.
Y la comparación entre textual inversion y dream booth demuestra que dream booth es mejor
por ahora. Habrá que ver. No la hace de Marble, eh? Lo que peor lleva suele ser lo que más
le cuesta a los humanos, que son las manos, no? Pues sí, las manos le cuesta bastante.
Bueno, qué? Algún prompt? A ver. Sculptor y Marbel. Claro, si pongo Marbel mal, pues
claro y es Sculptor. Vale. Sí, me digan por aquí que si en vez de dedicarme a la IA,
dedicar al inglés, a lo mejor llegaría antes a las imágenes. Pues sí, es verdad. No lo
voy a no lo voy a negar. Ahí está, vamos. Dios. Quién es tu nuevo Dios ahora? A qué
Dios le rezas? Espectacular. Espectacular. Espectacular. Nada. Nada, nada, nada. Estilo
RenderWare GTA. Venga, vamos a probar ese..csv al estilo.csv. As RenderWare GTS en
Andreas PlayStation 2. Esto sirve. Lo de RenderWare, no conocía yo la palabra RenderWare, pero
entiendo que es como renderizado, no? Vamos a ver. Yo renderizado como en el GTA de PlayStation
2. Hay demasiados polígonos. Ojo, me ha puesto un tatuaje. No creéis que esto es únicamente,
o sea, no hay otra forma de decirlo. Una transformación radical del mundo del arte, generación de
contenido y cualquier otra cosa audiovisual. O sea, estamos asistiendo. Posiblemente este
directo sea el primero en YouTube donde os esté enseñando una herramienta que en un
año, en dos años, en cinco años, en diez años todo el mundo utilizará. Este será
el estándar de producción audiovisual de imágenes, de vídeo, de 3D, de música, de
sonidos, de voz, todo, todo. Y esto es la inteligencia artificial aplicado a esto solo.
Pero luego habrá inteligencia artificial aplicado a ciencia, aplicado a transporte, aplicado
a optimización de ciudades, aplicado a todo. Yo no mentía cuando decía que la inteligencia
artificial era una tecnología revolucionaria y de aquellos polvos estos, estos lodos y
este señor de aquí. Está guapo, eh. DotCsv con su colega DotCsv. Voy a poner DotCsv
as a YouTuber. A ver qué sale. DotCsv as a YouTuber. Y esto laboralmente transforma
muchas cosas y entiendo que gran parte de la gente que se dedica, que se ha especializado
en hacer esto ahora esté asustada porque evidentemente esto va a ser transformativo.
Ojo, esto es completamente transformador. Esto se carga los stock de imágenes, se carga
el trabajo de fotógrafo, de editores, de diseñadores, de ilustradores. Carlos, pero
el ilustrador realmente te lo hace más que sí, pero que del total de trabajo que hay
ahora al total de trabajo de ahora que se va a mantener en el futuro, pues mucho va
a desaparecer del que tenemos ahora a lo que va a haber en el futuro. Mucho va a desaparecer
evidentemente. Igual que si hablo de fotografía analógica, si yo me voy a la fotografía en
el año 2000 y llega a las cámaras digitales, yo diré mucho del trabajo de fotografía
actual va a desaparecer porque mucho el trabajo de fotografía en aquel entonces era revelar
fotos, hacer fotografía analógica, hacer edición sobre ampliadoras, etcétera. Todo
eso se ha transformado a otras cosas y de ahí nació todo el sector de la fotografía
digital, edición digital y todo lo que estamos hablando ahora. Es decir, este sector se va
a transformar evidentemente. Esta está muy bien. Esta la podría coger para fotos a veces.
Todo esto se va a convertir en nuevas profesiones, en nuevas oportunidades y vosotros que estáis
aquí siempre al pie de la vanguardia, surfeando la ola de la innovación de este canal, deberéis
de ser los primeros en aprovechar todo esto. Hay un montón de lo que en inglés se llama
lo manzanas de baja altura, manzanas que podemos coger de oportunidades súper fáciles de
construir, súper obvias, que no sé por qué no las estamos aprovechando. Pero no es esto,
es esto Whisper de OpenAI que es brutal, lo sacaron, va a haber un vídeo, eso sí está
claro. Generación 3D. Tengo aquí apuntado, tengo aquí apuntado porque os lo quiero enseñar
que qué os pensáis, que esto es 2D. No os olvidéis que la IA ahora se está empezando
a meter en todo lo del 3D. En unos años, años, en unos meses o en dos años máximo,
tendremos IAs con las que podremos generar lo que le pidamos con texto. Eso llegará,
eso está al pie del cañón y os lo voy a enseñar. A ver, este ejemplo. Este ejemplo
lo vi ayer en Twitter. El modelo que estamos utilizando ahora, StableDiffusion, se llama
StableDiffusion y en la web se llama Dream Studio. Bueno, pues aquí ahora esta gente
está entrenando Dream Fields 3D, una versión 0.6 todavía en beta. Text tu modelo de texto
a modelo 3D. Y ojo, tú coges aquí y se está optimizando, optimizando, optimizando. Entiendo
que por una parte se está creando un nerf y ese nerf se está visualizando con clips
y todo esto se está optimizando. Y esto yo no sé si es una especie de castillo ambulante
o algo por el estilo, pero para eso es una especie de máquina con personas arriba y
echando humo y tal. Y evidentemente esto es primigenio, esto no te sirve ni para un videojuego.
A lo mejor para un asset así de fondo te puede servir, pero poco más. Pero es que chicos,
esto era VQ GAN el año pasado. VQ GAN, que el año pasado todo flipa. Vamos, si tú miras
las imágenes ahora, tú dices, pero madre mía, pero eso es la prehistoria del arte.
Ahí todavía no sabíamos pintar. Vale. Ojo, cuidado que lo que está por venir es mucho
más bestia de lo que estamos, de lo que hemos conseguido hasta ahora. Vale. Mucho, mucho
más bestia. Y este proyecto se puede utilizar, está aquí el collab, podéis probarlo. No
sé yo si los resultados son súper, súper, súper, súper buenos, pero para echarte una
tarde de risas pues está bastante bien. Vale, este que es Chulu, pues ahí está. Génereme
una especie de modelo de Chulu. Lo que le pasa a estos modelos es que intenta generar
a Chulu como en 360, como que repite ese patrón siempre por todos los laterales y
no es del todo correcto, pero bueno. A ver qué os leo. Y bueno, y Nerf sigue, sigue
mejorando. Es decir, esto lo compartí ayer en el canal, en el canal, no en Twitter. Buah,
esa foto. Lo compartí ayer, dije, a ver, no nos olvidemos. Bueno, esta escultura también
está bastante guapa. Me gusta mucho el tema de esculturas y tal. Esto. No nos olvidemos
de Nerf. O sea. Toda esta escena que estáis viendo está codificada dentro de una red
neuronal. No nos olvidemos de Nerf. Es el 3D lo que lo va a petar próximamente. Vale,
entonces en eso estamos y se crean, se crean oportunidades nuevas. Hay gente que ya está
aprovechándose de esto y está generando cosas. Tengo aquí un libro que voy a enseñar.
Aprovecho que estoy en Twitter y ya lo acabo de ver por aquí. Os comento que Javi López
que lleva desde que salió. No está, te acabo de ver por aquí Javi. Javi López que lleva
desde que empezó toda esta revolución reciente. Aquí está Javi López. Desde que empezó
toda esta revolución reciente ha estado dándole caña a todo el tema de las guías ya publicado.
Acaba de autopublicarse su libro con financiación. Hay un. Puedes hacer un o sea, es un crowdfunding
donde la gente está apoyándolo y tal y está vendiendo su libro con ilustraciones generadas
con mis journey. Además, una de las ilustraciones bastante guapas porque él ya tiene dominado
esta parte de darle los inputs correctos a la IA. Además, el libro viene con los inputs
y toda esta historia bastante guapo. Y en esa misma línea me escribió Pablo Aguilar,
si no me equivoco, y me mandó este libro que se llama En las cenizas. Es un libro como
de RPG de acción, pero dentro del libro y tal. Y me lo mandó porque me dijo sigo tu
canal. Yo me dedico al tema de inteligencia artificial y he hecho esto que está vendiendo
bastante bien y ha sido como bastante innovador. Y él me dijo yo sin estas guías, además
lo hizo con VQ GAN, que es como la versión antigua. Sin estas guías yo no podría haber
ilustrado ese libro. Este libro, esto, esto no existiría, no existiría si no fuera por
estas guías. Entonces sí es cierto que hay mucho trabajo y mucha gente que se va a ver
afectada por esto, pero al mismo tiempo hay mucho beneficio, mucho valor y muchas oportunidades
que hay que aprender a aprovechar ya. Yo el canal, fijaos que en los últimos meses por
todo lo que está ocurriendo ya no me dedico tanto a explicar cosas y mira que voy a seguir
explicando cosas y me encanta explicar cosas y tal, pero creo que ahora mismo el valor
de verdad está en aprender a usar todas estas herramientas. Ahí es donde vosotros tenéis
la ventaja, ¿no? En saber entrenar un stable diffusion desde cero. Solo está haciendo
otra gente, otras comunidades, podéis participar de ello, perfecto. Pero el valor real está
en esto, en crear y sacarle partido a todo esto. Y se nos está metiendo bots. Madre
mía. Fuera, fuera bots, bots. Hi this user. Fuera, fuera. Madre dios. Fuera. Bueno, ¿qué?
Última imagen, última imagen o últimas imágenes. ¿Qué me recomendáis? ¿Qué hacemos? Decidme.
Esto, decimos quién ha ganado la tarjetita gráfica que se va a llevar ahí para casa
firmada por Jensen Juan y listo que ha listo y ya está ahí, ¿no? Yo creo que un directo
bastante chulo. Las de estilo Cyberpunk creo que han sido mis favoritas. Vamos a ver si
podemos encontrar algún otro resultado guapo. A ver, portrait of. Claro, mira, por ejemplo,
vamos a probar este input por curiosidad. Y vamos a darle retrato de, en vez de 17,
voy a ponerle 70. 70 year dot ccv face. Vale, vamos a ver qué sale. Le voy a quitar lo
de black hair, green eyes y toda esta historia. Vale, vamos a cortar hasta aquí. A lo mejor
cambia un poco el resultado, pero bueno, para ver si vamos a bajarle. 512. Ahí está. Mientras
tanto, decidme, ¿os está gustando los directos? ¿Os mola este rollo de hacer directos aquí
en YouTube? Normalmente los directos los suelo hacer en Twitch, pero cuando veo que tiene
tanto material y es tan importante, creo que está bien que esté en YouTube y que funcione
dentro de YouTube, que lo promocionaba también bastante bien. Este viernes va a haber un
directo que no sé si hacerlo en Twitch o en YouTube. Ya dejo que me digáis vosotros,
es el Tesla que guapa. Dios. Es el Tesla AI Day. Es el evento principal de Tesla para
hablar de inteligencia artificial y al parecer puede que presenten el famoso Tesla bot. Voy
a hacer la cobertura para el viernes. Voy a hacer la cobertura. La cosa es en Twitch
en YouTube donde lo hacemos. Esta está muy guapa y esta también está muy guapa y esta
no sé quién es, pero esta y esta están espectaculares. Es que estas fotos. O sea, esta foto podría
ser vamos. Y esta se ha pegado una fumada guapa, pero me mola. Vale, veo la mayoría
a YouTube. Es curioso, yo también estoy ilustrando mi libro con mi journey, stable diffusion
para impaintings y retoques. El Photoshop ya lo uso para composición total. O sea,
fijaos portada de YouTube. Dios, estás brutal, pero por favor. Me encantan los juegos de
luces que hace y la barba como me la. Afeitado así con líneas muy guapas. Esta también
me encanta. Dios, no puedo. No puedo con mi vida. Yo el Photoshop ahora mismo lo uso
para hacer portadas así, o sea, para poder componer las imágenes y tal. Pero. Estas portadas,
estas calidad de portadas. Yo ya no me voy a sacar una foto en la vida. Sabe una IA que
yo que sé que analiza audio, pues 2 CSV con unos headphones tapándose los oídos y listo.
Photoshop ahora me sirve para lo mínimo y vamos, si me sale un software medianamente
bueno para hacer esto, yo me olvido de esto. Qué guapo. Esta me mola también. Tiene algo.
¿Qué más? Esta mola también. Dios, ¿qué pasa? Es que no puedo. No puedo, que esta
tecnología exista es un sueño. Ostia, 2 CSV. Me gusta ese. 2 CSV as Sofia the Robot. Vamos
a probar a ver qué sale. La IA la he olvidado, eh? No ha ignorado por completo lo del 71.
Cuando la IA llega a crear canales de YouTube, algunos lo verán desde otra perspectiva,
no me preocupa tampoco. Es decir, de hecho, al revés, si la IA llega a tener canales
de YouTube generando contenido, significa que al menos en materia de educación tendremos
unas herramientas brutales. En materia de educación tendremos unas herramientas brutales,
no me preocupa. De hecho, fomentaré y haré vídeos. Esta foto está guapísima. Esta foto
me gusta. Fomentaré en vídeos el crear canales automáticos de Sofia the Robot. Fomentaré
crear automatizaciones en YouTube. Dios, están saliendo fotos guapas. No soy el robot Sofia,
pero Hanson Robotics creo que era esta gente. 2 CSV cíclope. Ok. Espectacular. Mira tu
Twitter. Déjame que mire el Twitter. Miro mi Twitter, pero ¿dónde miro mi Twitter?
No sé dónde tengo que mirar en Twitter, pero bueno. A ver, ¿qué más tenemos por aquí?
Bueno, ojo. No sale, no lo conseguimos. Hay que buscar el input correcto en este caso.
2 CSV como se oye Apple, ¿vale? 2 CSV as Steve Jobs releasing the new iPhone 14. Vamos
a ver. A ver qué sale, a ver qué sale. ¿Se va a saturar el mercado del entretenimiento?
Hostia. Está bien hecha. Ojo, ¿eh? Ojo, ¿eh? Ojo, ¿eh? Qué buena es. Es una mezcla
entre Steve Jobs y 2 CSV. Está buena, ¿eh? El nuevo iPhone. Esta me gusta también. Esta
podría ser yo en una vida paralela. Qué bueno. Bueno, chicos, chicas, ha llegado
el momento. O voy a decir ¿quién ha ganado? Voy a decir ¿quién ha ganado? Siempre me
pone tetillas, un poco sí, ¿eh? Sí, sí, me he fijado, me he fijado. Siempre me pone
ahí un poco de... Un poquito de pecho caído, ¿eh? Dios, qué miedo. Vamos a cerrar este
directo tan especial. Tiene sentido, bueno, y más que va a tener. Sí, sí, 1, 2, 3,
4, 5, 6. Sí, en este caso 6. Ostras, qué rayada, ¿eh? Porque veo a Steve Jobs y veo
mi cara mezcladas. Vamos a ver. Dejadme un momento. Que haga lo que tengo que hacer.
A ver, a ver, a ver. Estoy buscando porque lo tenía apuntado en algún sitio. Estaría
genial no encontrarlo ahora, ¿eh? Al ganador. A ver si pongo ganador. Vale, vale, vale,
lo tengo, lo tengo, lo tengo. Vale, voy a poner un momento la pantalla completa porque
no quiero que se vea nada. Vamos a ver. Chicos, chicas, tras un GTC espectacular, del cual
también tenía directo a una de las Keynotes, estuvo bastante guay. Tras un concurso en
el que han participado casi mil ochocientas personas, siendo casi casi un récord, el
ganador de la tarjeta gráfica tres mil noventa. A ver si está por el chat. Es. Están nerviosos.
Luis Pérez Sala, García o conocido en Twitter por Lu Pérez Sá. Luz Pérez Sá, Luz Pérez
Sá. Felicidades. Ha ganado una tarjeta gráfica con la que puedes entrenar a este juego,
puedes jugar a Minecraft, puedes hacer lo que quieras, la puedes vender si quieres también,
pero bueno, está firmada por Jensen Juan, merece la pena que lo que te la quedes. Luis
Pérez Sala, no sé si estás por aquí, sería muy bonito que estuvieras por el chat. Todo
el mundo en el chat, venga aplausos y felicidades Luis y te contactaré por Twitter y en Twitter
me tienes que decir cuál es tu correo con el que te registraste al GTC. Verificaremos
que ese correo esté en la base de datos de decir que te hayas registrado y hayas visto
alguna de las charlas que era importante esto. Y si eso está correcto, pues la tarjeta es
tuya. Si no, tenemos otros ganadores aquí que tengo apuntados que no lo voy a enseñar
ahora para no para no tener a gente dándose cabezas, pero tengo cinco nombres más y chicos
chicas ha sido un placer de nuevo estar aquí en directos con vosotros. Ha sido un directo
y yo creo que os ha gustado el directo, os ha gustado. Lo habéis pasado bien. Ha sido
interesante ha sido instructivo, no sé si la parte técnica ha sido muy pesada, si os
ha gustado, si no. El otro directo gustó el de Stable Diffusion y eso me congratula.
Tenéis toda la información del máster del IEA con el descuento de 300 euros. Abajo
en la caja de descripción tenéis los enlaces, tenéis mi modelo para que juguéis, tenéis
un montón de cosas. Espero que hayáis aprendido también alguna cosilla interesante y yo me
voy a despedir pues de la mejor manera que sé que es con una imagen, porque ahora yo
solo genero imágenes. Chicos, chicas, así estoy. Me voy a despedir con la imagen que
quiero que se quede guardada en vuestras retinas cuando esta noche os vayáis a dormir. Si
queréis ver algo espectacular, podéis ver algunos de los vídeos que están saliendo
ahora mismo recomendados en los laterales de la pantalla, ¿vale? Pero principalmente
quiero que os vayáis con esta imagen mía. Adiós y buenas noches, bebés. Os quiere
un saludo y nos vemos en el próximo video. Chau, chau.