logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

muy buenas chicos y chicas muy buenas a todos qué tal estáis hola hola hola se
me ve se me oye confirmarme por favor que todo está bien que se me está viendo que
se ve la pantalla que todo el streaming va perfecto que se me escucha perfectamente que
hay música pero que no está muy alta que mi voz no está muy alta que no estoy muy bajito
bienvenidos bienvenidos a un directo la gente pensaba ahí por aquí gente que pensaba que
esto iba a ser un vídeo no esto va a ser un directo y rápidamente voy a hacer una
introducción porque quiero que la gente que vea esto resubido una vez acabe el directo
pues sepa un poco lo que lo que se puede esperar aquí y que tenga rápidamente la información
vale este directo va sobre stable diffusion quien haya visto mi último vídeo sabe que he estado
hablando de una inteligencia artificial que es impresionante es la inteligencia artificial
generadora de imágenes ahora vamos con esto más impresionante que hay actualmente por encima
de dalí por encima de mid journey comentaremos luego y hice un vídeo pues hablando de todo
ello en un momento en el que yo ya sabía porque había hablado con el creador de esta inteligencia
artificial con con emad que todo esto iba a cambiar muy rápido porque el propio servidor
donde estaba este modelo para beta privada pues iba a pasar a ser público iba a ser open source
todos podremos tener acceso y eso lo interesante no toda esta semana desde que el modelo ha sido
publicado el vídeo salió el domingo pasado el lunes se hizo público el modelo pues ha habido
una explosión de muchas cosas nuevas herramientas usos que no sabíamos que se podía con este
bule diffusion ilustraciones muy interesante gente preguntándome por todos lados carlos esto cómo se
instala esto cómo lo puedo tener en mi ordenador cómo lo puedo utilizar si no tengo una tarjeta
gráfica es gratis es de pago puede hacer imágenes que tengan pues no sé que no sean aptas para
para el trabajo todas estas preguntas en las que vamos a intentar responder en el directo de hoy
vale para eso digo si stable diffusion al igual que digo es rec mamones que en el último vídeo bien
que me troleasteis con él es a rec así se dice en españa pero bueno vamos a hacer todo esto en
directo por un motivo muy sencillo y es que son muchas cosas las que están ocurriendo son tantas
cosas y tanta información y además creo que vosotros demandáis también pues muchas pero
tenéis muchas preguntas tenéis muchas dudas sobre todo esto que yo creo que es mucho más
interesante hacerlo pues en directo que yo pueda también responder vuestras dudas y que toda esta
información a día hoy 30 de agosto pues todo lo que haya ocurrido hasta ahora la podamos recoger
en este directo y sepamos un poco más de toda esta revolución que está ocurriendo me confirmáis me
confirmáis que estamos todo bien todo en directo se me escucha muy bien si si perfecto vamos a
empezar vamos a comentar cositas voy a dejar abajo por cierto la descripción de este vídeo tendréis
el índice una vez este terminado con cada una de las partes que hemos ido tratando cómo se instala
las diferentes opciones para instalarlo con tarjetas sin tarjeta pues todas las consideraciones vamos
a ir viéndolas pero quería empezar con esta imagen que he visto en reddit y que me ha parecido muy
interesante y creo que bastante característica de lo que de lo que está sucediendo vale stable
diffusion es un modelo generador de imágenes que ha sido entrenado al igual que sucede con dali al
igual que sucede con mid journey como sucede con crayon ha sido entrenada para que tú como usuario
pues pueda darle como input un texto o una imagen también lo vamos a ver y ésta te genere pues una
imagen visualmente atractiva una ilustración una fotografía lo que le pidas de aquel input que tú
le hayas dado en 2022 la calidad que hemos conseguido alcanzar con este tipo de herramientas es tal que
ésta esta imagen de aquí ha sido generada por stable diffusion la podéis encontrar a través del
reddit de stable diffusion luego le echaremos un vistazo y es muy llamativo de lo que está ocurriendo
porque yo esta imagen la vi ayer y pensaba que no era realmente una imagen generada por ia me parecía
tan interesante la composición el input no sé cuál es pero el título que le han dado es guarda
espalda bodyguard me parece súper bonito me parece visualmente espectacular y me parece muy
interesante sobre toda la composición no como el robot está cogiendo a la chica como lo está la
está protegiendo y entiende realmente este concepto de protección máquina humano no se tiene muchos
elementos que me gusta y estuvo un tiempo incluso planteándome que realmente no fuera una ilustración
generada por ya sino que fuera real algo que dice mucho de lo que está sucediendo actualmente hoy
vamos a intentar pues dejar todo el camino allanado para que vosotros si queréis podáis generar
imágenes como éstas no sólo esto vamos a estar viendo también pues cómo funciona
mirad la calidad vale bastante bastante espectacular no solamente esto vamos a estar viendo una de las
herramientas más interesantes también que tiene stable diffusion comparado con dalidos es el tema
de hacer un pix to pix no una buena imagen tu imagen coger una imagen de referencia de input
como ésta de aquí y poder generar pues una ilustración visualmente atractiva del input
que le hemos dado no también os voy a enseñar cómo podéis hacer esto esto
lo aviso de antemano vale este directo va a estar subido en la medida de que salga todo bien
este vol difusión puede generar las imágenes que a youtube por lo que sea no le caen bien no
no le gusta me la podrían demonetizar a lo mejor este comienzo directo ya ya ya nos han tumbado
el directo vale puede ocurrir si eso ocurre pues ya veremos cómo lo solucionamos pero tener en
cuenta que esto puede pasar disfrutad del momento porque a lo mejor todo esto desaparece primera
pregunta que me habéis hecho muchos carlos este vol difusión como demonios instala como
demonios instala como lo puede instalar si tengo no tengo un hardware necesario voy a enseñar las
tres opciones más los tres caminos que se encuentran actualmente para los tres caminos
que podéis utilizar vamos con el más sencillo este lo comenté en el vídeo que subí al canal
de youtube y creo que es la opción más rápida que tenéis de empezar a trabajar con este vol
difusión de forma más rápida también de la forma más rápida de generar imágenes y es a través de
su web dream studio vale dream studio es esta web que tenemos aquí sería semejante a lo que
sería la interfaz que opina y creo para para para dalí 2 vale y en este caso el dream studio es
una plataforma que está creada por la propia gente de que ha creado este vol difusión vale ellos
han creado una página web para que quien no tuviera el hardware quien no tuviera acceso a
google colap quien no tuviera ningún otro acceso a otra alternativa pues fuera la web y lo utilizara
consideraciones este método es de pago vale este esta página web de momento es de pago y
digo de momento porque van a venir muchas mejoras que también se han publicado otra vez de twitter
y ahora os voy a enseñar pero el momento de pago que significa esto bueno cuando vosotros
registráis en dream studio pondré los enlaces también o si los podéis ir pasando por el chat
pues sería sería también interesante cuando entre esta página web realmente voy a quitar este
input a ver si le puedo dar a f5 vale lo tenemos vale cuando entra a la web lo que tenemos de
partida es un interfaz bastante similar a cuando trabajamos con dalí 2 vamos a darle directamente
a soñar tenemos aquí un input de ejemplo que es una el sueño de una galaxia distante al estilo
de el artista caspar david fredrich un by painting trending on artstation el prompt que difícil es
escribir un prompt que te de buenos resultados lo veremos también le doy al botón de dream de
soñar y automáticamente obtenemos una imagen como esta una imagen que no existe una imagen
que no ha existido y una imagen que bueno pues podéis disfrutar porque es nueva es la primera
vez que en el universo los píxeles se reorganizan en esta configuración de una imagen que para
nosotros homo sapiens pues nos evoca algo bonito oye que no me gusta vamos a generar otra vale
vamos a generar otra ahí lo tenemos veis que es muy rápido muy sencillo es muy interesante aquí
se ve un poco un elemento de lo que serían los cuadros de fredrich que es el hombre ahí mirando
como como al infinito al abismo y bueno esta página web como digo es de pago yo aquí cuando
me he registrado cuando te registras automáticamente te van a dar una serie de créditos que puedes
empezar a utilizar no te están cobrando no has puesto ningún método de pago ya he leído antes
por el chat que había gente diciendo oye carlos que he visto que hay una factura que yo no he
pagado y me van a cobrar no no te van a cobrar te están dando créditos gratuitos para que empieces
un poco a caminar si se te gastan los créditos ahí si vas a tener que pagar vas a tener que
comprarte pues con 10 dólares bueno 10 pounds 10 libras pues vas a comprarte lo que sería
aproximadamente mil generaciones de imágenes mil créditos más o menos por así decirlo entonces
esta página web te pago porque aunque estás usando el modelo de stable diffusion que es un
modelo que sí tiene que es open source y que como dije en el vídeo es gratuito aquí el hardware
las gpus que estás utilizando la electricidad ahora que está tan cara que estás utilizando
realmente es la que ellos te están facilitando entonces tiene todo el sentido del mundo que te
cobran un cierto porcentaje no es un poco como un servicio o sea imágenes generadas como servicio
entonces que tenéis que tener en cuenta en esta página web por una parte aquí arriba tenéis un
contador de el número de créditos que estáis utilizando por cada imagen que generéis tenéis
varias opciones para poder modular lo que se va a generar en la página web pues podéis controlar
por ejemplo el ancho y la altura y vais a ver que cada ajuste que tenemos aquí va a ir modificando
el número de créditos que te va a costar cada imagen esto es importante porque yo la primera
vez fui de bruto a generar la imagen con mayor resolución el mayor número de imágenes con la
mejor de las calidades y me fundí todos los créditos gratuitos en 4 o 5 generaciones vale
no estáis viendo porque está tapado efectivamente os lo voy a poner ahora por aquí abajo ya lo
iremos viendo según según haga falta ahora en este caso tenéis width y tenéis height fijaros
como según voy moviendo el width y voy haciendo una imagen más grande en ancho y en alto los
créditos van subiendo vale no es lo mismo generar una imagen de 512 por 512 con imagen de 832 por
832 entonces esto te puede aumentar el número de créditos que más te puede aumentar el número
de créditos tenemos el factor aquí sfg el sfg scale y lo estoy explicando ahora porque nos va
a servir luego para los otros ejemplos básicamente nos indica cuánto va a obedecer el modelo de
difusión al input de texto que le estemos dando esto no te afecta al número de créditos de la
imagen vale es como si lo pones 0 pues significa que va a ignorar en su mayoría el texto que le
demos si lo pones muy alto va a obedecer más el tipo de input que le demos por defecto viene
establecido en 7 porque ellos han encontrado que este es el valor que más equilibrado está
para darte imágenes que no siempre sean iguales o obvias pero que también se obedezcan al input
que la tada cosas que pueden afectar el número de steps el modelo de difusión que es lo que
funciona atrás de este tipo de herramientas un modelo de difusión va a ir generando una imagen
en procesos en pasitos donde van a ir bueno cada paso que da va eliminando cierto ruido de la
imagen que se está generando entre más steps des más más paso estará dando para generar la
imagen que tú quieres entonces si tú quieres una imagen que esté muy detallada que tenga muchos
detalles pues vas a tener que comentar el número de steps si quieres una imagen con poco detalle
pues bajas el número de steps fijaos como una imagen con pocos pasos va a requerir de
menos procesamiento entonces por tanto pues al principio vemos que nos baja el número de
créditos y si yo lo subo a 100 pues el número de créditos nos sube vale yo aquí mi consejo
es dejarlo de momento por defecto pero cuando vosotros queráis investigar un poco cómo funciona la
herramienta cuando queráis empezar a probar imágenes inputs y todo esto os recomiendo que
bajéis el número de steps hasta que encontréis la imagen que os gusta y cuando la encontréis lo
que vais a utilizar es el sí la semilla aleatoria que ha generado esa imagen la vais a guardar y
entonces vais a generar ahora sí en alta calidad esa imagen vale es una forma de atajar este uso de
créditos para no estar gastando los créditos tan rápidamente empezad con pocos steps buscad la
imagen que mejor responda el input que queráis y luego le subís todo y luego le subís todos los
steps bajo la música bajo la música perfecto un momento mejor porque también me está molestando
a mí la música vale entonces en este caso vamos a dar la generar vamos a poner a dream of a distant
galaxy voy a cambiar esto y voy a poner el sueño de una galaxia lejana with a lighthouse con un
faro y vamos a dar la generar vais a ver que tarda mucho más en generarse que antes aún cuando los
steps están bajos pero por la resolución que le he puesto vale entonces vamos a ver qué sale
aquí tenemos una imagen vemos que la calidad no están buenas porque no están buenas porque
los steps iniciales son muy bajos entonces esta imagen no me gusta le volvería a dar
vamos a darle nuevo y dejarla incluso la resolución vamos a poner 512 y un poquito de altura le voy
a dar a generar vale me va a generar una imagen vale esta no me interesa tampoco vamos a dar la
otra esta me gusta vale pues si esta me gusta lo que voy a hacer es clicar aquí y me voy a guardar
el sí ahora no lo estoy viendo pero se ha visto aquí abajo me ha parecido un mensajito de que se
ha guardado el sí yo me puedo venir aquí activar este menú puedo pegar la semilla aleatoria que
genera esta imagen la pongo aquí y ahora aumento el número de steps si esto lo hacemos bien pues
veremos que ahora se va a generar la misma imagen pero con mucho más detalle con más pasos generados
y debería salir pues si todo sale bien que muchas veces me suelo equivocar con esto y
pierdo la imagen vale veis esto ya sería una imagen con un nivel de procesamiento correspondiente
a una imagen de buena calidad vale a partir de 50 ya no estaría subiendo mucho más los steps
vais a verlo voy a subirlo a 100 nos estaría costando el doble generar esta imagen vale pero
vais a ver que la calidad tampoco cambia tampoco cambia tanto vamos a probar de nuevo
y vamos a verlo esta es la mejor estrategia que os puedo aconsejar de cara a probar dream studio
usad primero veis no ha cambiado mucho usad primero pocos steps para buscar una imagen que
os guste que satisfaga vuestras necesidades de búsqueda de hecho podéis subir incluso aquí el
número de imágenes a generar podéis ir un poco más rápido en el proceso y decir bueno mira no
me estoy gastando ni siquiera un crédito estoy gastando un tercio de crédito y me estoy generando
de golpe bueno no perdón claro sería por cada imagen que genero pues 0,34 vale estamos gastando
pues unos dos créditos en generar seis imágenes como estas vamos a verlo vamos a verlo se están
generando pum pum pum guau guau guau vale bastante chula de todas estas cual no gusta a mí me gusta
mucho esta de aquí con este estilo de hielo copio la semilla vale la semilla ahora no aparece el
menú porque tengo seleccionado seis imágenes lo voy a bajar a una activo para poner la semilla
pongo la semilla de la imagen que me ha gustado aumento el número de steps y le damos de nuevo
a generar si cambiáis algún ajuste como por ejemplo el ancho el alto ese el cfg scale o va
a cambiar la imagen por completo vale la semilla aleatoria de dependiente de estos atributos y
como veis generamos una imagen espectacular así amigos es como utilizaríamos dream studio como
digo es un sistema de pago es un sistema donde tenéis que poner dinero por el uso del hardware
que estáis utilizando además tiene otra pega que esto es una cosa que cambió es curioso y es que
antes aquí en la en account settings había un botón que podías activar y desactivar que te
permitía activar o desactivar el filtro de imágenes pues que pudieran ser violentas que
pudieran ser de famosos que pudieran ser sexuales vale decir las mismas limitaciones que tenemos en
la api de open a y de tal y dos de no poder hacer imágenes que sean no user friendly pues aquí se
podía desactivar pero por algún motivo lo han quitado y en dream studio de momento no lo han
vuelto a colocar con lo cual no podemos generar imágenes de ese estilo vale tendríamos que irnos
a las otras alternativas a las gratuitas para poder hacerlo recordemos dream studio es la
interfaz web creada por la gente de estabilidad punto y hay para utilizar estable diffusion en
la página web estable estable diffusion vale dicho esto vosotros no queréis de repente utilizar
dream studio vale vosotros queréis descargar en vuestro ordenador el modelo vale podéis descargar
el archivo del modelo porque recordemos que este es un modelo open source está disponible para que
cualquiera lo pueda descargar para que cualquiera lo pueda utilizar esto es espectacular es como
si open a y hubiera cogido dalí hubiera dado el modelo de inteligencia artificial y hubiera dicho
a la gente podéis hacer con él lo que queráis vale entonces me preguntáis un momento por el
sampler por defecto es el k lms estos son los modelos los sistemas que utilizan para generar
imágenes yo no los he no los he ido cambiando porque creo que los ante los que están en el
listado son versiones anteriores vale entonces no son tan buenas hay imágenes en internet donde
ponen pues una matriz y puedes comparar los diferentes resultados y ahí lo podéis ver más
claro pero ir siempre con el k lms que por lo general suele ser el que el que funciona bien
vosotros queréis descargar el modelo vale para descargar el modelo el modelo está puesto
públicamente en el repositorio en el repositorio de github de la gente de stable diffusion si nos
venimos para acá vamos a encontrar en el repositorio voy a pasar el enlace por
voy a pasar aquí el enlace aquí podéis encontrar pues toda la información del modelo podéis
encontrar las diferentes versiones recordemos que al final stable diffusion pues ha tenido
diferentes en las etapas de entrenamiento ha tenido diferentes archivos de checkpoint
nosotros la versión que estamos utilizando es la 1.4 ya están hablando en twitter de una versión
1.5 lo cual bueno pues habla mucho de la agilidad y la rapidez que tiene toda esta gente a la hora
de poner en disposición del público modelos cada vez más potentes y aquí pues podéis encontrar
toda la información incluso toda la información de cómo instalarlo según el modelo que según el
proceso que ellos han han colocado el proceso no es tan complicado aunque no es el que vamos a
hacer actualmente porque quiero que el tutorial este sea de utilidad para vosotros sea lo más
sencillo posible te voy a enseñar un par de alternativas interesantes pero bueno os comento
rápidamente lo que tendría que hacer aquí es directamente descargar con bueno si tenéis por
consola o a través de github o registráis podéis descargar aquí el código podéis descargar el zip
esto va a descargar en un archivo punto zip todo el repositorio todo los scripts toda la los modelos
todo lo que haya en este repositorio y con eso vais a descargaros también el archivo
environment punto yaml este archivo es el primero que tenéis que ejecutar para crear con conda
tenéis que instalar en vuestro ordenador o anaconda o miniconda para poder crear un entorno virtual
donde es donde se van instalando todas las herramientas necesarias para poder ejecutar
stable diffusion vale esto lo hacéis en la consola de comando esto los más técnicos sabréis a qué
me refiero los que no tenéis ni idea pues esperad porque ahora viene una versión mucho más sencilla
pero bueno con este comando creáis el entorno de el entorno virtual necesario y con esto lo
activáis a partir de este modo de este momento sólo falta hacer una cosa que es ir a descargar
el modelo porque aquí no hemos descargado el modelo vale aquí no hemos descargado el archivo
de parámetros de stable diffusion no lo no lo hemos descargado tenemos que buscarlo en otro
sitio y esto pues si no me acuerdo estaba para descargar bueno creo que estaba en haguing face
vale creo que vale ahí está vale los parámetros están disponibles a través de la organización de
haguing face si entra a haguing face podéis descargar aquí stable diffusion 1.4 le podéis
dar a descargar cuando tenéis que aceptar primero las condiciones luego podéis descargar el archivo
de parámetro eso lo colocaréis en la carpeta correspondiente toda esta información está en
el repositorio y con eso ya podríais empezar a utilizar el modelo para utilizarlo tenéis que
ejecutar el script este de aquí vale el text to image llamáis a python este script le ponéis el
input y con esto debería de funcionar en este punto habrá gente que dirá carlos no me estás
explicando nada porque no entiendo ni la mitad de las palabras que me dices y yo te digo es verdad
para eso vamos a ver una versión mucho más interesante que ha salido justamente hoy y es
que recordad que todo esto es open source eso permite que la comunidad esté trabajando en
paralelo en un montón de soluciones diferentes en un montón de herramientas distintas y esto que
estoy contando hoy seguramente mañana mejorará y mejorará y mejorará y cada vez será más sencillo
hasta que tengamos una aplicación móvil donde podamos utilizar este bull diffusion y ya está
pero bueno la versión que voy a recomendar es esta de aquí vale voy a pasar ahora el repositorio y
es que básicamente una persona pues se ha encargado de crear una versión un instalador de windows muy
sencillito donde se te instalado automáticamente se te abre la herramienta como si fuera un programa
tipo photoshop y ya puedes empezar a trabajar con un entorno visual y punto valento es mucho más
sencillo para empezar a utilizar este sistema cómo lo podéis descargar pues a través de este enlace
de aquí lo voy a poner para acá boom vale y entonces cuando descargáis el modelo se va a abrir
una carpeta a ver a ver a ver se va a abrir una carpeta tal casi en la carpeta simplemente lo que
tenéis que hacer es ejecutar este bull diffusion punto graphic user interface le dais y se va a
abrir un programa como este hecho lo voy a abrir yo de nuevo vale te dice lelo primero
toda esta información que te está contando aquí pues cosas importantes recordad que ahora no
estamos instalando el modelo no vamos a utilizar el modelo en el hardware que otra gente nos está
dando sino que lo vamos a utilizar en nuestro propio ordenador para esto tenéis que tener una
tarjeta gráfica que tenga suficiente memoria de vídeo cuánto es suficiente memoria de vídeo pues
10 gigas 12 gigas o más esto lo que yo en el vídeo decía que necesitamos una tarjeta gráfica
que sea medianamente decía que era que no hace falta una tarjeta tan potente y hablaba de
3090 3080 y todo esto la gente hay dios mío pero cómo dices que esto no es una tarjeta potente a
ver amigos recordemos que si queréis descargar un modelo gpt 3 o bloom que es la versión open source
de gpt 3 y lo queréis utilizar en vuestro ordenador seguramente tengáis que utilizar 16 20 30 gpus
en paralelo en una configuración que ni tú ni yo vamos a saber montar ni configurar ni nada aquí
estamos hablando de una única tarjeta gráfica comercial una 3090 una 3080 una 2080 ti yo la
que tengo mi ordenador es una 2080 ti creo que la 2060 también tienen suficiente memoria de vídeo
podéis realmente con una tarjeta medianamente potente de las comerciales podéis utilizar
estable diffusion en local esto es una locura vale esto es una locura entonces si no tenéis claro
si realmente en vuestra tarjeta gráfica va a funcionar estable diffusion mi consejo es descargarlo
y probar y a ver qué pasa vale a ver qué pasa de hecho yo no sé si ahora me va a dejar ejecutarlo
correctamente porque como estoy estremeando en directo pues parte de parte de la tarjeta gráfica
está ocupada otras cosas no sé si estamos ocupando memoria vídeo pero vamos a comprobar
cuando lo descarguéis se va a abrir aquí un pequeño instalador que va a decir instalar esto
esto esto y tú le das a instalar va a estar más o menos instalándose un ratito de hecho
aquí tengo dos imágenes de la instalación para que lo veáis vale cuando este es el menú que
va a salir este de aquí el de installer luego cuando esté instalándose va a salir pues la
consola de windows va a salir estas cosas vosotros dejad que el ordenador haga su magia y cuando
esté todo hecho pues vais a tener un programa como este de aquí un programa como este de aquí que
te permite hacer este programa mejor lo vamos a poner en pantalla pequeña porque es lo mejor se
ve muy pequeñito el texto pero lo voy leyendo lo voy leyendo prompt que será prompt pues el input
no vamos a poner por ejemplo y los más voy a poner portrait portrait y los más un retrato de
y los más que le voy a poner un poco de salsa mágica digital art ahora pasamos al prompt
ingenier a cómo poder generar imágenes atractivas aquí lo tenemos vale tenemos un retrato de y los
más digital art imagen de inicialización ahora vemos a qué nos referimos con esto número de
imágenes a utilizar a generar perdón cinco imágenes detail detalle se refiere a los steps lo hemos
visto ahora no pues 50 steps creatividad aquí se le llaman creatividad al cfg scale la semilla
también la podéis configurar si ponéis menos uno es aleatoria resolución la cantidad de resolución
que podéis utilizar si por ejemplo probáis con 512 por 512 que ya es una imagen que tiene una
resolución metida mente de cien decente luego la podremos pasar por una idea de super resolución
y no funciona vale os da un problema de falta de memoria mi consejo es bajar la resolución
vale la resolución va a afectar en cuanto realmente en memoria vamos a utilizar y por
tanto pues podría podéis jugar un poco con esto para ver hasta cuántos permite vuestra
tarjeta entonces vamos a poner aquí 512 por 512 el vamos a dejar el key euler que no sé si es
exactamente el mismo que teníamos antes dejadme que lo compruebe vale si aquí está el lms y el
euler vamos a probar podemos probar los dos el lms lo tengo si vale le voy a dar con el cale lms
no sé si es el mejor ahora ahora me ha hecho dudar no ahora viendo que diferentes pero vamos
a dar vale y ahora le voy a generar si no revienta nada debería de salir las imágenes en algún
momento ahora mi ordenador es el que está ejecutando stable diffusion ahora y aquí no hay ningún tipo
de información que se está mandando a la nube aquí no se está mandando el input a ninguna empresa
aquí nadie nos va a restringir en nada aquí eres tú contra el ordenador en tu hardware con
tu electricidad y con tu factura de la luz vale yo tengo una 2080 ti no una tarjeta de las más
avanzadas de hecho no pensaba que esto me fuera a funcionar wow aquí lo tenemos estas imágenes
acaban de generar en mi ordenador se han generado aquí es que lo tengo aquí abajo vale eso está
muy guay está también está también son más generado estas dos imágenes ahora porque está
generando la todavía vale ha generado dos imágenes tres imágenes vale y cuatro imágenes y cinco
imágenes vale aquí se están generando las imágenes ahora mismo en el ordenador esta es a día de hoy
30 de agosto la forma más sencilla de instalar stable diffusion en vuestro ordenador pero carlos es
que no tengo una tarjeta gráfica tan potente mi tarjeta gráfica es una 1060 mi tarjeta gráfica
es una 508 mi tarjeta gráfica es una 3 que no existe ahí entonces tenéis un problema y es que
no podéis utilizar stable diffusion con gpu en vuestro ordenador aún así ya ha empezado a ver que
hay gente que está probando a ejecutarlo en cpu esto significa que no estaríamos utilizando
ninguna tarjeta gráfica sino que estaríamos utilizando la cpu para hacer ese procesamiento
será más lento pero será será posible vale básicamente vas a poder hacerlo porque si no
tenías una tarjeta gráfica pues vas a poder hacerlo además que no utilizarás la memoria de
vídeo si no utilizarás tu ram lo cual es interesante esa opción no la no la contemplo
hoy si aún así esta no funciona y queréis probar una alternativa os voy a compartir también otro
recurso y es que hay gente también que está optimizando a stable diffusion este es otro
repositorio que podéis probar vale os dejo el enlace por aquí este es otro repositorio que
podéis probar es la versión optimizada stable diffusion básicamente pues aplican una serie de
optimizaciones de trucos desactivan el filtro que detecta imágenes no se for work que también al
final te ocupa un cierto espacio y con eso pues podéis a lo mejor optar a utilizarlo en vuestra
tarjeta gráfica pero carlos es que no puedo ni siquiera con la versión optimizada no puedo no
hay alguna forma que sea gratuita fácil de usar y que no se ejecute en mi ordenador la respuesta
es sí y la veremos después de que conecte la cámara porque está desconectada me acabo de dar
cuenta y en cualquier momento se podría pagar y no queremos eso verdad dejando un momentito bueno
el momento que la información bien os parece interesante a ver a ver a ver esto se conecta
por aquí le do un botón vale vale está enchufado está enchufado a ver he pulsado otro botón vale
vale carlos no tengo gpu no tengo una cpu potente no tengo solo tengo acceso solo tengo acceso a
internet tenemos una solución tenemos google colap google colap para el que no lo sepa es
una herramienta de google que es quizás de las cosas más útiles que hemos tenido durante años
en el campo de la ciencia de datos y la inteligencia artificial básicamente google colap vale es un
entorno donde tú te conectas en una página web tengo ya para que el cuaderno pero para que lo
podáis ver es una página web donde tú vas a poder escribir código en python por ejemplo
print hola mundo vale y en este momento me están conectando a una máquina virtual una máquina
virtual de hecho voy a bajar aquí mi posición de la cámara para que veáis el botón de conectado
vale os va a conectar a una máquina virtual que tiene pues una memoria ram 12 gb de memoria ram
disco duro blabla incluso aquí podéis veniros y activar acelerador por hardware acelerador por
hardware significa que podéis poner una gpu o incluso una tpu tensor processor unit que
es un procesador de inteligencia artificial que tiene google vale en este caso podéis poner una
gpu y en función de la suerte que tengáis y si estáis pagando también google colap google colap
es gratuito pero si queréis tener mejor acceso a tarjetas gráficas pues podéis hacerlo a podéis
pagar la versión pro de google colap mensualmente creo que son 10 12 dólares yo la recomiendo si
trabajáis mucho con estos sistemas y queréis buenas tarjetas gráficas recomiendo pagar esto
pues con eso vais a tener una tarjeta gráfica medianamente buena vale vamos a probar el
comando nunca me acuerdo nvidia smi creo que es vale aquí vemos la información de la tarjeta
gráfica de la máquina virtual que google nos ha alocado nos ha nos ha dado vale en este caso nos
ha dado una tesla t4 una muy buena tarjeta que tiene 15 gb de memoria de vídeo con lo cual con
esto podríamos trabajar con stable diffusion bastante bien solamente haría falta que alguien
se currara pues un google colap un cuaderno de estos donde estuviera pues paso por paso
toda la instalación de stable diffusion para poder nosotros utilizarlo carlos existe algo así claro
que sí vale por supuesto desde el minuto 0 ya existía un ya existía un google colap que
podíamos utilizar ese google colap es el que compartí yo por twitter para algunos lo visteis
que puso un mensaje fijado en el vídeo anterior donde os indicaba que existe pues un a ver un
cuaderno un cuaderno un cuaderno un cuaderno vale este es a ver si no
si este es el oficial vale este cuaderno es el que nos compartió la gente de estabilite y punto
y hay para que directamente directamente vosotros os metéis en el google colap os conectáis el
cuaderno requiere gran cantidad de ram vale vale vale vamos a darle demasiadas sesiones pues sí
vamos a finalizar vamos a finalizar ambas sesiones y lo único que tenéis que hacer aquí dentro es
ir paso por paso ejecutando los pasos que os pone por aquí vale esos pasos es pues instalar las
librerías simplemente tenéis que ir ejecutando cada cada celda de código vale yo lo voy a dar
a ejecutar aquí vale pues esta celda la acabo de ejecutar se estaría instalando esto luego tendría
que darle aquí a la siguiente celda a la siguiente celda llegado a un punto lo que vamos a hacer es
conectarnos a haguin face haguin face es la organización que tiene ahora mismo disponible
la librería por la cual se puede ejecutar stable diffusion es una de las instalaciones que hay
entonces básicamente lo que nos van a hacer es conectarnos a la herramienta de haguin face
vamos a tener que copiar un token nos vamos a tener que registrar vamos a tener que copiar
un token eso lo vamos a ver ahora vale se está instalando esto vamos a ejecutar esta celda
aunque nos puede llevar un poquito tiempo lo vamos a hacer simplemente para que veáis realmente
cómo lo podéis hacer de fácil cuando ejecutáis esta celda que es la de haguin face o para decir
vale tienes que irte a your haguin face token page vale nos vamos a ir a haguin face clicamos
aquí aquí nos tenemos que registrar vale yo me voy a registrar rápidamente dejadme un poquito
si no tenéis cuenta en haguin face pues os registráis que es donde vamos a entrar a todo
el tema del modelo aquí vais a tener que darle a new token y vais a crear un token vale vais a
access token new token y le dais a el botón de copiar como no sé si se va a ver bien está copiado
está copiado no no compartáis este token vale este token es como una contraseña vuestra por
favor no lo compartáis venís para acá lo pegáis le dais a login y debería estar todo correcto
vale login successful your token has been saved antes de esto antes de hacer este paso también
tenéis que entrar a este enlace de aquí estoy yo ya lo he hecho por eso no lo he hecho ahora tenéis
que clicar en lo que se llama la la tarjeta del modelo vale la tarjeta del modelo y tenéis que
darle a aceptar los términos de uso vale tenéis que leer un poco pues todo lo las responsabilidades
éticas del modelo pues la licencia etcétera y aceptáis esa licencia y términos de uso para
que no seáis malvados entonces con eso ya pues está registrado en haguin face ha aceptado los
términos de uso ya está disponible todo listo para usar entonces a ver que me estoy perdiendo
entre tanta pestaña aquí estamos cuando has aceptado y te has logueado ya puedes empezar a
usar stable diffusion lo primero que vamos a hacer es configurarlo esta celda de aquí la ejecutáis y
se va a descargar el modelo esto va a tardar unos minutillos esto va a tardar unos minutillos pimpin
hay una pega hay una pega donde se acepta tenéis cuando entraes aquí al model car o va a salir a
mí ya no me sale porque ya lo aceptado pero sale como una tarjeta donde le dais aceptar y para dentro
vale si podéis pasar porfa los enlaces que estoy compartiendo mejor si podéis ayudarme en esto
porque no estoy pendiente del chat y hay un poco de delay entonces con eso lo aceptáis
y saber descargando el modelo hay un problema en esto que es que el modelo tiene censura vale
cuando lo hacéis a través de haguin face la gente de haguin face pues han querido cuidarse un poco
en salud y han dicho vamos a ponerle censura al modelo vamos a activar este sistema al igual
que pasaban dream studio para que no se puedan hacer imágenes que sean pues medianamente
sugerentes que pueda salir algún desnudo que pueda salir algo violento es una putada es una
putada porque al final nosotros muchas veces incluso el propio clasificador el modelo que
está detectando si la imagen tiene o no tiene algún desnudo a veces se equivoca incluso y
te limita bastante a la hora de crear pues hay veces que tú quieres crearte una escultura griega
todos queréis crear escultura griegas y a lo mejor por el simple hecho de que se pueda insinuar un
un desnudo te lo censuran igualmente esto tiene solución en la vida todos los problemas siempre
tienen solución para esto me voy a ir directamente a twitter a ver a twitter yo en twitter estoy
compartiendo un montón de cosas voy a buscar front dot ccv twitter stable diffusion a ver si me abre
ccv vale esta es mi cuenta de twitter donde he ido compartiendo bastantes cosas
ahora nos lo hagamos en twitter porque quiero que veamos bastantes cosillas de aquí
bueno sí es que tengo muchas cosas que enseñaros el directo está va a estar muy chulo vale este
de aquí este tweet de aquí os da la pista de cómo solucionar el problema este tweet si os fijáis
os lo pone de hecho ya aquí youtube se tiene que estar cebando simplemente tenéis que copiar este
código de aquí este código de aquí lo copiáis o venís para el cuaderno mientras está instalando
todo esto vamos a ejecutar la siguiente celda también vamos a ejecutar esta celda y creamos
una nueva celda de código me he creado aquí le he clicado el botón de código me genera una
nueva celda de código y bueno hay que tener cuidado porque se copia mal de twitter pero así
vale simplemente este código lo que está haciendo es decirle a python que bueno el método que chequeaba
que chequeaba las imágenes pues lo vamos a convertir en un método que no va a funcionar y
ya está vale entonces le damos a ejecutar y ahora mismo estaría desactivado el filtro de seguridad
vale va a estar el filtro de seguridad desactivado cuando lo tenéis hecho simplemente aquí está el
código podéis utilizar podemos ejecutar aquí y vais a ver qué va a funcionar vale vamos a generar
la imagen de un astronauta montando a caballo y esto nos va a generar pues el resultado de la
imagen del astronauta montando a caballo vale y aquí este cuaderno pues explica un poco cómo podéis
manipular algunos de los parámetros que hemos visto antes no el número de steps el número de
aquí veis podéis cambiar los steps tal tal tal vamos a ver que salga la imagen aquí tenemos una
imagen creada con el modelo stable diffusion con hardware gratuito no nos está costando nada dentro
de google pero carlos me pregunté muchas cosas pero carlos es que yo no tengo mucho conocimiento
y no sé cómo esto me parece un poco complicado me parece un poco confuso no hay un método más
sencillo la respuesta es que sí dejarme que lo busque tenemos un método más sencillo que
voy a compartir y que yo creo que para vosotros os va a venir bastante bien si lo encuentro
si me lo hubiera apuntado dejadme un momento que lo busco rápido
vamos a ver
del train
google colap al train stable
vale este de aquí este cuaderno que voy a compartir ahora es el que yo recomiendo que tenéis que
utilizar en google colap este es el cuaderno que realmente os va a permitir usar google colap es
decir vais a usar el hardware no vuestro sino de google va a ser gratuito no vais a tener censura
y además os va a facilitar una interfaz sencilla como ésta que hemos visto aquí cuando hemos
trabajado en local este cuaderno tiene algunos fallillos algunas cosas fallan pero por lo general
funciona bastante bien a ver os lo voy a compartir por aquí pero carlos es que no tengo ya está
calmaos vale no me hagáis más preguntas vamos a verlo vamos a ejecutarlo le voy a dar a conectar
y en este caso yo sí estoy logueado pero me voy a loguear con mi otra cuenta un momentito porque
yo sí me quiero poner el pero el google colap pero porque ya que lo pago un momentito
esta primera parte del directo es más técnica en la parte de que estamos viendo toda la forma
de instalar pero creo que es necesario aunque ya os digo si estáis al día veréis cómo van a salir
cada vez mejor forma de utilizar stable diffusion tocas en el teléfono vale
un momentito ahora sí estoy logueado vale yo me acabo de activar mi otra cuenta y yo
tengo aquí el google colap pero entonces mucho más tengo acceso a mejores gpus vale en este
caso vamos a darle a ejecutar vamos a ir celda por celda ejecutar de todos modos pues en este
caso tengo una una pc en de 16 gigas a ver vale vamos a darle aquí a descargar este bol de fusion
vale pues aquí no va a empezar a descargar todas las cosas todas las cosas vale
está descargando está descargando tenéis el enlace de este cuaderno
y si no tengo pese
vale
tiene la anticensura este colap pues este no lo no lo he probado pero seguramente no y si lo
tiene seguramente con el método que hemos puesto antes se le puede quitar
ahora pasamos a responder cosas vale ahora la segunda parte del directo va a ser pues
hablando un poco de cosas enseñando demos y cómo podéis utilizarlo bien
pero bueno me estáis preguntando mejor que dali que creéis es mejor que dali
es mejor que dali si no no si para mientras me responde y mientras me llega a vuestras
respuestas sigo instalando cosas vale le damos a la siguiente celda vale se siguen instalando cosas
que da limini sí pero no yo no hablo de limini hablo de dalí 2
yo digo que dalí 2 una imagen como ésta no la puede generar dalí 2 una imagen como ésta no la
puede generar con esta calidad con este nivel de detalle no puede para empezar porque dalí 2 de
momento no te permite generar imágenes que no sean cuadradas ya eso es un primer fallo de dalí 2
frente a estable diffusion qué pasa que estable diffusion es mucho más complicado estable diffusion
es mucho más desobediente en los inputs y esto lo veremos luego como podemos más o menos llegar
a buenos resultados pero es cierto que es mucho más complicado sacar resultados como éste con
estable diffusion que con dalí 2 es como trabajar pues eso con una solución que out of the box
funciona muy bien y que para la mayoría de inputs te da un resultado bastante bueno pero
no es tan artístico y no tiene tanto nivel de detalle como tiene estable diffusion más que luego
estable diffusion es open source y ya con eso han sacado toda la ventaja toda la ventaja que
tenían frente a frente a dalí 2 dalí 2 se ha quedado como una herramienta secundaria dalí 2
sigue siendo una herramienta muy buena pero es una herramienta secundaria en la parte en la que la
gente ahora está construyendo un montón de herramientas nuevas que ahora vamos a pasar a
ver que son espectaculares que van a tener en su corazón siempre latiendo a estable diffusion no
a dalí porque dalí todavía no tiene ni siquiera una API habilitada dalí no ha pasado de veta
privada entonces amigos estable diffusion es mejor que dalí 2 y esta gente lo ha entrenado en tiempo
récord han sido mucho más ágiles en montar una página web más potente y ya están hablando de
versiones más potentes todavía versiones que van a acercarse más a la calidad y sobre todo a la
parte de responder mejor al input que el usuario introduce vamos a llegar a eso vale o sea van a
superar a dalí 2 entonces ahí viene mi defensa de estable diffusion frente a dalí 2 que ojo me
encanta dalí 2 y al cesar lo que es el cesar fueron los primeros son los que han abierto todo
este camino estable diffusion no existiría si no existiera dalí 2 y open a y si fuera inteligente
debería darse prisa o aceptar que no es su competición y que estable diffusion les ha ganado
la partida y seguir abriendo camino generando otros modelos otras historias no pero yo de momento
muy contento con que esta batalla se esté dando porque los que ganamos siempre con este tipo de
competiciones somos nosotros en este caso estamos hablando del último modelo el que estamos
instalando esto se sigue instalando ya digo esto puede llevar un ratito puede llevar un tiempo
e instalarlo entonces vamos a dejar que se vaya instalando y a ver a ver a ver a ver que pasa que
coge velocidad vale interesante os paso el enlace de nuevo a ver os paso el enlace de este notebook
lo pondré la descripción vale si está buscando los enlaces os lo pondré en la descripción luego
cuando terminemos vale mientras se instala mientras están instalando esto os digo me
estáis preguntando estable diffusion versus midjourney esto es más interesante esto más
interesante midjourney ya sabéis que es la otra el otro tercer modelo generador de imágenes más
popular y midjourney siempre se ha caracterizado por ser más artísticamente atractivo generar
imágenes que a lo mejor no son tan buenas como las de dalí 2 pero son mucho más artísticas en
ese sentido estable diffusion estable diffusion se le parece se le parece en la cantidad de
repertorio artístico que puede generar lo interesante de todo esto es que estable diffusion
no compite con ninguno de estos modelos porque estable diffusion es open source entonces midjourney
puede coger si quiere a estable diffusion y utilizarlo midjourney puede coger a este modelo
generador de imágenes y hacerle un poco algo que se sabe no al final de estos modelos tanto dalí 2
como midjourney pues juegan con el input que el usuario introduce y le añade también ciertas
cosas para que el toque artístico ese esa diferenciación entre modelos pues exista
entonces midjourney tiene tendrá una capa seguramente entre lo que el usuario pone y
lo que finalmente le llega a la inteligencia artificial pero ese input se lo podemos pasar
a través de estable diffusion y esto que estoy diciendo no es ninguna locura y es
que a menos de una semana de haber salido estable diffusion públicamente midjourney
ya lo está utilizando vale hay una beta y esto lo compartí a través de twitter y a lo mejor ya
va siendo hora de que habrá aquí twitter a ver un momentito si os venís para acá en twitter
yo lo que hago siempre es buscar from dot csv todo lo que haya dicho dot csv de stable diffusion
vale y aquí vais a encontrar un montón de tuits interesantes desde que hoy hacemos directo hasta
otras cosas y a ver esta imagen de aquí esta imagen de aquí que me parece espectacular y
esto dali 2 no te lo va a hacer una imagen como esta de un gato caballero no un caballero un gato
vestido como un caballero esta imagen está generada por la versión beta la nueva versión beta de
midjourney que está utilizando a stable diffusion como modelo generador de imágenes y luego el
resultado le están haciendo algún tipo de procesamiento posterior y o están haciendo
algún prompt engineer para añadirle algún tipo de partícula en el input que ellos consideren que
es interesante para generar resultados que evoquen más cosas artísticas pero esta imagen es
espectacular y si buscáis stable diffusion midjourney lo voy a hacer a riesgo de que me
salgan imágenes no aptas para youtube pero bueno vale os van a salir imágenes muy guapas
muy muy guapas de la beta de midjourney de hecho a ver midjourney beta
estos son imágenes generados con stable diffusion y midjourney entonces qué modelo es mejor
stable diffusion o midjourney da igual porque en este caso midjourney ha sido inteligente y ha
agregado una alternativa para en su herramienta poder utilizar a stable diffusion que es un muy
buen modelo estas imágenes son espectaculares espectaculares guau
aquí unos cuantos ejemplos para que veáis
guau qué modelo es mejor dalidos o stable diffusion comentáis para aquí que el betalon
desactivado pero creo que lo han vuelto a activar me pareció yo no llegue a probarlo
vale no llega a probarlo pero me suena que habían dicho que lo han vuelto a activar
entonces echarle un vistazo guau qué pasada mirad estas imágenes mirad estas imágenes generadas por
una ia guau creo que estamos llegando al momento de que yo esté todo el rato diciendo guau vale
que eso va a pasar mirad esto por favor vale stable diffusion tiene como un nivel de detalle más fino
que dalí vale me he guardado un par de imágenes que ahora quiero ahora queremos quiero enseñaros
para que veáis que generé con dalí 2 para el vídeo con jay maltosano que son estas de aquí del
caballo sumergido bajo el agua son imágenes espectaculares o sea son imágenes espectaculares
y es cierto que en este caso estaba emulando el estilo de bango pero se nota siempre con dalí 2
una especie de hasta cuando la imagen es realista una especie de que los detalles
finos no los terminan de hacer bien de que hay como un granulado fino no sé cómo explicarlo
también es cierto que he visto muchas imágenes llevo cuatro meses metido en esta historia y lo
tengo bastante lo tengo bastante el ojo hecho a dalí 2 pero bueno son espectaculares estas imágenes
también a probar probar ahora vamos a pasar un poco al tema del prompt ingenieros voy a dar
un par de trucos que van a ser claves para que seáis maestros del prompt ingenier y para que
generéis imágenes espectaculares vale pero antes vamos a terminar con la parte de instalación que
estábamos viendo y mientras se está instalando pues vamos viendo imágenes en twitter pero porque
quiero que uséis este método de google colap vale vamos a darle al siguiente vale sigo ejecutando
celda celda celda lo que tenéis que hacer es cuando entréis al cuaderno es ir paso por paso
de forma ordenada ejecutando lo todo vale y en este punto ojo cuidado este punto es crítico tenéis
que darle a la celda y en este momento os va a decir que el cuaderno se va a conectar a vuestro
google drive por qué porque va a utilizar como sistema de almacenamiento de acceso vuestro google
drive voy a darle que conectar vale vamos a darle y lo permitimos aceptamos vendemos nuestra alma
y entonces en google drive se va a crear una carpeta que se llama ella y dentro de esa carpeta
va a ver otra carpeta que se llama models en models vosotros tenéis que instalar tenéis que
subir a vuestro google drive el modelo de stable diffusion vale tenéis que entrar a haguin face
como hemos hecho antes entramos a haguin face y en algún punto no sé dónde la verdad no me acuerdo
dónde lo descargué vale creo que es aquí stable diffusion la 1.4 a ver cómo me lo descargué que
ahora no me acuerdo titi titi titi titi o sea que debería estar el botón para descargar y sin
difuser sé que me lo vais a decir en tres segundos pero no lo estoy viendo
a ver cómo se descargaba aquí el modelo
fueran versions vale
no tampoco de donde me lo descargué yo
vale dejad un momento a ver desde donde me lo descargué
weights aquí stable diffusion la 1.4
a ver library
vale aquí vale vale hemos llegado voy a pasar el enlace también por el chat
voy a pasar aquí
vale entonces aquí tenéis que descargar esto el checkpoint el punto ckpt esto es el archivo de
checkpoint o descarguéis el archivo y yo lo tengo descargado es que no voy a descargar este archivo
es el modelo de inteligencia artificial son los parámetros y es este archivo de aquí y vamos
a comentar una cosa que es muy interesante vamos a ver cuánto pesa este archivo si ahora le
propiedades no lo estoy viendo muy bien pero lo pone aquí este archivo pesa estrictamente hablando
menos de 4 gigas menos de 4 gigas reflexión interesante stable diffusion se ha entrenado
con 5.000 millones de imágenes 5.000 millones de imágenes que pesan en total unos 80 terabytes
creo que eran o si estaba en el orden de los terabytes han cogido una red neuronal de tipo
unit han cogido todas estas imágenes han entrenado el sistema y han acabado con un archivo de
parámetros que son lo que sería el cerebro las neuronas de la inteligencia artificial
de un tamaño de 4 gigas han comprimido toda esta información a solamente 4 gigas
vale todo el conocimiento de esas imágenes están 4 gigas todo todo hasta la imagen del barco que
está flotando en la galaxia hasta el faro que hemos creado antes hasta el retrato más bonito
que hayáis visto generado de stable diffusion y mid-journey vale esto es una locura pero es
que ayer en twitter esta gente la de stable diffusion en concreto emad que os recomiendo
enormemente seguirle a emad que es la persona es el millonario que está detrás de estabilite y
punto y ahí es la persona que ha puesto la pasta que de forma altruista ha entrenado este sistema
y lo está pagando está pagando la fiesta y lo ha liberado al mundo ayer estaba comentando que
este modelo que este modelo que este modelo que este modelo creían que se podía optimizar
no estoy viendo pero bueno creo que lo comparte ayer que lo iban a poder optimizar hasta los 100
megas vale lo tengo por aquí aquí está vale que lo podían reducir los 4 gigas a 100 megas
a 100 megas chavales
es que tú coges o sea 100 megas cuántas imágenes pueden ser 100 imágenes a lo mejor en buena
resolución en buena calidad 100 megas
entonces es una locura además vamos a leer el tweet o sea el tweet dice
por si sirve de algo creo que este bolígrafo finalmente bajará a 100 megabytes con mucha
optimización por venir tenemos algunos anuncios divertidos esta semana cabrones que estoy haciendo
el directo ahora no me metais cosas nuevas que no me da no doy abasto ya sorprendente ver lo que
todos están creando vamos a acelerar eso seis días vale esta gente está loca esta gente está
loca entonces bueno en resumen este archivo lo tenéis que descargar ahora son 4 gigas en un
futuro a lo mejor son 100 megas 3 kilobytes no lo sé lo tenéis que descargar lo tenéis que subir
a vuestro google drive no voy a abrir ahora el google drive porque hay muchos ficheros personales
pero lo tenéis que subir a la carpeta y hay models esta que apunta justamente el google
colap vale lo vamos a ver por aquí
voy a ir cerrando pestañas porque tengo demasiadas cosas abiertas vale vale a este directorio tenéis
que subir ese archivo de modelos tal cual y con el modelo y ahí pues ya podéis empezar a utilizarlo
entonces por qué me gusta este notebook porque os lo estoy recomendando porque cuando lo ejecutéis
cuando llegue a ejecutar todas las celdas lo que va a suceder es lo siguiente lo que va a suceder
es lo siguiente
un
a ver a ver a ver
está está está estamos en ello
para la primera vez va a tardar un poco más
lo que vamos a ver ahora es que este cuaderno lo que va a montar es un entorno de gradio que
es una librería para crear entornos visuales con una interfaz de usuario bastante cómoda
donde vamos a estar utilizando como backend a google colap de hecho voy a hacer una cosa
voy a pararlo primero porque me estoy dando cuenta de que me va a generar un enlace público que
vosotros vais a ver y no me interesa entonces voy a ponerle una contraseña que esto no lo he
probado a ver la contraseña se va a leer no si la pongo vale dejad un momento
vale por si acaso es que no quiero no quiero que me la gais como en directos anteriores que
os ponéis a entrar y tal vale vale no estoy atento a las preguntas todas que estáis haciendo
porque cada uno tendrá sus problemas instalando toda esta historia pero pero por favor ayudaos
entre vosotros y si alguien está viendo el directo a posteriori y podéis entrar en los
comentarios y también responder pues sería de de ayuda vale esto se está instalando se
está ejecutando pipi pipi poco a poco poco a poco va a tardar un poquito la primera vez
mientras se instala vamos a irnos un poco a ver más ejemplos de stable diffusion en twitter ya que
podemos de lo que está generando la gente me gustó sobre todo el hashtag de mid-journey beta
qué pasada
qué pasada yo me he hecho el día entero en twitter viendo imágenes de estas vale
está estas imágenes se han generado a partir de ese archivo de 4 gigas
esta esta imagen se ha generado a partir del archivo de 4 gigas
esta imagen no sé dónde se ha generado esta imagen se ha generado del archivo de 4 gigas
así podría estar todo el día esta imagen se ha generado de ese archivo de 4 gigas
esta imagen se ha generado de ese archivo de 4 gigas si solamente tenéis que entrar a la
página de haguin face descargar el modelo que como os he enseñado y y listo vale entonces
cuando ya esté instalado y ejecutado lo que vais a ver es que sale un enlace aquí vale y
cuando cliquéis en este enlace si todo va bien me va a pedir una contraseña espero
o tal vez no
vale no sé si si empezáis a entrar pues creo que va a utilizar el repo y no sé yo si es muy
buena idea pero bueno en este caso lo que tenemos aquí es una interfaz de usuario similar a dream
estudio lo mismo que hemos visto antes ahora lo tenemos aquí vale ahora lo tenemos aquí y
entonces pues podemos darle pues esta misma frase no a corgi wedding a red hat digital art vamos a
darle a generar y vamos a ver cuánto tarda
vale ahora estaremos utilizando el entorno de google colap que yo he configurado estamos
utilizando esa tarjeta esa tarjeta gráfica entonces va a tardar un poco más aquí de hecho lo podemos
ver y aquí hay gente que creo que ha puesto algún input no sé qué pasará exactamente si la gente
pone ahora pero a ver si puedo poner la contraseña o si no hacerlo para que no se vea
vale está tardando más de lo que debería yo creo que voy a pararlo de hecho se ha parado solo
de hecho se ha parado solo pero bueno básicamente lo podéis ver ahí vale se va a generar un entorno
un entorno visual que vosotros podéis probar un momentito
estoy mirando si se puede poner esa contraseña
vale un momentito
la cosa es si lo pongo en pantalla completa no debería salir por ningún lado
vale vamos a probar dito que lo ejecuto
está ejecutando porque el local no funciona no por algún motivo esto no vale
probamos suerte
lo que tengo que hacer para que para que no sois cabrones básicamente
vale creo que no así no se ve nada vale vale vamos a probar de nuevo a corgi wedding
digital art vamos a ejecutarlo vale tenemos la altura el ancho como antes el cfg la semilla
cuántas imágenes queremos el número de sampling vamos a darle y vamos a ver qué sale lo interesante
es que esta interfaz como digo está tirando de google colapso lo cual es tener el mismo
sistema que habéis instalado en local en vuestro ordenador pero en este caso no te no estáis
utilizando vuestro hardware está utilizando de nuevo el hardware que google os presta gratuitamente
con lo cual es la mejor opción creo yo a menos que tengáis una tarjeta potentísima para que
vemos la imagen que se ha generado a menos que tengáis una imagen un ordenador potentísimo
entonces si utilizad vuestro hardware pero si no está de aquí este cuaderno que acabamos de
instalar rápidamente es el más fácil vale es el más fácil
vale entonces creo que así me faltó vamos a darle nuevo
creo que la versión esta versión no tiene censura vale esta versión tampoco tiene censura así que
podéis utilizar esta difusión gratuitamente sin gastar de vuestro hardware al máximo sin límites
vale limitless y no sólo eso sino que además tiene un par de ventajas más que vamos a comentar
ahora que os va a interesar wow mira boom imaginad que esta imagen me gusta vale esta imagen me ha
gustado pues yo puedo darle aquí upscale with sregan este cuaderno que os he compartido tiene
disponible un modelo de super resolución que se llama sregan entonces vamos a darle upscale
with sregan automáticamente nos lo lleva a la pestaña de sregan vamos a darle
vamos a darle va a tardar un poquillo de hecho yo creo que aquí puedo ver cuánto va a tardar
si
vale cuando esté esto listo pues saldrá aquí la imagen con alta resolución vamos a ver vamos a ver
de momento como lo veis sencillo difícil
bien no yo creo que hemos visto todas las opciones disponibles para poder instalarlo creo que quien
no sepa ahora mismo utilizar stable diffusion es porque no quiere porque no quiere ese gorro
una mierda pues sí la verdad que no es el mejor gorro vamos a ver si el modelo consigue generarlo
la verdad que está tardando bastante lo que sí he visto es que está este cuaderno suele fallar
a veces pero bueno si os fallara lo único que tenéis que hacer es volver a actualizar y hasta
vale vale de hecho creo que me ha dado un problema posiblemente con memoria
tiene pinta vale aquí está vale fijaos cómo ahora la imagen está si hemos generado una
imagen de 512 por 512 hemos utilizado sregan por 4 pues más aumentado la resolución por 4
estos son imágenes de 2048 por 2048 fijaos el detalle se pierde algo de talla se pierde el
granulado este del fondo no lo tenemos pero se gana bastante detalle por ejemplo los pelos
fijaos como aparece un montón de detalles súper interesante en la parte de la boca en parte del
pelo etcétera entonces vamos a probar a generar imágenes pero carlos ya tengo instalado stable
diffusion pero no sé qué generar bienvenidos amigos a la parte número 2 qué pasa cuando os
enfrentáis al abismo y el abismo os devuelve la mirada qué pasa cuando tenéis que generar
vosotros cuando tenéis todo el potencial en 4 gigas recordemos de de creatividad absoluta
como demonios generáis inputs que sean interesantes por ejemplo voy a hacerme por trade of y lo más
y cuando haya generado el décimo por treinta y los más pues te vas a aburrir no cómo podemos
hacer imágenes interesantes no aquí donde entra lo que se denomina el prompt ingenier el cómo
saber darle los inputs correctos al sistema para generarte imágenes que sean visualmente
interesante primer truco lo estoy viendo todo el rato pongo digital art y con esto ya el
modelo entiende que quiero generar arte digital que por lo general suele ser una etiqueta que
acompaña imágenes que son visualmente bonitas cuál es otra que se puede utilizar pues trending
on art station trending on art station te va a generar un resultado que puede ser visualmente
atractivo porque porque estaba trending en art station porque fue un resultado que estuvo de
moda y por lo general los resultados que están de modos a que que fueron populares no que fueron
trending pues están sesgados a ser visualmente muchos más atractivos estos son pequeñas trucos
que la gente va descubriendo dentro del funcionamiento de stable diffusion qué sucede posiblemente
muchos de los mejores trucos para generar las mejores imágenes todavía no se hayan descubierto
porque al final lo que tenemos aquí es un cerebro de 4 gigas recordemos al cual nosotros podemos
interactuar a través de darle inputs y a veces descubres que una palabra por algún motivo hace
que el modelo funciona mejor o funciona y peor entonces tener o generar un estilo determinado
que es súper visual atractivo no entonces ese es lo que se denomina prompt ingenieres lo que
tenéis que aprender a hacer saber cuáles son esas partículas y saber cómo utilizar bien al
modelo trucos recomendaciones decía un gran artista bueno decía una persona famosa que era
state jobs que no me acuerdo de la frase pero que los grandes artistas robo que de hecho no
lo dijo ni siquiera en la frase la dijo picasso y picasso se lo habrá robado jesucristo entonces
nosotros que vamos a hacer robar también vamos a robar inputs de otra gente no es robar evidentemente
robar está mal a ver algún artista que dirá bueno ladrón que roba ladrón 100 años de perdón ya
que muchos considerarán que lo que se hace con stable diffusion como se ha entrenado el modelo
es robar que es un debate que está ahí candente yo mi consejo uno de los primeros consejos es que
estéis metidos siempre en el reddit de stable diffusion para el reddit de stable diffusion vais
a estar al día de todas las novedades que van saliendo de hecho yo aquí me enteré que estaba
este sistema para poder utilizarlo de manera sencilla para poder instalar lo que lo hemos visto
antes vale este es uno de los primeros consejos que recomiendo aquí podéis ver imágenes que la
gente va creando resultados que son súper chulos y alguna gente es muy maja y comparte sus inputs
cómo podéis saber cuando alguien está compartiendo el input pues si os vais al foro de stable
diffusion veréis que algunos están marcados en amarillo vale y pone prompt included que significa
prompt included pues que tiene el input puesto entonces si clicáis en la propia etiqueta podéis
encontrar un montón de resultados pues por ejemplo alguien ha hecho una imagen como esta yo
quiero generarlo prompt include dónde está el prompt a ver que yo lo vea
a ver a ver a ver a ver dónde está el input prompt include more details in comments comments
ahora está aquí vale aquí pone prompt front view portrait of beautiful woman with black hair very
attractive very cute cartoon character character design pixar disney octane render que es un
motor de videojuegos fondo gris trending on art station 8k pixiv lo que ya no sé ni lo que
significa vamos a copiarlo todo y nos lo vamos a llevar a nuestro sistema vale nos lo vamos a
llevar para acá y vamos a cambiar pues en vez de front view portrait of beautiful woman vamos a
poner beautiful men y vamos a no incluso of Elon Musk beautiful Elon Musk obsesionados estamos
con Elon Musk en este directo vamos a darle generar y con esto ya estamos cogiendo este input que la
gente amablemente ha compartido y lo estamos utilizando y entonces podemos empezar a jugar a
modificar estas estas partículas no que añaden y cambian cierto comportamiento a la imagen podemos
ir probando para ver cuál se acerca más al resultado que queremos vale esta imagen la verdad
que no es de las mejores que podría haber salido vale vamos a poner por ejemplo beautiful men en
este caso
vale
vamos a probar
vale pues por ejemplo aquí hemos generado una imagen parecida a la otra que teníamos en reddit
pero en este caso pues de del chico si esta idea gusta mi siguiente consejo y este es muy buen
recurso es léxica léxica es una web que han creado para justamente hacer una base de datos
de imágenes visualmente muy atractivas lo pongo también en la descripción donde te muestran
imágenes de diferentes resultados y voy a ir con cuidado de nuevo porque arroba youtube vale y
fijaos que para todas estas imágenes aquí a la izquierda tenemos el input tenemos el input
highly detailed close up portrait of a cat in disney stephen blin san real engine art by greg
greg root waski lois rat fernand blah blah blah blah bueno copiamos copiamos nos venimos de nuevo
en nuestra herramienta colocamos el input y nos generamos una imagen
generamos generamos generamos y generando generando generando
el gratis el gratis léxica de gratis el modelo que estamos ejecutando ahora mismo gratis y aquí
nos sale una imagen del posible gato vamos a darle de nuevo en la otra
entonces léxica es un muy buen recurso para poder encontrar inspiración en cómo la gente
genera ciertos tipos de imágenes con qué tipo de etiquetas y ir combinando para que vosotros
también encontréis caminos donde generas imágenes tan espectaculares como esta oye que esta te ha
gustado te la llevas a ese regán la aumenta de calidad y te la pones de foto de twitter y te
pones a trolear a la gente como hacen la gente que que tiene imágenes de avatares de animales
o de ánimes vale bastante bastante interesante el recurso de léxica oye que quiero generar
imágenes como estas pues tenemos aquí de one piece esto es como pepe la rana pepe de frog puede
ser así retrato de pepe de la rana qué guapo vais a encontrar un montón de inspiración para
poder generar vuestra joder macho qué peligro voy a ponerme habéis dicho por ejemplo ya lionel
messi si pongo messi messi como un puppet
pero lo de messi lo hemos perdido messi
vale messi como un funko pop anime vale guapísimo
guapísimo
messi en el madrid espectacular es rec messi de rec es rec messi en un cómic
bueno pues eso esta página web es el mejor recurso para para hacer este tipo de cosas por ejemplo
este input me ha gustado me lo copio me vengo para la herramienta y vamos a probar pero cambiando
a messi por por ejemplo en mawatson que es como también la otra modelo que suele utilizar bastante
vale
messi chiquito
enlace del cuaderno de colap dejando momentos lo comparto o sea tenéis que
buscar para encontrar el cuaderno ahí está ahí está fijado un detalle curioso que esto ha sido
polémico en twitter tenéis que entender que esta herramienta a ilustradores a fotógrafos a mucha
gente le enfada mucho le cabrea mucho por por motivos que tienen que tienen sentido y es que
al final esto se ha entrenado con imágenes públicas de ilustradores autores con copyright
imágenes que les pertenecen a ellos pero que públicamente se han escrapeado que no es ilegal
pero podríamos entrar a debatir si es ético o no para crear una herramienta que ahora automatiza
el trabajo que ellos hacían entonces ya está habiendo mucho debate es un debate que yo creo
que incluso está a un nivel de agresividad entendedme vale no agresividad violenta pero
si se nota mucha mala leche o sea que están realmente cabreado cierto sector y entonces fue
debate en twitter el tema de las firmas no de que a veces el modelo intenta generar firmas y
ellos entendían que eso significa que esta imagen que se está generando aquí pues realmente está
siendo copiada de una imagen real que tenía una firma no que hasta ese punto el modelo está
copiando a los autores pero eso realmente no es así vale lo que sí representa esto es que el
modelo ha aprendido a firmar obras el modelo habrá visto muchas imágenes que tienen firmas y por
tanto una firma es un patrón recurrente que el modelo intentará poner siempre las esquinas
inferiores derecho izquierda porque es donde por lo general los autores firman entonces que el
modelo te esté generando en esta imagen alguna especie de garabato no significa que la imagen
sea una copia de una imagen real que tiene una firma significa que ha aprendido ese patrón y
que eventualmente pues pueden salir en ciertas imágenes vale vamos a generar otra imagen
bueno que bastante información no de espero que útil espero que os esté
gustando esta información guay que guapa esta imagen
que guapa pues ya tenéis toda la información de cómo hacer buenos inputs como copiando copiando
de aquellas referencias que la gente vaya facilitando en internet recomendación reddit
recomendación léxica que es la página web que acabamos de ver y también twitter en twitter
vais a encontrar un montón de información para poder para poder saber qué está generando la gente
con qué inputs los están haciendo esta herramienta aunque falla un poco tiene una cosa muy interesante
en esta pestaña de aquí y es el image to image que hemos visto al principio vale el image to
image básicamente lo que te permite es hacer magia es básicamente lo que hacía el modelo
de gauguin de yo te doy una imagen como referencia inicial y a partir de esta imagen de inicio tú vas
a aplicar este proceso de difusión pero basándote un poco en ella vale con lo cual yo te puedo dar
una imagen como esta de aquí un dibujo hecho a nivel de paint vamos a ponerlo aquí vamos a
poner a fantasy landscape trending on artstation y le vamos a dar a generar y vamos a ver qué sale
vamos a ver qué sale esto es lo que muchos estábais pidiendo al principio del image to
image el poder utilizar esta herramienta este cuaderno y también la herramienta que hemos visto
al inicio este modelo que habéis descargado aquí también te permite poner una imagen de
inicialización con lo cual tenéis dos opciones muy válidas muy buenas para poder instalar a
stable diffusion para poder utilizarlo con el image to image en este caso pues ha salido
una imagen bastante de corcho no lo vamos a negar vale voy a ampliarle aquí ya que esta
imagen es bastante ancha le voy a poner más ancho y vamos a darle a generar de nuevo otra vez aquí
igualmente si queréis probarlo este sistema de image to image de una forma rápida sin instalaciones
sin historias os voy a pasar este enlace de aquí de esta página web que es un espacio de
haguin face la página donde hemos descargado el modelo tienen también disponible un espacio
donde podéis utilizar el modelo de forma gratuita con su hardware vale entonces os lo voy a dejar
por aquí y básicamente pues podéis hacer lo típico no de pues la típica imagen que está
haciéndose bastante meme ahora yo hago esto así vale te voy a poner sketch of an oh
boceto de un búho le vamos a dar a diffuse se va a poner a pensar se va a poner a pensar
os lo paso de nuevo que sé que lo vais a pedir vamos a ver vale aquí vemos la imagen que ha
salido en este caso de esta que hemos pasado como input vamos a ver si podemos mejorarlo
un poco creo que podemos darle un poco menos de denoising strength y creo que esto va a ser
que el resultado sea un poquito mejor vamos a probar igualmente aquí hay que jugar ahora con
diferentes variables no ya no solamente es el input o sea ya no sólo es la imagen de entrada
que le está dando sino también el input aquí hay que empezar a jugar con el trending on art
station high quality 8k hd etcétera vamos a darle de nuevo a fantasy landscape que se vaya
generando mientras tanto vamos a ver el búho a ver si ha salido ya ya digo que este modelo el
de haguin face pues más lento para llevar más tiempo generar imágenes que si utilizáis google
colap o si utilizáis vuestro vuestro hardware pero bueno para probarlo y sacar algún ejemplillo es
bastante gracioso a ver si sale luego hay un montón de herramientas que han ido saliendo
vale pensad que por ejemplo cualquier herramienta de edición a día de hoy puede utilizar a stable
diffusion vale no es profesional a mirar generar varias imágenes vale ok lo veis cómo se ha basado
en mi sketch para generar diferentes opciones vale no está mal pipipipi vale este input no me está
saliendo muy bien os voy a enseñar el ejemplo que probé ayer que me flipó que era el del caballo
vale yo subí la foto del caballo y voy a poner aquí a fotógrafos a los andes y a ver qué nos sale
vamos a darle esta es una imagen que yo generé condali y ahora el modelo pues está utilizando
esta imagen de referencia para generar una fotografía del caballo bajo el agua vamos a ver
qué sale pipipipipi a ver a ver tarda aproximadamente 25 26 vale en este caso se parece en parte pero
se ha perdido bastante de la referencia de la imagen es cierto que mantiene la pose vale de
la imagen original mantiene la pose mantiene el reflejo arriba pero no no respeta tanto la
imagen inicial yo creo que esto depende del factor de denoising strength si lo bajamos no
va a ser tan agresivo a la hora de generarlo vale vamos a probarlo esto no me ha dado tiempo de
probarlo tanto entonces vamos a hacer pruebas ahora en directo vamos a probarlo vamos a bajarlo 0
con 4 vamos a ver si el resultado se parece más a la imagen original vale voy leyendo vale sale
pero bueno sale mejor que antes no la foto vale perdón la cámara dejando que mueva un momentito
vamos a ponerlo aquí aquí yo creo que mejor vale a fotógrafo for horse under the water vamos a darle
otra vez por el tamaño es verdad toda la razón tenéis que cuidar en este caso efectivamente que
la imagen tenga el mismo tamaño que la que está dándole como inicio porque si no lo que va a ser
es achatarte al caballo para intentar respetar el resultado mira de hecho aquí ala está super
interesante porque ha entendido como que el agua está en una perspectiva donde el caballo está
asomando la cabeza por fuera del agua y eso hace que el caballo tenga esté como pintado cuando está
por debajo que loco vale ahora sí debería salir mejor es cierto que la proporción no era la correcta
ahí está vale vamos a darle entonces ahora sí un poco más de denoising strength y vamos a subirle
también que respete más el input que le estamos poniendo con texto vamos a ver
vamos a ver ahí está ahí está cómo va saliendo professional a fotógraf vamos a ver a
profesional fotógrafo mejor bajo under the water digital art a ver qué sale ahora
algún consejo para que el in-paint funcione bien con stable diffusion al menos por ahora
las implementaciones que he visto no funciona también el in-paint vale al menos no he encontrado
ningún in-paint que molé tanto vale pues no me está saliendo la imagen tal como me salió ayer
no sé cómo tendría la configuración pero ayer me salió una cosa espectacular os lo quiero
enseñar porque se ha convertido como mi imagen favorita generada con ia y es la siguiente imagen
a ver si os lo puedo enseñar esta era la original la que estamos probando ahora y ayer me salió esto
vale que es exactamente la representación perfecta del caballo bajo el agua no me apunté el input ni
nada lo cual me estoy empezando a arrepentir ahora pero es cuestión de probar vale me flipó
bastante el tema de las burbujas yo esto no me había dado cuenta de que eran burbujas y sin
embargo el modelo si lo entendió y hizo una especie de pues todo este torpellino de agua de aquí lo
convirtió en burbujas subiendo y me parece espectacular se me parece una realización perfecta
de lo que sería esta imagen si fuera una fotografía y mola porque muchas veces cuando
generamos imágenes con dalí y con todo este tipo de modelos siempre detrás en el fondo de
tu cerebro hay una duda de si el modelo está copiando de algún lado pero es que esta imagen
ya no la puede copiar de ningún lado porque ésta la generado dalí y ésta en cambio la general
stable diffusion en base a lo de dalí con lo cual es imposible que exista esta imagen como
como algo real no es brutal es brutal pero carlos es que no tengo no tengo imágenes para subir aquí
como referencia no pasa nada amigos este notebook que os he compartido es tan avanzado que tiene
hasta un editor propio para que podáis jugar a generar vuestras cosas entonces podéis coger venir
para acá vamos a hacer por ejemplo no es el mejor editor del mundo también lo voy a decir podéis
subir vuestras imágenes también si queréis pero vamos a hacer alguna prueba rápida
vamos a una prueba rápida
el tamaño del pincel lo vamos a poner a 50 incluso 100
vamos a hacer esto en la imagen que hemos visto antes de la ciudad bajo la cúpula
pues vamos a intentar hacer algo parecido vamos a generar una cúpula
a ver tendría que ser como gris
a ver si me lo más o menos o no o no hoy en pintando con carlos
vale me sirve y vamos a hacer rectángulos grises o marrones un poco
a hacer así un rectángulo color también este para ver no es el mejor editor vale
lo creo que lo estés comprobando todos que no es la cosa más espectacular
esta imagen que es que viene a representar pues evidentemente una cúpula en mitad de un desierto
más o menos vale o sea por favor remat conmigo en este barco que se hunde le damos a guardar y
tenemos la imagen puesta aquí entonces vamos a darle que tenga mucho ancho para que corresponda
con la imagen más o menos esto y le voy a decir digital art a city under a dome in the middle of
the desert desert con una de segundo no me acuerdo a ver de cierto cierto en inglés con
una vale tres digital art trending on art station hay cualidad y toda la pesca de inputs vamos a
darle a generar y a ver qué nos sale como veis todavía el hecho de que la ia pueda generar cosas
impresionantes no significa que nosotros podamos generarlas hay que hacer mucho trabajo hay que
hacer mucho trabajo vale se ve el input de arriba bueno a ver si la gente no me lo trolea a ver si
sale la imagen al menos a ver si aguanta aguanta aguanta al menos para ver un resultado
cuando ha salido la web a cuando le dado f11 no claro a ver si no me voy a guardar la imagen
por si acaso para acá vale sí yo creo que ya yo creo que ya hemos perdido el stable diffusion
lo vuelvo a poner y no pasa nada no pasa nada amigos
si efectivamente lo veis petado porque alguien ha entrado
un momentito y lo vemos aprovecha para recordaros mientras se va cargando esto que tenéis dos cosas
interesantes que podéis aprovechar descuentos y premios y cosas gracias a el canal por una parte
tenemos el sorteo de la tarjeta gráfica 3090 rtx con envidia que el gtc va a ser el 20 de septiembre
lo vamos a transmitir aquí en directo posiblemente en youtube ya ya veré y estamos sorteando tarjeta
gráfica de abajo en la descripción tenéis toda la información para que sepáis cómo podéis hacerlo
y luego por otro lado tenemos con el instituto de inteligencia artificial van a empezar una
nueva edición de su máster que ya lo ha anunciado varias veces aquí en el canal joder
dios que rolo de las url bueno pues si no sale esto no habrá un momento
a ver si puedo subir la imagen directamente
vale cuál era el input que el instituto de inteligencia artificial está volviendo a ser
una nueva edición de su máster que empieza el 15 de octubre que tenéis hasta el 1 de septiembre
para matricularos con un descuento de 300 euros por su lado pero luego aparte podéis matricular
después del 1 de septiembre hasta hasta el 15 de octubre pues con un descuento a través de mi canal
con el código dot ccv 300 tenéis toda la información abajo hasta el 15 de octubre tenéis otros 300
euros de descuento o sea que si os matriculáis antes del 1 de septiembre tenéis 600 euros de
descuento que no está nada mal vale es un máster online gratuito para no gratuito no online para
todo el mundo abierto para todo el mundo y es un máster no técnico vale no técnico donde se va
a enfocar mucho más a la parte de aprender todo el aspecto de cómo utilizar todas estas herramientas
que están saliendo en vuestros proyectos más que más que aprender a cómo programar lo que ahora
mismo con todas las herramientas que van saliendo pues yo creo que es mucho más interesante saber
cómo sacarle todo el partido a esto y acabar pues montando un negocio algún servicio algún producto
algún proyecto donde podéis aplicar todo esto tenéis abajo también la información en la cajita
descripción mientras tanto estoy intentando hacer la fantasy no lo estoy viendo pero porque
no quiero que se filtre esto le voy a poner with que mi cámara tape la borrele estaría bien a ver
voy a ponerle más width porque sale el dibujo bastante distorsionado y para aplicar un poco lo
que hemos visto hoy lo que voy a hacer al mismo tiempo es irnos a la web de cómo se llama réplica
no la web si no me equivoco réplica creo que era no como era la se me ha ido el nombre la de los inputs
esto lo vemos
léxica léxica vamos a léxica y vamos a buscar fantasy landscape
vale ese estilo está guapo
vale vamos a copiar todo este input y se lo vamos a aplicar a lo que estamos generando
entonces lo vamos para acá esto tiene mala pinta que esté tardando tanto así tiendas de dom
así tiendes de don in the middle of the desert
digital painting of a city under the dome
creo que creo que está petado esto este es el problema de este notebook que falla bastante
tío falla bastante y tocará iniciarlo varias veces pero bueno
sí bueno pues está la mejor imagen que hemos
podido sacar del dom ahora mismo pero voy a enseñar rápidamente lo que la gente está
logrando hacer con el image to image para que tengáis una idea de lo que se puede hacer
vamos a irnos a reddit vamos a irnos a reddit
de stable diffusion aquí en el reddit de stable diffusion podéis buscar
podéis buscar un montón de resultados super chulos
aquí parece que hay otra interfaz que podéis utilizar también que guapo está la imagen con
la que hemos abierto el directo gente haciendo vídeos vale
vale pues yo creo que aquí si ponemos image to image podemos encontrar algunos resultados
interesantes de lo que está haciendo la gente fijaos vale este es con el input que
estamos probando al principio este también está guapo
estos son cosas que jugando bastante con los resultados pues podéis llegar a utilizar
no esto creo que era una ilustración que alguien había hecho o sea con su tableta y
había acabado generando esta imagen aquí que es bastante bastante bastante chula
qué más
o sea ya hay mucha gente que está utilizando esto de forma creativa no al mismo tiempo que
por un lado gente que rehuye de estas herramientas porque creen que pues pueden ser poco éticas que
a lo mejor no les van ni le van y les vienen no les interesa porque consideran que los resultados
no son tan artísticos no son tan buenos o le falta en alma o lo que sea hay gente por un lado que
está rehuyendo estas herramientas y hay otra gente que lo está utilizando aquí cada uno
que tome las decisiones que quiera evidentemente no pero creo que es muy interesante aprender
ostras ostras el ex omo recuperado el ex omo recuperado creo que es interesante que al
menos se investiguen y que le dediquen un tiempo para ver realmente qué podéis lograr con esto
cómo lo podéis integrar en vuestro flujo de trabajo mío por ejemplo para el tema de hacer
portadas en youtube me está viniendo genial este tipo de tecnología ya poco a poco voy cambiando
las portadas que tengo hechas a mejores y no lo sé o sea creo que es una herramienta bastante
espectacular la buena noticia es que es open source y que sea open source significa que cada
vez va a estar más integrado en más y más herramientas de hecho seguramente en seis meses
no más veremos photoshop con este boli fusion integrado de forma nativa vale porque ya hay una
ya hay un plugin ya hay una persona que ha hecho un plugin os lo voy a enseñar porque está bastante
chulo también os voy a enseñar este tweet a ver creo que es este sí mirad esto es una herramienta
al el llamado getalpaca.io y aquí podéis usar este boli fusion dentro de photoshop para utilizar
el canvas el lienzo del photoshop con este boli fusion entonces tú por ejemplo te pones abres el
prompt dice quiero una casa en la colina fijaos los detalles vale una casa en la colina y los
modificadores de texto no pues estudio ghibli highly detailed manga animes el shading game
characters 50 steps a un gfc de gsc de 6.5 vale le va a ejecutar boom te lo genera
vale lo dibuja selecciona otra parte
hace el impainting y te lo rellena el tío con evidentemente con destreza de photoshop
pues también va borrando lo que no le interesa va creando y de repente ya tienes una interacción
en tu loop de trabajo en tu pipeline de trabajo que tiene una herramienta potentísima donde al
final generando generando generando haciendo impainting generando desde cero y tal pues
acabas con una imagen como ésta vale todavía requiere mucho trabajo todavía requiere mucho
esfuerzo pero es espectacular es espectacular y no es perfecto o sea hay muchos fallos en
esta imagen pero es espectacular entonces todo esto va a llegar todo esto va a ir llegando porque
repito lo bueno de stable diffusion es que es open source al igual que ha pasado en la parte de
generación de texto con bloom bloom es el modelo gpt3 pero entrenado por la gente de haguin face
open source también que lo podéis descargar y utilizar en vuestros proyectos todo esto está
viendo abriendo un camino en el campo de inteligencia artificial que es espectacular
pues por ejemplo la herramienta de universe no sé si recordáis a el directo que hicimos con
javier y de ami que se vino con nosotros para presentarnos tal y que él tuvo acceso anticipado
pues él tiene la herramienta él tiene la herramienta de universe vale que era una herramienta muy chula
porque planteaba de nuevo este canvas donde tú podías escribir y podías generar cosas pues
rápidamente ha cogido el modelo stable diffusion en una semana y acaban de integrarlo dentro de su
sistema pues rápidamente tú puedes generarte ahí una imagen de una chica hacer el impainting vale
puede por las partes y puede generarte con el stable diffusion que tenga un sombrero de otro
tipo en un sombrero victoriano y generar diferentes tipos de imágenes
y esto es stable diffusion 1.4 pero habrá una versión 1.5 1.6 2.0 vale coge la imagen aquí
por ejemplo borra toda la parte del suelo y genera pues para que los para que la parte de abajo
esté como la arena no como que es una escalera que acaba en la arena es espectacular espectacular
otra herramienta que tenía metido ahora esto es art breeder si no me equivoco art breeder se llama
no y en art breeder por lo mismo puedes acceder puedes dibujar y puedes hacer el diffusion para
generar a partir de siluetas y cosas que vas añadiendo pues una rosa una strawberry
vale es impresionante que hace un año esto era impensable y ahora estamos aquí
vale
vale es que es increíble
es increíble amigos ya sostamos yo digo mi mejor herramienta la del u en la del búho no
right el búho ala ya tiene un búho espectacular
qué deciros bueno pues que ahora os toca a vosotros vale stable diffusion ya sabes cómo
instalarlo ya sabéis cómo generar buenos inputs ya sabéis cómo usar el image to image ahora os
toca a vosotros ser creativos yo he estado jugando estos días he creado alguna cosilla
interesante os lo puedo enseñar aquí tenéis el link del sorteo por cierto de la rtx 3090 ya
sabéis que tenéis que hacer retweet pero también tenéis que registraros con mi enlace y tenéis
también que asistir a alguna de las charlas del gtc pero bueno bueno aquí está limpente en esta
imagen es real esto está creado con stable diffusion la imagen del caballo en twitter
me dedico bastante a hablar del tema porque es lo que me tiene más asombrado últimamente pues todo
el tema de las imágenes de san francisco estudio ghibli el vídeo que hicimos con alto sano
todo lo que hemos ido viendo hoy bueno bueno bueno bueno bueno bueno mira de esto lo que
se viene en el futuro claro porque al mismo tiempo que todo esto se va liberando y se va
haciendo open source la investigación no para y siguen saliendo cosas interesantes vale y esto
es un trabajo que ha salido esta semana que se llama dream booth y que es una especie de
modelo que tú puedes hacer fine tuning con unas pocas imágenes de referencia para que el modelo
pueda generar resultados usando aquel concepto que está en las imágenes de referencia no pues
por ejemplo tomas imágenes como estas de tu perrete y se hará quiero a mi perrete en la
crópolis pum nadando pum durmiendo pum teniendo un corte de pelo pum vale esto todavía no está
libre la caja de sol imaginar que sois un equipo de marketing habéis sacado un nuevo producto una
caja de sol espectaculares rositas muy bonitas muy bucas con este diseño pum en un oso con el
monte fuji encima de la nieve con la torre fell de fondo mochila esta mochila con sus pines con
sus cositas en el gran cañón a la noche con la torre fell con tal conoce que la tetera tetera
china tetera china en el agua tetera china flotando en leche tetera china siendo usada por un oso de
peluche también de cerámica tetera transparente con leche dentro tetera siendo utilizada para
echarte vale perretes tienes a tu perrete y dices quiero perrete al estilo de van gogh quiero
perrete al estilo de miguel ángelo e rembrandt vermer renoir da vinci vale
coches morado rojo amarillo azul perro oso panda koala león hipopótamo
qué os parece como herramienta para torturar a tu perro qué os parece
yo yo ya no sé yo ya no sé amigos y amigas yo recomiendo que busquéis siempre en twitter
es mi mejor herramienta de trabajo os lo confieso stable diffusion busquéis lo que
se está generando lo que está haciendo la gente más reciente menos reciente vale no me la quiero
jugar tampoco porque twitter es como es y vais a ver un montón de experimentos que la gente está
creando que es una pasada no esto creo que está cogiendo la interpolación de vídeo que se genera
con stylegan 3 y lo está pasando cada fotograma por stable diffusion una semana stable diffusion
es que sólo ha pasado una semana de que lo han hecho pensors sólo ha pasado una semana
qué pasará la semana que viene pues yo que sé haremos otro directo hablando de lo nuevo que
han sacado es una locura bueno voy a parar ya por aquí que no sé qué bueno bueno dios psicodélico
en fin chicos yo ya yo ya no sé yo ya no sé creo que esto es la primera vez que estamos viendo
a la revolución de la inteligencia artificial ocurriendo como se prometió no siempre hemos
hablado de que la inteligencia artificial iba a automatizar trabajos iba a llegar nos iba
a potenciar en ciertas habilidades nunca pensamos que fueran a ser las creativas y sin embargo
aquí estamos vale aquí estamos espero que os haya gustado el directo que hayáis aprendido cosas
y no sé a darle al coco a darle al coco si generáis imágenes compartidlas por twitter me
está gustando mucho ver lo que compartís mucha gente me escribe a rodos ccb mira lo que ha hecho
muchas gracias por el tu total no sé qué compartirlo compartir este vídeo este directo sin alguien
necesita ayuda para para instalarlo y todo toda la historia y nada a crear vale a crear este
directo es el vídeo de esta semana pero ya estoy trabajando en el próximo vídeo lo veréis es
una cosa bastante guapa os va a gustar y a ver a ver dónde acaba todo esto darle like si os ha
gustado compartirlo si os ha gustado haceros patrón si queréis apoyar el canal y chicos
chicas yo ya me despido que me voy quedando sin vos vale voy a dejar aquí un poco con este vídeo
así de fondo en plan psicodélico y un servidor poco a poco se va ir yendo a otro lado
ah bueno que si os ha gustado el directo que en twitch suele hacer este tipo de cosas venga hasta luego