logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Eh, voy a darle a Go Live.
Estamos en directo. Estamos en directo. Hola. Hola, hay gente por aquí.
Jaime, ¿me recibes, Jaime?
Te recibo alto y claro ahí, perfectamente.
Hola, ¿qué tal? A ver, gente que está conectada ahora en el directo, por favor,
confirmad que está todo bien, que se está viendo, se está escuchando todo.
Habla un poco, Jaime. Hola, Jaime. Hablo, hablo.
Se oye bien a Jaime, se oye buen volumen, mismo volumen o más que yo.
Se oye bien a Jaime, dice Nicolás. Perfecto. Gracias, Nicolás, nos has salvado.
Pues aprovechando que se oye bien a Jaime. Jaime, vamos a empezar directos.
Dame un prompt, dame un input para Mid Journey.
A ver, pues yo el otro día estuve haciendo como un, intentando hacer un rebranding de las moscas,
¿vale? Porque creo que las moscas son como un instrumento, un insecto que tiene muy mala fama.
Vale. Y entonces pues me gustaría como una mosca,
una mosca científica, sacando España adelante.
Vale, ¿lo quiere fotografía o...? No, lo quiero como...
An illustration. Illustration, sí.
Of a scientific fly. Y punto.
A ver, ¿qué hace con fly? Porque como también es volar, no sé si se irá a tomar por culo.
Sí, eh, totalmente, exactamente como podríamos separar esas dos palabras.
Esto es un problema que tiene esta silla, que al final como va por palabras.
Eso es el problema que me daba mi condalido. Y si le pongo insect, fly insect.
Prueba, prueba, prueba. Vale, le voy a añadir al final,
barra, barra, UV4, y esto es lo que va a activar, es la versión nueva de Mid Journey,
que es la que vamos a estar probando hoy, que es una evolución de la hostia.
Y vamos a ver qué sale de aquí.
Bueno, pero al que esté llegando ahora, tenéis que saber que lo que estamos probando es
otra de estas inteligencias artificiales generadoras de imágenes que tan populares se han hecho este año.
Tenemos a Dali 2, tenemos a Mid Journey, tenemos a Stable Diffusion.
Y en este caso estamos usando Mid Journey, y ahora explicaremos un poco el contexto de por qué.
Pero esta es una inteligencia artificial que como veis se trabaja, se opera a través de Discord.
Esta versión 4 le cuesta un poquillo más arrancar, va un poco más lento que la anterior.
Pero aquí vamos a ir viendo como poco a poco se va a ir procesando, aquí ya vemos los primeros resultados.
Podemos ir haciéndole programs mientras va procesando los anteriores.
Creo que sí, creo que sí. De momento ha entendido bien lo de la mosca.
Pon doing science, o doing research in their lab with a white coat.
Uy, qué bonitas.
With a white coat. Vale, esto sí lo debería de pillar bien.
Scientific flying insect in the lab with a white coat.
Vale, no ha salido de la parte científica.
Creo que ha entendido más bien que puede ser como una imagen científica más que una mosca científica.
Pero atento a la calidad visual de esta de aquí abajo.
Ha decidido que todas tienen que tener un gradiente de fondo.
Sí, sí, correcto. Voy a darle a ver al nuevo input.
Vale.
Te preguntan si está para todo el público ya midjourney 4.
Esa es la cosa, midjourney 4 al igual que en midjourney está disponible para todos.
La única diferencia con por ejemplo stable diffusion es que no es open source, hay que pagar.
Pero bueno, ahora mismo creo, y lo vamos a ir comprobando en el directo, que es la herramienta comercial de generación de imágenes más potente.
No es open source te refieres a que no te puedes descargar el código y ejecutarlo tú.
Que eso es lo que te podría permitir tener una versión gratuita.
Pero podría no ser open source y que el código estuviera compilado y no pudieras ver lo que pone, pero aún así lo pudieras ejecutar tú, ¿no?
Te arreglarías a que te hicieran ingeniería inversa y sacaron de ahí dentro el código.
Entiendo. Me gusta mucho. A ver, las ha hecho blancas.
Sí. Claro, ¿cómo sería una mosca llevando una bala?
La de arriba a la izquierda es brutal.
La de arriba a la izquierda está aquí, ¿no?
Sí. Es un upscale.
Sí, exacto. Vale, para el que no conozca un poco la interfaz de midjourney dentro de discord, aquí tú generas una imagen, bueno, te genera 4 imágenes con el input que le das.
Y luego te serán estos botones aquí abajo que te permiten hacer por una parte upscale, aumentar la resolución y también variaciones.
Si alguna te gusta en particular puede generar imágenes parecidas con ella.
Entonces vamos a darle al upscale y va a empezar a trabajar.
Pero bueno, ahora lo que vamos a probar es a generar el mismo input.
O sea, son muy carismáticas, ¿eh? Son muy, muy carismáticas. Son todas un personaje de algo.
Son todas ilustraciones que podrían ser válidas para ciertas circunstancias.
No a lo mejor una ilustración profesional, pero a mí me resuelve la papeleta, por ejemplo, si la necesitara para un vídeo.
Sí, para una thumbnail o para una performance.
Sí, sí, sí.
Pero vamos, una ilustración profesional me refiero, ¿tú podrías poner esto en...?
Depende de... hola, joder.
60%.
Claro, tiene como que hace las patas que ha querido, ¿no?
Sí. ¿Cuántas tiene? ¿Cuántas patas tiene una mosca? Debería tener seis, ¿no?
Sí, y tiene medias patas.
Tiene medias patas.
Tiene una pata que hace como una W.
Pero puede ser una mosca torturada. Una mosca que ha vivido la dura etapa del investigador.
Que ha tenido que ir donando parte de su cuerpo.
Que acaba de terminar el doctorado.
Claro, y describir la tesis está así, ¿vale?
Le pone como un líquido azul y un líquido verde.
Sí.
Que es como ciencia.
Es ciencia.
Y luego le pone como una pila naranja y blanca debajo de la boca extraña.
Sí, que es el aparato científico que usan los científicos.
Hay una cosa interesante dentro de esto, y es que fíjate que no ha hecho una mosca gigante en un laboratorio,
sino que la mosca en parte ha entendido la relación de tamaños que debería haber entre los componentes.
La ha hecho más pequeña de lo que sería ese tanque que intuyo.
Que es algo como una probeta o algo por el estilo.
Pero la ha hecho más grande de lo normal.
O sea, la ha hecho como si fuera una calabaza.
Claro, claro.
White coat literalmente significa capa blanca de pintura, ¿vale?
Puede ser por eso.
¿Y cómo sería una bata de laboratorio?
Para decir lab coat, ¿no?
Es que yo creo que es lab coat.
Vale.
Vamos a pedirle de nuevo aquí.
Illustration.
A ver.
Prompt.
No le voy a pedir ilustración.
Voy a dejar que sueñe.
Que si quiere fotografía, hace una fotografía.
Voy a poner a fly insect as a scientist doing science, porque la ciencia hay que hacerla,
with a lab coat.
A ver qué comenta la gente.
A ver si alguien ha dicho cómo se pone.
Yo creo que es lab coat.
Vamos a darle.
Que dicen por aquí una mosca conduciendo un avión, pilotando un avión.
Vale.
Joder, pero ya están jugando con las palabras, porque sería fly fly in a...
A fly fly in a flight.
¿Podríamos hacer a Moisés pilotando un avión?
Podríamos hacer a Moisés pilotando un avión.
Pero además, ¿sabes el plano con altura?
Que se ve al guincho como pilotando avión al principio.
Sí, pero que está como la cámara frontal del avión, ¿no?
Claro, la cámara está en el cielo como en otro avión mirando hacia adentro por la ventana del piloto.
Vamos allá.
Mira, qué bien lo ha hecho.
Sí.
Vamos a esperar a ver qué sale de aquí, mientras pues redactando la siguiente.
Front view of a flying plane.
Of Moisés piloting a plane.
Of Moisés piloting a Boeing 747.
747, venga.
Moisés sin la I.
¿Por qué?
¿Por qué no?
Si podemos hacerlo, ¿no?
A front view of a flying plane with Moisés piloting 747.
No, no, pero quita el 747 ahí, o no lo pongas ahí.
Vale.
Vale, 7, Boeing es así, ¿no?
Boeing 746.
Vale, vamos a darle mientras observamos la ilustración anterior.
Bueno, ¿qué te parecen estas moscas?
A ver, a ver, es que hacen un poco de efecto cheerleader.
Vamos a verlas una a una.
Exacto.
La de arriba a la derecha me parece la más icónica.
Esta de aquí, con la cosa en la mano, ¿no?
Sí.
Vale.
A mí me gusta mucho esta de aquí abajo.
Tiene como una expresión.
A mí me gusta mucho esta de aquí abajo.
¿Es esta que gusta?
O sea, me gusta el rollo de que ha cogido, por ejemplo, lo que sería la caza del laboratorio
y ha aprovechado los ojos de la mosca y ha creado una versión ahí mezclada de ambas
cosas.
O sea, visualmente no es la más bonita, la más bonita creo que es el estilo de ilustraciones
esta de aquí.
La que más llama la atención a priori es esa.
Esta de aquí, ¿no?
Sí, pero no me parece tan personaje.
Como que no le veo la personalidad.
La de arriba a la derecha sí que la veo como haciendo como...
Claro, pero esto es analizando la ilustración.
No analizando que esto lo ha creado una inteligencia artificial en 10 segundos delante de nuestros
ojos.
Es que no olvidemos ese pequeño detalle.
O sea, vamos a poner un poco de contexto aquí.
Estamos en el año donde salió Dali 2.
Vale, recordemos que Dali 2 sale en abril de este año y de repente nos damos cuenta de
que las guías pueden generar imágenes visualmente espectaculares de cualquier cosa que le pongamos.
No ha salido.
No ha salido del endpoint.
Pero mira, arriba si subes a la de la mosca, o sea, si estuvieras haciendo un platformer,
un videojuego 2 de platformer, la de abajo a la izquierda es un personaje cojonudo.
La de abajo a la izquierda, esta de aquí, esta de aquí.
Sí, bueno, en realidad todas, pero vamos, como que ya tienes el personaje, sabes, como
que de pronto una cosa, el concept art que antes habrías tenido que estar pues días
y días dándole vueltas, ahora de pronto ya tienes como un sketch de cómo es tu personaje
para tu platformer.
Claro, la cosa es, ¿este platformer cómo sería? ¿Pixel art o 3D?
No, no, sería 2D, a lo mejor no es pixel art ni 3D, es como un 2D con estética realista
consombreado, o sea, el rollo, el braid o algo así.
Pues yo voy a probar pixel art porque ya que podemos, vamos a ponerle pixel art fly insectas
to scientists doing science with a lab coat, V4.
La gente pregunta, ¿qué es el V4?
Bueno, a ver, Mid Journey está dentro de esta familia de guías generadoras y yo creo
que Mid Journey para mucha gente ha sido siempre la herramienta favorita.
Tú, Jaime, creo que probaste antes Mid Journey también, que Dali2, ¿no?
Mid Journey es muy bonita para hacer cosas como artísticas, o yo, una persona que quería
hacerse un tatuaje y como que para hacerte un tatuaje de un árbol, como le pidas un
árbol a Dali2, te va a dar pues un árbol y ya está, te va a sacar frío.
Pero Mid Journey te daba árboles que decías, oh, Dios, me lo querría tatuar.
Exacto.
Mid Journey como que inicialmente se especializó mucho la parte más de ilustración, de imágenes
más artísticas, visualmente espectaculares, pero no te quitaba esa parte de hacer el prompt
engineering, donde tú en el input pues tienes que especificar muchas cosas para que salgan
resultados interesantes.
Lo que ha sucedido ahora es que hace dos, tres semanas abrieron la beta esta nueva versión.
¡Ojo, eh!
¡Ojo al pixel art!
No es perfecto, evidentemente el pixel art siempre se la traganta, no salen píxeles
cuadrados, pero esta de aquí abajo y esta de aquí arriba.
Estas dos me parecen súper interesantes.
Son NPCs totalmente.
Son NPCs totalmente.
Ya lo tienes.
Claro, esto ahora lo metes en el Photoshop y lo perfilas un poquito.
Tú imagínate que estás en los años 90 haciendo Pokémon rojo para la Game Boy y tienes
que crear un montón de animales, 151 Pokémon originales de distintos colores y formas inspirados
en animales y tardas meses.
Y ahora ya tienes ahí un Pokémon, ese Pokémon se llama, yo que sé, Fly Scientist, ¿sabes?
Ya tienes tu Pokémon 1.
Dime.
Es una locura.
Vamos a crear un Pokémon.
Vamos a ver si sale.
A Pokémon of tipo fuego.
Fire type.
Of type philosopher.
Que sea tipo philosopher.
Philosopher type.
Quitamos a la mosca, ya la mosca no la queremos, ¿no?
A un Pokémon de tipo filosofo, punto.
Eso es.
Y punto.
Me gusta.
¿Cuál es su ataque especial?
La duda.
La duda.
Y claro, sale lo de, tu Pokémon está muy confuso, tan confuso que se llena a sí mismo.
Porque la secundan.
Te has peudado de la estructura de la realidad.
Pues en este caso, hace tres semanas sale esta nueva versión 4 de Mid Journey y la empiezo
a probar y me doy cuenta de que pasa una cosa que no pasa con las otras y es que para generar
resultados buenos, solo solo tienes que pedir, no hay que hacer ni un prompt engineer super
complejo, sino que por lo general te salen resultados bastante próximos y de una calidad
super potente para cualquier input que le des.
Ojo eh.
Ojo eh.
Se perfilan, se perfilan buenos resultados.
Uh, que bonito.
Ojo eh.
Los dos primeros me parecen muy bonitos.
Hola.
A mi el tercero me gusta.
Con la barba y todo.
El tercero sería, el tercero es como la evolución del primero.
El tercero.
Claro mira, el primero, van en orden.
Es el primero, el cuarto y el tercero, esa es la evolución.
El primero, el cuarto, total, total eh.
Estudiante de carrera de filosofía, aquí ya cuando se ha doctorado y ya escribe su primer
ensayo, y aquí es cuando ya es pedante a más no poder.
Ya es un filósofo condecorado y conocido.
Fíjate que detalle que a todos los ha hecho como de tipo lagarto, tipo anfibio, por algún
motivo.
Hay una relación entre filosofía y ranas.
Y los reptilianos.
Ojo eh.
Ojo la calidad visual de esto, es que esto ya, ¿qué nos ha costado en el input?
Nada, o sea hemos puesto un pokemon de tipo filósofo y nos ha creado un pokemon de tipo
filósofo.
O sea esto es un fondo de pantalla, o sea hay que terminarlos un poco porque tienen
todos como irregularidades.
El de abajo a la derecha es el que menos irregularidades tiene.
El de abajo a la derecha este de aquí pues le vamos a dar.
Le sale humo del libro porque es un filósofo.
Le sale, claro, el libro forma parte del pokemon, es mi duda.
Eso se considera.
El pokemon es que tienen objetos ¿no?
Que tienen objetos, vale.
Como el pokemon que tiene objetos.
Bueno, ahora los nuevos pokemon son motos directamente.
Vale, le voy a dar app scale.
Y llaves, eso no lo sabía.
Creo que hay un pokemon que es una llave.
Yo me quedé en que Cubone tenía un huesito, que era un poquito más.
Claro, que también forma parte de su esqueleto.
Vamos a darle app scale a esta para ver si le añade más detalle y que lo termine de
perfilar y que lo quiera pues se queda con la imagen.
Comenta por aquí multi cuenta que pongas anime style, que yo creo que podrías tener
gracia para ver cómo lo harías si fuera de verdad pokemon.
Vamos a darle.
Vamos a coger el input.
Es un señor filósofo ¿eh?
Es un señor filósofo.
Philosopher type y anime style.
Vale, y vamos a ver si nos generan más cosas al mismo tiempo.
Vale, este es el resultado del app scale.
Vale, vemos que le ha añadido un poco más de detalle.
Un poquito más.
Está bastante guapo.
Está bastante guapo.
Y mientras tanto esto debería estar cocinándose.
Sí, ahora empieza a cocinarse.
Bueno, pues esto es mid journey versión 4.
Vamos a darle en el directo de hoy, vamos a darle un poco caña para ver cuáles son
sus luces y sus sombras, qué parte funciona más y qué parte funciona menos.
Y además también me he traído a Jaime.
¿Por qué estás aquí Jaime?
Pues le he invitado.
Porque Jaime le está dando bastante caña.
Además Jaime fue de las primeras personas, creo, que empezó a ver que todo esto era
más grande de lo que la gente estaba intuyendo.
Cuando yo estaba en abril, en mayo, desquiciado porque nadie se impresionaba tanto como yo,
encontré en Jaime un oasis y empezamos a hablar de toda esta locura.
Te di acceso a mid journey, estuvimos compartiendo resultados y tal.
Sí, sí, yo todas las yas las utilicé por primera vez gracias a ti porque no había
accesos públicos en ningún sitio.
Claro, cuando era esa época donde no… es que parece que estamos hablando hace 3 años,
4 años y era hace unos meses y ahora tenemos toda esa…
La dura época en la que nadie podía usar Dali 2 todavía.
Sí, mira, fíjate, ¿no?
Lo ha hecho ánime pero no tan ánime, o sea, no lo ha hecho como bidimensional, plano,
sino que le intenta dar como una iluminación más volumétrica.
Y se ha ido… lo de filósofer se ha ido un poco.
Sí.
O sea, son todos más genéricos de alguna manera.
Sí, totalmente.
O sea, sí salen elementos siempre con el libro y como estudiando.
Y el primero, bueno, el primero estudiador es filósofo pero está en una noche de teatro
y ya está.
Pues eso.
Y te he traído por eso, ¿no?
Un poco porque compartes esta visión de que lo que se está… ya no lo que se viene
sino lo que ya está aquí es bastante impresionante, ¿no?
Con las yas generativas.
Y le has dedicado espacio en tu canal principal y también en Jaime After Dark, le está dando
caña a saco ya no solo a las generadoras de imágenes sino a inteligencias artificiales
de todo tipo.
De todo tipo.
Porque esto es… la gente… lo que tú decías que hace meses no lo veían venir pero todavía
no lo ven venir.
Todavía no lo ven venir.
Todavía no se hace a la idea de lo que va a ocurrir en los próximos años.
Es que esto es… yo creo que es lo más importante que está ocurriendo en el planeta ahora
mismo.
En cualquier nivel de análisis y de dimensión.
O sea, esto es lo que más va a cambiar el día a día de la civilización sin duda.
Y no me refiero a las de imágenes concretamente que también sino todas.
O sea, lo que va a ser.
Todo el concepto de inteligencia artificial.
Yo estoy de acuerdo.
Yo estoy de acuerdo.
Estamos en un punto donde la humanidad creo que estamos compitiendo al mismo tiempo por
avanzar tecnológicamente y progresar muchísimo al mismo tiempo que por otro lado estamos.
A ver si nos aniquilamos.
Y es como una carrera a dos ritmos a ver qué llega antes.
Si las bombas nucleares o Dalí 8.
Dame un input.
Dame otro input que queramos probar.
A ver, yo me he quedado con ganas de Moises pilotando el avión porque ha salido un poco
raro.
Vale.
Venga.
Vamos a ver si lo sacamos.
Voy a empezar…
Espera, espera, espera.
Sí, va a decir.
Voy a empezar por la parte de Moises porque creo que antes se ha centrado mucho más en
la parte del avión porque era lo primero que le hemos puesto.
Vamos a probar lo contrario.
A ver.
Y si Moises en vez de separar las aguas, separase…
Sí, quiero una obra como abstracta.
O sea, como concreta, pero como metafórica es lo que quiero decir.
Vale.
Quiero como a Moises separando como…
Como gente.
Como… letras.
Moises separando letras.
Como Moises dentro de un papel en blanco separando como las frases por la mitad.
Hostia, pues me vas a decir tú cómo vas a dar el input.
En Dalí dos este tipo de mierdas las consigues con simbolismo alemán.
¿Cómo?
Sí, sí.
Si pones German symbolism aparecen como cuadros así como super…
Vale.
Creo que era el simbolismo alemán.
Espérate.
Vale.
Si ponemos un triple y ponemos Moises separando el conocimiento.
Sí, sí.
Y entonces es parting.
En inglés es Moises parting the waters.
Pues Moises parting knowledge.
Eso es.
Knowledge.
Y coma German symbolism.
Vale.
Venga.
Simbolismo.
A ver.
Jodamente.
Como no sé cómo está entrenado midjourning, no lo he probado suficiente.
Solo quiero decir a los amigos de YouTube que si sale simbología alemana algo que no
toque, no me hago responsable.
Ay, tío.
No.
A lo mejor tienes como que mirarlo tú primero.
Claro.
A ver si por German symbolism.
Bueno, esa es una de las cosas, mira, que lo podemos comentar.
En este caso midjourning, como pasa con Dalí dos, tiene el limitante de que sigue siendo
una herramienta controlada por una empresa privada con los limitantes que esta empresa
quiere imponer.
Pues, por ejemplo, nada de nudity, nada de violencia y además te lo detectan a nivel
de prompt.
O sea que es un problema porque no sé cómo lo ves tú, el tema de limitar, de censurar
estas inteligencias artificiales.
¿Cómo lo ves?
Espera, que estaba centrado en encontrarlo de simbolismo alemán, a ver si no te lo pienso
bien.
Vale.
En este caso, yo aquí mi opinión es que con stable diffusion no se ha roto el mundo.
No hay grandes problemas de dejar que una IA generadora de imágenes te genere imágenes
de gente desnuda o violentas.
Y así no pasa lo que pasa con midjourning, que por ejemplo estaría censurando toda corriente
artística donde se puede haber un pecho femenino, por ejemplo.
Imaginad si en la historia del arte censuráramos como si fuéramos la inquisición cualquier
obra que tuviera un pecho, como se hizo en el Vaticano poniendo las hojas de parra.
Bueno, los resultados que han salido aquí tampoco son buenos.
No sé cómo lo ves.
No, son estándar.
Son me.
Son me.
No es lo que queríamos.
Espera, te estoy encontrando lo de simbolismo alemán, a ver si no hay simbolismo alemán.
Vale.
Hay una corriente.
Mira, dice por aquí Leumann, voy a aprovechar mientras lo buscas, que dice que separe un
mar de espaguetis.
Me gusta.
Me gusta.
A ver.
Voy a poner esto.
Moisés.
Imagin.
Imagin.
Imagin.
A ver.
Imagin Moisés partying a sea of espaguetis.
Creo que espaguetis están mal escritos, pero bueno.
Creo que el plural es espagueti.
Espagueti.
Vale.
Y lleva un H intercalado y no sé dónde.
A ver.
Sí, después de la G.
G H.
G H.
Vale.
Vale.
A ver qué nos cuenta Midjourney con esto.
Dicen por aquí será expresionismo alemán.
Es posible.
Sí, es posible.
O sea, me suena que era una subcorriente del expresionismo concreta, pero desde luego
si pones expresionismo también van a ser cosas muy chulas.
Claro.
Moisés tratando de atrapar un Pokémon filósofo.
Por favor pon esa.
Me encanta porque dentro de lo que podemos probar de Midjourney estamos yéndonos a los
prompt más locos donde Midjourney falla.
Como dios.
A ver.
Moisés tratando de atrapar.
Yo te estoy poniendo prompts que son como a lo que yo estoy acostumbrado con Dali2.
Entonces, claro, a cada ahí hay que cogerle el prompt.
Hostia, mira esto.
Sí, sí.
El último, el último.
A ver, a ver, a ver.
Este de aquí.
El último.
Este de aquí.
Aunque no esté separando el mar, simplemente está como una escalera infinita.
A un castillo de más espaguetis.
A mí me gusta este porque fíjate que es como las aguas separadas, pero caen espaguetis
de los lados.
Está todo el mar lleno de espaguetis y Moisés caminando por él y su pelo se convierte en
espaguetis porque, ¿por qué no?
Está buena.
Y este, hostia, este es muy loco, o sea, el primero se va más a la historia bíblica
de Moisés porque se ven como egipcios, esclavos egipcios, siendo latigados con un espagueti
por los dueños de los esclavos.
Siendo latigados con un espagueti.
Claro, y luego, pero fíjate que el trabajo de los esclavos es como tejer o cosechar espaguetis
de una enorme red de espaguetis que está al fondo.
Que cae del cielo.
O sea, aquí hay una historia.
Moisés va dando espaguetis y los esclavos tienen que irlos hilando para crear como toda
una estructura de espaguetis, claro.
Ojo.
Mira, pon en el estilo de, en el estilo de Charles, suave.
Me lo vas a tener que deletrear o pasar por algún lado, a ver.
Pero ¿cuál quieres?
¿el de separando?
Quiero, sí, y en vez de espagueti que sea otra cosa, que sea el del conocimiento, del
conocimiento.
Vale.
As if of knowledge, voy a ponerle un mar de conocimiento.
As if knowledge, papers, letters, words, ¿vale?
Vale.
¿Vale?
Y luego, coma in the style of, y te lo mando por, lo mando por el chat.
Venga, perfecto.
Charles, suave.
A ver, voy a quitar, aprovecho.
Por el chat de YouTube.
Sí, voy a aprovechar que hay spam.
¿Vale?
Vale, lo tengo.
Vale, y mientras lo pongo, aprovecho, o sea, voy a aprovechar durante los momentos en los
que se genera para preguntarte cosas que tengo curiosidad.
Me habías dicho, me habías dicho lo de la gente desnuda en las sías y tal.
Sí.
O sea, había una cosa que es que es inevitable, ¿no?
Que, o sea, la tecnología está, va a avanzar, la aparece o no, y va a acabar habiendo IAS
con las que puedas generar, pues, todas las imágenes más chungas y más ilegales y prohibidas
que te puedas imaginar en tu ordenador de manera local.
Entonces, eso va a ocurrir, eso es una información, eso va a ocurrir.
Luego ya, si yo tuviera una empresa y yo fuera el que hace esa IA, seguramente me encargaría
de que no se puedan generar cosas por las que yo pueda acabar en las noticias como si
fuera creador del mal, ¿sabes?
Claro.
O sea, yo creo que también aquí la comunidad de las sías tiene que tener cuidado de que
no se la demonice, porque es muy nueva.
Esa es la cosa.
Yo creo que tanto la comunidad como las empresas que están detrás de esto no miran tanto
por la parte ética moral del asunto, sino yo creo que están mirando más por su imagen
pública, ¿no?
El que no salga al titular de OpenAI, genera una IA que tiene, pues, genera pornografía
infantil, por ejemplo, y hasta este directo censuradísimo.
Pero es lo que tú dices, esto es imparable y va tan rápido que podría caer en la trampa
de lo que le ha pasado a Dalit2.
Dalit2 en cuestión de meses se ha quedado una herramienta inútil porque tomaron decisiones
muy rápidas de cómo descensurar cosas y cambiar, modificar los inputs, que al final la gente
dice es que me da pereza, o sea, son palos en la rueda de un proceso que todavía no
es tan intuitivo, me voy a ir a StableDiffusion.
Pero Dalit2 al principio censuraba que no pudieras editar caras y movidas así y en
cuanto ya todas las demás sí que podías, no vieron que no tenían más remedio que
abrirlo.
Claro, eso sí, pero todavía mantienen el filtro de diversidad que me parece una locura
de mal porque es un filtro que te añade promps, o sea, te añade palabras claves tipo racial
o black o african a tu input de forma invisible que tú no lo sabes, con lo cual te adulteran
el input y siendo tan complicado este proceso es como tú le pides una estatua, una escultura
griega clásica y a lo mejor de cuatro imágenes una tesal africana porque al final te han
puesto el token african para añadir diversidad.
Bueno, es un poco dark porque no te lo dicen.
Esa es la cosa.
O sea, no te pone, te ofrecemos además una modificada.
Esa es la cosa.
Es que hubiera quedado también la herramienta, si lo hubieran hecho así, eso lo comenté
en Twitter, deberían de ponerte cuatro imágenes tal cual el input que le has pedido y luego
cuatro ejemplos de imágenes si le hubieras puesto esos tokens, en plan educándote.
Oye, si hubieras puesto...
¿Sabes qué pasa?
Ahí hay también una fina línea que es como ya, pero yo no quiero pagar por eso, o sea,
yo quiero pagar solo porque estás pagando tú, tú eres el cliente, si te ofrecieran
gratis...
No, no, claro, que te lo ofrezcan gratis.
Claro, pero es que ojo, ojo, o sea, mira lo loco que es esto.
Ellos te dan cuatro imágenes, entonces una te dicen, nosotros como creemos que si no
esto es una herramienta inmoral, la vamos a adulterar como nosotros consideremos.
Entonces, tú dices, ya, pero eso no me sirve porque yo he puesto el prom de lo que yo necesitaba
porque a lo mejor lo estoy usando para un proyecto y necesito una estatua griega como
eran las estatuas griegas de la época, entonces no me vale si tiene rastas o si es negra o
lo que sea.
Entonces ellos te lo han adulterado al pronto, pero tú has pagado por ella, entonces tú,
si ellos quisieran ofrecerte eso sin que tú pagaras, tendrían que ofrecerte una quinta
imagen.
Tú haces cuatro imágenes y ellos la quinta imagen te la ofrecen como gratis, como en
plan, además podrías haber puesto esto y te habría salido esto.
¿Qué pasa?
Porque eso es, literalmente, multiplicar sus costes por un 25%.
Claro.
O sea, sumar un 25% de sus costes quiere decir por 1,25, o sea, es una locura porque
es como que de pronto, pero tú pagas lo mismo, entonces al final, si tú añades este tipo
de cosas no puedes ser competitivo porque la diferencia del margen de beneficio, tú
no puedes comerte el 25% del margen de beneficio y seguir siendo competitivo, es imposible.
La cosa es, en este caso, si ellos realmente ponen un valor monetario a esos valores que
tienen como empresa, pues estaría bien decir.
Claro, pero tiene que salir de su beneficio, no del tuyo, no de tu cosa.
Claro, claro, exacto, sí, sí, exacto, saldría de su beneficio.
Yo creo que sería lo apropiado, al menos inicialmente, para educarte, pero bueno, mira, Moisés partiendo
las aguas, conocimiento, nos ha generado algo un poco, no tan conceptual, sino que se ha
ido directamente a lo explícito, nos ha puesto Moisés, nos ha puesto las aguas, nos ha puesto
papeles con palabras, letras y cosas, pero están muy guapas.
Es muy chulo, a mí lo que me llama la atención es que ha sido capaz de crear una montaña
de papers.
Total, sí.
O sea, eso me parece como, eso es muy difícil de hacer.
Sí.
Y bonitas, además.
Y bien sombreadas.
Sí.
Hay algunos papers que reflejan más el cielo, otros que no, no sé, o sea, está muy bien
tirado.
Si yo le pidiera ahora mismo y me pusiera a intentar hacer yo esto o intentar hacerlo
en Photoshop con un montaje de papeles, sería una locura.
Sería una locura.
La cosa aquí, el motivo por el que surgió la idea del directo vino por la imagen esta
de Mozart, ¿te acuerdas?
La de Mozart bebiendo el batido, porque esta fue de las primeras imágenes que tú me dijiste,
oye, esto yo lo he hecho con Photoshop y me ha llevado un tiempo y tal, vamos a ver si
Dalí lo puede hacer, ¿no?
Y entonces fue una imagen que sacamos en su momento y creo que por aquí tendré la que
te pasé ahora hecha con esto, que es una locura también, por aquí, esta imagen.
Esta es una pasada.
Esa te la pedí yo en su momento cuando salió Dalí 2 lo de Mozart bebiendo un batido, porque
eso pero es que ahora además con el inpainting se podría directamente coger el cuadro famoso
de Mozart y poner el batido, que en aquella época no había inpainting.
Exacto.
Total.
Entonces la pregunta que te tiro es, a nivel laboral, por ejemplo, si tú quisieras crear
ahora una imagen con mid-journey, ¿cuál sería?, o sea, imagínate que necesitas, o sea, para
llevarlo un poco más a las necesidades reales que tendríamos con...
Una cosa por ejemplo es el tema de los logos.
Vale, vale, ok, pues no lo he probado esto.
No sé mid-journey qué tal abstrae el logos.
Ya yo tampoco.
Porque no sé si la han entrenado con logos, claro.
A logo of Moisés...
Sí, sí, a logo of Moisés, Parting the Waters.
Parting the Waters.
No salimos, eh.
Ya está.
La agenda política e ideológica de este directo es meternos la religión cristiana.
Es que es muy icónico, tío, un señor haciendo así, separando el agua en dos, no sé, es
como una imagen muy...
Vamos a ver, esto no lo he probado y esto me parece interesante porque ya entramos en
casos de usos reales de una herramienta, ¿no?
No creo que salga un resultado, creo, a lo mejor en 10 segundos me arrepiento, pero no
creo que salga un resultado que sea funcional, pero sí que va a ser muy inspirador.
Algo que yo, donde yo pueda estar una tarde y encontrar un logo que me guste y decirle
a un profesional, hazme esto.
Vamos a ver, ¿tú cómo te lo imaginas, el logo?
No lo sé, pero así no.
Como lo está haciendo, no.
Ah, espérate, espérate.
Está remontando, está remontando.
No, me lo imaginaba más abstracto.
Claro.
Hola, hola.
Vale, ojo, esto es un logazo, lo que pasa es que ahora mismo se lleva el flat design
y las cosas más minimalistas, no.
Pero no crees que pueda haber un sesgo en el que este tipo de logos más religiosos
se lleven más de este estilo.
Claro, tiene que haber, porque está cogiendo como, no sé, como si fuera un grabado de
mármol o un grabado pero coloreado, ¿no?
Es como...
Está muy guapo, ¿eh?
Está, está, está, bueno, es que no sé, creo que me gustan todas, ¿eh?
Hostia.
Vamos a analizarlas una a una.
Vamos, vamos por partes.
A ver.
La primera.
La primera tiene Moisés a cada lado, emece, emece.
Y la, y la ha puesto como la ureola, pero la ha puesto como si fuera un anillo de burbujas
también, ¿no?
Es como medio líquido.
Sí.
La mano...
Abajo, abajo es el separar las aguas como en escorzo hacia tiba, el agua, ¿sabes?,
en triángulo.
Esta, ¿no?
Se aleja, eso me gusta.
No, no, la misma imagen.
Ah, esta, perdón, sí.
Pero que las aguas abajo forman un triángulo, o sea, como que hay muchas maneras de dibujar
aguas que se separan y esta es hacia nosotros.
Sí, sí, sí, sí, total.
Pero Moisés está allí, normalmente cuando alguien dibuja a Moisés, le dibuja de espaldas
abriendo porque tú estás del lado de Moisés, entonces Moisés abre hacia allá, ¿sabes?
Claro, claro, tú quieres ver como se abre todo el mar ante ti y en este caso lo ha hecho
otra vez.
Claro, se ha dado cuenta de que como que eso es lo que tiene más sentido y nos lo ha hecho
mirando a nosotros, ¿sabes?
Sí, es que es espectacular, es que, sabes, a veces me acuerdo de que esto viene hecho
por una IA, ¿sabes?
No que estemos buscando imágenes en Google.
Es loco.
Esta es la primera, lo único que le falla, a mi parecer, que es más grave es la mano,
pero el resto es bastante salvable, la mano se la ha convertido un poco como en el propio
bastón y luego le ha puesto un bastón de madera y el otro como un cetro, no sé si
tiene alguna referencia religiosa o se ha flipado.
Luego la de la derecha, esta como la ves, están guapas todas.
Bien, bien, no lo veo partiendo mucho las aguas, pero sí que tiene, su túnica es una
ola.
Eso, eso, eso, ese detalle me ha gustado, ese detalle, además que yo creo que es lo
que más fuerza tiene en la propia, bueno, creo que alguien ha escuchado, voy a cerrar
el WhatsApp para que no os vuelva loco, ahí va, que yo creo que es lo que más fuerza
tiene esta idea de la túnica aquí en forma de ola dentro de la imagen y está bastante
guapa y luego las manos una por delante, una por detrás con las cadenas.
Sí, es muy simétrico, hace como una cruz al final, ¿no?
Entre la túnica y las manos.
Cierto.
Joder, madre mía.
Luego la de abajo surfeando… Si esto fuera un artista humano y estuviéramos
analizando su obra desde el futuro y fuera un artista muerto, habría un montón de gente
diciendo bueno, esto es una metáfora, porque si te fijas los brazos están así extendidos
y hace una cruz con la túnica y la túnica se mezcla con el agua y no sé qué, o sea,
como si hubiera una intención de que la persona se pasó reflexionando días y días en cómo
hacer esta obra, ¿sabes?
Sí.
O sea, es que lo interesante que en este caso, dos cosas interesantes que están relacionadas
en un futuro, si el tema de la multimodalidad que es esta idea de que se fusione más la
parte generativa de imágenes con texto sigue evolucionando, lo que tendremos serán como
chatbots con los que podremos tener conversaciones de lo que está creando, ¿no?
Entonces tú le podrás preguntar directamente, oye, cuando hiciste esta imagen, ¿por qué
le pusiste a lo mejor mirando hacia la derecha?
A lo mejor se inventará algo o te intentará dar una explicación, ¿no?
Se intentará convencer, ¿no?
Claro.
Y...
Para que compres su logo y te dirá, no, mira, te voy a hacer todo un briefing para que flipes.
Y esa es la parte interesante número uno, y la parte interesante número dos es que
en la evolución histórica del arte, pues hay gente que ha trascendido, artistas han
trascendidos, pero han muerto y se acabó, pum, se quedaron ahí en el pasado, pero el
archivo punto checkpoint de Dalí 2 va a seguir existiendo en la historia, con lo cual en
el año 3000 podrá seguir accediendo, si no pasa nada por el camino, tormentas solares
aparte, podrá seguir accediendo al archivo de Dalí 2 y generar cosas y decir, hostia,
mira, en el pasado generaban cosas así.
¿Cómo se habría enfrentado Dalí 2 a esto cuando vayamos por Dalí 40?
Claro.
Claro, claro, claro.
Bueno, muy guay.
Una de las cosas que a mí me fascina de las sillas de imágenes no es tanto esto de que
nos hagan imágenes puntuales ahora, me parece increíble, es la hostia, es maravilloso,
pero a mí lo que me molaría y me molará será cuando se puedan ejecutar más rápido
y entonces puedan recorrer como el espacio de posibilidades de una imagen, es decir,
por ejemplo, entre el logo de arriba a la derecha y el logo de abajo a la derecha, hay infinitos
logos que irían transicionando de uno a otro, ¿sabes?
En el que Moisés se iría haciendo zoom hacia la cara de Moisés, sus manos irían bajando,
la ola iría cambiando, porque si te fijas, se parecen mucho, el logo de arriba y el logo
de abajo, Moisés mira hacia la derecha, el agua está en triángulo abajo, no sé qué
se parecen, entonces habría como si estuviera animada la imagen, ¿sabes?
Sí.
Y podrías hacer, podrías como decir, hazme, yo me imagino todo el rato lo que sería meterme
en realidad virtual en espacio 3D y decirme, quiero ver todos los posibles logos de Moisés
separando las aguas y haya toda una zona que sean los logos en azul, los logos más
curvos, los logos más rectos, los logos más tal y va a ser un overload para nuestras capacidades
de interpretar imágenes, tremendo.
Total.
O sea, estoy súper de acuerdo y también me lo imagino, la interfaz, quizás porque
es la más intuitiva, la de moverte tú en un espacio tridimensional con realidad virtual
y al final lo que sucede es que el espacio de posibles logos y posibles imágenes es
tan amplio, es tan infinito porque piensa que puedes moverte en la dimensión del estilo,
la dimensión de mirando a la derecha y a la izquierda, entonces yo creo que verbalmente
diremos orientación de Moisés, entonces te generará ahí todo ese espacio y tú moverás
a lo mejor esa dimensión y rotará y verás cómo...
Tendría que ser un espacio n-dimensional, de 70 dimensiones por lo menos, ¿no?
Más te diría.
O sea, los estilos de Moisés, las posiciones de Moisés, los colores, el no sé qué.
Claro, pero hay muchísimo ahí, son muchas dimensiones.
Vamos ahora a pedirle lo mismo pero con un estilo más flat design o incluso le podríamos
pedir...
Sí, un app icon.
Eso, eso, eso.
Un app...
¡Maldita sea!
A ver...
He abierto lo que no quería, pum.
Vale, ¿lo recuperas?
Sí, ¿no?
Sí, sí, yo lo veo, yo lo veo.
Vale.
A ver...
Vale.
An app logo of Moisés Parting the Waters, V4.
Vale, mientras tanto, estáis preguntando por el chat el tema de cómo se puede acceder
a esto.
Midjourney, buscáis Midjourney en Google y os va a salir la página web, ahí podéis
entrar aunque dice que está en fase beta, creo que está abierto ya para todo el mundo,
y lo único es que Midjourney, al igual que pasa con Dali2, es de pago.
Vale, ahora mismo el deal que tienen es por 10 dólares te dan 200 imágenes, que yo creo
que está bastante bien, con sus derechos comerciales, y accediendo a este nivel de calidad
creo que es bastante funcional, o sea, ¿está vivo, Jaime?
Sí, sí, sí.
Vale, perdón.
Estaba leyendo tu chat.
Y luego tiene por 30 dólares infinitas imágenes al mes, que es el que estamos utilizando ahora.
Me parece una locura.
30 dólares, infinitas imágenes de esta calidad, es que en un mes te fundes Midjourney.
O sea, te puedes sacar de ahí todo lo que quieras.
Póngalo, pídelo ya en Flat Design, pon Abstract Flat Design.
Venga.
An abstract flat design app logo, vale, hostia, claro, la de arriba, fíjate que son como
las típicas aplicaciones de juegos cutres que se curran, ¿sabes las que te digo?
Sí, sí, sí.
Mira, la de abajo a la izquierda es Moisés a punto de jugar una carta de Yu-Gi-Oh, ¿sabes?
Total.
Separación de aguas, pum.
Moisés juega a separación de aguas, es muy efectivo.
Total, y esta de aquí también es muy de ese estilo.
A ver, a ver, a ver, a ver.
Mira, te preguntan por aquí en el chat Elkin Manreko, dice, ¿qué hubieran pensado
los grandes artistas del pasado sobre esto?
Yo, hay una cosa que sí que veo, que es que los diseñadores con los que yo trabajo y
trabajo con varios están empezando a utilizar esto muy activamente, porque es como que es
un acelerador para ellos a la hora de diseñar algo, de bocetar algo, de probar ideas, es
un acelerador muy intenso.
A ver, se ha ido un poco a parla aquí, ¿eh?
Vamos a ver, tú confía, confía, estamos por el 46%, esto es como las elecciones, hasta
que no esté el escrutinio completo.
Cierto, no, tienes razón, de hecho ahora está mejorando mucho, el de abajo a la izquierda
me gusta, porque no se entiende lo que es, pero.
El redondo ya, no se entiende del todo, hay conceptos que se intuyen, pero y este, o sea,
este pasaje al terror que ha hecho aquí.
Tiene como la boca abierta y el agua sale de su garganta.
Y como que los bigotes se vuelven también el surco del agua.
Sí.
Yo aquí quizás me parece, ya, o sea, son interesantes, pero no son.
Me dicen en el chat, ayuda a Moisés a separar las aguas por 3000 monedas.
La carta de Yugioh.
Quizás este de aquí, no sé.
Yo creo que si no me dijeran cuál es el input, no sabría llegar a la idea de Moisés.
O sea, sí, porque está el agua y hay un anciano y un bastón, pero.
Yo creo que tú eres muy hater de Dali II un poco, pero yo creo que Dali II tiene más
capacidad de abstracción para este tipo de cosas.
Me encantaría poder abrir Dali II y probarlo sin que, sin que se nos joda todo el directo.
Entiendo lo que dices.
Sí.
O sea, a ver, yo de Dali II no soy tan hater, pero sí es cierto que como que detecto mucho
ya cuál es un mínimo local, no?
O sea, yo ya sé que si le pido una ilustración de este tipo de Moisés me va a generar algo
bastante chulo, pero me lo va a generar con ese estilo oil painting, donde hay muchos
manchas, muchas como pincel libre y entonces ese estilo pues a mí ya como que no me termina
de convencer para sacar un diseño tan flat, con líneas tan definidas, con Dali II cuesta
más.
Entonces no sé yo si.
Sí, es verdad lo que dicen de que lo hemos pedido abstract, entonces pues al final lo
va a hacer abstract.
Cierto.
Como que a lo mejor tenemos que haber puesto solo flat design.
Venga, vamos a probar y si ahora pasamos a otro ejemplo, pasamos a otro tipo de logo,
a lo mejor alguno más funcional para ti.
Sí, y estamos hablando de la parte de los diseñadores y de los artistas.
Yo creo que es inteligente para el que quiera seguir aprovechándose de la parte laboral
de todo esto empezar a integrar estas herramientas, evidentemente, porque es una competición
directa.
Ahora, para los artistas que todo esto es una putada, ¿qué más le podemos decir?
Es que la gente, antes cuando abierto el directo ya había alguien preguntando, ¿podéis hablar
de la parte negativa para los artistas a nivel laboral?
Y es que tampoco se quema a decir del asunto, o sea, es una putada, evidentemente, pero
es imparable y es algo que ya está aquí, que no va a cambiar.
Podemos hablar del debate ético de cómo se han entrenado estos sistemas utilizando
un montón de imágenes que tienen copyright, derechos de imágenes, podemos hablar de si
realmente...
Lo que pasa con ese debate es que es un debate relativamente puntual porque se podría entrenar
solo con imágenes sin copyright, o sea, que ella haya expirado el copyright de gente que
haya muerto en 1930 en adelante, y con opt-in, que hay gente que diga, yo esta imagen la
acepto que se use para el entrenamiento, y aún así seguirían siendo una revolución
y arrasando.
O sea, como que no solucionaría el problema para una persona que se quiere dedicar a esto,
salvo casos muy puntuales de gente cuyo estilo imite la IA, yo tengo un estilo muy concreto
y justo han entrenado la IA con mi imagen y ponen mi nombre y la IA me saca imágenes
que no he hecho yo y pierdo el curro, eso es muy distinto, pero la generalidad de los
artistas no va por ahí un poco el asunto.
Estos me flipan.
Te gustan, me gusta mucho el de la esquina de abajo a la izquierda, este, bueno, el de
arriba también está muy bien.
El de arriba me gusta.
Este es muy bueno.
¿Por qué?
¿Por qué?
O sea, ¿qué neurona loca tendrá la IA para poner abajo pliops?
Ha dicho, ¿por qué no?
Y aquí ya directamente ha dicho, bueno, pues, metemos a Moisés en el IPad, en el IPhone
y pa'lante.
Está muy bien.
Estos están bastante bien a nivel de...
Te comentan por el hecho de la diferencia entre artista e ilustrador.
Sí, o sea, a ver, hay un tema de diseño funcional e ilustración funcional de gente
que...
Pues igual que yo cuando me dedicaba más a componer y a producir, yo nunca me he considerado
como un artista.
Yo lo que hacía era que a mí, yo como músico me decían, necesito para este anuncio o para
este pequeño clip de un documental o para este no sé qué, una canción de un minuto
que sea una bosa nova, que tenga estos instrumentos que corte aquí porque luego tengo que enlazar
con no sé qué.
Era todo muy artesanal, yo me dedicaba a la música desde una perspectiva artesanal,
desde una perspectiva artística.
No era como que yo investigara en mi interior qué música quería expresar, sino que era,
yo tenía mi curro y me decían, para esta escena hace falta este tipo de música.
Y eran piezas funcionales, no era como una peli que fuera a ganar un Oscar, era pues
un documental, un juego, una app, un anuncio, etc.
Entonces ahí cuando salgan ideas de música que estén a la altura de las ideas de imagen
que hay ahora, claro, eso a mí me habrían pasado dos cosas, la primera, que me habría
sustituido en algunas situaciones en las que es como, les hace falta esta pieza y simplemente
les vale casi lo mismo licenciarla que pagarme a mí para que la haga, pero si me pagan a
mí que a lo mejor cobro un poco más que si licencian una de librería, yo la puedo adaptar
muy concretamente a lo que ellos buscan.
Y entonces ahí habría sido, como no, la IA la adapta, la IA ya la va a hacer y la hace
de cero y es más barata y ya está.
Pero a la vez, yo habría empezado a trabajar con IAs, entonces mi output se habría multiplicado
por 10, yo habría podido hacer 10 veces más música, porque es como que de pronto habría
dicho quiero esta base y ya empezaría a trabajar desde la base, a mí me pasa a veces que,
y mucha música moderna se hace así, que empiezas a trabajar desde un beat o desde una base
o desde una cosa que ya ha hecho otra persona, esa persona podría ser la IA, ¿sabes?
Y de pronto dices quiero, pues eso, quiero la bossa nova esa, pero con un estilo un poco
diferente en el que le pones tal y tal y hago 20 versiones en un día en vez de una.
Entonces hay un, lo que recibes por lo que pierdes en muchos casos, obviamente hay casos
particulares que puede ser más dramático o menos dramático, también va a haber gente
que se pueda ganar la vida que antes no podía.
Para mí también se parece a la autotune, a la idea de decir, ah, pero ahora entonces
alguien que no sabe cantar puede ser cantante. Y dices, no es exactamente cantante, pero
sí que se gana la vida haciendo música y canta en esa música. Entonces como de pronto
yo a lo mejor puedo hacer un videojuego sin ser ilustrador, porque puedo coger y, y entonces
dices va, pero tiene estética de IA, dices ya, pero a la gente no le va a importar que
tenga estética de IA y que no sea perfecto mientras sea divertido.
Claro, totalmente de acuerdo. Yo creo que se abre ahora un espacio de grises también
súper interesantes, donde mucha gente que no hubiera pagado un profesional, porque a
lo mejor la idea que tenía en mente o su trabajo o lo que quisiera emprender no le
llevaba a hacer esa inversión, pero ahora sí va a poder materializar esas ideas. Entonces
eso va a abrir un abanico de cosas muy interesantes, de nueva forma de expresión, de lo que tú
dices, ¿no? Alguien haciendo juegos indie desde su casa independientemente, porque va
a generar música, arte, 3D, toda la historia. Yo creo que eso es súper interesante y también
va a permitir que la gente que sabe mucho, que tiene talento, que sabe combinar estas
herramientas y además son muy creativas, pues les van a permitir llegar más lejos.
Y esto lo decía hace un mes, pero ahora lo puedo decir con ejemplos prácticos reales
y es que la gente busque el último video de Corridor Digital, no sé si lo has visto,
es una locura. Han hecho un corto imitando el estilo de la película de Spiderman en
el metaverso, la película de animación, pero utilizando solamente IA. Usando Stable Diffusion,
usando MV Thins y un montón de IAs que son espectaculares. Tienen mucho trabajo de diseño
profesional por detrás, utilizan Nuke para meter todo, para hacerlo procedural. Entonces
ahí están utilizando todo su talento en combinación con estas herramientas, llegando a resultados
que si hubieran sido por la forma tradicional, que sería renderizar y hacer en 3 de todo
esto, les hubiera llevado la vida. Y esto lo han hecho en 4 semanas a lo mejor. Es bastante
espectacular. He puesto mientras Moisés partiendo las aguas al estilo de botero y nos ha salido
esto. Y está bastante bien. Está muy bien tirado, sí pareció de botero. A ver, no
era tampoco tan complicado porque lo principal que había que poner era alguien gordo y ya
está. Pero le ha puesto, o sea como que le ha puesto en barca de pronto. Sí, una barca
que además sufre por el peso. Por boat, por botero, por algo de barco. Hostia, no lo sé.
Tú crees como que una de las neuronas le habrá hecho un petardazo ahí. Hostia, pues
no lo sé porque esto lo divide por tokens. Bueno, puede ser, a lo mejor sí. No lo sé.
Me genera curiosidad. O no sé si correlación a lo mejor este perfil del mar con personas
más gordas a un poco el rollo más deidades hawaianas, porque me recuerda un poco también
a ese estilo. Es como que te lo muco. Esta barca aquí me parece como un poco más estilo
típica escanada. Bueno, vamos a probar otros estilos. Vamos a tirar a lo mejor por algo
más fotorrealista o vamos a movernos hacia otras ideas. Vale. ¿Qué podríamos probar?
Yo por ejemplo, el tema de portrait, photograph, portraits, suelen salir cosas bastante interesantes
o voy a enseñar rápidamente un ejemplo que he cogido antes de Reddit que lo he visto
y es este de aquí. Atentos a esta imagen, chavales, portrait, photograph of a native
from Papua Nueva Guinea. Ojo a los resultados que salen. O sea, poca broma, yo aquí ya no
te puedo decir esto lo ha generado una IA. Tú esto me dices que es una foto. O sea,
directamente, explícitamente me dices mira esta foto, yo no me planteo de primeras que
está generada por una IA. Que a lo mejor me dices Carlos, está generada por IA, entonces
ya me apagaron a mirar detalles y me costaría encontrar fallos ahora mismo, la verdad. Sí,
hay cosas que no está claro si son fallos o es porque como tiene muy poca depth of field,
como que enseguida se blurrea, pues no sabes bien si... Claro. Vale, esta es impresionante,
pero es que luego además cojo y digo vale, y si ahora le pido pixel art de esta fotografía
que nos sale y me saca esto. Vale, que de nuevo, esto para ser el arte de un videojuego
de 128 bits, pues te sale bastante bien. Puedes poner ese mismo prompt, pero es que esto como
no termina de aterrizar como pixel art. Ah, 128 bits. Claro. Sí, no, entonces si aterrizas
entonces es 128 bits. Lo bajamos. 16 bits. Venga. Baja los bits. Vamos, hasta que lleguemos
a una, a ver qué hacer. Un punto blanco. Vale, vamos a darle. Y también te iba a decir
que pusieras el original, que era fotográfico. Sí. Pero en vez de native from Papua Nueva
Guinea, pon a youtuber doing anapolo y video. Venga. Venga. Y ahora que lo he visto por
aquí, mira, también he probado la primera cosa que se me ocurrió, en plan fotografía
de un perro corriendo encima de un tocadisco y esta es perfecta. A mí esta me sirve.
Está escracheando. Está escracheando, exacto. Sí, sí. Está a punto de darlo todo. Vale.
No entiendo, o sea, la gente, las imágenes de perfil van a empezar a ser todas cosas
así, ¿no? Yo ahora la gente que me sigue, un porcentaje muy alto después del tutorial
de Dreambus, son gente generadas por IA. O sea, cada vez más me van inundando gente
de, gracias a todos por tu tutorial y cuando me fijo ya en twitter se lo han puesto de
imagen de perfil. A ver, me ha dicho a youtuber. Y podemos hacer también a alguien construyendo
un mueble de Ikea en la luna. Sí, podemos. Portrait fotógrafo of a youtuber. Y ese alguien
podría ser, ah, no, sí, of a youtuber doing anapolo y video. Anapolo y video. Vale. A ver
qué puede salir de aquí, la verdad. Portrait fotógrafo. ¿Qué va a salir? Pues yo creo
que va a salir una persona con el micrófono cerca. Ah, a ver el de los 16 bits. Aquí
está. No lo ha aterrizado a 16 bits. No, ya sobran bits ahí. Sí. Bueno, a ver, claro,
los bits es la profundidad de color, en realidad 16 bits. ¿Cuánto serían? No, a lo mejor
sí, a lo mejor sí está bien. Está técnicamente bien a lo mejor, pero no está como conceptualmente
bien lo que nosotros pensamos cuando pensamos 16 bits. Claro, lo podríamos bajar más todavía.
A ver, a ver qué sale de aquí. Nos sale ahora la cara de un youtuber de verdad y.
Esta tiene, esta, ah, mira. Está saliendo, está saliendo poco a poco. No sé si va, creo
que lo va a sacar realista. El de abajo a la derecha tiene como nombre de youtuber, en
plan Firui. Firui. Bueno, pero está bien, ¿eh? No son fotografías, no sé por qué
lo ha hecho como ilustración. Sólo esta es como más fotográfica. Sólo esta. Y la
otra que me estás pidiendo era la del mueble en la luna, que esa creo que puede estar chula.
¿Qué le digo, un astronauta o? Venga, no, pero a lo mejor algún animal, en plan un
mapache. Vale, a Raccoon. A Raccoon con C, con dos C creo. Vale. Sí, ahora. Building
an Ikea. Furniture. Sí, vale, pues quítala. Building Ikea furniture on the moon. Ikea
furniture. On the surface of the moon. Surface of the moon. Pero quita la entera. Aquí,
¿no? Raccoon building. No, no, no. Eso, eso. Building Ikea furniture on the surface of
the moon. Venga, pues para adelante. ¿Por qué, por qué no? El último está triste dos
veces, sí. Le ha generado también la cara como en la pantalla. Es verdad, se está como
viendo, ¿no? Se está streameando. Se está abierto. Claro. A ver, ¿qué sale de aquí?
Y podríamos hacer un caballero del Dark Souls retransmitiendo por telediario con un micro.
Yo creo que sí. Me hace, me hace sudar con estos inputs. A ver, eh, a Dark Souls, eh,
¿character? Night. Ah, Night. Eh, as a TV show. No, reporter. Reporter, venga. Tal cual,
¿no, report? Sí. A ver, ¿qué sale? Ojo, ¿eh? Hay una que va a salir bien del Raccoon.
Es verdad, aquí. Hostia, hostia, hostia. Bueno, no. Está en la luna. Claro. Y otra vez hay
una luna. Claro, exacto. Hay una. Hay un fallo ahí. Es como que no ha sabido meter
la luna. Hostia, pero no está mal, eh. Me gusta mucho la de abajo a la izquierda. Abajo
a la izquierda. Pero no, no, o sea, me flipa. ¿Esta? Sí, sí, me encanta. No, no es lo
que le hemos pedido. Vale, vale, vale. Pero conceptualmente es como un mapache iluminado
por la luna a través de su ventana como triste después de un lunes muy duro. Con la botella
de vino delante, el bote de Jagendaz. Y un bicho en la encimera que lo estamos ignorando,
pero que será su mascota, pero no sé si un animal puede tener una mascota. Ay, podríamos
hacer eso, en plan, una inversión, rollo, un pez pescando. Hostia. A ver. Esto es lo
que quería, el primero es lo que quería. Y a ver, creo que no estaba rematada, todavía
no. A ver, ahora. Hostia, el primero. El primero es muy bueno, eh. Entonces le podemos dar
upscale. O sea, le podríamos, vamos a dar la variación que no lo hemos dado a ver si
nos genera más alternativa. El upscale del raccoon de abajo a la izquierda. Venga, y
te lo paso luego. Esta de aquí es la tres. Me preguntaban por el chat que, ¿qué han
hecho para mejorarlo? Yo no he estado muy al día, porque llevo una semana fuera, no
he estado muy al día de, eh, internamente cómo funciona este mid journey, pero creo
que tampoco ha trascendido, simplemente han dicho que llevan nueve meses entrenándolo
y que el modelo es diferente. O sea, que algo han encontrado que ha hecho click y que funciona
mejor que Dali 2 y Stable Diffusion por ahora. Al mismo tiempo no tardará Stable Diffusion
y Dali en convertirse en algo de esto. Dali seguramente sea la última, porque van a otros
ritmos. Es chula esta. Esta me resulta cozy. Esta mola, sí. Y mira, fíjate que la mascota,
al hacer upscale, ahora sí se ha convertido en el raccoon que tocaba. Antes era como una
cosa ahí, una pelusa. Qué loco, el upscale, entonces... El upscale te lo redibuja con
más calidad. Lo redibuja, ¿no? Claro, claro. O sea, lo redibuja, porque eso no estaba...
O sea, ha tenido que borrar cosas, no solamente añadir... O sea, yo creo que empieza desde
una versión intermedia de la imagen. Entonces, lo que no está todavía difuminado, pues
lo genera. Esta está bastante chula. Y a ver el... Mira a los reporteros ahora con variedad.
Está como en un coliseo. Sí, pero con luces, con focos. Es bastante loco, ¿eh? O sea,
bastante funcional en este caso. Si quisieras para un vídeo generar una ilustración de
la imagen, esta funcionaría. Sí. No sabría decirte si para algo más avanzado. Sí, para
una thumbnail, vamos. Sí. Sí, sí, sí. Vale, ¿qué más? ¿Qué más podemos probar?
Podríamos hacer a un pez pescando a un humano. Esa es muy buena por una cuestión de cómo
entienden las IAS los inputs, porque a veces estas cosas donde lo obvio sería pensar lo
contrario, la IA se va a lo otro. Se va al humano pescando un pez. Entonces, es una buena
forma de ponerlo a prueba. Esto se habló mucho con Dalí de que no era capaz de generar
a un caballo montando a un astronauta. Que es lo contrario, ¿no? Siempre generaba el
astronauta montando a caballo. Entonces, esto sería a fish being... No, a fish fishing
a human. Joder. O sea, que no lo va a hacer realmente, ¿no? Yo creo que no. Si lo hace,
me sorprendería bastante. O sea, con mid-journey esto no lo he probado. Pero muchas veces estas
IAS trabajan más intentando colocar los tokens de las palabras en la imagen más que entendiendo
la relación que pueden tener esos conceptos. Sí, o sea, hacemos mucho como lo de poner...
Como que las cosas sean gramaticalmente correctas, pero si le ponemos las palabras en desorden
a lo mejor te hace la misma imagen. Exacto, sí. Que eso es uno de los limitantes que
se hablan de estas IAS. Ya estamos viendo aquí que está saliendo el humano pescando
un pez. Creo, sí. No, no, pero mira, hay un pez, el de abajo a la izquierda, que está
encima del agua. Hostias, hostias. Pues espérate. Sí, sí, sí, sí. A ver, estas sí están
pescando el pez, pero fíjate que aquí la caña, por ejemplo, va hacia el humano. Es
verdad, se está pescando a sí mismo. Claro. Es como que la IA entiende, quiere obedecer,
pero al mismo tiempo su cabeza le dice, no, eso no es lo obvio. Bueno, vamos a... Son
muy buenas las imágenes, también te digo. Son preciosas, ¿eh? La calidad visual. La
primera me gusta, todas, las cuatro me gustan bastante. Sí, sí, sí, sí. Vamos a probar
la del astronauta montando a caballo, porque esa es muy icónica. Sería a Horse Riding
an Astronaut. Si esta saliera sería un titular muy interesante para mover por Twitter luego.
O sea, porque hay investigadores que realmente denuncian, o sea, ya ni opinan, denuncian
directamente que estas IAS tienen grandes limitaciones por justamente esto, por la historia
del caballo montando astronautas. Entonces, si saliera sería muy interesante. Pero la
IA sí que es capaz de inferir muchas cosas, entonces terminarán siendo capaces de inferir
cómo hacer un caballo montando un astronauta, yo creo, porque por ejemplo en el logo de
Moisés me refiero, el cómo hacer las aguas de Moisés, o la túnica de Moisés, no le
hemos pedido nada de una túnica, sabes, como que ha cogido... Claro, pero es como que las
palabras claves de caballo montando y astronauta le incita más hacia aquellas imágenes que
ha visto por lo general, que es que la gente monta caballos, que un astronauta debería
ser estar por encima del caballo, etc. Entonces acaba siendo... La de abajo a la derecha me
gusta. Están muy guays todas, pero no es lo que le hemos pedido. No, ya, ya. Hostia,
pero están muy guapas, eh. Es que están muy guapas. O sea, la de arriba a la derecha
es para una camiseta de cabezas. Esta, sí. Sí. Y si le pedimos por ejemplo una escultura
de un astronauta montando caballos, vamos a probar estilos. A Greek sculpture of an astronaut
riding a horse. Madre mía. Creo que está bien escrito, ¿no? Sí. ¿Qué opinan de
la gente que se hace llamar eartist? Preguntan ovillo en las redes sociales y publican lo
que sacan de midjourney. Hombre, de momento creo que es bastante... O sea, están bastante
flipados creo, en ese sentido, porque el esfuerzo no requiere tanto. Puedo entender la etiqueta
de AI artist a gente como la chica esta que tú la conoces de Instagram, que publica como
vídeos y montajes con IA, que son súper originales. La chica asiática, ¿no? ¿Sabes
qué te digo? Sí, dices Karen X. Sí, que la pusiste en el vídeo. Ay coño, me he puesto
la imagen. Yo esperando aquí. Ella lleva estas herramientas más allá, no es que simplemente
le dé al botón y saca una imagen y punto. Hay quien dice que por la parte del prompt
engineering hay un esfuerzo extra, ¿no? Que hay que saber cómo hablarle a estas guías,
pero es que ahora midjourney, ahora mismo, es que está chetado, está O.P. O sea, ya
es demasiado fácil. A mí es que me recuerda a la autotune, no es que no puedo evitar la
comparativa, es decir, una persona que usa autotune debería poder llamarse cantante,
pues esto es un poco lo mismo, es como una persona que useías debería llamarse artista.
Hay mucha gente que está en contra de que la gente que usa autotune se llame cantante,
que dice que debería ser, pero a nivel conceptual es muy útil que se llamen cantantes y que
se llamen artistas, porque tú a un artista vas a que te de... O sea, si tú sigas una
cuenta en Instagram que pone artist, sabes que te va a dar imágenes artísticas. Entonces,
te sirve como, ¿sabes? Como que ¿qué otra palabra usarías? Prompt engineer, ¿sabes?
Es como... ¿Qué te parece aquí la escultura griega de astronauta montando a caballo? Uh,
la de arriba a la derecha me gusta. La de la luna. Porque le ha hecho la luna centrada,
eso me... Me gusta bastante. Ojo, ¿eh? ¿Qué más le pedimos?
Pues... ¿Cómo lo podríamos poner un poco más a prueba?
Pues a ver... Yo querría... ¿Qué quieres, Jaime? ¿En qué situación
estás encontrado tú donde te hacía falta una ilustración o un diseño?
Yo querría hacer un multicórnio. No te voy a negar que lo he intentado, ¿eh?
Hace mucho que no hago un multicórnio. Pero no, no, pero un multicórnio es cualquier
caballo que tenga N cuernos. Vale, N cuernos. N puede ser igual a 1. N puede ser igual...
Bueno, bueno, pues... Incluso N puede ser igual a 0. Técnicamente es... Claro, hay que
definirlo también. Pero vamos a poner al unicornio haciendo algo.
Venga. A mí me gustaría que fuera en... Pone un rollo...
Algo... Como en gran angular. Vale. Fish eye camera lens.
Sí, fish eye camera lens. Unicorn portrait. Vamos a probar.
Y que sea un unicornio lavándose los dientes. Unicorn brushing its teeth.
Brushing its teeth. Pues vamos allá, ¿por qué? ¿Por qué no?
Es que no sé qué... A ver qué hace.
O sea, entiendo lo que tiene que salir. Mi pregunta es, ¿el camera lens tan distorsionado
va a ser que se vea el cuerno? O sea, porque hay muchos elementos ahí.
Hay muchos elementos. Claro, debería salir el primer plano de los
dientes y ya la parte de la cabeza donde está el cuerno no debería verse.
Entonces, aquí le estamos poniendo un reto a la IA que no se ha visto venir.
Mid-Journey, cuando se ha activado esta mañana, no esperaba tener que hacer esto.
Yo creo que lasías están un poco decepcionadas, en plan, podéis hacer cualquier imágenes.
Con los humanos, ¿eh? Total. Hay un cuello de botella en la parte creativa
del humano. Sí, sí.
Ostias. Tal cual.
He estado a miedo por ahora. Mira, esto es un poco lo que he pensado así,
como que fuera en escorzo con la boca hacia nosotros.
Sí. La de abajo a la izquierda es la que se parece
a la postura que me había imaginado. Sí, pero está pasando aquí algo muy raro,
¿eh? Porque Fish Eye ha entendido como el ojo
de un barco, ¿no? Como la ventana de un barco, creo.
Ostias. Es que yo creo que las prongs le funcionan
por dos. Puede ser.
Porque sí que la de abajo a la izquierda la ha hecho como con la típica imagen de
Fish Eye que tiene como… Sí.
… como… Está guapa.
… que va hacia ti como de manera muy agresiva, pero a la vez le ha hecho una escotilla de
barco. Total. Pero mirad el ojo, ¿eh? O sea, el ojo
no… Sí, el ojo este. Me encanta.
Me gusta mucho la de abajo a la derecha, porque me parece muy maligno.
¿Esta? Sí, está bastante terrorífica. A mí me gusta mucho el estilo de esta, porque
no le ha puesto el cuerno de unicornio, pero sí le ha puesto como el rollo unicorn pink
y tal. Vamos a intentar reformular el input, a ver
si lo conseguimos un poco. Le voy a poner a Unicorn Brushing It's Teeth
y luego aquí al final coma el I Fish Land. Te comentan que pongas rollo 20 milímetros
o… Exacto, vale.
… 24 milímetros. No sé… De las lentes de gran angular, ¿cuál es la más común
con la que más habría sido entrenada? Entre 18 y 24.
¿Cuál? La 24, ¿no? Te diría cuál es más barata, la de 24, ¿no?
¿Ultra-wide? Puedes poner ultra-wide lens también.
Ultra-wide. Venga. Vamos para allá. Vale, mientras… Joder, siempre me olvido
del imagine. Cuando veas aquí que estoy 10 segundos y no se está generando nada, avísame
por qué. Vale. Me gustaría aprovechar el unicornio
malvado que ha salido abajo a la derecha. Sí.
Me gustaría hacer como… An evil unicorn with very long sharp teeth, terror with really
long sharp teeth. Sharp teeth, ¿vale? ¿Así? Decía sharp de agudo, pero shark de tiburón
tampoco es normal. Te gusta, vale. Venga, vamos a darle también
con esto. No, no, no, no, no, no. Pero pon rollo terror
y pon bloodborne. Hostia. Terror y bloodborne. Bloodborne.
Con E, con E. Bloodborne. ¿Esta última palabra que es, sangriento?
No es un videojuego. Vale. Vale, pues vamos a darle. Y mientras
tanto, aquí no sé qué ha pasado. Aquí se nos ha ido, por completo. Aquí se nos
ha ido. El concepto ha desaparecido. Me gusta mucho la de abajo a la derecha, que
es como una cocina extraña. Es que quiero entender qué ha pasado aquí
porque… ¿Qué hemos puesto?
Es como que ha entendido. O sea, quiero pensar que lo que ha pasado es que cuando le hemos
puesto la característica de la cámara con ese formato, ha entendido que son las típicas
imágenes de cuando vas a comprarte un cuadro en una página web que seguramente tenga este
formato, ¿no? Te lo pone como se vería ese cuadro 24 milímetros colgado en la pared
de tu casa. Tiene sentido, como si fuera una foto de…
Sí. Pero sí. De un catálogo, ¿no?
Lo cual es bastante impresionante porque esta, por ejemplo, sí estaría bien. O sea,
no está del 24 milímetros, ciertamente. Pero sí podría ser un unicornio lavándose
los dientes con su bastón de lavarse los dientes porque, claro, no puede llegar.
Es la imagen que queríamos, pero nos la ha metido en un mudo 3D que no creemos.
Nos la ha metido en un render 3D de un baño que es donde se tienen que lavar los dientes
los caballos. Es muy loco, ¿eh?
Ah, claro. ¿Y esto qué te parece?
Vale, vale. Esa es la idea que quería como de terror. Este era el rollo de los dientes.
Los dientes bien, pero no era un tiburón. Entonces, como claramente se le hace bola
el orden y la jerarquía de las palabras, quita lo de tiburón…
Pero fíjate en un detalle. El tiburón tiene una aleta arriba, aquí, como si fuera un
cuerno. Bueno, pero los tiburones tienen aletas arriba.
Pero sería esta, ¿no? Claro, sería esta. Pero esta la tiene. Esta la tiene también.
Sí, y arriba a la derecha también. Yo creo que está intentando hacernos un unicorn
shark, que era para formato película tipo sharknado y estas cosas. Vale, me decías quitarlo
de shark y poner sharp, ¿no? Sí, y en vez de very big pon long.
Vale. Evil unicorn with very sharp, very long, sharp teeth. Teeth debería estar en plural
o en singular. Teeth es como dientes en general. Sí, sí, así está el concepto.
Vale. Y no habíamos dejado nada más en la cola mientras… No, vale. Ok. Ok, ok. Acaban
de inventar el tibucornio. El tibucornio. Es que esta está muy guapa. A mí esta me
flipa. Esta de aquí abajo. Me gusta bastante. ¿Cómo son?
Los dientes es exactamente… Esos dientes son los que necesitaba.
Claro. Qué pasada. O sea, no olvidemos que esto lo ha hecho una maldita ahí. Yo lo recuerdo
cada 30 minutos porque a lo mejor a la gente se le va el horizonte de…
Puedes hacer una que sea un cubo de dientes. Sí.
¡Esto! ¡Esto es unicórnio! ¡Esta te mola, eh!
¡Esto es lo que quería! Hostia, ¿eh?
Uh, tiene muy buena pinta. Hostia. Pero te lo… Como que lo han hecho
un poco dragón también. Un poco draconiano. Sí, se lo lleva el dragón.
Hostia, es la primera. Joder.
Poca broma, ¿eh? Poca broma. ¿Te la hago upscale?
Sí. Venga.
Ojo, ¿eh? Estos rollo los unicórnios no son siempre
bonitos. Y felices. Estos son los unicórnios de tus pesadillas.
Qué locura. Y esta también me gusta un poco con la mandíbula
medio desencajada. Hazla también en upscale.
Ahí está. Sí, a ver si te ocurre o sea por si el upscale
como que la termina de aterrizar, como la altera bastante la imagen.
Total. Vale, esta se está cocinando 40%.
Ah, increíble. Increíble. O sea, esta calidad visual, por ejemplo,
Dali todavía no te la consigue. Ya.
Y este acercamiento al input. Bueno, el acercamiento al input sí.
A ver, ¿qué es la variable diffusion en la que cuesta más de domar en ese sentido?
Sí, variable diffusion es como que todo sale mal por defecto.
Exacto. Y tienes tú que luchar contra viento y marea.
Sí. Pero luego terminas llegando más lejos normalmente.
Efectivamente. Mid-journey yo no sé qué han hecho exactamente,
pero esta versión cuatro es como too easy. Es demasiado fácil.
Es que para todo te sale un resultado al menos que es bueno.
A lo mejor no es lo que estabas pensando, pero cuela.
A ver, tenemos al unicornio diabólico.
Me gusta. Le ha añadido venas y cositas, ¿no? Y manchas.
Y luego tenemos al otro. Ahí está. Está guapo.
Es como haz no desrec. Pero si te persiguieran tus pesadillas.
Pero tiene como el look. Qué miedo, tío. Qué miedo.
¿Qué más, Jaime? ¿Por dónde más tiramos?
Tenemos infinitas imágenes en nuestra mano.
¿Qué podemos generar? Por ejemplo, por ejemplo,
quiero probar algo como más realista, ¿no?
Pero imágenes que sean un poco locas,
pero más estilo fotorealista.
Pues a lo mejor el cráneo de un unicornio metido en un tarro de
formol. ¿Sabes? Como si fuera un...
Vale, vale.
Si ahora soy mundo desconocido y quiero hacer un vídeo del tema.
Tío, imagínate los canales de misterio con esta tecnología.
Joder, para ovnis y alienígenas y movidas así,
¿es que te sacas unas imágenes?
Esto no sé si lo oí de tío, no sé quién me lo contó,
que de repente ha habido como un pico de nuevo de imágenes de
ovnis, de repente. Es como que hemos vivido...
Eso no lo he dicho yo, pero me lo creo.
Claro, es como que de repente hemos vivido una época donde
antes se publicaban imágenes de ovnis en revistas.
Luego siempre ha estado el misterio de por qué si ahora
tenemos cámaras siempre en el bolsillo,
ese volumen de imágenes no ha aumentado más, ¿no?
Si, joder, técnicamente deberíamos de ver más ovnis y
fotografiarlos más. Y de repente ahora con las guías vuelve
a haber una explosión de imágenes por algún motivo.
¿Esta guía sabrá hacer SREC?
Muy buena pregunta, vamos a probar.
Bueno, ya solo por haber dicho SREC,
habrá mucha gente en el chat que va a empezar,
ah, ha dicho SREC, tal, no sé, esto lo descubrí en un vídeo
que al parecer en Latinoamérica ellos lo pronuncian bien y
nosotros decimos una barbaridad que es SREC.
¿Y es que dicen SREC?
Creo que sí, SRAC, danaje.
SRAC, sí.
Pues no pon el cráneo de SREC en un, en formal.
Ostras, vale, SREC, SREC school, que esto parece un
trabalengües, informal, en a formal jar.
Es, pero si dice así.
No lo sé, la verdad.
Formal jar.
Estoy tirando un triple.
Sí, sí, a ver, formal de high jar.
¿Sí?
A ver, espérate, espérate.
Muchas gracias, Foxfile, por la, por la, por la, por los
créditos y también antes alguien ha hecho una donación
que no lo he visto, lo he visto pasar,
pero nos estábamos en conversación y ya están todos en
el chat, SREC, SREC, SREC, SREC.
Yo veo a la gente escribiéndolo así como me manda para el chat.
A ver, porque ahora hay muchos SREC.
Vale, forma, joder, vale, vale, porque es un poco formal de
high, formal de high, ya.
Vale, vamos a ver que sale.
Espera, y que le, vale, sí, perdón.
A ver si pilla bien el contexto y si no lo hacemos como en un
laboratorio, en un ancient laboratory.
Claro, pero lo podemos poner.
Bueno, bueno, luego lo podemos probar con estilos que esto sí
lo he visto, pues alguna locura que se nos ocurra,
el estilo de microscopio de barrido de electrones o cosas
así, ese estilo de imágenes que está bastante guay.
O radiografía de la calavera de SREC.
A ver, hostias, joder.
No, no, pero no haces SREC muy allá.
Espera, espera, espera, dejale de cocinar, que no.
No, no pasa nada.
Bueno, en realidad, técnicamente este es el cráneo de SREC,
si le quitas la piel y la grasa y todo, pues,
se va siendo algo parecido, claro.
Claro.
Y puedes poner SREC HEAD.
Yo creo que no están, ¿eh?
No debería.
Pero es verde.
Sí, o sea, va a entender el concepto,
pero no va a ver imágenes reales de SREC por tema de copyright.
Qué pasada.
Esta me mola.
Las imágenes en sí mismas, lo bonitas que son.
Esta me flipa.
A mí la de arriba a la izquierda.
Esta, esta está muy guapa.
Con los dientes tan irregulares, me encanta.
Esta es la típica imagen que tendrías que para poder llegar
a ella a hacer un render 3D para una calidad como esta.
Sí.
Ah, una locura.
¿Tú crees que se dejarán de usar softwares como Photoshop,
como Cinema 4D, como 3D Max, de forma tan general?
A lo mejor para cosas puntuales sí, pero ¿tú crees que esto es
un killer app de estas herramientas?
Depende de para que lo uses, ¿no?
Pero yo sí que sigo a algunos artistas de Instagram que hacen
renders, pues hacen como bodegones abstractos en 3D con
Cinema o con lo que sea.
Y claro, pues ahora de pronto si tú dibujas el esquema de cómo
quieres el bodegón y haces un style transfer o alguna cosa
así, podrías llegar a lo mismo sin tener que modelarlo todo.
Claro.
Sí.
Y lo siguiente es que entiendan lo que decíamos antes, ¿no?
Que entiendan perspectivas y cosas y que yo pueda coger la
imagen del tarro de antes y rotarla.
Y ya está.
Y que no haya que pasar por un software 3D,
sino que directamente la ya lo entiendan.
Pues mira, ojo, ¿eh?
No es tomar.
Me como mis palabras.
Le pedimos la cabeza de rec pintado por Van Gogh.
A ver si, a ver qué color escoge.
Yo quiero la cabeza de rec en un tarro de formol flotando.
Ya, pero no te la vas a hacer por algún motivo.
Ah, bueno, vale, vale.
No, pero porque hemos puesto calavera.
Sí, sí, total.
Vale.
Vale, vale, vale.
Pues yo creo que sí va a salir, ¿eh?
Ahora, ahora tengo fe.
Es rec en a head.
OK.
Pero está bien, ¿eh?
O sea, esta está bastante cercana.
No es exactamente la cara.
No la tira directamente la cara de rec, pero.
Por responder lo que están comentando en el chat del
render 3D, o sea, yo lo que me referían no es como que la
gente no vaya a renderizar nunca nada 3D,
sino que hay pequeños usos concretos de algunos artistas
que necesitan hacer un render 3D para generar una imagen 2D,
que a lo mejor ya no necesitan hacerlo.
No como que ya nunca nadie vaya a renderizarla con 3D.
Claro, pero yo voy más allá.
O sea, yo digo, en 10 años estaremos utilizando software
de edición 3D como el que tenemos ahora.
Usaremos Zbrush, Cinema 4D, 3D Max.
Yo creo que para la mayoría de cosas, ¿no?
O sea, el que quiera hacerse ahora un dragón volumétrico en
tres dimensiones va a ver de IAS que te lo hagan.
Pero que te van a hacer, dices, el modelo 3D ya, el archivo 3D.
La IA de DreamFusion, no sé si esa la llegaste a ver,
pero ya te lo haces.
Sí, sí, sí.
Te haces 3D de un 2D esa, ¿no?
Esa te hace con, a partir de, no, del texto que tú le des.
O sea, tú le dices, quiero un pingüino surfeando una ola de
mantequilla y te lo hace.
Esa también la he visto.
Si no, yo pensaba que decías una que le das cualquier imagen
2D y te hace una interpretación de cómo sería el modelo en 3D.
Claro, esa todavía hay cosas, pero no hay nada tan profesional
como esto aún, pero yo creo que en 10 años habrá.
Yo, por ejemplo, el Photoshop ahora mismo,
es que lo abro solo para hacer segmentación y colocar,
componer las imágenes que he hecho con StableDiffusion,
con Dalí.
A mí me ha pasado una cosa que tenía que mandar un mensaje
en inglés, que lo tenía React en español,
y lo he metido en GPT-3.
Yo lo hago igual.
En vez de ir al traductor de Google.
Al menos en inglés.
Y me ha hecho por irse.
Claro, en vez del traductor de Google me ha sorprendido.
¿Puedes hacer upskill a la de abajo a la derecha,
de Isrec?
Abajo a la derecha está.
Sí.
Está guapa esta, sí.
Muy carismática.
Sí.
Eso también lo hago y no sé por qué.
No sé por qué me voy a una opción de pago,
porque al final al GPT-3 lo estamos pagando,
aunque es un precio muy bajo.
En vez de ir al traductor de Google, pero también lo hago.
Y es curioso.
Y alguien comentaba que la llegada de las IAS,
sorprendentemente, puede ser la primera vez que veamos a Google
viendo peligrar su propio modelo de negocio.
Porque fíjate que en 15 años, 20 años,
Google nadie la ha podido reemplazar al buscador como
tal.
Pero fíjate que en este caso, lo que estamos haciendo con
estas IAS es comprimir un montón de bases de datos,
un montón de información, y si tú ahora quieres una imagen,
no vas a Google Imágenes.
Las generas.
Si quieres un conocimiento, cuando los GPT-4 o GPT-5 tengan
el conocimiento más riguroso, te irás a GPT-4 o GPT-5.
Ahora salió ayer.
Conectar ideas de alguna manera.
Claro.
Ayer salió una que se llama Galáctica,
que la han entrenado sobre un montón de papers científicos.
Y lo que te permite es que tú le dices,
quiero que me hagas una página de la Wikipedia sobre la
gastronomía de Gran Canaria.
Y te redacto una página de Wikipedia o un paper.
Entonces.
Google ahí puede ver cómo de repente la gente ya no usa sus
servicios.
¿Cómo lo ves?
Pues que el rec siempre es malo.
Siempre le dibujan como un ser maligno y nosotros no se lo
hemos pedido específicamente.
Sí, yo creo que lo mezcla con goblins o con historias de
estas.
Sí.
Vale, pues vamos a ir rematando.
No sé si se nos ocurre alguna idea más interesante que podamos.
Yo quería hacer una más maligna, ya la última,
que es una helada de los dientes, cómo se llama, de tooth fairy.
Vale, sí.
Helada de los dientes, pero con un cubo de dientes,
en plan maligno de terror.
With a bucket full of teeth.
Claro, ahí justo he tenido el problema de la IA,
no sabía si te referías a un cubo de cubo o cubo de bucket.
Of teeth, ¿vale?
Eso es lo que te ha pasa, no, no, no es para ti.
Lo que te ha pasa es lo mismo que le pasa a la IA.
Claro, exacto, exacto.
Tooth fairy with a bucket of teeth, diabólico.
One full of teeth.
Vale.
Full of teeth.
Hace que el cubo esté hecho de dientes en vez de tener los
dientes dentro.
Y pon rollo, algo de, pon terror.
Terror.
Vale, para adelante.
Y si quieres pon evil delante.
Vale, sí, así está bien.
Vale, y mientras tanto respondo a una pregunta que ha sido
interesante que preguntan, ¿y esto qué es lo de la barbilla?
Esta firma, esta marca de agua que aparece aquí, que es,
mucha gente cuando ve esto cree que la imagen en sí es una
imagen que se ha copiado, que tiene copyright, etcétera.
Y lo que tenéis que pensar es que lo que nos está indicando
esto es que las imágenes con las que se ha entrenado son
imágenes que pueden tener marcas de aguas y firmas.
De hecho, una firma en una obra de arte es algo tan frecuente que
raro sería que la IA no lo hiciera, ¿no?
Que no generara siempre en el marco inferior,
tanto derecha como izquierda, que intentara imitar una firma.
¿Por qué?
Porque hay tantas ilustraciones que tienen firmas que ese
garabato lo entiende como un patrón que tiene que estar ahí
fuerte.
Pero no significa que esta obra concreta exista y tengas a
firma la barbilla.
A mí me llama la atención que, eh...
¡Hostias!
¡Huy bueno!
¡Hostia, tú!
¡Jajaja!
La de abajo a la izquierda se está convirtiendo en una de mis
imágenes preferidas.
La de abajo a la izquierda es terriblemente perturbadora.
¡Haz abstinencia, por favor!
O sea, todas están muy bien.
Yo creo que la más correcta es esta, ¿no?
Yo creo que no.
Yo creo que si te paras a pensar la mitología de que haya un
hada de los dientes, que roban los dientes a los niños,
tiene que ser como la tercera.
No hay otra alternativa.
No hay otra, ¿no?
Tiene que ser una boca.
Pero fíjate que la boca tiene dientes normales con colmillos
cada una.
Ojo al lado.
Del diente sale un colmillo.
Claro, claro.
De cada diente.
Dios, qué perturbador.
No, eso está súper bien, porque los dientes así planos son
para que los herbívoros corten hojas y los colmillos son para
que los carnívoros arranquen carne.
Entonces esos dientes funcionan para ambos.
Ya.
Y lo que no sé la mordida, ¿qué tal le irá?
No, abajo yo no sé lo que tiene, pero si no se destruye
a sí misma la boca al morder, está muy guay.
O sea, la fila de abajo tendría que ser también planos,
pero con agujeros para que se acomoden los colmillos.
Mira, y aquí lo tienes con.
Ah, la estaba añadiendo la cara.
Hostia, qué guapo, ¿eh?
Mucho más interesante ahora, ¿eh?
A ver, dale, haz clic para ver si es un poco más grande.
Es guapa, ¿eh?
Dios.
Y lo que pasa es que está robando dientes con grabados.
Está poniendo dientes cada diente cuando lo coge.
Claro.
Sí.
Y a veces coge dientes de oro porque hay que pagar el
alquiler.
Hombre, porque hay gente que tiene la funda y se lo lleva.
Bastante loco, ¿eh?
O sea, ¿esto es la portada de un disco?
Vamos, vamos.
Total.
Fíjate la boca de abajo, ¿eh?
Que tiene toda la lengua, son dientes.
Y esto es perturbador as fuck.
O sea, esto me perturba demasiado.
No me gusta, me incomoda mucho la imagen.
Esto podría haber sido la portada de un disco de rock
progresivo de los 80.
Estupenda.
Te lo juro, o sea, es como.
Seguro.
Vamos a ver cómo sería una portada de un disco.
Anaitis, álbum, cover.
Ha dicho música progresiva, ¿no?
Sí, pro rock.
Pro rock, ¿así con guión?
Creo que es, a ver, creo que es con guión, pro rock.
O pon progressive rock.
Progressive rock, vale.
No sé qué tengo que esperar de esto.
No sé si puedes mostrar ahí Google,
pero es que tienes que buscar un álbum que se llama The Court
of the Crimson King.
Voy a intentarlo, a ver si no revienta el mundo.
Dime cómo se llama.
The Court of the Crimson King.
Vale, la portada, ¿no?
Estamos buscando, ostras, entiendo lo que dices.
Por eso me he ido ahí, ¿sabes?
En mi cabeza.
Vale, a ver si lo podéis ver.
¿Se está viendo?
Yo creo que sí.
Sí, sí, sí, sí.
Perfecto.
Hostia.
Me he equivocado de década.
Es de finales de los 60, pero vamos.
Vale, vamos a probar.
70 puede poner.
Vamos a darle a ver qué sale.
Y te pregunto, mira, fíjate, la imagen esta yo cuando la veo,
te estaba comentando el tema de los dientes y tal,
me genera incomodidad, ¿no?
Y al final, siempre está este aspecto subjetivo del que observa
la imagen, que es una de las cosas que se dice cuando
queremos hablar de arte, que si al final genera un sentimiento
en el espectador, ta, ta, ta.
Te pregunto, Jaime, ¿es esto arte lo que genera la IA?
Depende de cómo lo definas, sin duda, ¿no?
Según cómo lo define la sociedad actual.
Que no sabré decirte.
Si el arte lo defines a nivel la persona que lo experimenta,
si tú no distingues cuando tú lo consumes, cuando tú lo vives,
cuando tú ves una imagen, si yo no te digo si es de un humano
de una IA y te produciría una emoción y te produciría ganas
de consumirlo, de tenerlo en tu cuarto,
de llevarlo en una camiseta, de ir a verlo en un museo,
aunque si no supieras que es de una IA,
entonces está haciendo esa función para ti en ese momento.
Eso es también una portada de un disco.
O sea, todas son muy buenas portadas.
O sea, esta de aquí es bastante brutal.
¿Sabéis una cosa que me llama mucho la atención?
Que me encanta.
Cada vez que abres cuatro imágenes,
cada vez que dices, esta me gusta,
siempre es la que menos me gusta de todas.
Es curioso, ¿eh?
O sea, me he fijado exactamente que tú siempre te vas como a la
que menos me estoy fijando y dices mucho de nuestro estilo
artístico, joder.
Claro, no, pero eso es muy guay.
Como que yo de pronto, o sea, como que la IA está dando para
todos los gustos.
Sí.
Y te pregunto, ¿cuál es la tuya?
A ver si la consigo adivinar.
Yo creo que la tuya tiene que ser esta de aquí.
No sé, cualquiera de las tres así que son más luminosas me ha
llamado la atención.
Claro, o sea, tú no has ido tanto a cuál te gusta,
sino a cuál no te gusta.
No has ido a porra.
La de abajo a la derecha no me ha llamado la atención porque
no contrasta mucho.
Entonces, como aparecen las cuatro a la vez,
no me he fijado.
La de arriba a la izquierda es la que más me ha llamado la
atención, pero cuando las he visto más despacio.
Sí.
La de abajo a la izquierda es la que tiene como más color y
tiene las montañas y tal y me ha gustado más.
Pues déjame que ponga with a pangolin que me genere cuatro
imágenes nuevas y vamos a hacer el test.
Yo voy a elegir una favorita mentalmente y vamos a ver.
Y una que es la menos favorita, tienes que elegir la menos
favorita.
Vale, vale, vale.
Entonces, exacto, y tú tienes que hacer lo mismo.
De repente ya mid-journey no nos interesa ahora esto,
es un experimento, estamos haciendo otra cosa.
Competición humana.
Dicen por aquí, arte según la RAE.
Es que a ver, la RAE, bueno, a ti te gusta mucho lo de la RAE y
ver definiciones.
Hicimos un directo analizando la definición de RAE de arte
concreto.
Claro, pues mira, aquí la ponen.
Dicen manifestación de la actividad humana mediante la
cual se interpreta lo real o se plasma lo imaginado con
recursos plásticos, lingüísticos o sonoros.
Claro.
Recursos plásticos.
Esto es un recurso plástico.
El pangolín, qué guay.
Qué guapa, ¿eh?
Vale.
Yo tengo claro cuál es la que menos te gusta.
Yo tengo, pero, vale, vamos a analizarla bien.
Vamos a fijarnos un poco porque.
No, no, pero a primera, claro, ahora cuando las veo más,
cambio de opinión.
Por eso, por eso.
Vamos a hacerlo porque yo ya me he fijado en.
Vamos a tirar.
Ya, tío, ya, ya, ya.
Es que he cambiado, he pivotado.
Entonces, ya no sé con cuál estamos jugando.
Vamos a jugar con la que más te guste visualmente y la que
menos.
Pero esto es un buen ejemplo de cómo hay obras de arte que
son, entre comillas, de consumo rápido y otras que son de
consumo lento.
Hay veces que, por ejemplo, eso pasa en la música,
hay canciones que lo petan y desaparecen y ya nadie las
quiere escuchar porque ya han saturado todo el mundo.
Pero lo petaron muy rápido porque es como y al revés,
canciones que la primera vez que las escuchas no te gustan,
pero cuando las has escuchado tres veces,
empiezan a gustarte mucho y ya las escuchas toda tu vida.
Sí.
Y me pasa esto simplemente así a pequeña escala, ¿sabes?
Como que de pronto hay una imagen que digo, uy, no, esta no.
Y cuanto más la veo, más me gusta.
Y hay algunas imágenes que la primera vez que las veo digo,
ala, cómo molan y ahora ya me están saturando.
Sí.
Entonces, dicho eso, yo creo que tengo una favorita y creo que
tengo una menos favorita, aunque me parecen muy buenas todas en
general.
Yo, mi menos favorita.
A ver.
Al principio.
No, no, no, no, no, porque si no lo vamos a liar.
Ahora, vamos ahora.
Yo digo, tú menos, tú menos favorita que tendría que ser,
según tu teoría, mi favorita, la función billectiva en este
caso, debería llevarnos.
La de arriba a la derecha.
No, dalo.
Qué susto, por un momento me ha asustado mucho.
No, esa es la que menos me gusta también.
Aquí, aquí consideramos.
Pues a mí esa es la que menos me ha gustado al principio,
pero ahora me está gustando mucho porque los triángulos me
gustan.
Hablamos de esta, ¿no?
Sí, exacto.
La de los triángulos.
Ya.
Esos triángulos de pronto me parecen sofisticados comparado
con.
De primeras, esta me ha parecido muy interesante y esta no me
gustaba tanto, pero ahora entre más me fijo, más me gusta esta.
Esta es mi favorita.
A mí esa de arriba a la izquierda es la que ahora menos me gusta.
Joder.
Fue mi favorita ahora mismo.
Es la que más me ha impactado de primeras.
Sí.
Pero ahora me parece como muy, muy naíf,
me parece como que no tiene más, son unos rayitos así y el
puto pangolin en el centro.
En cambio, la de la derecha, el borde que tiene del planeta
arriba a la derecha, los triángulos que apuntan todos
al pangolin, el gradiente que tiene atrás,
me está resultando más interesante cuanto más la veo.
Sí.
Y la de la izquierda me está resultando menos interesante
cuanto más la veo.
Entiendo, entiendo.
Yo lo que me ha pasado es que cuando me he ido fijando en que
las caras de los pangolines en la de la derecha de arriba,
la de abajo, no son pangolines, esto es como un lagarto y esto
es como un ave, ahí como que me ha echado para atrás.
O sea, que tú partes de la idea de saber muy bien lo que es un
pangolin y yo ahí no te creas que sé muy bien lo que es un
pangolin.
Bueno, pues se parece mucho a esto.
Es un armadillo, es el típico armadillo.
Sí, sí.
Entonces, claro, ya me he rayado, ¿no?
El ver la cabeza de águila y tal.
Pero es cierto que a nivel de composición esta me gusta.
Luego también te iba a decir, claro,
esta me lleva un estilo que es como más antiguo.
Pero claro, es que le hemos pedido de los años 70,
entonces está perfecta.
A ver, son espectaculares, ¿no?
En cualquier caso, las imágenes que saca.
No sé, ¿por dónde podemos rematar?
¿Qué sería algo interesante?
Pues yo le pediría la misma imagen,
pero en vez de los 60, del 2030.
Va, va, va, me ha encantado.
Del futuro.
Vámonos para allá.
Que prediga el futuro.
Venga, 2030, álbum cover of Progressive Rock.
Vamos para allá.
Bueno, no lo hemos enseñado en ningún caso y creo que podría
ser interesante, si yo quito al final la coletilla de versión
4, lo que nos lleva es a mid-journey,
tal cual lo está utilizando la mayoría de gente.
Entonces, hacer una comparativa entre ambos outputs creo que
sería chulo de ver.
Mientras tanto, que comente aquí la gente en el chat.
Dice Alejandro que todas son tan interesantes que le vuela la
cabeza.
Ya, ya, ya.
Es que a lo mejor, sí, es cierto que ya estamos como
frivolizando, ¿no?
Y estamos jugando con el tema, pero no hay que dejar pasar que
estas cuatro imágenes, repito, por si no ha quedado claro,
la ha generado una IA.
Amigos, o sea, es que.
Exactamente.
Vale, vale, bien, bien, bien.
He visto alguien en el chat que me ha gritado, imagine.
Falte imagine, sí.
Bien, bien, bien, gente atenta.
Como veis, aquí el cuello de botella siempre va a ser el
humano.
El que escriba lento el input, el que no ponga imagine.
La pérdida de rendimiento está por la parte humana.
Vale, a la gente que dice, Jaime, cosas como, ¿y para qué va
a quedar el humano?
¿Qué les responde?
O sea, a corto plazo, las IAs van a ser una herramienta.
Sí.
A largo plazo, no creo que vayan necesariamente a sustituir a
los artistas, sino que van a sustituir a todos los humanos
en todo.
Vale.
O sea, a largo plazo, no va a haber ninguna actividad que
pueda hacer un humano mejor que una IA.
Vale.
Porque mi argumento es el siguiente.
Si tú crees en la selección natural,
si tú crees que no hay ninguna cosa mágica que pasara desde
que éramos seres unicelulares hasta que somos humanos con el
cerebro que tenemos, entonces simplemente,
si quieres vamos a ver los pangolines un segundo.
Antes de hacer un argumento filosófico.
Recordemos que esto era el álbum cover de 2030.
No veo un estilo, un estilo nuevo.
Vale, tengo mi favorita y tengo mi menos favorita.
Vale, vale, seguimos jugando a esto.
Vale.
Ya, tienes tu favorita y tu menos favorita.
Yo tengo mi favorita y tengo mi menos favorita.
Sí, lo tengo.
Vale.
A ver, a ver, quizás es un poco objetivo.
La menos favorita para mí es la de abajo a la derecha porque ha
salido como flotando.
Vale, vale, no está en ninguna de las mías.
Es cierto que la he descartado por el tema de que estaba
flotando, aunque creo que si no estuviera flotando,
si le hubiera puesto una piedra sería mi favorita.
Porque a nivel iluminación y tal me parece súper chula.
En la montaña y tal.
Pero siendo descartada esa, mi favorita ha sido la de abajo a
la izquierda.
La mía también.
Bien, joder, me lo pongo.
Primera vez que coincidimos con todo el directo.
Sí, sí.
Me ha parecido interesante esto, ¿no?
Esta parte aquí como Rocky.
Como más 3D.
Y la menos interesante es esta, la verdad.
No, al revés, esa es la que al principio no me ha gustado.
Sí.
Pero ahora cuanto más la veo, me gusta como que el lomo del
bicho sea simétrico con la montaña.
Vale.
Que sean como paralelos.
Me gustan los huevos de.
Los huevos me han gustado.
Ahora lo deje.
Pangolin, que hay abajo a la izquierda.
Sí.
Me gusta que haya un templo, me gusta que haya pájaros arriba.
Hay un templo, ¿verdad?
Me resulta interesante, las ramas del árbol también me
parece curiosas como están dibujadas.
Ya.
Me va gustando cada vez más.
Y luego la de arriba a la derecha,
lo que me gusta es que parece que lleva un tubo.
Parece como que la cola es un tubo porque lleva corriente.
Es como que es un robot.
Hombre, podemos pedir un Pangolin Cyborg o algo así.
Me parece bien.
A mí me parece bien también.
Sí, total, es gratis.
O sea, no gratis, esto está pagado, pero.
Pagas tú, tú me invitas.
Es increíble, luego también, que a raíz de estas guías
estamos en el punto de la humanidad donde más imágenes.
2022 será el año donde más imágenes se habrán generado.
No, imágenes artísticas.
Ya, en la historia de la humanidad, claro.
Sí, sí.
A 2030, no, vale, vamos a poner a Cyborg.
Y estabas a punto de hacer una reflexión.
Yo lo que te iba a decir es que básicamente la inteligencia
debería poder transportarse del carbono al silicio si no ha
habido ningún tipo de intervención divina,
ningún tipo de intervención de Dios.
Vale.
Simplemente se ha formado por selección natural,
pues tú podrías terminar combinando moléculas de silicio
para acabar formando inteligencia sintética,
que es lo que parece que estamos haciendo.
Y lo que pasa es que ahora mismo lo único que pueden hacer,
que ya es bastante, es pintar mejor que el 99% de la humanidad.
Solamente se salvan los artistas que hacen arte mejor que las
ias, pero pintan mejor que yo.
Entonces, en no mucho tiempo habrá una máquina.
Imagínate un ordenador, un cubito en el que has metido 70
ias.
Pues ese cubito a lo mejor redacta mejor que yo,
compone mejor que yo, pinta mejor que yo,
escribe poemas mejor que yo, conduce mejor que yo,
cocina mejor que yo, o hace recetas conceptualmente
mejor que yo porque no podrá todavía cocinar físicamente.
Y hace casi cualquier actividad mejor que yo.
Entonces, poco a poco, la cantidad de actividades en las
que los humanos superan a las máquinas irá mermando.
Entonces, solo te puedes quedar con actividades en las que tú
consideres que hay algo de la carne que supera a lo sintético
por alguna razón.
Entonces, si crees que es una cuestión divina, perfecto,
porque ahí ya está, te salvas.
Pero si no, si crees puramente en la ciencia y en que es una
cuestión de selección natural, simplemente las ias son la
sustitución de los humanos.
Esa es la siguiente evolución de los humanos.
Simplemente es un salto.
En vez de ser como gradual por selección natural,
es el siguiente salto, es que la civilización la lleve en las
ias y los humanos somos una cosa,
un legacy software y hardware que va a desaparecer.
Entiendo.
O sea, yo estoy de acuerdo.
El que crea en el materialismo del ser humano,
que todo está en la materia, las conexiones y ya,
no tiene argumento para negar que pueda existir inteligencia
artificial como nosotros.
Entiendo que en el futuro lo inteligente será una simbiosis.
Lo típico que se habla de la simbiosis humano-máquina y
donde el ordenador pasa a formar parte de nuestro sistema,
etcétera.
Pero bueno.
¿Sabes de una cosa que pasa?
Que tú ahora mismo sabes cómo.
O sea, yo no sé construir las cosas que utilizo.
No sé construir este micrófono, esta tarjeta de sonido,
este ordenador o ni siquiera este vaso.
Pero están construidos por humanos.
Entonces, la inteligencia humana es la que ha construido el
mundo.
Pero va a llegar un momento, en no mucho tiempo,
en el que las IAS empiecen a deducir teoremas matemáticos.
Y no te hablo de IAS generales, te hablo de IAS puntuales como
esta, que tomen decisiones ingenieriles,
encuentren formas más aerodinámicas de hacer aviones,
encuentren formas más eficientes de hacer chips que
midan menos de 3 nanómetros y de 1 nanómetro y computación
cuántica y lo que sea.
Es decir, las IAS irán haciendo los siguientes avances.
Y de pronto te encontrarás que la IA te dice, oye,
este cáncer se curaría si inyectaras esta molécula de esta
manera, haciendo este tipo de quimioterapia.
Y lo pruebas y funciona.
Y ningún humano va a saber por qué.
O sea, va a haber un momento en el que las fronteras del
conocimiento van a avanzar las IAS.
Y no va a haber un humano al volante.
Claro.
La IA va a tener que explicarle al humano cómo funciona el mundo.
Esa es la cosa.
Exacto.
El humano, o sea, si asumimos que puede haber una IA que te
puede hacer eso, ¿no?
Es decir, te inyecta esta molécula aquí.
También podemos asumir que hay una IA que te puede explicar el
por qué, ¿no?
O que traducirte un poco al nivel humano.
Pero es cierto que van a ser las que puedan operar la mayoría
de tareas.
Yo creo que ahí igualmente nos estamos yendo como muy,
muy lejos.
Quiero pensar un poco más cerca en el horizonte 5, 10, 15 años.
Vamos a pensar que la mayor parte de tareas actuales que
conocemos la va a ser una IA.
¿Crees que eso puede generar un atrofiamiento en las
capacidades del humano?
En el sentido en el que, por ejemplo, pues ahora nosotros
dicen, habría que respaldarlo por papers, ¿no?
Pero que tenemos menos memoria porque ya no hacemos una
educación basada tanto en memorizar datos,
porque ya tenemos datos, accedemos a los datos.
Si la gente no pinta, si la gente no crea,
si la gente no hace música, si la gente no se desarrolla
intelectualmente para escribir un paper,
para resolver un teorema.
O sea, sí que cuanto más lo que, o sea,
las IAs van a traer más abundancia.
Y entonces van a traer, porque abaratar los costes significa
abundancia.
Entonces, igual que con la revolución industrial y con los
avances tecnológicos que ha habido de pronto,
tú puedes hacer que todo el mundo pueda tener vasos en
casa, que es una cosa que es revolucionaria,
porque antes tendría que haberte lo hecho una persona
calentando cristal, haciendo no sé qué.
Habría sido tan caro que ningún campesino medieval podría haber
se permitido múltiples vasos y menos de cristal y menos de
manera habitual.
Y ahora de pronto es como, no, vasos.
La gente tiene vasos.
No piensas, hoy no tiene vasos, salvo casos muy,
muy, muy concretos en situaciones de muchísima
miseria y precariedad.
La gente tiene vasos.
Entonces, de pronto el vaso es una cosa que no es escasa,
mientras que antes si tú hubieras tenido que hacer alguna
peregrinación, te habrías llevado a lo mejor una pequeña
tablita donde apoyar la comida, un pequeño cubierto de madera
que tú te hiciste tallando.
Es decir, habría sido escaso.
La cubertería habría sido un bien escaso.
Entonces, los avances tecnológicos lo que van haciendo
es como abaratarlo todo y que de pronto cada vez más gente pueda
tener cada vez más cosas.
Entonces, obviamente, eso lleva a un atropellamiento de un
montón de funciones.
Pero eso ya, ese argumento ya se puede hacer.
No tienes que irte a las Sías.
Puedes decir, la gente ahora ya no tiene que estar todo el día
trabajando en el campo.
Solo, pues no sé cuál es el porcentaje de población que
trabaja en el campo.
En los países desarrollados, pues será, no sé,
un porcentaje de una sola cifra, a lo mejor de 5%.
Y cuanto más pobre es el país, más.
Si llegas a países donde hay un 50%, 60%, 70% de gente
trabajando en producir comida.
Y entonces, como que se atrofia todo.
Tú trabajas en una oficina y hay un montón de cosas que haces
menos deporte, sales menos, o sea, tienes como menos dureza.
Tu vida se va haciendo cada vez más fácil.
Y también da una falta de significado a tu vida.
Porque es como, no estoy luchando por conseguir una
gran victoria, ¿sabes?
Es como, piensa en alguien que defendió,
piensa en los que lucharon en Dunkerque y defendían,
los que hicieron la evacuación de Dunkerque y defendían que
Reino Unido no fuera a ser conquistado por Hitler,
versus el significado que puede tener para ti a nivel personal
eso, versus que tu idea sea, bueno,
a ver si acabo el máster para ver si consigo un trabajo y ya
está.
Y mi vida es esa, ¿no?
No hay como una gran narrativa de voy a liberar a mi país o a
mi familia de alguien que les quiero.
Simplemente, bueno, pues consigo mi trabajo,
o mis cosas, que eso la gente lo verbaliza mucho y lo critica
mucho la idea de, bueno, pues, cásate, ten hijos,
ten una familia, ten un trabajo.
La tercera revolución industrial que es como que hemos
logrado un montón de objetivos, quizás todavía tenemos
objetivos como humanidad, pues, luchar contra ciertas
enfermedades, ¿no?
Sabemos que todavía hay cosas por conquistar,
pero la mayor parte de cosas, al menos las sociedades
occidentales, ¿no?
Luego, si nos ponemos a países más subdesarrollados,
todavía le faltan muchas cosas que damos por básicas.
Pero hemos llegado tan rápido a ese objetivo que
creo que estamos faltos de nuevos objetivos.
Y eso habría que también como replanteárselo, ¿no?
A lo mejor el objetivo es, pues, lo que, cuando ve Elon Musk,
¿no?
Dentro de su locura.
Te están poniendo un momento en el chat.
¿Qué ha pasado?
No sé, como si algo hubiera fallado,
pero no lo tengo claro, ¿eh?
Ya volvió.
Uy, puede que haya dado un petardazo de internet o.
Ya volvieron.
No lo sé.
Se perdió una parte.
Oh, no.
Bueno.
Joder.
No sabemos qué parte.
Qué rabia.
Bueno, pues, lo que decía, ¿no?
Dentro de la locura de Elon Musk y sus movidas,
cuando él propone lo de Marte, hay mucha gente que a lo mejor
dice, oye, pues, esto es un objetivo que a lo mejor ya como
sociedad nos podemos plantear y es un objetivo donde podríamos
estar todos alineados.
Y creo que a lo mejor estamos faltas de objetivo.
De lo que decías, que me parece interesante,
el tema de los vasos, ¿no?
Y todo esto.
Claro, una cosa que comenta Elon Musk con lo de Marte es la
idea de decir, la idea de la humanidad, o sea,
son brutales los pangolines últimos.
La idea de que Elon Musk es, ir a Marte puede ser un objetivo
con significado.
Claro, exacto.
Vendrán meteoritos que destruirán la Tierra.
Y vendrán crisis.
Y entonces, si la Tierra tiene un riesgo existencial grande de
asteroides que no podemos controlar y contralor,
que no nos podemos defender, conseguir hacer que la humanidad
aguante y evitar la muerte total de toda la humanidad es un
objetivo potente.
Porque si trabajas en eso, sientes que tu vida tiene
significado.
Versus trabajar como ingeniero de Facebook.
Exacto.
No es la diferencia.
Es decir, yo estoy trabajando para hacer un cohete que va a
hacer que la humanidad tenga un segundo planeta,
para que si viene un asteroide y destruye el primero,
nos podamos salvar.
Y mis hijos o mis nietos puedan tener un refugio.
Mis tatara, tatara, tatara nietos.
Eso es una vida y otra vida es la del ingeniero que dice,
a ver, ¿cómo aumento la retención de los vídeos de
Facebook?
Así hay un ancianito jugando al, ¿cómo se llamaba?
Al de la granja esa, la granja de Facebook.
Al Farmville.
Al Farmville.
Y, mierda, no se ha gastado suficiente dinero en el Farmville.
¿Cómo puede hacer que se gaste un céntimo más en el Farmville?
A lo mejor, si hago más grande el icono del Farmville,
¿sabes qué?
Es como son vidas distintas, ¿no?
Es una vida que tiene más sentido que otra.
Entonces, sí que es verdad que la gente,
mucha gente está a falta de grandes narrativas,
pero también porque a nivel pequeño no hay como,
no tienen suficiente escasez, porque con suficiente escasez
tu vida tiene sentido, que es necesito sobrevivir,
necesito no morirme.
Ahora mismo necesito no morirme.
Es muy importante que yo y mi familia no nos muramos.
Entonces, cuanto más prosperidad que es,
yo creo que es objetivamente buena y necesaria,
o sea, no estoy como fetichizando la escasez, ¿sabes?
La escasez es lo peor que puede ocurrirte.
Pero la abundancia te da, te quita esas narrativas inmediatas
de decir, tengo un sentido que es sobrevivir a mañana,
entonces ahora mismo tengo que conseguir comida para mañana.
Y las sías van a aumentar eso.
Y lo está diciendo la gente en el chat.
Dice, pero entonces, si yo ya no puedo,
si yo ya no voy a pintar mejor que la IA y yo quería ser pintor,
¿cuál es ya mi objetivo vital?
Subsistir malamente mientras no aporto nada y ya,
que se termine todo.
Sí, sí, estoy totalmente de acuerdo.
Y ojo, que tampoco me refiero a que la idea de lo de Elon Musk
con Marte sea una idea lógica o que apoyar, ¿no?
Pero que es un gran objetivo que pone dentro de la mirada.
Hostia, yo apoyo totalmente la idea de ir a Marte.
Yo la apoyo, pero no como un objetivo de, tenemos que,
en 2028, como decía, de las fechas, vamos a hacer tal cosa,
vamos a, no sé si llego a decirlo, de bombardear los polos
para crear un, o sea, me parece que no es un plan tan urgente
y que todavía hay otros problemas que pondría como
prioridad dentro de ese camino.
Sí, es muy difícil ver, ser la persona que decide qué
prioridad harías para que la humanidad se enfrente.
Entonces, en ese sentido, si, o sea, por ejemplo,
si Starlink, la empresa de satélites,
consigue que llegue internet a un montón de sitios,
a un montón de países donde no llega internet y a un montón
de zonas no urbanizadas donde no llega internet,
eso puede cambiar la vida de un montón de chavales que ahora
se pueden formar, ¿sabes?
Puede ser una revolución en un montón de países que no tienen
el cableado, no se han podido permitir el cableado que tenemos
nosotros, ¿sabes?
Entonces, como que, al final eso lo puedes hacer, oye,
pues resulta que si el cohete es capaz de aterrizar y no
romperse, entonces podemos subir satélites por un precio
muchísimo más pequeño.
Entonces, podemos tener miles de satélites.
Entonces, pueden tener internet personas pobres que
literalmente ahora no están conectadas y no pueden formarse.
Entonces dices, ya, pero no hay muchos argumentos que puedes
hacer, dices, ya, pero entonces el cielo,
los telescopios habría que subirlos a que fueran de
satélite también, porque los satélites tapan los
telescopios terrestres.
Dices, ya, ¿y qué pesa más?
Que 100,000 personas pobres de África tengan internet y puedan
avanzar más su civilización o que nosotros podamos ver el
cielo nocturno, que es muy útil, quiero decir,
no lo estoy como, pues es muy útil tener telescopios,
poder hacer investigación y tal, y es más caro subir los
telescopios al cielo y que orbiten como satélites.
Entonces, es muy complicado ver cuáles son las prioridades para
la humanidad.
Pero sí que tiene pinta de que es más prioritario conseguir
desarrollar la exploración espacial que conseguir que la
gente pase más tiempo en Farmville.
Sí, eso sí, total.
Creo.
A lo mejor ahí.
Creo, claro, pero.
¿Te imaginas que detrás de Facebook Farmville tiene
montado un sistema que te optimiza cómo se trabaja la
granja del mundo, ¿no?
Es como un simulador, no sé si has visto la serie esta de
Severance, que.
Sí, la he visto, la he visto.
Que trabajan como en este problema que no se explica
nunca para qué ni por qué, pero lo trabajan y es útil.
Es un buen ejemplo de lo que es, claro.
Sí.
Pues lo que te estaba comentando para conectar estas dos ideas
con.
Por terminar, porque he visto algún comentario de gente que
dice, no tener internet fue lo más productivo que me haya
pasado.
O gente que dice, sí, sería más, como irónicamente,
sería más importante tener internet que curar el hambre.
Por ejemplo, hay un youtuber español que se dedica como a
construir huertos y corrales y tal.
Y te explica que le escriben mucha gente de zonas muy pobres
diciendo, gracias a ti, gracias a que he visto por internet tus
vídeos de cómo construir este tipo de corral,
he sobrevivido al puto invierno porque he tenido gallinas que
no se han muerto.
Y todo el rato se me morían de frío las gallinas en invierno y
no tenía ninguna manera de calentarlas,
que no fuera a meterlas en mi casa y no podía.
Y de pronto con tu sistema de cómo construir,
o sea, internet, si tú piensas en internet como un sitio donde
pierdes el tiempo, a lo mejor es que no tienes muchos problemas.
Pero la gente que tiene muchos problemas,
cuando accede a internet no pierde el tiempo.
Claro.
La gente que tiene muchos problemas cuando accede a
internet puede salvar su vida y puede conseguir que gente que
tiene pocos recursos tengan acceso a cómo monto esta
infraestructura para poder comer este invierno o para poder.
Entonces, está muy, muy relacionado.
Me ha llamado la atención que una persona no lo relacione,
pero está muy relacionado que la gente tenga acceso a
información con que no pasen hambre.
Muy relacionado.
Total.
Y pues mira, justo esto lo pensé esta semana estando en
México, porque justo en uno de los momentos que estaba yendo a
uno de los sitios, pues pasamos por poblados donde, bueno,
la provincia de Yucatán, ahí está la ciudad,
la ciudad de Mérida está guay, pero cuando te sales un poco
fuera y te vas a pueblos, pues ya llegas a zonas más pobres.
Y justo iba con gente de la administración pública que me
están comentando que uno de los proyectos que están impulsando
es intentar meter fibra como sea a esas poblaciones y que
incluso están pensando para 2024 o a lo mejor incluso usar
Starlink por esto mismo.
Claro.
Justo.
Y lo estaba pensando que es súper curioso porque para mí
estos pueblos, yo los veía y digo,
es que esto me recuerda como era lo mejor España hace 40,
50 años.
Ahí se nota una diferencia de desarrollo.
Pero España entró en la fase de desarrollo hace 50 años,
donde tecnológicamente el desarrollo que podían conseguir
era el de una revolución.
Y esta gente se va a conectar y va a poder desarrollarse en
esta, en esta revolución, donde a lo mejor el acceso a internet
le va a dar pues ese conocimiento que comenta o va
a valorar mucho más todas estas nuevas herramientas que
están saliendo y las van a saber aprovechar mucho mejor que
a lo mejor nosotros que ya estamos acomodados porque
progresamos en una fase anterior, ¿no?
Incluso podría ser que esta gente se desarrollara mucho
más y es interesante.
Es como que en el momento en el que ellos se van a conectar a
esta línea de progreso va a ser en una revolución tecnológica
diferente a la anterior y nosotros dando por sentado y
con comentarios de ojalá internet no hubiera llegado a
mi vida, pues no sabremos aprovechar estas oportunidades
y esta gente sí.
Es interesante, ¿no?
El cómo se conectan ambas cosas.
Y lo último que iba a decir, Sam Altman,
que es el que lleva OpenAI, es la, el CEO.
Si tú le escuchas en sus entrevistas,
pensemos, ¿no?
OpenAI que tiene GPT-3, Dali-2 y todas estas tecnologías y que
están entrenando, que todavía no lo conocemos,
herramientas que son mucho más impresionantes.
Él dice que en tres, cuatro décadas viviremos habiendo
solucionado gran parte de los problemas de la humanidad
utilizando la inteligencia artificial y que veremos una
diferencia de abundancia, de progreso con respecto a la
situación en la que nos encontramos ahora,
de la misma forma que, como tú decías lo de los vasos,
nosotros, si nos comparamos con monarcas de a lo mejor la época
de la Edad Media, somos más ricos en abundancia.
Tenemos acceso a más cosas que cualquier persona.
Solamente porque hay antibióticos.
Yo no querría ser un rey de la Edad Media.
Solo por el hecho de que ahora mismo hay antibióticos.
Y que haya vacunas.
Solo eso ya es como una revolución.
No te hablo ya de más cosas y del iPhone,
pero de que haya de pronto Wikipedia, Google, YouTube,
Twitter, redes sociales donde, si tú las usas bien,
puedes aprender lo que quieras.
Es una locura.
Puedes formarte en lo que quieras.
Puedes acceder a un montón de cosas.
No te hablo ya de eso.
Te hablo de antibióticos simplemente, ¿sabes?
Y de supermercados en los países desarrollados y en vías de
desarrollo, que en los que puedes ir a la compra.
Y de neveras.
El concepto nevera y el concepto microondas.
¿Qué hay?
Bueno, ahí me dices, bueno, pero justo el monarca de la Edad
Media podría cambiar la nevera y el microondas por gente que le
prepare la comida.
Y te digo, vale, pero si la variedad de comida que tendría
ese monarca no sería la que podría tener yo con un
supermercado, entonces me quedo con el supermercado actual.
Y estoy de acuerdo.
O sea, lo que va a ser eso, pues dentro de, o sea,
lo que ha sido en 200 años, pues lo que será en otros 200.
Y si que tiene pinta, la evolución es exponencial y no
lineal, entonces a lo mejor no son 200, son 100 o 50.
Bueno, para rematar, vamos a ver los pangolines.
Yo he ido creando pangolines así mientras tanto,
los has ido viendo.
No han salido exactamente lo que esperaba.
Le he ido pidiendo diferentes cosas.
Pero le has ido pidiendo cibors.
Pero.
Sí.
Son más mágicos que cibors.
Sí, o sea, es como que son cibors que están tan avanzados
que ya ocultan la parte mecánica y vuelven al aspecto
biológico.
Eso sería un buen, ¿no?
De pronto le pides un robot muy avanzado, un pangolín y te
hace un pangolín.
Te hace un pangolín.
Y tú piensas que está mal, le preguntas y te haces el
desarrollo y tú dices, qué hijo de puta.
Esta está muy guapa.
Esta era como pintada al estilo de Van Gogh que no lo ha pillado.
Pero esta, por ejemplo, bueno, ya te lo he dicho, esta me
encanta.
Esta me parece muy guapa.
Sí.
Y bueno, pues estilo Moebius también.
No, este es estilo Van Gogh también.
Y estilo Moebius, que este sí lo ha pillado un poquillo más.
Están bastante chulas.
¿Por qué todo el rato les hace solo dos de las cuatro patas?
Es que lo están haciendo todo el rato.
No lo sé, yo creo que los cibors.
¿Con qué pangolines se ha entrenado?
La verdad que sí.
Aquí atrás ha puesto como una estructura un poco curiosa.
Pero bueno.
Me gusta mucho esas sutilezas que hace la que la de abajo
a la derecha tenga círculos concéntricos en el fondo de
pronto, ¿sabes?
Randomly.
Sí.
Sí, sí, sí, sí.
Bueno, ¿quieres probar algún último input antes de ir
chapando para no robarte más?
No, no, yo estoy.
Yo estoy perfecto.
Vale.
Nada, pues nos quedamos aquí con un montón de ilustraciones que
ya os compartiré.
Os compartiré por redes sociales.
A ver si tengo alguna cosilla más por aquí arriba.
Mira, ¿te acuerdas que empezamos con las moscas?
Ya no me acordaba.
Qué efímero es ahora todo, ¿no?
Valoraremos menos el arte ahora que es tan fácil crear.
Posiblemente.
Bueno, para el que no lo sé.
Hombre, pero te lo digo desde ya.
O sea, bueno, por no enrollarme más.
Pero vamos, que tú ahora mismo ves un cuadro de, yo que sé,
de unos croasanes y un ramo de flores y te suda la polla.
Pero antes veían un bodegón y decían, joder, ¿ya sabes?
Esa comida no tengo acceso normalmente.
Esas flores cuestan, es difícil encontrar flores en mi día a
día que estén así bien cuidadas.
Y es difícil ver imágenes inertes que representen la
realidad.
Era una fantasía y ahora es como, bueno,
estamos súper desensibilizados.
C de ciencia está en la puerta, dice en el chat.
Ya, no sé si es metafórico o de verdad porque creo que estaba
viniendo para Madrid, así que podría ser que esté en la
puerta de mi casa.
Porque, pero bueno, espera, Martí, que ahora rematamos.
Nada, bueno, último ejemplo aquí que enseño para que veáis
como a nivel profesional a mí esto ya me está ayudando
muchísimo.
Quería una portada para el último vídeo sobre Whisper.
Tenía una idea clarísima en mi cabeza que era quiero un
digital seaboard, una oreja de un seaboard 3D con estilos
blancos y verdes.
La probé, no salió bien a la primera,
a la segunda tampoco salió bien, a la tercera.
Esta me encantó.
Esta la cogí, me la llevé al inpainting de Dalí e hice la
portada del vídeo de YouTube con esto.
Tres, tres golpes, ¿sabes?
En cuatro, en cuatro o cinco minutillos lo tengo hecho.
Y nada, esto es mid-journey.
La versión 4 es bastante, bastante impresionante.
Yo no sé si llegaste a ver el hilo que te compartí donde
comparaba diferentes resultados, pero cogí alguna de las
imágenes que creo que hiciste tú con mid-journey.
Sí, sí, sí, sí, las cabras riendo.
Claro.
Y las renové, ¿vale?
Y aquí está la de las cabras, esta es la bestia.
De hecho, a ver si lo consigo abrir rápido y con esto del
remato os lo enseño en Twitter para que veáis la comparativa
que así no perdemos tiempo calculándolo.
Esa fue una de las primeras imágenes que hicimos con IAR,
las cabras riendo.
Sí, sí, sí, sí, es una locura.
Para que veáis la diferencia entre la versión 3 y la
versión 4 de mid-journey, ¿no?
Este es el hilo que yo compartí.
Creo que se está viendo en pantalla más o menos bien.
Vale, creo que se va a ver.
Bueno, lo veis por la, podemos hacer así y podemos hacer así
y listo.
Vale, entonces, ¿diferencias entre la versión 3 y la
versión 4?
Pues gato digital con glitch, versión antigua de mid-journey,
versión nueva.
Claramente el prompt lo pilla mejor aquí.
Nebulosa dentro de una taza de café, versión 3 de mid-journey,
versión 4 de mid-journey.
Uy, qué buena la última.
Es que son buenas.
Esta es la que creo que está deportada de este directo,
de hecho.
Vale, esta me flipó también.
Ojo, Gran Canaria, futurista, año 3000.
Mid-journey genera esto.
La versión 4 genera esto.
Es que, o sea, es que no tiene color.
O sea, es que no tiene color.
Coche de juguete amarillo.
Mid-journey 3 te hace esto.
Mid-journey 4 te hace este coche.
Vale.
Y nada, o sea, un montón de resultados.
Y aquí de las últimas creo que hay inputs que hiciste tú,
Jaime, que esto era como un reloj.
Hay un árbol ahí arriba que creo que lo hice yo.
Ah, el del árbol también.
A ver, sí.
Este personalmente creo que me gusta más el estilo de esta,
más que esta.
Pero esta se aproxima más al input, que era la paciencia.
Es un árbol cuyas raíces son amargas y bla, bla, bla.
Stellar Wizard, pues este y esto.
Como diferencia está bastante bien.
Y, bueno, pues un poco para que veáis la diferencia entre la
versión 3 de Mid-journey y la versión 4.
Ya sabéis, Mid-journey es de pago.
10 dólares 200 imágenes, 30 dólares ilimitado al mes,
que me parece un deal espectacular.
Y simplemente he acordado de activarlo de guión guión V4
para poder jugar con la versión 4 de esta tecnología.
Nada más, chicos, chicas.
Jaime, no te robo más tiempo.
Te agradezco un montón haberte pasado y haber tenido esta
charla que habitualmente solemos tener en WhatsApp con largos
textos, pero ahora aquí en directo para placer de todo el
mundo.
Me lo he pasado muy bien.
Y nada, para el resto de vosotros ya sabéis que esta
tecnología existe.
Si hacéis cosas chulas ya nos podéis etiquetar a mí por
Twitter por donde sea y a Jaime también en JaimeAfterDark,
sobre todo, que es la versión de Batman.
Está la versión de Batman y la versión de Dia, pues.
JaimeAfterDark es la que toquetea y le da caña.
Ahí es donde habla de IAS.
De IAS.
Y en el canal secundario tiene un montón de, bueno,
no sé, secundario, el otro canal.
El otro canal es donde habla de IAS y está sacando un montón de
cosas chulas y seguramente habrá más.
Para rematar, ¿tu IA favorita cuál es, Jaime?
Dali2.
Dali2, ¿sigue siendo Dali2?
Sí.
Ah, no lo hemos convencido, chicos, malditos.
Todavía no, todavía no me ha, o sea,
lo que pasa es que puntualmente hay mejores resultados de estas
de midjourney de stable diffusion,
pero Dali2 me gusta mucho en mi día a día para cómo funciona
para las cosas que la uso.
Pues mola.
Dali2, bendito momento estamos viviendo donde tenemos Dali2
midjourney stable diffusion, donde cada uno tiene sus
favoritas y todas son herramientas que todos podemos
utilizar.
Chicos, chicas, nos despedimos.
Hasta luego.
Gracias por pasaros por aquí.
Seguramente saldrá algún vídeo interesante que ver.