logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Hola chicos y chicas, ¿qué tal estáis? Bienvenidos al primer directo del año. Bienvenidos a un
directo que llevamos tiempo gestando, que llevo tiempo preparando aquí con el invitado que
tenemos hoy y que creo que os va a gustar bastante, ¿vale? Primero necesito que me
confirméis que está todo correcto, que se ve todo bien, que se escucha todo bien, que
escucháis bien a Javi. Javi, saluda. No te oigo, estás muteado Javi. Estamos bien. Bien, ahora sí.
Muchísimas gracias Carlos. Tenemos aquí a Javi. Un placer estar aquí. Perfecto, confirmadme que se
nos oye más o menos a la par para que... Sí, Javi no se oye, pero ahora sí, ahora ya le escucharéis
que estaba con el mute. Perfecto, pues ya me decís si cuando empecemos a hablar está todo nivelado,
pero quiero presentaros un poquito de qué va a ir el directo hoy, qué temas vamos a tratar para que
estéis. Bueno, si os interesa os quedáis y si no os vais a ver la casa del Choca o estas cosas que
están de moda ahora en internet. Hoy vamos a estar hablando con Javi López. Muchos le conoceréis por
su largo recorrido ya desde tiempos inmemoriales, desde la época de Dalí 2, jugando con la IA
generativa, generación de imágenes. Habrá gente incluso que te conozca de antes, de tu pasado, que
también te preguntaré. Pero bueno, Javi, a día de hoy, pues bastante conocido porque ha pegado
ha tocado la tecla, trayéndonos una herramienta que yo creo que por parte de la comunidad
pues gusta bastante y es Magnific, ¿vale? Javi es cofundador junto a Nicolás, a ver, Emilio
y Nicolás, que seríais los dos que estáis detrás de Magnific. Poca gente más, creo, y ya
hablaremos más de esto. Y para el que no lo conozca la herramienta, pues rápidamente vamos
a enseñar de qué va y ahora pasamos a hablar un poquito con Javi, que también nos va a estar
enseñando cosas. También importante, ¿os gusta la herramienta? ¿Queréis probarla? Hoy, ¿quieres
decirlo tú, Javi? Hoy es all in, free for all. Nada, solo tienen que ir a Magnific y darle, es un
poco cutre. Te logueas en Magnific y están los 120 tokens esperándote y si se acaban le dais al logo,
se refresca la página y otra vez 120 tokens. O sea que a jugar todo lo que quieran. O sea, básicamente por
tener a Javi hoy en directo, pues ha tenido la amabilidad de abrir la herramienta para todo el
mundo, para que la probéis y es algo que si te os picaba la curiosidad, pues os recomiendo que
hagáis porque es una herramienta que yo creo que engancha más cuando se prueba, así que podéis ir a
la página web. Además lo han hecho abierto para todo el mundo. Es decir, a ese señor que se conecta
ahora de Kazajistán, que diga, uy, Magnific, qué buena herramienta. De repente se la van a encontrar
gratuita y mañana no, cuando cerremos el directo, ¿no? Pero bueno. Correcto, era lo más sencillo. Era lo más
sencillo. Y básicamente, os enseño muy rápido con este ejemplo de aquí, ahora ya pasamos al
charloteo, pero Magnific lo que nos trae como herramienta es un enhancer, ¿no? Una mejora,
un upscaler, una herramienta para mejorar la resolución de vuestras imágenes y realmente
no es mejorar la resolución añadiendo detalle fidedigno de la tal, sino que lo que se hace
es reinterpretarla con estas herramientas de ya generativas que hoy tenemos, dando una calidad
brutal. Para mí es como el acompañante perfecto a todo lo que tenemos hoy en día
de Dalit 3, Mid Journey, V6 y todo esto, porque básicamente esta imagen que estáis viendo
en pantalla, Prompt, Tiranosaurios Rex montando en motocicleta por la ciudad de Madrid, esta
es una imagen salida de Mid Journey, V6 tal cual, y es una imagen que cuando yo la saco
digo, joder, esto está guapísimo. Esta imagen me gusta. Hasta que me voy a Magnific y entonces
me genera lo siguiente, ¿vale? Voy a poner un poco de zoom para que lo veáis bien, ¿vale?
Y fijaos cómo el detalle del dinosaurio, o sea, o sea, es que no tiene sentido, Javi.
O sea, no tiene sentido. A ver qué sale. Mira, mira, mira, o sea, es que no tiene sentido.
O sea, de repente hago lo del slider y cuando vuelvo a la original digo, es que ya no me gusta.
Ya no me gusta, ¿vale? O sea, la cantidad de detalle que le metes a la imagen es absurda.
Ojo que te ha salido un ojo ahí en donde no debía, ¿eh?
Sí, no sé si es un ojo o es una fosa nasal extra, como creo que lo he alucinado por lo
que podría ser el cráneo del tiranosaurio, no lo sé, tampoco tendría que traer aquí
a mi compañero de divulgación Paco Zoico, que controla de dinosaurios. Pero bueno, la realidad
es que sí, ¿no? Trae un montón de detalle, alucina detalle, que al final es un poco
la clave de la herramienta, el trabajar con esta alucinación pero en positivo y te da
una calidad que es brutal. Y te da una calidad que es brutal, que luego eso, pues ver las
imágenes de Mid Journey original y claro, es que no hay color, ¿no? O sea, yo veo esto
y digo, joder, qué textura tan plana, qué falta de detalle, pum, ala, crisp, en calidad.
Esa es la gracia. Vale, es magia, es magnífico. Y hoy pues tenemos, como digo, pues la suerte
de tener a Javi aquí, que nos va a resolver todas las dudas y nos va a contar un poquito
de la trayectoria de la herramienta. Javi, ¿cómo estás?
Muchas gracias. Lo primero, y nada, pues genial. Lleva muchísimo tiempo queriendo venir aquí
a contar cositas de Magnific, así que súper contento.
¿Dirías que estás cansado o muy cansado?
¡Buah!
Mira, ¿ves esto? Esto no es el guante de la bici. Esto es un guante de comprensión,
se supone, para la tendinitis que me ha salido en la mano de estar todo el día, pues con
el ratoncito. A ver, bien, bien, muy bien, muy contentos, muy cansados también, porque
a lo mejor estamos echando entre 10, 12, 14 horas, algunos días. Y entonces, pues al
final el cuerpo, pues se resiente la mano en mi caso, por tanto, mira, mira, también
tengo un ratón de estos verticales, que es un poquito mejor, pero por otro lado contentísimos
con la aceptación que está teniendo la herramienta y viendo las cosas tan chulas que está haciendo
la gente, viendo como artistas como Bipel la utilizan ya prácticamente a diario, o el
propio CEO de Stability Alley y EMAT, que empezó a hacer unos hilos muy chulos en los que iba
convirtiendo personajes de videojuegos antiguos en alta resolución. Pues aspectos
súper contentos.
Bueno, tengo aquí yo creo que una de las cosas que, no sé si más ilusión te hizo,
pero más nervioso te puso, porque además estamos creo que hablando por WhatsApp al
momento, y es este tuit del señor creador de Twitter, no creador, pero el dueño actual
de Twitter, que te respondió a un tuit, ¿no? En tu cuenta en inglés, Javi Lopen, pues
tú pusiste una demo de Magnific y de repente aparece el señor Elon Musk y te dice Computer
Enhance.
Enhance, sí. Eso es un meme clásico de internet.
Es como de la serie esta, ¿no? De CSI.
Sí, que iban haciendo zoom y en el reflejo del ojo de la mosca se veía al asesino.
Sí, o sea, realmente Magnific yo creo que se ha encontrado con un éxito que mi pregunta
sería si te lo esperabas, que fueras tanto.
No, no, no. Emilio y yo lo planteábamos como un pet project, ¿no? Como algo que bueno,
guay, ¿no? Pues vamos a lanzar algo que siempre hacía ya tiempo desde Ramusu que no lanzábamos
ningún producto, pero algo más como, bueno, pues si da algo, pues fantástico. Pero la
aceptación ha sido tremenda, o sea, muy por encima de lo que esperábamos. Por otro lado,
los costes son lineales. Los costes de GPU van linealmente con el éxito de la herramienta
y eso siempre fue un dolor de cabeza desde el día uno. Pero bueno, ahí está. Se mantiene,
aguanta. Vamos a ver si después de este directo también sí que no se cae.
Hombre, estamos haciendo un test de resistencia, ¿no? De la infraestructura. A ver qué tal
lo aguanta. En realidad, el directo no es por vosotros. Estamos haciendo aquí unas pruebas
con Magnificio.
Un experimento.
Esto es un experimento. Sí, sí. Bueno, mientras estamos hablando, yo estoy aquí enseñando
ejemplos de lo que yo tengo creado con la cuenta. O sea, yo tengo que decir que tuviste
la amabilidad de darme acceso desde el día uno y me hiciste como el truco este de los
Sims, del Mother Float, y de repente me entraron ahí 99.999 créditos, lo cual está muy guay
porque, bueno, pues me permite testear la tecnología. Es una pasada, ¿no? O sea, estamos
viendo aquí ejemplos de, de nuevo, imágenes que he sacado de Mid Journey, como esta, que es
que claro, cuando sale Mid Journey me encanta. Yo la veo y digo, joder, que es perfecta.
Hasta que vienes aquí y entonces dices, madre mía. Y es una, o sea, tiene este componente
de cuando lo pruebas ya no hay vuelta atrás, ¿no? Que yo creo que es un poco parte del
éxito.
Sí, de hecho, tan pronto como podamos, sí que nos gustaría hacer cuentas gratuitas
con algunos tokens de prueba o hacer más. Estamos haciendo ahora mismo trial days, o
sea, días de testeo, días de prueba. Porque es verdad que cuando la gente lo prueba sí
que, sí que hay un cambio, ¿no? De, ah, bueno, vale, que no es como Topagia Pixel o, ah, vale,
que hay este otro, pero, joder, es que es verdad que es mejor. Hay un efecto wow. También
ahí puede haber, si te pasas con los parámetros de creatividad y tal, pues también puede haber
un efecto de wow, pero, pero madre mía, ¿qué es esto que he hecho?
De hecho, justo lo estás diciendo en el momento en que tengo un ejemplo fallido y mola bastante
porque es la típica imagen del pangolín surfeando la ola. Y claro, tú aquí al final lo que tenemos
a la izquierda es como el control donde tú colocas la imagen. Puedes colocar optativamente
el prompt y con eso pues ya dejas que la herramienta vaya alucinando detalles, ¿no? Y en este caso,
pues no sé si yo es que me pasé, le metí, pues tampoco, ah, bueno, le puse el parámetro
nuevo este que habéis metido de fractalidad. Claro. Y entonces, ¿qué hace el fractality?
Pues el fractality es como que te, se despreocupa de que si estamos cerca en la imagen vuelva
a alucinar todo el detalle general de la imagen, ¿no? Por así decirlo. Entonces mola bastante
porque sale, me dio hasta nostalgia porque me recordó un poco a estas primeras imágenes
de cuando empezamos a ver la IA, ¿no? Generando patrones y tal. Esta me encanta, ¿no?
El pangolín en el cielo que aparece. Pero no lo estás viendo. Es fácil liarla.
Es fácil liarla. Si subes de creativity por encima de 4 y HDR por encima de 3 o 4 y el creativity
por encima de 3 o haces todo eso a la vez y lo pones al máximo todo, pues salen unas cosas
bastante locas. Salen cosas psicodélicas.
Sí, básicamente. Curiosamente algunos artistas lo están usando para eso, con esos fines.
Sí, o sea, yo vi al final el ejemplo que tú compartiste de primera de lo de fractalidad
era esta imagen del bosque y ciertamente era como muy impresionante, ¿no? Porque veías
como una imagen del bosque en general y era una imagen que tenía buena calidad, pero empezabas
a hacer zoom y es como que de repente te metías de nuevo en la misma imagen, ¿no?
Y es como un efecto que está chulo, que mola. No sé si tiene mucha utilidad más allá
de lo artístico y tal, pero está chulo.
Más artístico que otra cosa. Sí, también puedes ir forzando los parámetros para que el
upscaling que hagas sea lo más fiel a la imagen original posible para que funcione
como topaz gigapixel. Si quieres hacer eso, se puede. Cuesta un poquito más en las caras.
Las caras tienen tendencia a cambiarlas y tienen un bias. Tiene tendencia, o sea, tiene un sesgo.
Tiene tendencia a envejecer las caras, pero con el prom se puede arreglar.
Claro. Sí, sí. Mira, esta es una de mis imágenes favoritas y yo creo que todo el mundo
que ha probado con fotos de comida obtiene resultados espectaculares. O sea, esta hamburguesa,
de nuevo, lo mismo. La haces en mi journey y sales y dices, bueno, es que es la hamburguesa
perfecta. ¿Dónde ha llegado la IA hoy en día? Te la traes para acá y dices, joder, es que
antes era hamburguesa del McDonald's y ahora esto es del goico mínimo.
Del goico. Vale, si hacemos zoom, fíjate, ¿no? La cantidad de detalle que sale.
Es curioso, con comida, con tejidos y con vegetación y flores, plantas en general,
con esas tres cosas funcionan muy muy bien. O sea, todo lo que es comida o algo orgánico
así, todo lo que es tejidos, telas, ropas, cuerdas y todo lo que es plantas, flores, brindas
de hierba, ramitas, con esas cosas, no sé, especialmente sale muy bien.
Es increíble. Te pregunto, ¿llegas a entender al 100% tu herramienta? O sea, esto es una
muy buena pregunta en el mundo de la IA porque es como el mundo al revés, ¿no? Tú creas
un producto y, bueno, la IA hace lo que quiere y al final es cuando lo abres un poco al público
que empiezas a descubrir cosillas.
No, nosotros mismos nos sorprende mucho, pero bueno, ten en cuenta que incluso aunque nosotros
hubiéramos entrenado un modelo fundacional, que no es el caso porque, como bien es sabido,
todo esto se basa en la suite de Stable Diffusion y en un montón de tecnología open source
y en on top of that y por encima de eso, pues un poco de fine tuning, etcétera, y ensamblar
muy bien las piezas, pues yo creo que incluso la gente que como Mick Journey, que haya entrenado
un modelo fundacional, le ven cuando se sorprenderán de las generaciones que ellos mismos hacen
y dicen, pero ¿cómo es posible, no? Hay un aspecto de magia o ciencia, pero tiene un toque
ahí como de descubrimiento, ¿no? De voy por el bosque a ver si encuentro setas y de pronto
te encuentras una seta gigante. Pues algo así tienen estos modelos generativos de IA y eso también
los hace muy adictivos y muy entretenidos porque te pones a probar cosas como ¿y si en el
Prom de Magnific pongo Elon Musk, entre paréntesis, y le doy un peso de 1.3? Pues al final, tras
un upscaling de 4X, tu cara te la tiende a cambiar y al final acabas con la cara de Elon Musk.
Pero si utilizas, como dices el otro día, pues yo qué sé, un montón de jugadores del Street
Fighter y haces un upscale de 4X, al final acaban todos con la cara de Elon Musk, si eso
es lo que ha puesto en el Prom o con la cara de Brad Pitt. O sea, ¿qué es curioso?
Se pueden hacer combinaciones muy curiosas.
Claro, mira, fíjate, este ejemplo justo es una demostración de que yo ya esta herramienta,
porque me diste acceso, yo ya la uso para los vídeos del canal. O sea, justo necesitaba
un vídeo. Claro, claro, este vídeo, el último que subimos a YouTube, que era un poco hablando
de imágenes en alta resolución, hacer búsqueda dentro de imágenes. Aquí hay un reloj
pequeñito que la gracia era que la IA pues era capaz de encontrar este reloj que está justo
aquí. Y claro, cuando de repente amplio la imagen para mostrarla, me encuentro con pues
esta masa de píxeles amorfa. O sea, que está guay, pero teniendo acceso a una herramienta
llamada Magnific, que añade ahí calidad a tope, pues de repente ¡fua! Y me lo cambio
así. Que de hecho el único retoque que tuve que hacer fue esto de aquí. Porque claro,
yo en el prompt le puse un reloj, con lo cual ya alucinó el reloj y todo me metió relojes
por todos lados. Y convirtió como esta bandeja aquí en un reloj y bueno, pues la cambio
con Photoshop. Pero es súper útil. O sea, para mí esto ya me resolvió con un montón
de trabajo. Y luego con esta imagen es gracioso, la chica, fíjate, ¿no? El detalle de alucinación
que hablábamos antes, que tiene la cara desenfocada justo y cuando le pasa en Magnific
se convierte en una persona real.
¡Ostras! Sí, se inventa la persona.
Tenemos que hacer algo. Si fuéramos capaces de evitar que cambiara tanto las caras, a
la vez que crea mucho detalle en otras áreas, pues tendríamos una herramienta todavía mucho
más útil.
Total.
Ahí le estamos dando vueltas a ver qué hacer. Porque por ejemplo, para restauración
de fotografía antigua y cosas así, que no es un caso de uso contemplado actualmente,
pero la gente le gusta intentarlo y se prueban. Pero claro, le crea muchísimo detalle.
A lo mejor es una foto de la Segunda Guerra Mundial. Le crea un detalle buenísimo en el
terreno, en las ruinas, en un tanque, pero luego la cara de la persona te la cambia.
Ahí tenemos que hacer algo.
Claro. Y que no tiene... O sea, evidentemente lo que tú dices, ¿no? En fotos históricas
justo donde el rigor histórico es súper importante, pues no se puede estar alterando
como elementos, ¿no? O medallas y cosillas así.
Totalmente. O una foto familiar tuya. Tampoco quieres que te cambie la cara.
Exacto. Pues por ordenar un poco y para que la gente entienda cómo llegas a armar
Magnific y todo esto, pues quería preguntarte un poco por ti. O sea, tú al final no es
tu primera empresa, ni la tuya ni la de Emilio.
Emilio.
Cuéntanos un poco, ¿de dónde viene Javi López y el equipo de Magnific?
Pues a ver, yo siempre he sido el típico friki, digamos, ¿no? Con nueve años creo
que fue cuando recibí mi primer ordenador, era un MSX y el MSX venía, pues bueno, el
MSX y tú lo encendías y directamente estaba el Basic, que era uno de los primeros lenguajes
de programación que salieron. No tenía ni siquiera sistema operativo. El sistema operativo
era lo suficiente para arrancar el Basic y te pusieras a programar. Pues ese fue mi primer
contacto con un ordenador. Luego, con el tiempo, pues ya pasé a un PC, empecé a jugar con
otras cosas, aprendí Pascal, C++, etc. Luego fui a la universidad a hacer informática. No
la terminé, aunque me pegué un año de Erasmus muy bueno. Y con el año de Erasmus dije,
uy, aquí hay una necesidad. Y así surgió Erasmus.com, una red social para estudiantes internacionales.
Estuvimos con eso bastantes años. La lanzamos en 2009, la vendimos en 2018, pero yo me quedé
tres años más en la empresa. Y la adquirió una empresa española que se llama Spotahome.
Y la verdad es que fue una muy buena operación por lo económico también, pero también por
estar trabajando esos tres años luego bajo el paraguas de otra empresa y ver todas las cosas
que se pueden hacer ya cuando estás en una empresa más grande. Y mentalmente, por otro
lado, pues te has quitado los enormes riesgos de ir a pecho descubierto. Llegó un momento
en que sí que, bueno, dije, apetece un cambio en mi vida, no necesariamente hacer otra cosa.
Y me lo planteé como, bueno, salgo y voy a estar un año sabático. Ese año lo aproveché
para viajar bastante, estar con mi pareja, la familia, amigos y tal. Pero llegó un momento
en que dijo, joder, si estoy haciendo más cosas que hacía antes y me descuido porque
empecé a invertir con el dinero que habíamos adquirido con la venta, empecé a invertir
en startups. La mayoría españolas, incluso algunas de aquí de Murcia. Y es muy entretenido
porque en una startup tú puedes estar tanto tiempo como quieras, como inversor. O sea,
puedes dar el dinero y olvidarte, pero también puedes estar un poco en el día a día, echando
un cable, ayudando. O sea, que es muy gratificante y te permite entretenerte todo lo que quieras.
Y cuando salió Dali 2, ¿qué fue eso? ¿En abril o marzo de 2021?
Dali 2, abril 2022.
¿2022?
Sí, sí. Parece que fue hace una década ya.
Parece el Play Store, ¿no?
Yo recuerdo estar en un viaje. Estaba con mi pareja, la que ahora es mi mujer,
en Madeira. Y me acuerdo de Emilio, el con el que he cofundado Magnific,
que me manda una imagen de un caballo, un astronauta sobre un caballo en la Luna.
Y me dice, este prom, o sea, este texto ha generado esta imagen.
Digo, ¿what? Esto no puede ser increíble. O sea, yo recordaba Dali 1,
ese nabo con tutú, esas cosas, pero no lo habían dejado probar.
Sin embargo, esto estaba disponible ya para los que tenían invitación y tal.
Y dije, madre mía, o sea, me explotó la cabeza.
Ese mismo día dije, vale, no tengo invitación, pero ¿qué hay disponible?
Y encontré por ahí un collab, un Google collab con Disco Diffusion,
que era uno de los primeros y generativas alternativas a todo esto.
Empecé con eso. Y desde entonces, pues no he parado.
O sea, ya es que me dio tanto. Encima tenía la suerte de estar en ese año sabático,
que al final se convirtió en dos y pico.
Y tener tiempo, me puse a saquísimo.
Y ahí empecé con el tema de medio divulgación por Twitter,
en la cuenta española y la inglesa.
Y de tanto probar y tanto jugar, pues al final,
jugando con la suite de Stable Diffusion,
hundimos con esta pipeline de adscaling y dije, ¡buah!
O sea, tuve ese efecto wow que tiene la gente ahora cuando lo usa.
Porque hizo lo mismo.
Cogí una imagen de mi Journey o Adobe Firefly,
la pasé por esto y dije, ¡madre mía!
Aquí hay algo, aquí hay algo.
Pero claro, de tenerlo en tu ordenador rulando
a que eso sea un producto, va a un trecho.
Y estuvimos en julio o así, más o menos, ya lo teníamos.
Funcionando en la GPU local.
Luego, en verano, pues la verdad es que entre que los dos estuvimos fuera viajando,
pues no hicimos mucho.
Luego yo estuve tres semanas también viajando en septiembre.
En fin, hasta octubre no nos pusimos realmente en serio a piñón.
Y pues un par de meses después, el 26 de noviembre, salimos con Magnific.
Con la suerte de que yo tenía ya el canal de adquisición montado.
Como por hablar en términos de marketing,
el canal de adquisición para mí ha sido esa cuenta de Twitter en inglés,
sobre todo, la cuenta en inglés.
Porque desde el día uno que lanzamos Magnific ya había gente que lo estaba esperando
porque lo había movido por ahí previamente.
Y yo creo que eso ha hecho que sea el revulsivo para que se haya hecho tan viral.
No solo que es un producto bueno, que joder, lo es de verdad.
Y además había muchos AppScalers, pero no existía hasta Vertical,
que hemos medio inaugurado.
Es como un AppScaler reimaginativo.
O sea, eso no existía hasta ahora.
Porque te permite, a partir de tu PRON y los parámetros,
realmente cambiar la imagen o no, tanto como tú quieras.
Entonces eso es algo, un concepto que aunque existía Topaz y AppBeatle y otros AppScaler,
algo como tal no existía.
Entonces, juntando que era un producto bueno y tenía ya el canal de adquisición montado,
pues ha viralizado un montón.
Y de ahí que, pues esto, personalidades como Vipel, Elon Musk con su comentario y tal,
pues han hecho eco del eco del eco hasta montar una verdadera bola de nieve.
A ver lo que dura.
La música sonando.
A ver lo que dura.
O sea, fíjate que yo, a ver, al final del mundo ecosistema startup conozco poco,
pero sí tengo la sensación de que los pasos que tú has dado para llegar a tener un producto a día de hoy
responden, y lo decías tú en un tuit el otro día, no responden como al manual de pasos
que habría que ejecutar para lanzar una startup,
pero sí responde a los tiempos que estamos viviendo ahora de la IA, ¿no?
Yo creo que hay unas características concretas en el mundo de la IA,
pues por ejemplo, que es súper rápido todo.
O sea, a lo mejor hoy sacas un producto y dentro de una semana se te queda muerto.
Y creo que en tu caso lo has hecho bien porque, por los consejos que yo le doy a la gente,
uno, párate dentro del ritmo frenético que tenemos todos en nuestro día a día de tener que hacer un montón de cosas.
Tú tuviste la suerte, pues, de que estabas justo en un año sabático
y pudiste dedicar tiempo a investigar y a descubrir todas estas herramientas desde el principio.
Con lo cual, pues, ya fuiste descubriendo una necesidad de los usuarios
que estaban empezando a entrar con esta ya generativa, conocer las herramientas, etc.
Darse ese tiempo es súper importante.
A mí que al final mi trabajo de divulgación, pues, me obliga a estar conociendo estas herramientas,
joder, pues, agradezco un montón tener ese tiempo, pero es que aún así me falta tiempo.
Entonces me puedo imaginar una persona que está ocho días trabajando en su empresa
que no va a llegar a casa y va a decir, joder, venga, me voy a poner a investigar ahora a chat GPT
o esto último que ha salido, ¿no?
No falta tiempo, pero parar un poco y replantearse,
voy a coquetear con esto y voy a conocer al menos qué hay, es súper importante.
Y luego lo segundo fue que, bueno, pues, no es una cosa que te hayas quedado tú para ti,
sino que hiciste esa labor divulgativa de a través de tu cuenta, pues, ir compartiéndolo,
tus descubrimientos, que siempre enriqueza, ¿no?
Porque luego genera efecto comunidad y tal.
Y te creaste el propio canal.
Y a partir de ahí, pues, es que ha sido como un ABC.
O sea, es perfecto.
Sí, pero esos puntos, como decía, ¿quién decía eso?
Steve y yo, los unen luego.
Porque cuando yo comencé la cuenta de Twitter,
no tenía ningún objetivo concreto más allá de,
¡buah, me flipa esto y lo quiero compartir con todo el mundo, ¿no?
De hecho, había gente, otros inversores y tal, que me decían,
bueno, Javi, ¿qué estás haciendo?
Eso es pampa hoy, hambre para después.
¿Qué estás ahí haciendo en Twitter, perdiendo el tiempo tanto?
Y yo, no sé, yo me entretengo, me divierto.
Twitter trae también muchos disgustos, ¿no?
Muchas peleas y tal.
Con ese aspecto lo hace mucho mejor que yo,
que nunca entras ahí al debate ni a la discusión.
Lo hablamos.
Yo entro demasiado.
Pero también trae muchas cosas buenas,
siempre tener una audiencia, ¿no?
Y gracias a eso, pues, cuando lanzamos esto,
pues ya había gente que estaba dispuesto a probarlo.
Luego el tema de haber seguido,
igual que en Erasmus,
en Erasmus tampoco buscamos inversión, ¿no?
En Erasmus lo montamos sin inversión.
Y entonces, para lanzar Magnific,
teníamos claro que queríamos hacerlo también sin inversión.
De hecho, queríamos ver hasta dónde podíamos llegar
siendo tan solo dos personas.
Y eso también te hace ver que nuestras aspiraciones
no eran muy grandes,
porque lo pensábamos más bien como un pet project, ¿no?
Claro.
Como algo que no vamos a necesitar inversión.
Gracias a Dios,
somos capaces de estar pagando las GPUs
con lo que está entrando.
En gran medida porque no hay planes trial gratuitos.
Antes o después,
si fuéramos capaces de negociar
los precios de las GPUs, etcétera,
que si quieres ahora hablamos más de eso,
pues quizás será posible.
En fin, muchas cosas.
Todo muy rápido.
Todo ha pasado muy rápido.
Se ha dado muy frenético.
Muchos de los consejos
que les doy a las startups
pues no los estamos cumpliendo
porque, por ejemplo,
no estamos midiendo bien las cosas,
de dónde viene el tráfico, etcétera.
Bueno,
llegará un momento en que
habrá que sentarse
y poner orden en la casa,
pero de momento estamos intentando
priorizar
que Magnific tenga
cosas muy chulas,
features.
O sea,
cosas que le permitan a la gente
hacer
upscaling
reimaginativos
brutales
a más resolución
más otras cosas
que estamos preparando.
Qué bueno.
Luego te pregunto también
de cuál es el futuro
de la herramienta.
Solo quiero saber
si está funcionando,
si la gente ha podido acceder
a la herramienta
y está gastando ahí los créditos.
No sé si tú tienes algún report
de uso de GPU.
Da igual.
Google tiene que estar
por algún lado.
Lo tiene Emilio.
Vale,
Emilio está atento, ¿no?
Para saber que todo
está funcionando.
Sí, sí, sí.
A ver,
supongo que en el chat
lo estarían diciendo, ¿no?
Claro, sí.
Se estarían quejando, seguro.
Se estarían quejando, sí.
Veo que se están quejando
otras cosillas,
pero bueno.
Sí.
Luego también está...
Es curioso porque también
yo he aprendido un poco
de vuestra experiencia
porque yo en mi cabeza,
y te lo he dicho antes,
yo vi la herramienta de Magnific
y dije,
joder, esto es la hostia.
Esto está guapísimo.
Digo,
esto en una semana se lo...
En una semana se lo tienen
lapidado
la comunidad de Open Source,
pues seguramente encontrarán,
no es lo mismo
el tiempo que tú has estado
haciendo research,
que toda la cantidad
de gente del mundo
que puede estar probando
20.000 configuraciones diferentes.
Y al final tú lo has dicho
y no lo ocultas.
Está basado en el stack
de Stable Diffusion,
no habías hecho un entrenamiento
al menos de un modelo fundacional
como tal.
Esto en una semana está.
Y a día de hoy,
ya ha pasado dos meses,
fácilmente,
si no me equivoco,
y no hay ninguna opción
viable.
Y hemos visto,
y también podemos hablar ahora
del tema de competencia
y tal,
pero hemos visto que
muchas otras herramientas online
han creado
enhancers,
similares y tal,
pero ninguno
toca la tecla
como la toca
Magnific.
Y me sorprende.
O sea,
realmente me sorprende
porque es como,
joder,
o no es tan dinámico
la cantidad de gente
que realmente
se sienta a cacharrear
con esto,
lo cual es interesante
porque es todo,
yo creo que,
y es un poco también
el motivo por el que quería
traer esto aquí al canal,
creo que puede ser
un catalizador
para motivar
a parte de la audiencia
a,
chicos,
se puede intentar.
O sea,
podéis intentar,
no copiar esta herramienta,
se puede intentar
que si tenéis alguna idea
interesante,
puede ser desmotivador
pensar que en una semana
si tú la sacas
alguien te está copiando
la idea
y lo va a hacer.
Pues no,
parece que las ventajas
competitivas
se pueden mantener.
A ver,
eso está ahí siempre,
¿no?
Lo típico,
¿no?
Que te preguntaban
cuando estás buscando
inversión,
por ejemplo,
eres una startup nueva,
están buscando inversión
y te dicen lo típico
de,
¿y si Google
hace esto,
¿no?
O ¿y si Microsoft
hace esto?
A ver,
pues claro,
claro que puede ocurrir
y más cuando el foso defensivo
como es este caso
pues no es tan amplio
como debería
porque no tenemos
un modelo fundacional.
Si tú tienes un modelo fundacional
como Mid Journey,
Runway
o Stable Diffusion,
ahí está tu gran foso,
tu gran foso defensivo,
¿no?
Porque nada más que
entrenar eso
puede ser medio millón,
un millón de euros,
solo entrenarlo.
¿de qué forma
se puede conseguir
cierto foso defensivo
si te mueves en el plano
como Magnific
de esas herramientas
que utilizan
la suite de Stable Diffusion
como también existe
Leonardo,
por ejemplo.
Pues,
primero,
creando una muy buena comunidad
en torno
a la herramienta
si eso es posible.
Nosotros todavía
no tenemos ni un Discord
pero bueno,
es algo que sabemos
que tenemos que hacer
y la comunidad
se está creando
en Twitter
básicamente
de momento,
¿no?
Pero sí que nos gustaría
seguir incentivando eso
porque al final
si tú tienes
una serie de personas
que se enamoran
de la herramienta
aunque salga otra
que más o menos
hace lo mismo
muchos permanecen fieles.
Sobre todo si empiezas
y esto enlaza
con lo siguiente
que hay que hacer
si empiezas
ya no a ser solo
un AppsCaller
y de pronto
comienzas a ser algo más.
No puedo comentar
mucho sobre esto
para no
quitar la sorpresa
y tampoco dar pistas
a la competencia
pero no podemos
quedarnos solo
como un AppsCaller
para siempre
eso es bastante obvio
para empezar
porque si
si gran parte
de los AppsCalling
que están haciendo
ahora mismo
en nuestros usuarios
no todos
ahora hablamos
si quieres
de los tipos de usuario
que hay y tal
pero muchos
vienen con su imagen
de IA generativa
hecha en MidJourney
por ejemplo
yo estoy seguro
que dentro de un año
o dos
tú generarás
en MidJourney
o en el que sea
a una resolución
de 4K
directamente
o sea
que necesidad
vas a tener
de un AppsCalling
si directamente
estás generando
a esa resolución
y eso por no hablar
de cuando estemos generando
a 8K en tiempo real
dentro de 10 años
entonces
sabemos que tenemos
que la herramienta
tiene que evolucionar
hacia una suite
de diseño
es como nosotros
lo tenemos
planteado
por caminos diferentes
que lo que ya existe
porque si vas a hacer
una copia
de Leonardo
para qué te van a usar
tiene que ser
algo
diferente
que aporte
alguna ventaja
competitiva
a los que la empiecen a usar
que no estén obteniendo
ya en otro lado
entonces
con esa combinación
de
oye
haz una comunidad
que realmente
quiera muchísimo
tu producto
y se enamore de él
y que esté muy a gusto ahí
unido a la de
no sea solo
esa vertical
aunque sea
tu puerta de entrada
pues con suerte
iremos pudiendo
añadir más cositas
al foso defensivo
yo con Emilio
bromeo a veces
que digo
nuestro foso defensivo
ahora mismo
es un
caniche tuerto
un cocodrilo
sin agua
pero si empezamos
a ir añadiendo cosas
mira otro caniche tuerto
al foso defensivo
venga otro cocodrilo
desnutrido
pues al final
hay un compendio
de pequeñas cositas
que hacen que
tu foso defensivo
oye
pues a lo mejor
alguien
un competidor
intenta entrar ahí
el caniche
le muerde el tobillo
y no lo consigue
tan fácilmente
lo que se está viendo
ahora un poco
de la competencia
la sensación
es como
todos los productos
están empezando
a converger
en algo similar
antes a lo mejor
tenías uno
que te generaba
imágenes
otro que te hace
imágenes en tiempo real
vosotros que hacéis
el enhance
y poco a poco
pues el que te hacía
en tiempo real
te añade también
un enhancer
el que te hace esto
tiene el inpainting
el que te generaba
un modelo
han entrenado
su modelo fundacional
y tal
es como que todo
está convergiendo
a lo mismo
y realmente
no sé
por dónde va a pasar
el futuro
no sé si acabaremos
con unas pocas suite
que al final
te den
todas las funcionalidades
a la vez
y se llevará
el gato al agua
al que entrenemos
de los custom
pero no lo sé
no lo sé
tema competencia
vosotros
cómo lo vivís
porque yo creo
que la parte
positiva
y negativa
de toda esta ola
es que es
muy dinámica
muy fuerte
y muy frenética
lo cual te permite
subir muy rápido
pero también a otros
y que la competencia
sea dura
cómo lo habéis vivido
pues a ver
yo
como magnífico
por supuesto
que estamos
oye
qué va a pasar
tal
no sé qué
pero realmente
aunque
no existiramos
el mes que viene
porque todos los usuarios
se fueran
pues oye
yo digo
a Emilio siempre
oye
que nos quiten lo bailado
y lo bien
que nos lo hemos pasado
hasta aquí
o sea es que
nos da un poco igual
en ese aspecto
porque
esto es tan pasional
lo hacemos tanto
porque de verdad
nos encanta
que yo a veces
bromeo
diciendo
estaría haciendo
esto mismo
pero pagando
incluso
como mínimo
te llevas el aprendizaje
total
sí
mucho aprendizaje
si embargo
si yo fuera
Adobe
o sea como
el CEO de Adobe
pues yo estaría
sinceramente
preocupado
porque
están surgiendo
una serie de herramientas
de IA generativa
potentísimas
que como tú dices
están evolucionando
hacia algo más
hacia Suite
completas
en las que
ya puedes hacer
in-painting
puedes hacer
up-painting
puedes hacer
up-scaling
puedes
hacer un remix
cambiar la imagen
mezclarla
transferencia de estilo
pues ojo
tienen que espabilar
y lo están haciendo
¿no?
con el Generative Field
por ejemplo
que sacaron
que es ese in-painting
que tienen
y con Adobe Firefly
que está bastante bien
como generativo
pero tienen que espabilar
todavía más
porque como permitan
cualquiera de estos
como Leonardo
pues hacer una suite
muy completa
pues puede poner
en jaque a Photoshop
si es más lejos
si a ver
yo creo que Photoshop
al final
pues le podría estar
pasando un poco
aunque ya han empezado
a moverse
pero le está pasando
un poco lo mismo
que a Google
que es como
hey
¿dónde estáis?
espabilad
despertad
yo durante mucho tiempo
criticaba que Adobe
no estaba haciendo nada
y ahora por fin
bueno el Generative Field
me pareció un acierto
creo que han empezado
por donde tenían que empezar
también es cierto
que la ventaja
que tienen
es que yo por ejemplo
como usuario de Photoshop
cuando me meten
un Generative Field
ya poder combinar eso
con el resto de herramientas
que ya se manejan
es como la leche
entonces ahí tienen
parte su ventaja competitiva
me parece que
ya están dando
pasos correctos
pero es cierto
que hay una nueva generación
una nueva generación
de empresas
de startups
que oye
pues empiezan a ofrecer
cosillas que son interesantes
luego es cierto
y mi sensación con esto
a ver si la compartes tú
de todas estas startups
que están saliendo
basadas en
sobre todo
las que hacen research
de inteligencia artificial
y vamos a pensar
en el contexto
de generación de vídeo
Runway
Pica
Stable Diffusion Video
y todos estos
noto como que
la ventaja competitiva
que pueden conseguir
desarrollando un modelo
que lo peta
luego no le garantiza
un éxito más adelante
porque al final
su gran ventaja
es la investigación
el desarrollar
un mejor modelo
y esto es
investigación científica
y estás dando palos de ciego
y de repente
te llega Pica
y te saca una mejor
una segunda
una tercera versión
y es como
coño
y esto es como
lo están haciendo
y de repente
llega otra empresa
y lo hace mejor
entonces es curioso
porque creo que todavía
hay una especie
de gen de empresas
startups
que están ocurriendo
que están saliendo ahora
basadas en esto
en la investigación científica
que está en su ADN
y eso está muy guay
pero ojo
o sea ojo
porque no
es una ventaja competitiva
artificial
o sea tienes el talento
que te ha llevado ahí
pero
es complicado
mantenerse en esa ola
vamos
nosotros estamos muy a gusto
jugando con las piezas
de Lego
que suelta
que tira sobre el suelo
Star Gold Diffusion
sin tener que
que ser researchers
sin tener que ser
investigadores
que hacen papers
etcétera
pero estas empresas
que están jugando
en esa liga
liga a la que nosotros
no queremos jugar
ni podemos
posiblemente
bueno todos
todos ponerse
como digo yo
pero es que ahí
hay una de tortas
tremendas
y efectivamente
yo creo que las personas
mejor pagadas del planeta
en los próximos años
van a ser los investigadores
los buenos
los que
publican papers
¿no?
como el
que publicaron
del LCM
que rápidamente
después de publicarse
este paper
del LCM
que te permite
generación prácticamente
en tiempo real
a dos frames por segundo
o algo así
rápidamente salieron
los modelos turbo
de Stable Diffusion
misteriosamente
yo estoy seguro
que por debajo
pues utilizan
tecnología del LCM
y aquí hay algo curioso
con esto
porque yo una vez pregunté
pero vamos a ver
si tú eres
Runway
¿por qué permites
que un trabajador tuyo
publique el paper
que finalmente
permite
que surjan
Stable Diffusion
y Missouri
¿no?
como es el caso
y parece ser
que hay una presión
tremenda ¿no?
interna
de estas personas
porque estas publicaciones
poder hacerlas
y que si no
pues dicen
si no me cambio de empresa
porque ellos como investigadores
quieren que sus publicaciones
se vean ¿no?
y esto redunda
en beneficio
de todo el mundo
exacto
es súper interesante
pero es así
y es uno de los problemas
que está sufriendo
Google ahora mismo
y es
como se están cerrando
en banda
y quieren seguir
un poco la estela
de OpenAI
pero sin ser
tan tan sexy
como OpenAI
los investigadores
que están dentro
dicen a ver
¿qué gano yo aquí?
sí tengo un sueldo
de la leche y tal
pero el que se ha metido
a hacer investigación
no lo hace por un sueldo
sino que tiene
una motivación personal
de quiero impactar
quiero aportar
a la comunidad
y si mi nombre
no va a aparecer
en un paper
porque ya no publicamos paper
sino publicamos
technical reports
con poca información
y tal
no me interesa
¿no?
y se van
y es lo que
un poco la jugada
que está haciendo meta
ahora mismo
sacando OpenSource
todo lo que está sacando
también es eso
atraer talento
a su compañía
para el siguiente gran paso
le acabo de dar aquí
con una foto
y me pone
starting GPU
y creo que está tardando
más de lo normal
no sé si
a lo mejor
¿a cuánto es?
esto es por 4
4x
4x debe tardar
como un minuto y medio
o mucho
esperemos
si no tengo yo aquí
los cherry picking
estos como los llamo yo
vale si quieres
ahora enseñamos
pero quería aprovechar
para preguntarte
todo el tema
de infraestructura
GPUs y tal
¿qué nos puedes contar?
que también sé
que ha sido un dolor
de cabeza
sí
a ver
algo que descartamos
de inicio
por lo menos de momento
aunque tendremos que ir
por ese camino
finalmente
era el tema
de yo que sé
irnos a AWS
por ejemplo
a AWS
que ellos tienen
GPU buenísimas
pero luego todo el tema
del rebalanceo
de las colas
el rebalanceo
de las GPUs
y tal
te toca guisártelo
a ti mismo
eso es algo
que estuvimos tanteando
probando
es bastante complicado
tenemos una parte así
pero mínima
y si fuera posible
la quitaríamos
al final
lo que hemos ido
es a servicios
que te lo dan
bastante ya comido
o sea
como
HimeFace
como Replicate
como DataCrunch
como Fallio
hay varios
y cualquiera de ellos
te va a dar lo mismo
más o menos
el problema
pues que te cobran
disparate
nosotros estamos pagando
nosotros principalmente
utilizamos
la NVIDIA 100
además la peluda
la de 80 gigas
a ser posible
aunque la de 40 gigas
también
más o menos
entonces estamos pagando
5 dólares la hora
de GPU
vale
yo por hablar
con otras compañías
que no puedo dar nombres
y tal
pero aquí al final
todo se sabe
y sé que están pagando
del orden
pues 5 veces menos
un dólar
la hora
hablamos de compañías
no de compañías
aquí en España
sino de grandes compañías
de las que
grandes empresas
de IA generativa
¿cómo consiguen
estos precios?
bueno
para empezar
porque van con un paquete
de horas de GPU
que van a conseguir
muchísimo mayor
entonces pues tu
economía de escala
pues nos lo vimos
Magnific
su primera semana
que esperemos
Magnific
dentro de 6 meses
que podremos negociar
mejores precios
porque estaremos
gastando mucho más
entonces nos harán
un descuento
pero es que
además
si tú empiezas
a optimizar
con ese rebalanceo
etcétera
tal
también puedes rascar más
y si encima
optimizas tu propio código
para que tarde menos
pues también puedes
rascar más
y así
básicamente
pero bueno
lo que es el coste
lo que te cobran
por una hora de GPU
eso es impepinable
y eso lo decide
el que tal
o sea que eso es
una negociación
que tienes que
hacer con ellos
para intentar conseguir
mejores precios
y si conseguimos
mejores precios
pues podríamos
también nosotros
tener mejores precios
en el futuro
o incluso tener
una cuenta
gratuita
con cierto token
al día
como hace Leonardo
pero también
hay que tener en cuenta
que muchas de estas
empresas van con inversión
y palmando pasta
pero muchas
muchísimas
prácticamente todas
que hacen
van perdiendo dinero
fundiéndolo en las GPUs
para dar cuentas gratuitas
y no les importa
porque sus inversores
pues están pagando
la fiesta
y dicen
bueno pues en el futuro
ya habrá un flujo
de caja positivo
vamos a hacer grande
esto ahora
que haya muchos usuarios
y ya quitaremos
las cuentas gratuitas
en el futuro
como hizo Midjourney
que primero tenía
cuentas gratuitas
y luego las quitó
en fin
tenemos que jugar
a ese juego
que es un rollo
porque a nosotros
nos gusta estar jugando
en lo que nos gusta
pero es importante
y habrá que hacerlo
bueno o sea
si creo que hay una parte
bonita
de lo que tú has dicho
¿no?
el ponerte a optimizar
el código
y notar que una optimización
te abarata
realmente el precio
eso está guay
no estás jugando
a un jueguito
de ah mira
esto va más rápido
no no
es que te estás ahorrando
te estás ahorrando pasta
¿te has planteado
cambiar
la parte de la inversión?
o sea
el tener gente
que invierta
en vosotros
o quiere seguir
de momento
no
la que nos estamos
replanteando
es la de
a ver
era como
dos mantras
ahí que teníamos
de cero inversión
y cero equipo
porque decíamos
vamos a hacerlo
sin inversión
y vamos a ver
cómo de lejos
podemos llegar
siendo solo
nosotros dos
por gusto
por ver
si era posible
hacer un
bootstrapping
de esto
bootstrapping
es cuando
vas
sin inversión
y básicamente
tienes que funcionar
como el restaurante
de enfrente
que los ingresos
superen a los gastos
a fin de mes
la de la inversión
por lo pronto
no
pero la del equipo
pues posiblemente
acabemos
haciendo equipo
porque llega un punto
en el que si seguimos creciendo
pues no vamos a poder abarcar todo
nosotros solo dos
aunque creo de verdad
solo somos dos
pero de verdad
de verdad creo
que en los próximos 10 años
vamos a ver
empresas formadas
por menos de 5 personas
incluso alguna de una persona
facturando auténticas
salvajadas al año
porque con toda la irrupción
de la IA
y todas las cosas
que puedes hacer
gracias a
GPT
etc
pues
es que se puede hacer mucho
siendo muy pocos
esa es la cosa
y yo creo que un poco
pues es interesante eso
¿no?
como
ahora mismo
el montar una empresa
es que está
la doble vertiente
o sea
primero
montar una empresa
una startup de IA
es relativamente fácil
porque el aporte de valor
que puede dar
es muy alto
porque es que
de repente
es que esta herramienta
te está haciendo magia
es que
te está haciendo una cosa
que
o no era posible antes
o en el mejor de los casos
tenías que tener un equipo
de gente
currando en Photoshop
y depurando detalles
y tal
y una edición
que es inviable
para la mayoría de gente
entonces
es cierto que el precio
que es una cosa
que se le ha criticado
¿no?
a Magnific
desde que salió
que te has peleado
hoy en Twitter
con eso
y lo he visto
aquí la gente en el chat
es un precio caro
chicos
entended
que aquí estamos hablando
de
bueno
lo que nos ha contado
¿no?
de una infraestructura
tal
esto no es mi journey
o no es una tal
sino que
es un proyecto
que están lanzando
y el precio
pues entiendo que
si consigues abaratar
pues se acabará bajando
o lo que sea
pero
pero lo que te comentaba
antes ¿no?
al final
para el que esto
si le pueda ser útil
porque aquí mucha gente
lo quiere
en plan de
si
por lo más barato
que quiero probar
o dame tokens gratis
pero para probarlo
porque somos todos unos curiosos
y nos gusta jugar
con la tecnología
me ha salido la imagen ahora
después de 10 minutos
nos gusta jugar
con la tecnología
pero es cierto
que para una empresa grande
estoy pensando
un estudio de moda
un diseño de interiores
lo que sea
gastarte
lo que cuesta
hacerte estos en Geyser
es que merece la pena
merece la pena totalmente
o sea
el aporte de valores
es obvio
entonces no es caro
en ese sentido
yo he visto ahí
es verdad
he visto ahí
esa dicotomía
¿no?
entre oye
que vengo a jugar
¿no?
que me cuentas
¿cómo voy a pagar esto?
si vengo solo a jugar
y el que es un profesional
del 3D
por ejemplo
y lo necesita
para esa última milla
digo
es que tengo aquí una cosa
que más o menos
está texturizada
iluminada
pero
no tengo ganas
de tirarme
20 horas más
de trabajo
que me puede costar
llevarla a esa última milla
¿no?
digamos que
Magnific
en ese aspecto
se comporta
como el repartidor
que te coge
la hamburguesa
es de la otra casa
es la última milla
del transporte
que a veces suele ser
la más costosa
que suele ser
la más costosa
muchas veces
ese 5%
que te queda
que finalmente
es el 90%
del trabajo
¿no?
en eso lo hace muy bien
te coge ese render
que no está muy bien
o esa imagen
de mi journey
que está regular
y te la hace
prácticamente
fotorrealista
si era tu idea
o con muchísima resolución
si era una ilustración
entonces eso
funciona
muy bien
y un profesional
eso lo sabe
lo sabe ver
alguien que viene
del mat de painting
gente que viene
del cine
del 3D
del diseño
artistas
como Bipel
etcétera
pero es verdad
que en el
mundo ideal
también podríamos
tener
un tier
una caja
con un precio
más económico
incluso unos tokens
gratuitos
diarios
como tiene
Leonardo
Julín
bueno
todo se andará
todo se andará
si si
además yo te lo dije
desde que probé
la herramienta
mixtas accesor
es como
los tokens gratuitos
son necesarios
porque cuando la gente
lo prueba
engancha
porque hay una parte
de
el valor
lo
pasa un poco
como con la
con la idea generativa
de imágenes
yo veo muchas imágenes
de la gente
en twitter
generadas con mi journey
a lo mejor no me interesan tanto
pero cuando la genero yo
me mola un montón
es como
en mi imagen
la genero yo
con mi pro
y es como que
hay una parte de ego
ahí que imprimimos
nuestras imágenes
y pasa igual
con
con Magnific
cuando yo pongo
una de las imágenes
que he generado
por
por Midjourney
que estoy súper
orgulloso de ella
la coloco
y me sale
una bestialidad
es como que limpio
las gafas
y sale muy bonito
de repente
joder
me cago en la leche
tú me quitas ahora
los tokens
y me tienes aquí
pues rabiando
con la tarjeta de crédito
a ver qué hago
me alegro
es curioso
todas estas herramientas
Midjourney
Stable Diffusion
la IA generativa
Runway
tienen algo muy adictivo
yo creo que es esa recompensa
no lineal
en el tiempo
que los humanos
tenemos ahí
algo como
una cierta ludopatía
y es verdad
que al final
es adictivo
yo mismo
me empiezo a usar
Magnific
y ahí buscando
el parámetro perfecto
hasta que
perfecto
aquí está
y eso
hace que estas herramientas
tengan ese toque
de jugabilidad
o que parezcan
como un juego
sí
o sea hay una componente
de máquina traga perras
efectivamente
además
ya lo digo yo
pero
ese momento
de nuevo
no es la misma
la experiencia de usuario
que puedo tener yo
que soy VIP
como bien pone aquí arriba
que el que ha pagado
yo que sé
cuánto tienes
en el paquete básico
de aumentos
39 dólares
y que de repente
le das aquí
a Creativity 8
sale mal
y dices
mierda
ahora son 30
psicológicamente es duro
y eso yo
es una cosa
por ejemplo
en su momento
se lo criticaba
a Dalí 2
cuando era
con tokens
y ahora ya
que lo han metido
en chat GPT
bueno pues
es como
eventualmente sale
y con Mid Journey
igual
pero hay una componente
adictiva
pero al mismo tiempo
hay una componente
psicológica
de joder
me he gastado uno
en algo así
que no sé
cómo se podría solucionar
no sé si a lo mejor
si se detecta
que es la misma imagen
se le puede dar
varias oportunidades
o algo por el estilo
es algo que no he visto
implementado en ningún otro lado
pero que podría tener sentido
lo que ya hay
no te escala linealmente
en el uso
si hay gente
que está pidiendo
un preview
lo que pasa
que un preview
en IA generativa
es que tienes que hacer
la imagen completa
para hacer el preview
pero quizás
si hacemos
un preview
de un recorte
tenemos que probar eso
ver si la pipeline
actual
de upscaling
funciona
sobre un trocito
de la imagen
entonces
eso te saldría gratis
o con
muy barato
de tokens
y tú puedes ver
si los parámetros
que has puesto
para una imagen
que es 16x
o 8x
pues si va la cosa
por buen puerto
o buen camino
o no
claro
y estoy viendo
como me está tardando
un poquito
si quieres vamos a hacerlo
de que me compartas
tu pantalla
que tenías otros ejemplos
que querías enseñarnos
entonces vamos a hacerlo bien
compárteme pantalla
muy bien
se me ve
y se me oye bien
porque me ha salido aquí
un mensaje
de tu internet
para regular
yo te veo bien
yo te escucho
guay
vale
venga
pues comparto
la pestaña
ahí va
se está viendo ya
espérate un momentito
ahora se está viendo
magnífico
en pantalla completa
y vamos a ver
si no la liamos
bueno
a lo mejor la lia un poquito
a ver
a ver
a ver
a ver
creo que estamos bien
si
se ve
si
yo en la ventana
ah si
si se ve
perfecto
se ve
guay
pues
a ver
esto es una imagen
de mi journey
v6
que he hecho esta mañana
y digo
venga pues vamos a pasarla
por magnífico
pero a lo bestia
vale
esto
esto cuesta un montón
de tokens
pero bueno
ahora que lo tienen
todo gratis
y que si se quedan
sin tokens
le dan al logo
de magnífico
y se vuelven a recargar
si pasan
lo que hemos hecho
es que si te bajan
los tokens de 85
y le das al logo
vuelves a tener 120
o sea que
fundir como si no hubiera
un mañana
igual te ha tardado
tanto la imagen
porque está colapsando
el sistema
posiblemente
ahora va a estar
el señor Elon Musk
en su casa
intentando probar
computer enhance
y no le va a salir
es lo que hay
en fin
esta es un 8x
de una imagen
de un K
o sea
más o menos
las imágenes
que genera
mi journey
base
son sobre 1024
más o menos
entonces esto
lo llevaría
a los 8k
con el
preset estándar
creativity 2
hdr1
ressemblan-1
fractality 2
y el
engine illusion
esas cosas
si no
sabéis lo que son
porque no se nace
sabiendo
obviamente
pues
le podéis ir dando
aquí a los
interrogantes
esto
y te lo va explicando
hay que hacer
una serie
de tutoriales
buenos
que de momento
solo tengo aquí
un hilo de twitter
donde están los tutoriales
que he ido haciendo yo
pero es que no da ni tiempo
hacer los tutoriales
buenos
en fin
esta imagen
de mi journey
pues te la transforma
en algo así
toma ya
si pulsáis
la zeta
y
el ratón
el
la rueda del ratón
pues podéis hacer zoom
esto es un cherry picking
como digo yo
del
vamos
a tope
porque
he visto que esta salía
especialmente bien
pero hombre
no voy a ponerla
si
luego hay alguna
que sale muy mal
para que veáis
que no
todo el monte
es orégano
entonces esta
pues sale
espectacular
realmente
fíjate la uva
o esto de aquí
que yo no sabía
ni lo que era
bueno
la IA
ha decidido
que es un pan
pero igual
no lo era
ya ya ya ya
claro claro
yo he asumido
que es un pan
porque he visto
que la IA
ha dicho que era un pan
pero ciertamente
no sé lo que es
pero molaría
molaría un montón
que ahora descubriéramos
que la IA
va dejando como marcas
para que otras IAs
entiendan
lo que es el contenido
lo que es
esta salió
bastante espectacular
pero es que la siguiente
que es parecida
es todavía mejor
porque fíjate
lo que hace aquí
con las uvas
la botella
sobre todo
me queda flipado
porque se ha inventado
la etiqueta
si aquí no había etiqueta
y dice pues yo
te pongo esto
y fíjate los reflejos
sí
no es como que
se invente detalle
por inventar
no es como que
se invente textura
sino fíjate
vete a la tapa
de la botella
sí
él lo intenta
de verdad
claro
te mete el pliegue
del tapón
y de repente
pasa a ser
como una botella
plana
un cilindro
ya entiendo
hasta el material
del que está hecho
lo malo
es cuando no entiende
lo que es
en este caso
por si alguien
quiere ver
los parámetros
estarán por aquí
arriba
es que he ido
moviendo la imagen
estarán por aquí
arriba
aquí están los parámetros
lo malo
y este es el prom
lo malo es cuando
no entiende lo que es
y de pronto
te pone un ojo
donde no debía
que se cree
que ahí tiene que ir
un ojo
y eso con el
fractality
bajando el fractality
si ves que empieza
a hacerte cosas muy raras
bajando el fractality
un poco
suele tener una mayor
coherencia global
o sea
no bajando el creativité
está preguntando
está preguntando la gente
cómo se hace el zoom
con la zeta
y el scroll
si es que se nos ha olvidado
poner una etiquetilla
es mantener pulsa
la zeta
y pinchar con el ratón
o la rueda del ratón
para el zoom
exacto
esta es una
esta es
para que veáis
que no siempre
se acierta la primera
o sea
allí utilicé
el engine ilusio
pero aquí utilicé
engine automatic
y ha salido
un poco peor
fíjate el plato
la textura
no es correcta
es para que veáis
que bueno
que no se empieza
acierta la primera
por desgracia
aquí hay un detalle
también gente
que estamos viendo
el compartir pantalla
y vosotros lo estáis
viendo el streaming
o sea que
dentro de lo que
estáis viendo
que puede ser muy alucinante
pensad que hay
pérdida de detalle
por el bitrate
por todo
que pena eso
luego cuando lo vea
me voy a llevar
un disgusto
no no
se ve muy bien
pero para que la gente
además asuma
que se podría ver mejor
y por eso
hemos dejado
la prueba abierta
para que al menos
podáis generar
una imagen
en dos horas
sí
mientras saturamos
el sistema
a ver
la de 2x irá rápida
4x un poco más lenta
y 8x
sí que puede tardar
ya 15 minutos
ese es otro tema
que
pero nadie se ha quejado
de eso
nadie se ha quejado
de esperar
porque siempre
cuando salga bien
la gente no se queja
es que ese es el punto
al final
fíjate que
mucho de la industria
del perfil de clientes
y creo que querías
comentar tú antes algo
que se dedica a hacer
estas imágenes
o que ha trabajado
en este tipo de imágenes
gente que se ha pasado ahora
viendo el 3D Max
renderizando
el cinema 4D
es como que me tardes
15 minutos
mira
hasta me gusta
¿sabes?
poco es
sí
yo cuando
trabajaba con 3D Studio
Max y Vray
hace un porrón de años
hace como 10 años
pues eso
yo dejaba renderizando
y me iba
y a veces hacía el truco ese
por eso se me ocurre
lo de
recortar un trocito
y renderizaba
solo ese trocito
y si yo veía que ese trocito
más o menos estaba
pues ya le daba a renderizar
y se tiraba 8 horas
entonces viniendo de ahí
bueno
y mucho más cerca
en 2021
cuando empecé
con disco
Difusión
yo
lo dejaba por la noche
y una sola imagen
tardaba en generarse
pues una hora
o sea que
claro
que eso
eso hace muy cerca
hace muy poco de eso
fíjate los
con las telas y eso
lo bueno que
que es en ocasiones
y con las flores igual
con las flores
y la vegetación
es realmente buena
sí
aquí para
luego el directo se queda
pues están los prongs
y los parámetros
que son bastante útiles
qué pasada
como gana detalle ahí
sí
con el labio ha hecho
un poco raro
y la barbilla está
un poco como peluda
o algo
no sé
sí
eso suele serlo
es como
que te suele
la barbilla la suele colocar
como esta barbilla
en forma de culo
como partida
y los lóbulos
tiene sesgos
y con las caras
nos estamos volviendo
locos
la verdad
a intentar
que ancle la cara más
aquí se podría
aumentando más
el resemblance
y bajando el creativity
pero hay un
un punto
en el que entonces
ya en otras partes
de la imagen
no te crea
el suficiente detalle
entonces estamos
dándole vueltas
a cómo hacer
para que la cara
no consiga
a lo mejor
tanto detalle
pero cambie menos
y en otros lados
pues
te permita
cambiarlo tanto
como quieras
para que
para que gane
mucho detalle
en fin
hay muchas mejoras
potenciales posibles
esta es otra
sí
aquí hay una pregunta
que es como
tú por la mañana
tú y Emilio
sentáis
a trabajar
a qué le dais prioridad
cómo
decidís
por dónde avanzar
mira vamos
como pollo
sin cabeza
ahora mismo
la verdad
la verdad
no sé
hay un día
que digo
tengo ya petados
los DMs
los mensajes directos
voy a dedicar
cinco horas a piñón
a responder
mensajes directos
y dar un poco
de soporte
y luego a lo mejor
me tiro cuatro horas
jugando con
con esta
igual difusión
para ver si encuentro
algo nuevo
algo que rasque
un poquito más
de detalle
o algo que nos
permita saber
qué hacer a continuación
esa es mi parte
favorita
obviamente
es cuando más disfruto
la de investigación
y tal
es lo más
atractivo
y luego pues yo que sé
a lo mejor
hay que hacer una tontería
de CSS
o añadir
esa etiqueta
que te permita saber
que con Z
y el ratón
haces tú
pues entonces voy
y hago eso
en el front
en ese tipo de
cosas
¿y tenéis como alguna
gestión de
todos y todo esto
o es simplemente
una lista
y un blog de notas?
más o menos
pero todo
lo más sucio
chavacano
que podáis imaginaros
pues así
usamos G-Hub
y G-Hub
tiene
esta especie
de Trello
pues ahí tenemos
en columnas
algunas cosas
pero luego
se me olvida
mover eso
y tengo
un TXT
por otro lado
con una lista
de cosas mías
y luego
se me pierde
y lo tengo
en un Estel
en fin
vamos un poco
a lo loco
me temo
yo creo que
a la gente
un poco esto
le está
como relajando
o sea
es como que
le está dando
en plan de
el alivio
de coño
menos mal
no soy el único
que me dedico
a hacer así
no soy el único
desastre
al menos a mí
me está dando
bastante paz mental
yo también tengo
el blog de notas
por un lado
el Notion
tal
todo desincronizado
con Eramusu
éramos más ordenados
pero también
porque va
todo mucho más lento
entonces
como todo va más lento
pues tiene más tiempo
para ser ordenado
claro
vale
creo que
pero aquí es que
va todo demasiado rápido
mira Emilio Nicolás
nos ha pasado ahí
cinco euros
por el chat
y pone
fuego
y camión de bomberos
que yo creo
que es como la situación
dentro de
de la GPU
¿no?
ahora mismo
ah que dice
que se está
viniendo todo abajo
se viene todo abajo
pero no pasa nada
y lo bien
que lo estamos pasando
bueno
lo que dure
dura
vamos a ver
fíjate
esta también
esta también
ha cambiado
quizá demasiado
pero bueno
ha ganado detalle
está bien
sí
esta está bien
luego hay un punto
esta es la famosa portada
que tenemos
sí
esta es con el creativity
bastante a tope
tres
sí
y el fractality alto
también
y eso hace que la imagen
pues cambie mucho
la original
increíble
que era la idea
sí sí sí
increíble
y esta demo luego
se ha intentado replicar
por la competencia
también es como
se ha convertido
medio meme
¿no?
yo lo he visto como
no también tenemos un enhancer
mira
Lara Croft
y es como la tetera
esa en 3D
que se utilizaba siempre
de ejemplo
pues ahora es esto
o sea
realmente
justo la imagen esta
de Lara Croft
subo un poquito
si puedes
sí
eso
la parte de la pierna
es lo que
yo dije
hostia
es que
no está cogiendo
porque fíjate que el pantalón
si lo llevas para el otro
sí pero
pero es coherente
es como vale
no me
le quita parte de la pata
del pantalón
pero me añade unas tiras
en el muslo
que además se nota
hasta la presión
de las tiras
es como
joder
sí sí sí
sí sí
es como
bueno
no tengo mucha idea
de qué es esto
pero sé que es una
mujer
sé que
sé que aquí va
una especie de liga
sé que aquí tal
el arma
y yo lo intento
aunque te saque 6 dedos
pues yo lo intento
porque aquí no hay 5
ni de coña
1, 2, 3, 4, 5, 6
ya estamos mal
también te digo
en la versión low poly
no sé cuántos de 2 hay
eso hay que revisarlo
pero es verdaderamente increíble
o sea
es como que
ahí ya me responde
lo de
hostia sí
la guía está entendiendo
lo que está viendo
y sabe trasladarlo
a lo otro
no sé
es increíble
la mochila
pero fíjate
esto es un ojo
creo
bueno
no sé qué es eso
pero es algo raro
una cara
o algo ahí
pero hasta tienes
o sea le añade narrativa
a la imagen
bajando el fractality
se podrían eliminar
este tipo de
aberraciones
pero entonces
tendrías algo menos
de detalle
en otras partes
ahí
es como hay que llegar
a un equilibrio
entre todos los parámetros
y eso pues
a veces es complicado
mira esta también
es bastante
esta está rota
esta no cambia
porque
por lo que sea
la imagen original
no ha subido bien
a ver esta
o que tengo que recargar
porque no están cambiando
vamos a ello
el triángulo no es
equilátero
¿no?
¿qué?
tienes toque
me da mucho toque
cada vez que entro
porque noto
como que el giro
no cuadra
tienes razón
el logo lo hice
con mi yune
así que
imagínate
a ver
si ahora
si ahora sí
es que
va a pedales
no sé si vamos
a tirar la página
estáis
la prueba de estrés
está aguantando
milagrosamente
vale
está cargando
está cargando
vale
esto es
el original
una imagen
de mi journey
y esto es lo que
él intenta decir
bueno a ver
qué me invento aquí
pero más o menos
sabe que es un sofá
y hace bien
las costuras
si
y no es esto
para la gente
que viene de interiorismo
3D y tal
es muy útil
porque te das cuenta
que la imagen anterior
la de mi journey
es muy impactante
cuando la ves generarse
pero no la puedes usar
en una revista
no la puedes usar
en cosas reales
lo que sale
después de magnífico
si
y cierto
que la ves tiene errores
y un montón de fallos
y haces zoom
y te encuentras
que nada tiene sentido
pero
coño
falta un pasito más
y ya son imágenes perfectas
y tú has demostrado
muchas veces en twitter
ejemplos de
buscadme fallos aquí
y nada
si
y la gente
disfruta muchísimo
si
todos los artistas
también
porque los encuentras
los encuentras
pero mira eso
esto no sé
que se ha inventado
aquí se ha inventado
una cosa rarísima
me la acabo de dar cuenta
que es como si fueron
fíjate esto
yo no sé ni qué es eso
pues un sensor de seguridad
sin embargo
esto sí que lo ha hecho
muy bien
con los reflejos
todo
todo
todo
increíble
para
para videojuegos
también la están usando
bastante
para mejorar
las texturas
los recursos gráficos
uno a uno
por separado
porque por ejemplo
tú tienes esto
que dices
bueno no está mal
pero vamos a darle
esa última
esa última milla
¿no?
lo malo
pues que se puede inventar
cosas
yo los mejores resultados
lo estoy viendo
en gente
que a lo mejor
hace un par de
upscale
se los lleva
a photoshop
y ya allí
empiezan a retocar
las partes que más le interesan
retoca
y le da ese último detalle
yo me imagino
que esto al final
también
combina bien
con el generative feel
si ya sacas una imagen
con buena calidad
con buen detalle
el generative feel
pues luego
en los inpainting
y tal
pues te lo puede
seguir
y esto es muy extrema
esto es pues
Creativity 6
16x
bueno esto es a tope
a ver qué pasa
¿no?
esto también se hizo muy viral
y del icono este
sí
wow wow
es que no tiene sentido
es que no tiene sentido
o sea recordemos
que hemos dicho antes
que en abril de 2022
salió Dalí 2
o sea que estamos
que no ha pasado
ni dos años
y estamos con esto
es que no tiene sentido
sí sí
es curioso
la nariz ha salido fatal
pero lo demás
tiene bastante coherencia
sí sí
o sea el rayo en la cara
que lo haya respetado
es verdad
más o menos
sí sí sí
sí
esta también
es bastante loca
entonces teníamos esto
y lo mejora
es muy bueno
en los
es que entiende
muy bien
las telas
y las texturas
no sé por qué
lo entiende tan bien
pero fíjate
no sé por qué
lo entiende tan bien
Javier López
creador de Magnific
luego otra cosa
que me gusta mucho
respeta muy bien
los desenfoques
o sea es cierto
que le añade más detalles
y a veces
lo elimina
pero a veces no
eso está bueno
de hecho a veces
me pasa lo contrario
a veces como que
cojo una imagen
y como tiene un poco
de mala calidad
o está desenfocado
me lo mantiene
o sea me mantiene
como ese desenfoque
y ahí tendría que jugar
un poco con los ajustes
y tal pero
sí
ahí sufre
es verdad
ahí sufre un poco
cuando la imagen
tiene como las que hemos visto
al principio
del restaurante
hasta que no atiné
y la clave ahí
fue usar ilusio
en vez de
del automatic
del engine
hay tres engines
y ahí fue la clave
usar ilusio
que parece que funciona mejor
con los desenfoques
eso me da cuenta hoy
o sea
o sea que hay cosas
que también descubrimos
nosotros
según el tipo
de imagen ya
y el caso extremo
que sea
mira como se inventa
la letra
no tiene sentido
nada
bueno
sí sí
es que no ha sido capaz
de leer esto
pero igualmente
por ejemplo
la imagen que yo le metí
de la librería
ahí sí había texto
legible
bien
y se lo inventa
te lo cambia todo
eso hay que darle
una vuelta
eso también estaría chulo
que esa es otra
ahora te quiero preguntar
¿no?
hacia dónde queréis mover
o sea
hacia dónde
qué pasos queréis dar a futuro
¿no?
y de características nuevas
que añadir a la herramienta
pero yo cada cierto tiempo
es como que veo algo
en plan
ha salido un paper
de colorear imágenes
digo joder
esto estaría guapísimo
en Magnific
o sea como que al final
vuestro modelo
o tal cual lo visualizo
por lo que he probado
es como
yo meto una imagen
y me hace magia
en la imagen
de alguna forma
me añade más detalle
me puede colorear una imagen
entonces nada
eso simplemente
la parte a lo que iba
si resolvéis por ejemplo
el texto
de alguna forma
hacer alguna magia
conectando ahí
esos bloques del ego
que tú comentabas antes
que a lo mejor
tomate la calidad del texto
y no te lo cambie
o incluso te lo arregle
sí
a ver
eso sería
brutal
también
esas mejoras
que estamos comentando
de que te cambia mucho la cara
o algunas partes
que no te interesa
que te cambie
y en general
pues cualquier cosa
que te permita
mejorar tu imagen
o reimaginar tu imagen
o sea que
por ahí van
no quiero dar muchos detalles
pero por ahí van
van los tiros
esta imagen es muy loca
porque no me estaba dando cuenta
que
ese tiro de drone
era el hombro
de la otra imagen
que me has enseñado antes
sí
a ver
esto es una locura
esta era una imagen
de v.3
de mi journey v.3
y dije
pues voy a pasarla por aquí
pero por error
dejé el preset
de nature
o sea de naturaleza
y paisaje
entonces
como he puesto ese preset
se lía
y
se cree que es un paisaje
y dice
pues bueno
tú dices que es un paisaje
pues yo lo intento
entonces pues cree aquí
como este valle
esta persona en miniatura
y esto lo convierte en rocas
hace lo que puede
la calavera
pero es increíble
porque te genera una imagen
con un montón de
de detallitos
para ir buscando
¿no?
sí
sí es muy entretenido
en eso
luego verlas
lo que pasa
ese detalle
luego en Twitter
si la publicas
pues se pierde
¿no?
porque solo llega a 4K
pero
habla con tu amigo
Elon Musk
y a ver si te
a ver si lo sube
¿no?
esta es de las que has compartido
que está brutal
también
sí
esta es nueva
o sea
es el mismo prong
pero diferente
a la de portada
fíjate que hay veces
que quizá hubiera tenido
que guiarle con el prong
y decir que
había vasijas
de barro
porque las ha transformado
en rocas
pero esta parte
sí que la he hecho
bastante bien
sí
aquí alguien pregunta
o sea
dice por el chat
que no amplía la imagen
sino que alusiona contenido
y es tal cual
o sea
yo creo que al principio
cuando lanzasteis la herramienta
como que lo
si lo anunciabais más
como un app scaler
y ahí mucha gente se tiró
no es un app scaler
esto es
y bueno
a ver
app scaler
es porque
si tú tienes una imagen
de 1000
y la haces un 2x
y la llevas a 2000
pues estás haciendo
creando píxeles nuevos
y estás haciendo
app scaling
ahora es
con qué información
rellenas esos píxeles nuevos
si utilizas algo
como un bilinear
del photoshop
que al final
es como interpolar
los colores que hay
alrededor
pues te sale algo
difuminado
y simple
pero es un app scaling
si utilizas algo
como topagia pixel
que ya utiliza ella
te va a rellenar
esos píxeles
con lo más parecido
de la imagen original
y si utilizas
magnific
y pones los creativities
y los HDR
y los resemblas muy altos
va a funcionar
de esa forma
pero la gracia
es que hasta ahora
no había algo
que fuera un app scaling
reimaginativo
es decir
bueno
a mí no me molesta
que me cambies la imagen
siempre y cuando
me consigas algo espectacular
y con más detalle
entonces
subes el creativity
subes el HDR
bajas un poquito
el resemblance
y eso te permite
hacer este tipo
de cosas
por ejemplo
en este caso
es bueno
menos creativity
porque es un retrato
y tampoco quería
que se pasara mucho
subir el resemblance
porque quería
que se pareciera
pero si esta misma
bajáramos todavía
más el creativity
bajáramos más
el HDR
y subiéramos el resemblance
pues se parecería
más a la imagen original
pero la gracia
es decir
bueno
y si vengo de algo
que no está muy bien
ni quiero darle
esa última milla
pues esto te lo
te lo permite
total
sí sí
y que luego al final
mucha de la gente
que está usando esta herramienta
no solo usa esta herramienta
de ella
sino que viene de estar usando
mi journey
Dalí
es como
hace 10 minutos
la forma de los píxeles
me daba igual
porque no existía esta imagen
o sea
si me vas a cambiar
de repente la cara
por otra
pues tampoco es que
estuviera enamorado
de la chica que estaba antes
o de esta ventana
o sea me da igual
que me cambies un poco
los detalles
también para fotógrafos
que vienen de naturaleza
cosas así
les molesta menos
claro
para un retratista
alguien que viene
de un retrato
pues entonces
ya tiene que jugar
un poquito más
con los parámetros
para que no le cambie
la cara demasiado
claro
claro
bueno
vamos a ir encarando
hacia el final
del directo
y quería abrirlo un poquito
a comentar
ya un poco tu visión
al final tú has
estado coqueteando
con todo lo de la IA
generativa
desde
lo he dicho antes
desde la salida
de Dalí 2
incluso con disco
diffusion
y todas estas cosas
¿cómo crees
que va a estar
evolucionando
todo esto?
vamos a ponernos
un año
a futuro
y luego nos vamos
a cinco años
a futuro
¿cómo crees
que va a cambiar
toda la industria
y cómo crees
que va a cambiar
todas estas herramientas?
un año
venga
esa se supone
que es fácil
¿no?
pues a ver
yo creo que no
yo creo que es más complicado
predecir un año
que a cinco
porque a cinco
es como que
todo va
por ejemplo
vídeo generativo
yo en cinco años
lo digo
sí
en un año
todavía no lo sé
cierto
es verdad
también es verdad
la más fácil es 10
porque además
luego se te olvida
lo que has dicho
exacto
nadie viene a buscarte
pues a ver
un año
yo creo que este año
va a ser el del
vídeo generativo
pienso
porque está ya pegando
muy fuerte
y más fuerte
que va a pegar
y parece ser
que también
vamos a empezar
a ver cosas
bastante chulas
en tiempo real
a ver si subiéramos
a unos 15
20 frames por segundo
porque vamos
ya con eso
de la marinera
¿qué más?
llevamos tiempo
diciéndolo
¿no?
pero música
y sonido
está tardando
pero pienso que
este año
veremos grandes avances
ahí
más de lo que hemos visto
todavía
y
¿qué me falta?
yo con eso
ya me conformaría
no está mal
pero como
claro
y si todas estas herramientas
están disponibles
¿cómo crees que va a ser
esta migración
por parte de la industria?
porque al final
lo que tenemos ahora mismo
son muchos profesionales
que tienen un flujo
de trabajo
determinado
y que usan herramientas
tradicionales
y que empiezan a ver
que oye mira
que puedo cambiar esto aquí
ah que no
que ahora la textura
en vez de pegarme
o buscar un pack
que alguien ha hecho
puedo generarla
como en mi journey
por ahora estamos viendo
como pequeños
bueno
piecitas de ese pipeline
que se van sustituyendo
por la IA
pero
¿crees que en un futuro
en 5 años
5 o 10 años
todo ese proceso creativo
lo podremos hacer
desde casa
una o dos personas
ese proceso creativo
que a lo mejor
ahora tiene equipos
y equipos de personas
y si eso ocurre
que
claro
como os he hablado
un año
5 años
5 años
no sé si estaremos ya ahí
pero vamos
hacia donde va todo esto
yo lo que
como lo visualizo
es
que mediante
el lenguaje natural
el que usamos
para comunicarnos
nosotros
podremos hablar
con las máquinas
y en el momento
que tú de verdad
puedes hablar
con una máquina
como te comunicas
con un humano
y esa máquina
te responde
pues eso es un mundo
de posibilidades
yo no imagino
estar
con todas las herramientas
que tenemos ahora
en Photoshop
sino una visión
simplificada
pero muchísimo más potente
de eso
como un genio mágico
en el que tú
partes de una idea
empiezas a hablar
o a escribir
con el
con el
con el
con el
con el
con el
con el ratón
o con
si te quieres poner
flipado
con las gafas
del metaverso
y las manos
pero tú estás
hablando
y comunicándote
o escribiendo
comunicándote
y diciendo
oye
quiero una imagen
de un ratón
y te sale un ratón
no no
pero me refiero
a un ratón
como dibujos animados
no pero
dale un poquito
más de detalle
muy bien
ahora ponlo en una habitación
iluminada
no no
pero de noche
iluminada
con la luz de la luna
y luego
no tienes ganas
de escribir
o de hablar
y coges la luna
y la mueves
con tus manos
y cambia la fuente
de iluminación
o agrandas
esa luna
o lo haces más grande
empiezas a cambiar cosas
y ya se
se convierte
en una escena
que está en 3D
y que tú puedes
mover ese ratón
rotarlo
y en todo rato
lo estás viendo
como si fuera
con un estilo
de dibujo animado
y ahora pasas
a lo siguiente
bueno pues ahora
quiero que esto
se convierta en un videojuego
quiero que sea interactivo
coges el mando
y ese ratón
empiezas a moverlo
y ahora quiero que
cuando le dé al botón
de saltar
el ratón salte
y el ratón te hace eso
o sea
vamos hacia eso
estoy seguro
de ello
es que
digo que es como
una plasticidad infinita
es como que tienes
la capacidad de crear
lo que quieras
sí
ya
como tú decías
en Twitter
y coincido totalmente
va a dejar de tener sentido
el hablar
quizá de una imagen
un video
una fotografía
una película
una novela
porque todo va a ser
intercambiable
en tiempo real
y transformándose
con tú pedirlo
entonces
¿qué es esto?
es una película
es un videojuego
que es lo que tú quieras
cuando a ti te apetezca
y eso es
me explota la cabeza
pensando en esos términos
y cómo va a ser
esa sociedad
en la que la IA
y hablando solo
de una vertical
que es
dos verticales
el entretenimiento
y el diseño
sin entrar
en temas
de arte
y sin entrar
en temas
de que la IA
habrá impactado
al mismo tiempo
en todo
en la medicina
en el transporte
en la logística
en absolutamente
todo
claro
ese es un poco
el punto de
por ser abogado
del diablo
yo lo que me pasa
ya con esta
IA de generación
de imágenes
es que la mayoría
de imágenes
que veo
generadas
que son imágenes
que hace cinco años
me hubieran volado
la cabeza
ahora a lo mejor
tienen menos valor
porque como todo el mundo
las puede crear
y todo el mundo
es como
quizás
le veo más valor
cuando la imagen
es mía
y la he creado yo
que cuando la ha creado
otra persona
y la comparte en twitter
entonces
si todos nos convertimos
en creadores
realmente
que valor tiene
ese proceso creativo
y
si no
nos estamos moviendo
a lo mejor
hacia una sociedad
donde todos
seamos creadores
de nuestro propio contenido
y ya está
o también puede ser otra
que es que la IA
sea la que cree ese contenido
que también
sí
es un futuro curioso
porque podríamos decir
bueno
no
porque aquel
como podremos seguir diciendo
de la imaginación
de Tim Burton
Tim Burton
ha creado la película
él
comunicándose
con la IA
pero bueno
es de la imaginación
de Tim Burton
pero es que
en ese mismo futuro
al mismo tiempo
habrá un montón
de avatares virtuales
que serán indiscernible
de personas reales
hablando en redes sociales
cuando entonces
el Tim Burton
del futuro
no sabrás
no podrás estar seguro
a no ser que lo veas
en la vida real
si es una persona
o es un avatar virtual
entonces va a ser un futuro
curioso
extraño
y por otro lado
pondremos en valor
otras cosas
que ahora
se sienten amenazadas
y yo creo que es todo
lo contrario
el arte
y la artesanía
de humanos
para humanos
en un mundo
en el que cualquiera
se puede crear
una película al vuelo
pues tiene un valor inmenso
porque una persona
que con artes
plásticas
o pictóricas
o esculturas
siga haciendo arte
o un artesano
joder
eso tiene
muchísimo valor
incluso
más valor
incluso
en un mundo
en el que
mucha gente
ya ha olvidado
siquiera
cómo se hace eso
porque en su día a día
se han acostumbrado
a generarlo todo
pidiéndolo
entonces yo
el arte
y la artesanía
no los veo amenazados
mientras haya humanos
si alguna vez
no se plantan
la silla
pues ya veremos
pero yo no los veo
amenazados
por eso
lo que veo amenazado
a corto plazo
son los procesos
de trabajo actuales
en diseño
los procesos
de trabajo actuales
para el mundo
del entretenimiento
del cine
de los efectos especiales
de los videojuegos
los procesos en sí
no los trabajos
a corto plazo
en el futuro
puede que también
los trabajos
si llegamos a ese
mundo
de momento
de fantasía
en el que
las sillas
pueden generar
cualquier cosa
que les pidamos
incluso se pueden inventar
las suyas propias
según nuestros gustos
y nos van a conocer
muy muy bien
si se los permitimos
va a ser un futuro curioso
va a ser un futuro curioso
y ya lo está haciendo
o sea
si realmente
nos bajamos de la ola
sacamos la cabeza del agua
y nos paramos a mirar
lo que tenemos
toda la herramienta
que hemos visto hoy
que has creado tú
tu herramienta
hace 5 años
te dicen tú
que vas a crear
esa herramienta
y tú dices
¿qué dices señor?
no tiene sentido
¿no?
y ya hemos normalizado
mi journey
el otro día
Emad compartía
clips de vídeos
generados con una nueva
un nuevo modelo
que sacarán pronto
no sé si lo viste
que son resultados
que ya empiezan a ser
espectaculares
de generación de vídeo
tenemos herramientas
que dices tú
hostia
es que
como que lo normalizamos
muy rápido
porque estamos metidos
dentro de lo que sería
el track
de cada día
innovaciones
innovaciones
innovaciones
pero si te paras a pensar
son
son alucinantes
luego está la cara B
de todo este debate
que también hay que comentarlo
que sería
al final sabemos que
estas herramientas
también traen consigo
un montón de polémicas
un montón de
temas éticos
y temas
a futuro
posiblemente legales
que es por ejemplo
el entrenamiento
de estos modelos
ya tú has comentado
que trabajas con el stack
de Stable Diffusion
pero tanto Mid Journey
como Dalí
como todas estas
han utilizado
para su entrenamiento
todas las imágenes
de internet
sin pedir permiso
imágenes
bonitas
feas
de artistas
de cualquier persona
las han cogido
y las han utilizado
para entrenar
estos sistemas
¿tú cómo ves
todo este debate legal
y este debate ético
y cómo crees
que va a ser el futuro
también?
pues es un debate
que hay que tenerlo
hay que hacerlo
porque al final
es un debate
que ataña
a la sociedad
son ese tipo
de preguntas
¿copian o no copian?
eso yo creo
que ya lo hemos pasado
por ejemplo
ese debate
yo creo que ya
ya se ha demostrado
por activa
y por pasiva
que excepto
en un caso
súper concreto
de overfitting
las sillas
no están haciendo collage
no están copiando
no están cogiendo
trocitos
¿no?
no tienen las imágenes
no tienen todas las imágenes
en el modelo entrenado
cogen trocitos
y los cosen
sino que de verdad
¿no?
aprenden esos patrones
de alto nivel
en ese espacio
latente
multidimensional
y entienden
lo que es un trazo
lo que es un brochetazo
de pintura al óleo
entienden
lo que es el color
fosforito verde
entienden
lo que es el patodonal
y son capaces
de combinar
todos esos elementos
creando algo
algo nuevo
píxel a píxel
a partir del ruido
eso es así
entonces no podemos decir
que copian
tampoco son obras privadas
sobre esto
ya aprovecho
ya que has dicho
que lo hemos superado
que no coño
que la semana que viene
el próximo vídeo
va sobre esto
respondo a esta pregunta
no está superado
todavía falta una explicación
técnica
y yo la traigo
el próximo domingo
que va a estar muy chulo
pero es así ¿no?
es más o menos
pero es así
sí sí sí
o sea es un vídeo
que de hecho me apunté
que quería hacer hace un año
pero de hecho
gran parte
algunas de las animaciones
están hechas de atrás
hace un montón de tiempo
el guión estaba a media
pero lo he ido parando
porque la actualidad
nos ha llevado por otros caminos
pero es un tema
que quiero recuperar
y que quiero sacar ya
porque es cierto
que tú dices
que está superado
pero no del todo
porque hay más gente
que se sigue sumando
al debate
porque el debate
cada vez se hace más grande
y más gente
se quiere sumar
y van pasando por ese proceso
primero llegan diciéndote
que no
que la ia plagia
que copia
que no sé qué
y es como
al menos esa parte
que yo puedo dar
una explicación técnica
de por qué
además va a ser chulo
porque es una forma
de hablar un poquito
de cómo funciona
la ia generativa
pues no copia
hay un tema
de que la ia aprende
distribuciones
no aprende datos concretos
y de eso
de lo que hablar en el vídeo
correcto
correcto
lo espero con ganas
va a crear mucha polémica
intento que no
porque es un vídeo
que está centrado
justo en ese tema
y en el vídeo
yo mencionaré
que eso no quita
porque es así
es decir
la ia no plagia
no coge trocitos
de las imágenes
aprende una distribución
eso no quita
que uno
pueda estar mal entrenada
y esa distribución
lo que represente
sea un dato concreto
y eso sería un caso
de overfitting
o no quita
que a lo mejor
la distribución
que ha aprendido
como bien has dicho
es la del pato Donald
y eso
hay temas
ahí ilegales
que no hay que ignorar
o sea
que Disney
a lo mejor dice
perdona
señor Sam Allman
como que la gente
puede generar
una caricatura
de un pato
de dibujos animados
y le sale una foto
del pato Donald
y tú le dices
que eso es su pato
no tiene sentido
entonces
esos son temas
que están ahí
pero bueno
la parte técnica
la quiero explicar
para que la gente
se pueda centrar
en los debates
en lo que es importante
que es lo otro
brutal
claro esto nos lleva
a lo siguiente
es lícito generar
una imagen
con idea generativa
del pato Donald
si tú utilizas
Dali
el de Bing
en Bing Create
no te pone pegas
te permite hacerlo
si utilizas en cambio
GPT-4
te pone pegas
y cuando te estás
utilizando
personajes famosos
o cosas así
no te lo permite
a día de hoy
a no ser que la utilizaras
para fines comerciales
no habría un problema
o sea
si tú generas
una imagen
del pato Donald
y es para
tu diversión
y no pretendes
venderla
o utilizarla
en algo comercial
pues no te enfrentas
a una demanda
por IP
pero obviamente
el pato Donald
es un personaje
protegido
y sería exactamente
lo mismo
que si lo pintaras
o lo hicieras
en 3D
e intentaras
hacer una película
del pato Donald
cuando no tienes
el copyright
del personaje
entonces
lo que nos
ah bueno
y los estilos
los estilos
tenemos derecho
o sea
es lícito
o no
pedirle a una guía
que genere una imagen
con cierto estilo
pues bueno
aquí ya es un tema
de ética moral
de me parece bien
o me parece mal
porque en cuanto
a legalidad
es legal
imitar estilos
de hecho
yo suelo ponerte
ejemplo
los de estudio
Pono
perdón
como se llaman
Pollock
o Ponock
no me acuerdo
Ponock
creo
que eran
trabajadores
de Pixar
se fueron
de estudio Ghibli
se fueron de estudio Ghibli
hicieron estudio Pono
y han empezado
y han empezado
a hacer películas
que son
puro estilo
de estudio Ghibli
o bueno
Anastasia
que parecía
estilo Disney
pero era
de Dreamworld
bueno
los estilos
no tienen copyright
si los estilos
tuvieran copyright
sería tremendamente
difícil
innovar
o hacer nada
porque
como dices tú
este estilo
es este
si es una imagen
diferente o no
estaríamos todo el día
en el juzgado
es imposible
todos los estilos
no tienen copyright
y al final
nos queda la última pregunta
es
vale
nos parece lícito
o no
que las sillas
que no son humanos
puedan observar
cualquier tipo de imagen
y aprender
si o no
al final
llegamos a eso
entonces pues
hay gente que te dice
pues si
si los humanos
pueden ver
cualquier imagen
y aprender
porque no las sillas
y otros te dirán
bueno pero los humanos
son humanos
y las sillas son máquinas
entonces no deberían
entonces es al final
una disquisición
ética moral
que tendrá que
hacerse en sociedad
y al final
a partir de ellas
surgirán o no
nuevas leyes
y yo pues totalmente
a favor de lo que
de lo que salga
de ahí
para mí
a mí me gustaría
la verdad
que las sillas
puedan observar
cualquier imagen
y aprender
igual que un humano
pero
empatizo y puedo entender
que a alguien le parezca
que eso no es lícito
entonces pues bueno
vamos a ver
en qué
en qué acaba
ese debate
que tiene que tenerse
total
y mi postura
es exactamente esa
o sea
no estoy cerrado
o sea
es que creo
luego el debate
está
tú y yo
estamos mucho
en twitter
y vemos cómo está
pues el mundo arte
nos meten mucha caña
nos meten mucha caña
y creo que no somos
no somos ni siquiera
tan
tan
provocadores
un día
un día se me fue
la mano
y puse un cuadro
de un museo
y se cabrearon
pero
más allá de eso
no somos ni provocadores
ni nada
porque nuestra postura
es esa
o sea
si a mí de repente
mañana
Sam Alman
se tiene que ir a la cárcel
porque oye
legalmente se ha visto
que no
que han cogido las imágenes
no es fair use
y ala
a la cárcel
pues digo
pues chicos
mucha pena
me da
igual que cuando
le despidieron
pero ya está
legalmente es eso
se echa para Dalí
y ya está
viviré un par de meses
con síndrome de
dónde están mis herramientas
y ahora me puedo generar
un yo qué sé
un batido de frutas
a 8k
no pasa nada
vale
y ya está
es una putada
pero bueno
aún así yo creo que
igualmente se ha superado
o sea hemos dado ya
hemos pasado un punto
de ruptura
que no se puede deshacer
vale
y creo que
los artistas
y también te digo
que generalizar
diciendo los artistas
es como demasiado general
porque conozco mucha gente
que es artista
y que usa las herramientas
conozco mucha gente
que tiene diferentes opiniones
pero creo que
tienen los debates
o sea que no tienen
bien basado el debate
es decir el problema
muchas veces lo focalizan
contra mi journey
o contra OpenAI
por ser las empresas
que están capitalizando
esto de la forma
más evidente
pero el que la ha liado
parda por así decirlo
es Emad
con stable diffusion
es el que ha soltado
el genio
ha abierto la botella
y ya está
y eso no se puede deshacer
porque da igual
que legalmente salga
X
que la gente
va a poner
sus empresas
en países
donde la legislación
como Japón
que están diciendo
que a lo mejor
si le iban a permitir
y ya está
y los modelos
están ahí entrenados
ahora esta semana
están con todo el tema
de Nightshade
no sé si lo has visto
que es como
es una herramienta
que lo que pretende
es atacar
al entrenamiento
de estos modelos
de generación de contenido
con técnicas
de ataque adversario
y tal
de nuevo
me he quedado sin batería
hay una voz que me está hablando
en la cabeza
ahora
pues sacan esta herramienta
y veo a la gente
estamos atacando
los futuros modelos
como
no
no porque ya está
o sea
para empezar
tu herramienta
Magnific
se carga el Nightshade
no sé si lo quieres vender
por ahí
no te lo recomiendo
pero es posible
porque si detectas
que una imagen
tiene ese patrón
pues la puedes reinterpretar
y ya está
no es como parafrasear
un texto de chat GPT
para saltarte las marcas de agua
eso se puede hacer
pero es que luego
da igual
porque ya estamos en un punto
donde puedes generar
datos sintéticos
para entrenar a futuros modelos
y con datos sintéticos
y el feedback humano
ya puedes seguir entrenando
a ellas más potentes
y ni siquiera el Nightshade
como se está demostrando
es tan eficaz
pero
no sé
es como que
se está intentando
hacer una lucha
y se está
llevando el debate
hacia terrenos muy
enfangados
y yo creo
que están perdiendo
el foco
en ciertas cosas
porque incluso
con la aparición
de Nightshade
muchas de las críticas
que se le hacía
a la IA
ahora pasan a ser ellos
también como parte
el tiempo de GPU
o de CPU
que hace falta
para estar ejecutando eso
que es por imagen
30 minutos
que es una burrada
hay gente que antes
te decía
es que la IA
gasta mucha energía
bueno
esto también gasta
un montón de energía
hay gente que decía
es que usas
Stable Diffusion
y es un modelo
que está entrenado
con datos de todo internet
y se ha detectado
que tiene fotografías
de lo peor
que nos podemos encontrar
en internet
y vosotros la estáis utilizando
y es como
bueno vale
pero no la estoy utilizando
para esto
pero es que ahora
la herramienta Nightshade
usa Stable Diffusion
por debajo
o sea que tú
cuando aceptas los términos
de Nightshade
por debajo
estás aceptando
y pueden verlo
en la página web
los términos
de Stable Diffusion
o sea
es como que
es todo muy turbio
muy turbulento
si
mira yo creo que incluso
se llega a ese extremo
en el que
oye
no es legal
o sea no nos parece bien
que las sillas puedan aprender
mirando imágenes
bueno
ahí está Adobe
que tiene Adobe Firefly
que está utilizando
está entrenando sus modelos
utilizando imágenes
que ellos tienen
el copyright
porque son de
Photostock
de Adobe
etcétera
y el propio Stable Diffusion
sé que no es suficiente
pero ha hecho
un up out
pero bueno
debería ser
en ese caso
que digamos
oye es que no
no nos parece que esté bien
pues debería ser un opt in
pero vale
llega a ese caso
ya habría efectivamente
modelos
que con datos sintéticos
como has dicho tú
o observando las imágenes
vídeos y tal
que son libres de derechos
de autor
o de los cuales tienen derechos
porque lo han comprado
pues habrá modelos
igualmente
o sea eso no
y Nightshade me parece
un poco una chorrada
de verdad
porque si tú coges
cada imagen
que han pasado por Nightshade
y yo creo
no lo sé
esto tendría que comprobarlo
pero yo creo que es tan sencillo
como que le pase un filtro
de Lightroom
¿sabes?
o la llevas a Photoshop
le cambias
le pasas un preset
de Lightroom
cambiándole los colores
un poco
y la vuelves a grabar
y yo creo que eso
ya no
ya no
ya no tendría
la información suficiente
para envenenar
al modelo
creo
no conozco
no lo sé
no lo sé
hasta qué punto
es tan robusto
en el paper
si comentan
algunos tipos de ataques
y tal
y creo que sí
es sencillo
o sea que
que es
lo suficientemente robusto
para recortes
y cosas de diferentes tipos
hasta el punto
espero que
fácilmente saltarlo
o sea si
si realmente se quisiera
se podría saltar
el problema que yo me estoy encontrando
es que intenté hacer experimentos
con Nightshade
y
o yo lo he entendido mal
y por eso quiero leerme el paper de nuevo
con lo cual por ahora
esto es opinión
pero
no he conseguido que
lo que tiene que
detectarse mal
se detecte mal
¿no?
es como que
este modelo se supone que tiene que
perturbar la parte de clip
de
de Stable Diffusion
y todas estas cosas
yo lo he probado
y no
no lo consigo
y luego está la otra cara
que también comentaba la gente
que es que
si esto
¿cómo lo pruebas?
¿haciendo un clip interrogator
o algo así?
yo lo he intentado probar así
y si no intentaré probar
con hacer
algún entrenamiento
de lore y tal
porque quiero ver realmente
si funciona
para hacer mis pruebas
y
y luego la cosa es
si esto funciona
luego está la parte ética
que comentaban
de que
lo que realmente han liberado
es una herramienta
que
te camufla
una imagen
y te cambia
el
el prompt
¿vale?
es como tú tienes una imagen
de un gato
que está guay
es como
es un ataque adversario
es como tú estás viendo
como humano
un gato
pero él lo detecta
como un perro
y el prompt pone gato
con lo cual ya estás cargándote
la categoría
y tal
eso está guay
está muy guay
pero hay un problema
y es que esta herramienta
mal utilizada
se puede
o sea
tiene valor para gente
que la quiera mal utilizar
que es
si quiero saltarme filtros
de fotos
sin censura
en redes sociales
que a lo mejor
se están aprovechando
de modelos tipo clip
y tal
ahora es como que
puedes utilizar esto
y de hecho ya
hubo una época en youtube
donde las portadas
y los anuncios
se usaban imágenes
con ataques adversarios
para meter como
fotografías sugerentes
y es como
esto se ha tenido en cuenta
a la hora de liberar la tecnología
pues
a eso me refiero
que es como que
de repente
lo que mucho se le criticaba
a la gente de la i
a los iabros
es como que ahora
también en el colectivo
de artistas
han entrado
a ese nivel de juego
y sin mucha recompensa
¿no?
lo curioso además
es que usen
Stable Diffusion
que es justo
lo que
una de las cosas
que más odian
o sea
para evitar
lo que odian
están usando
algo que odian
en ese aspecto
es
bueno
jugar con las armas
de tu enemigo
es un poco eso
pero que luego
es curioso
porque se puede hacer
una herramienta
como Nightshade
porque
Stable Diffusion
es open source
que es lo que
realmente es el problema
de
en fin
es como
es todo un cacao
que es como
por favor
que se decida ya
legalmente
y todo esto
y de verdad
que empatizo
y entiendo
que es una putada
que de repente
te llegue
pues como si mañana
me llegan
y me dicen
mira que ha salido
HeyGen 3.0
y lo que te genera
es un influencer
que te explica
ya de puta madre
y Carlos
te vas al paro
y yo digo
pues chico
me sabe mal
en lo personal
está muy guay
como herramienta
pero me sabe mal
porque me quedo
sin trabajo
pero si es cierto
que en el debate
creo que hay una parte
también
donde se están
o sea
una cosa que yo criticaría
es que es tan virulento
que conozco gente
que son
del colectivo
de mundo arte
que usa estas herramientas
pero no lo hace público
ya
con lo cual
está generando una
una visión sesgada
en la que piensas
que nadie está utilizando
estas herramientas
y es mentira
hay mucha gente
que lo está usando
y luego hay un sesgo
hacia
la IA
todo lo hace mal
porque lo único
que se comparte
o se viraliza
es lo que está muy mal hecho
de repente
te llega a la junta
de Andalucía
que ha hecho un cartel
para
Sotarrillo de abajo
de las fiestas patronales
han cogido la IA
han hecho un cartel
de mierda
y es lo que se comparte
se viraliza
y es como
chicos
y da el feed
de Magnific
y mirad las fotos
que hay ahí
que son espectaculares
y eso también
lo hace la IA
y hay muchos estudios
y mucha gente
y muchos profesionales
que lo están usando
pero callado
porque saben
que si lo hacen público
se lía
sí
ahí hay también
una sensación
como que es
demasiado fácil
que es poner un pron
y ya está
pero yo he visto
procesos de trabajo
usando IA
que como en Blade Runner
jamás creeríais
es como
es como unos procesos
en los que
en una parte
sí se genera la imagen
luego se pasa
por otra cosa
como Magnific
para hacer el upscaling
luego se pasa
a un proceso
de trabajo normal
de Photoshop
de por capas
y tal
pues trabajar la imagen
para quitar los errores
tal no sé qué
y por últimos
por lo típico
de Lightroom
para mejorar la imagen
y eso se lleva
a Doer After Effects
y no sé cuántos
o sea
un proceso de trabajo
completo
en la que ciertas partes
que antes eran
más trabajosas
pues se han sustituido
por IA
pero eso está lejos
todavía
de este mundo
de la piruleta
en la que hablamos
con las máquinas
y te lo generan todo
¿no?
entonces
me parece feo decir
es que eso
no tiene mérito
ninguno
es dar un prong
bueno pues depende
si te vas a Mid Journey
y con un prong
haces una imagen
y es lo que enseñas
y ya está
pues bueno
es eso
ni más ni menos
¿no?
pero que se pueden hacer
cosas realmente
trabajadas
y en vídeo también
en vídeo se está utilizando
hay gente que está
utilizando Magnific
para vídeo
y ni siquiera sé
muy bien cómo
están utilizando
uno de cada
20 frames
decía uno
yo cojo uno de cada
20 frames
de Magnific
lo amplifico
con Magnific
luego una interpolación
con no sé qué
hacia los otros frames
y luego hago un
de Flickering
para quitarle
el Flickering
y finalmente
me enseñaba
el antes y después
y yo decía
madre mía tío
dame eso
dame eso
que lo patento
pero era tremendamente
complicado
y costoso
veremos Magnific
de vídeo
a ver
es un sueño húmedo
claro
nos encantaría
pero es muy complicado
viendo cosas
como la que ha hecho
este tío
digo
joder pues
a lo mejor
es posible
¿no?
sí
lo que realmente
me fliparía a mí
que supongo
que no seremos
nosotros
los que saquen eso
porque ya son
palabras mayores
es una capa
magnífica
en tiempo real
¿no?
claro
un videojuego
en 60 frames
por segundo
a ser posible
120
ya que estamos
y que sea
una base poligonal
básica
texturizada
iluminada
básica
y esa última milla
en tiempo real
te la esté haciendo
una IA generativa
imagen a imagen
eso será
brutal
¿no?
como un DLSS
de NVIDIA
pero un poco más
algo brutal
porque NVIDIA
lo que sí hace
es como
se basa mucho
en la imagen
y no intenta
alucinar tantos detalles
que aquí es complicado
porque claro
estaríamos hablando
de que quieres tener
como capacidad
de alucinación
pero consistencia temporal
¿no?
y es un poco
sí
para el video también
claro
eso es lo difícil
eso es complicado
sí
pues
por cerrarle ya
el último tema
y tal
que lo hemos mencionado antes
pero creo que es interesante
recuperarlo
es la parte de startups
¿no?
que tú lo has dicho
de creo que
de aquí a 10 años
veremos empresas
de 1, 2, 3
personas
que potenciadas
con IA
tal
primero
¿estáis utilizando
IA vosotros
para vuestro trabajo?
a saco
GPT
Code
¿cómo se llama?
Cursor
Cursor
Emilio
le mete fuego
a Cursor
y cuando Cursor
se la tranca
con algo
pues directamente
con GPT4
y yo para cualquier
chapucilla
de frontend
de Javascript
que no tengo
mucha ideal
lo hago
con GPT4
y he empezado
a ver amigos
programadores
en sus empresas
utilizando
IA como Cursor
o cosas ya
un poquito más
evolucionadas
no hay
así
sí
lo estamos usando
muchísimo
sin ir más lejos
el logo este
que te da
TOC
pero efectivamente
o sea
pues se nota
que está hecho
con IA
porque no es perfecto
si lo hubiera hecho
un humano
pues sería
un triángulo
equilátero
y no sé
no es el caso
pero sí
lo usamos mucho
todo lo que podemos
y dentro del panorama
startups y tal
porque sé que
tengo un colega
que no sé si está por aquí
creo que antes
le he visto por el chat
que él tiene su empresa
y tal
y cuando estaba en Las Palmas
me comentaba
me comentaba esto
y dice
joder
tengo la sensación
de que estamos entrando
en una fase
donde hacer unas startups
va a ser tan fácil
entre comillas
o sea de que cualquiera
en su casa
por lo mismo que está pasando
en otros ámbitos
programar se vuelve más fácil
hacer arte
se vuelve más fácil
hacer una startup
va a ser tan fácil
que la competencia
va a ser feroz
y todo va a ser más dinámico
ya no
es difícil por ejemplo
no sé si tu proyecto
es magnífico
de aquí a cinco años
o sea si en tu cabeza
existe eso
ni lo intento
vivo al mes
exacto
es como bueno
a lo mejor mañana
sale un anuncio
de un nuevo tal
o yo qué sé
entonces es como
súper súper dinámico
y no sé
si esto cambia
el panorama
de innovar
de montar empresas
¿qué está pasando Javi?
sí
a ver
a corto plazo
yo digo
imagínate si alguien
tuviera las herramientas
que tenemos ahora
de IA
y se las llevara
al año 2000
sin que nadie lo supiera
y pudiera utilizarla
si tengo mi journey
tengo GPT-4
pues serías
sin tener que tener
la información del futuro
no como el almanaque
de regreso al futuro
simplemente las herramientas
y no sé lo que va a pasar
tienes una ventaja
competitiva
brutal
es que tú empiezas
a hacer imágenes
y tal
bueno te montas
te montas
Aterstock
te montas
lo que quieras
y con GPT-4
pues ni te digo
sería como tener
una varita mágica
en el 2000
ahora tenemos
esa varita mágica
pero no la tienes
solo tú
la tiene todo el mundo
todo el mundo
tiene su varita mágica
pueden cogerla
y agitarla
entonces
la competencia
pues se nivela
simplemente todos
tenemos
muchas más herramientas
entonces
¿qué va a pasar?
la eficiencia va a subir
en general
y eso suele ser bueno
para la sociedad
que hay mayor eficiencia
que se hace más con menos
pero a su vez
trae grandes cambios
sociales
muy rápidamente
que a corto plazo
pueden suponer
en lo que no queremos
¿no?
y que da pena
¿no?
y que
que hay que ver
cómo solucionar
¿no?
¿qué pasa si
va todo tan rápido
que de pronto
este trabajo
deja de ser necesario
¿no?
cómo esa persona
puede
mantenerse
en la ola
y hacer algo
relacionado con lo que hacía
u otra cosa distinta
y no quedarse sin trabajo
¿no?
pues esas son
las problemáticas sociales
que va a haber
y por desgracia
hay que enfrentarse a ellas
porque está pasando
está pasando muy rápido
y va a venir
entonces
pues
complicado
o sea
por un lado
es que guay
cuánta eficiencia
qué chulo todo
y por otro
da
da miedo
y bueno
yo sé que a ti no te asusta
tanto el tema
del AGI
y tal
porque lo has comentado
a veces
pero a mí sí me da
sí me da mucho miedo
sí me da mucho miedo
una inteligencia
que potencialmente
es más inteligente
una inteligencia artificial
que es más inteligente
que el ser humano
a mí me aterra
ese concepto
me da
me da mucho miedo
entonces
el escenario
donde la IA
donde perdemos el control
¿no?
de la propia inteligencia
de lo que hemos creado
ya
o sea
primero tendría que verlo
existir
y luego
luego me asustaría
todavía el concepto del AGI
me cuesta
creerlo
me ha vuelto más creyente
obviamente
después de
de los grandes saltos
que hemos dado
en los últimos años
creo que sí veremos
una inteligencia artificial
general
es decir
que sea competente
en la mayoría
de
la mayoría
de
sí
de cosas productivas
que hacemos los humanos
pero ya me cuesta
luego entender
qué sería una
una así
¿no?
por ejemplo
yo te digo
si
GPT-5
¿qué podría?
o sea
¿cómo verías tú
a GPT-5
más inteligente
que GPT-4?
vale
a ver
los modelos
actualmente
una vez que los entrenas
se quedan
estáticos
entonces yo
los imagino
los modelos
¿no?
como
eran un montón
de clavos
en una cuadrícula
y están todos tiesos
cuando entrenas
el modelo
como que le vas
dando martillazos
a todos los clavos
y se quedan
a cierta disposición
que eso es invariable
porque el modelo
ya está entrenado
y es un fichero
entonces arriba
tiramos una entrada
que yo la imagino
como unas canicas
en una disposición
concreta
las canicas caen
y como los clavos
los hemos torcido
empiezan a rebotar
y cuando caen abajo
caen en otra disposición
diferente
que es la salida
ahora mismo
está así
el modelo
no cambia
el modelo
es estático
los clavos
están tiesos
yo no puedo llegar
a estos niveles
porque no soy
un investigador
pero ya no sé
si GPT-5
o cual
me imagino
un modelo
que se esté reentrenando
continuamente
y que esos clavos
no estén tiesos
sino que se muevan
que se muevan
¿cómo?
pues con lo que va aprendiendo
¿cómo es tu cerebro?
tu cerebro es plástico
y conforme tú vas
aprendiendo
a lo largo de tu vida
tu cerebro
se va reentrenando
digamos
y vas abriendo canales neuronales
eso no ocurre
a día de hoy
en los modelos
y empezamos con cositas
los loras
que se acoplan
primero con driftwood
luego con los loras
y lo mismo
con el fine tuning
y tal
pero yo visualizo
que donde veremos
el salto
será cuando ese modelo
sea plástico
y en tiempo real
se estén cambiando
siempre
no sé cómo ves tú eso
tú conoces mucho más
que yo a nivel técnico
o sea la cosa es que
esta plasticidad
que tú dices
a nivel de funcionalidad
cuando el usuario la apruebe
yo lo que entiendo
que nos daría
sería como una capacidad
de adaptación
¿no?
pues que a lo mejor
yo le puedo enseñar
un conocimiento
y lo tenga adquirido
no un archivo
que guarda mis datos
y se lo mete en el prompt
con técnicas RAC
sino que directamente
la red neuronal
ha aprendido esos datos
pero vale
nos está dando adaptabilidad
pero de nuevo
es una función
que me puedo imaginar
porque yo sé que tú
la tienes
Javi López
ese nivel sí
pero la cosa es
me cuesta como visualizar
capacidades
donde la IA
se vuelva superhumana
siempre como que
nos pensamos
pues que
una IA
que para cumplir
un objetivo
tome estrategias
que nosotros
no podamos entender
¿no?
como el típico
movimiento 37
de AlphaGo
que cuando llega
al movimiento
es cuando de repente
dices
coño vale
ha hecho esto
esto
esto
pero a la larga
sí lo acabamos entendiendo
porque podemos interpretar
como los pasos
que ha dado
o sea
para mí la cuestión es
no sé si hay un punto
en el que a lo mejor
saturamos en el nivel
de AGI
porque no tenemos
ejemplos reales
de más inteligencias
que eso
¿vale?
puede ser
pero yo creo que
las sorpresas van a venir
de caminos inesperados
cuando esa plasticidad exista
o cuando
esa red neuronal
se esté reentrenando
continuamente
y esos clavos
ya no estén tiesos
sino que continuamente
se está moviendo
está quitando clavos
y está poniendo a nuevos
de pronto a lo mejor
emerge de ahí
una consciencia
y decimos
ostras
que ha tomado conciencia
de sí misma
esto ya es un elemento
de ciencia ficción
yo no soy investigador
no soy un científico
entonces
no sé
pero
pero me parece
que los tiros van por ahí
porque ahora
¿por qué no emerge
esa conciencia?
bueno
para empezar
porque es
input output
¿no?
no hay un bucle
no hay algo que esté
pero si eso lo dejamos
en ese bucle
esa plasticidad
y ese modelo
se está reentrenando
continuamente
pues a ver
qué sale de ahí
ya
y encima
tiene estímulos
tiene input
puede
le conectamos
más información
puede ver
puede oír
puede
bueno
va a ser
va a ser
va a ser curioso
de ver cómo evoluciona eso
sí
se llevarán
para mí la cosa es
ejemplos de GPT4
haciendo cosas que digo
ok
considero que es más inteligente
que tal
es cuando le
y es un ejemplo súper tonto
y muy poco útil
pero
cuando tú le pides
hazme un resumen
de Alicia en el país
de las maravillas
con palabras que empiezan
por A, B, C, D, E, F, G
y que te lo tira de golpe
y es como
qué hijo de puta
o sea que
qué bien lo ha hecho
y es cierto que aquí
no conozco a ningún humano
que tenga esa capacidad
a lo mejor
alguna mente privilegiada
pero que te pueda hacer esto
a esa velocidad
y esos son ejemplos
que digo vale
lo he visto
lo entiendo
y lo veo como algo
más inteligente
un GPT5
un GPT6
que sea más inteligente
que el humano
que le pueda empezar a llamar
Agi
o incluso empezar a soñar
con una Agi
es decirle
quiero que hagas
no una tarea
concreta
sino que dé el siguiente salto
que yo creo que 2024
2025
puede ser un año
para demostrar
si ese camino está abierto
o está cerrado
que es
a día de hoy
los modelos
de GPT2 a GPT3
el salto que se dio
fue de
la IA sabe resolver
la tarea sencilla
pero que en su momento
era muy compleja
de juntar trocitos de palabras
y que salieran frases
que fueran coherentes
y ya eso es como
lo hemos pasado
y lo hemos dado
tan por sentado
que GPT4 nunca se equivoca
GPT4
una vez me cometí
una falta de ortografía
y me asusté
¿vale?
porque es como
joder estoy
el meme ¿no?
de que es lo que
ella vio
pues vi una falta de ortografía
en GPT4
y eso me recordó
que claro
estos modelos
se pueden equivocar
pero la estructura
del lenguaje
que han aprendido
es tan buena
que es casi casi infalible
en el lenguaje
ahora mismo
estamos en un punto
donde la IA
puede resolver
algunas tareas sí
algunas tareas no
y estamos en ese punto
es el GPT2
de las tareas
por así decirlo
y está guay
porque algunas tareas
las resuelve
y dices
coño
que guay
programo
le pido
hazme la lógica
de esta función
bueno te la hace
hazme la lógica
de esta
ah no mira
aquí se ha equivocado
porque esto
bueno
en un futuro
se solucionará
yo creo que
GPT5
GPT6
lo que tiene que conseguir
es ser bastante sólido
en la mayoría de tareas
para que se empiece a convertir
en procedimientos
decirle
quiero que
yo que sé
que me configures
el ordenador
para hacer un directo
pa pa pa pa
con lo que la pantalla
no sé qué
no será una AGI
no le llamaremos AGI
será un impacto social
pero habrá subido
la marea hasta el punto
esto es como cuando
con el cambio climático
te dicen
no subirá la marea del mar
un metro
y tú dices
bueno pero es que un metro
no es tanto
no no un metro
es que se come toda la costa
pues a nivel laboral
lo veo así
es como si tú de repente
ya tienes procedimientos
donde la IA te hace todo eso
pues a lo mejor
ya hay trabajos
que empiezan a desaparecer
por completo
ya empieza a haber cosas
que y no sé
no le llamaremos AGI
entonces sí creo
que podemos llegar
a un punto de AGI
donde esto sature
en inteligencias artificiales
que pueden hacer
estos procedimientos
que los humanos
podemos hacer
me cuesta ver
más allá
el tema AGI
y eso no significa
que no podamos tener
AGI
que en ciertas verticales
puedan tener
comportamientos super humanos
porque ya lo estamos viendo
con Alpha Geometry
que salió hace poco
de DeepMind
que es la que te encuentra
bueno que te consigue
una medalla de plata
en temas de
problemas geométricos
o avances como AlphaFault
y tales como vale
en verticales
muy concretas
pues como nos ha demostrado
siempre
si la guía es estrecha
pues puede llegar
a mucha profundidad
entonces sí creo
que vamos a ver
como con datos
de superinteligencia
pero que
veo muchas probabilidades
de que a lo mejor
nos paremos cerca
de una AGI
y poco más
posible
que se entre en esa
planicia
¿no?
que se
esa meseta
y tal
pues yo no sé
yo veo la línea
exponencial
y me
algo a corto plazo
que va a ser
super útil
para las empresas
será cuando
cuando el rango
de datos
que GPT
o el que sea
puedan absorber
sea mayor
de forma que tú digas
oye
aquí están todos los datos
de mi empresa
por ejemplo
absolutamente todos
y en base a eso
pues te saque
insight
te saque reportes
te saque el panel
te saque estadísticas
e incluso
no solo eso
sino que te permita
ejecutar ciertas cosas
¿no?
y bueno
y están estos del
Rabbit
se llama ¿no?
que han entrenado
el primer modelo
pensado
para ejecución
para ejecución
en sistemas operativos
y tal
que yo creo que han sido
demasiado rápidos
y ya veremos
si no los barren luego
porque obviamente
Windows
o sea Microsoft
con Windows
va a querer hacer eso
y Apple
con sus Mac y todos
va a querer que sus sistemas
operativos tengan
tengan esa
esa ejecución
también
que tú hables
con tu sistema operativo
y ejecute cosas
por ti
y bueno
y unido a la de
que la seguridad
yo veo bastante seguro
todo
mientras sea
input
output
¿no?
como GPT4
que entran las canicas
está el modelo
tieso
como clavos
y salen
a disposición
lo veo bastante acotado
en cuanto a las reglas
de seguridad básicas
de que esa cosa
no cobre conciencia
y no se extermine
¿no?
pero en el momento
que pasemos
a algo más
de plasticidad
y esos modelos
se estén reentrenando
seguimos continuamente
y este se bucle
es cuando
a lo mejor
por haber leído
demasiada ciencia ficción
a mí me da más miedo
de que de alguna forma
ahí surja
esa consciencia
y cómo
cómo va a ser
su marco ético-moral
que va a pensar de nosotros
y cómo nos va a tratar
¿no?
en fin
eso ya es ciencia ficción
pero es que siempre me voy ahí
porque me encanta
pero es ciencia ficción
y ya con esto
cerramos
pero fíjate que a mí
el futuro que sí me da miedo
es el futuro
que se describe muy bien
y no me lo he terminado
pero me lo empecé a leer
porque creo que lo recomendaste
tú en Twitter
el libro de Mana
Mana
Mana
Mana
Mana creo que se llama
sí
Mana
no
a lo mejor no fuiste tú
entonces no sé quién fue
a lo mejor fue Victoriano
el que lo recomendó
Mana es una novela
que está disponible
online
en PDF
gratuito
y que habla de una IA
que hace de sistema
de gestión de una empresa
de una hamburguesería
ostras
no lo has visto
pues va a molar
porque es un libro
que se escribió
si no recuerdo mal
como en 2006-2007
Mana
viene de management
y empieza a hablar
como un chico
que trabajaba
en una hamburguesería
y bueno
que empezaron a meter
el primer sistema
de inteligencia artificial
que hacía la labor
de gestión
de la empresa
pues que
un sistema de visión
veía
como los trabajadores
funcionaban
y con un pinganillo
pues le iban comunicando
tú tienes que hacer tal cosa
tú tienes que hacer tal cosa
y como que la IA
iba optimizando
la acción de la gente
perfecto
para que empezara a funcionar
entonces todo el libro
va evolucionando esa idea
hasta bueno claro
esa empresa de hamburguesería
se empieza a hacer millonaria
empiezan a abrir
un montón de sucursales
empiezan a demostrar
que esto ya es factible
con lo cual otras empresas
se suman
y es como todo el cambio social
que se produce
hasta que el humano
queda completamente desplazado
y es heavy
porque eso
está escrito en 2006
y hay cosas
que son
cosas que han pasado ya
o sea que
a lo mejor
el
el visionario el tío
sí sí
pero es increíble
el tío
y es increíble
porque te dice
pues los sistemas de visión
funcionaban bastante bien
pero no fue
hasta que empezamos
a utilizar
las tarjetas gráficas
de las consolas
de videojuegos
que tal
y es como
en 2006
en 2006
claro claro
sí no sé cuál es la fecha
pero sé que era
antes de 2012
y empiezas a verlo
y dices
máquina
el basilisco aquí
hablándome
viene del futuro
viene del futuro
cuidado
pues está muy guay
y además es gratis
lo podéis sacar
de internet
se llama mana
M-A-N-A
vale
y con esta recomendación
chicos y chicas
pues este directo
ha finalizado
ha sido un súper placer
muchísimas gracias
me hacía mucha ilusión
tenerte aquí
para poder hablar
de la herramienta
y hablar un poquito
de esto que nos gusta
que además
van a apagar los neones
y todo
las luces
de no ser apagadas
no sé por qué
con los chulas que estaban
yo creo que es la IA
la IA te ha dicho
bueno ya
está tomando el control
pues nada Javi
mucha suerte
con Magnific
sigue pasándotelo bien
y viviendo la intensidad
de este tsunami
y espero que la gente
le haya gustado
la herramienta
la haya podido probar
si habéis tenido
la oportunidad
antes de que fallara todo
ahora cerrad por fin
el grifo
para que los usuarios
que han pagado
puedan seguir pagándolo
que está ahí
algún diseñador gráfico
de Inditex
diciendo
cabreado
cabreado
y nada
que mucha suerte
con todo
y chicos
chicas
si os ha gustado
compartid el directo
que seguramente
a más gente
le puede interesar
tenéis un par de vídeos
que echarle un ojo
el que va a salir
el domingo
que viene
que va a ser
sobre IA generativa
y sobre si la IA plagia
un tema súper interesante
y tenéis el vídeo
de la semana pasada
que es sobre
inteligencias artificiales
algoritmos de visión
que hacen búsqueda
en imágenes
por encima de GPT-4V
lo cual también
es bastante interesante
y es un vídeo
bastante chulo
Ale
hasta el siguiente vídeo
chao chao
muchas gracias
Ale