logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

¿Estamos dentro? ¿Estamos dentro? Creo que sí
Bienvenidos a un nuevo directo, directo improvisado, directo súper especial
donde no vengo solo y donde me vais a indicar si está
todo bien, si se ve como se debe de ver las cosas, pero estoy
aquí junto a Diego Rodríguez, CTO
CTO, no lo digo mal, de una de las empresas que ahora mismo están
explotando en redes sociales del ecosistema IA
y no es para menos. No sé si quieres presentarte
bueno, la empresa crea.ai
y bueno, para el que no sepa de qué va la vaina, voy a hacer simplemente
un ejemplo muy rápido y ahora pasamos a presentaciones
y todo, pero quiero que la gente entienda por qué lo que vamos a ver hoy
supone un antes y un después en el ecosistema de la IA generativa
voy a coger aquí el pincelito, ¿vale? Tenemos aquí puesto abajo
pues el típico prompt que podemos poner en un modelo generativo
una rana rosa encima de una seta azul
ahora mismo nos sale esto, ok
y vamos a pintar pues una rana rosa
a ver, vamos a coger aquí
uy va, ya me he liado con el pincel
a ver, ahí está, ¿vale?
sí, empiezan las notificaciones, espera, espera, espera
¿qué está pasando? ¿qué está pasando? ¿qué estamos viendo aquí?
vale, lo que estáis viendo aquí, chicos y chicas
es la llegada de la interactividad a los modelos de generación de imágenes
¿vale? algo que sabíamos que iba a ocurrir en algún momento
ahora contaremos un poco el contexto de dónde aparece todo esto
pero ciertamente me está saliendo una rana bastante amorfa en este caso
pero lo que estáis viendo es pues un modelo
ahora te preguntaré qué modelo hay por detrás
que eso creo que no lo llegamos a comentar
tampoco sé si me lo puedes contar
pero bueno
voy a entrar en detalle porque son muy técnicas más que nada
pero otras sí, las comento sin problema
claro, pues fijaos que en este caso lo está haciendo al revés
pero es súper interesante
aquí lo que estamos viendo es la llegada a la interactividad
estamos viendo modelos generativos, generación de imágenes en tiempo real
algo que ha tenido, ha estado bastante en tendencia desde hace un par de semanas
y que ahora ha terminado de explotar con la llegada de una herramienta como es Crea
que por ahora sigue en beta privada
porque si no creo que algunas GPUs por algún lado explotaría
y mi cartera
y tu cartera también
pero bueno, ahí tenemos aquí por suerte además a Diego
que ayer estuve hablando con él y con el otro compañero
con el otro fundador, entiendo, de Crea
hay que escribir los comentarios ahí
cuidado con los comentarios que son peligrosos
y nada, básicamente son los que han generado todo el caos ahora mismo
con la llegada de esta herramienta
hoy vamos a tener la oportunidad de probarla en directo
ayer me dieron acceso, he estado jugando con ello
es completamente hipnótico lo que se puede hacer con esta tecnología
y quiero que Diego nos cuentes un poquito de todo esto
¿qué está pasando?
cuéntame, yo mientras voy a estar dibujando aquí para entretener al personal
antes de dar al personal, vale
bueno, no sé, ¿qué quieres saber?
bueno, mi nombre es Diego Rodríguez
soy uno de los cofundadores de Crea
junto a mi socio Víctor Pérez
que literalmente mientras estamos aquí hablando
él está haciendo reuniones ya con gente de Adobe
que están ahí como, quiero ver esta cosa
no sé qué
y hay gente ya escribiéndonos de todas partes
creo que de Ubisoft
de amigos que tengo en Figma
no sé, sí, o sea
todo el mundo está como mirando aquí
de repente
aquí a estos
en vez de estos cuatro gatos
estos seis gatos
pues somos seis
estos seis gatos
pues todo el mundo les está prestando atención
en las burbujas de tecnología y diseño
y bueno, o sea, claro
nosotros siempre hemos creído
que esto era una tecnología
como lo está sintiendo la gente ahora
solo que, pues, como dicen algunos
o sea, la humanidad está lista ahora
para recibir esa información
nosotros
yo lo he creído desde hace dos, tres años
y mi socio desde hace aún más
o sea, el tío lo vio
en segundo de carrera
él además él venía de
para introducir a mi socio un poco
Víctor
y amigos
o sea, nos conocimos en la uni
y él venía de un background muy creativo
o sea, de
de hacer
desde grafitis
hasta
él estaba a punto de entrar a un conservatorio de música
pero
pero luego dijo
a lo mejor
pues a lo mejor
no me voy a poder conseguir trabajo
si solo toco la guitarra
¿sabes?
y
y al final
hizo
o sea, sí que tocó la guitarra muy bien
pero hizo ingeniería en sistemas audiovisuales
porque él dijo
no me quiero alejar de esto de la creatividad
y en segundo de carrera vio lo que la inteligencia artificial hacía
que esto es hace ya
siete, ocho años
que podías como medio modificar una cara en tiempo real que no existía
y ahí
y yo me acuerdo
o sea, yo recuerdo
es que desapareció
o sea, el tío desapareció
de
en las clases no estaba
en la biblioteca
estaba estudiando solo por eso
o sea, le vino como el
what the hell is this thing
o qué es esto
que de hecho, bueno
esa época que comentas tú
estamos hablando de la época
donde la IA generativa
realmente eran las redes generativas adversarias
¿no?
la época de las GANs
sí, exacto
es curioso porque
porque lo hablábamos ayer
que esto conecta de nuevo un poco
con aquel pasado
porque
para poner contexto
¿no?
al final aquí
lo que hemos vivido en los últimos años
con la aparición de Dalí
con todas estas
inteligencias artificiales
de generación de imágenes
son
la llegada de los modelos de difusión
los modelos de difusión
lo que te aportan
pues es
una diversidad en la generación
y una calidad sin precedentes
pero los tiempos de inferencia
son mucho más lentos
las GANs
por aquel entonces
se notaba resultados impresionantes
pero
y los tiempos de inferencia
eran mucho más bajos
con lo cual
sí habíamos visto
algunas aplicaciones
de este estilo
de generación en tiempo real
pero claro
no con la diversidad
y la calidad
de los modelos de difusión
esto es la primera vez
que estamos viendo algo así
y
claro
o sea
claro
no sé exactamente
el background de tu audiencia
entiendo que por el nombre
algo de data science
saben
pero
algo saben
hay diverso
hay diverso
claro
pero no
a mí no me
no me gusta
ir a muy técnico
porque creo que
no hace falta ir tan abajo
para
para
como dice
Marvel
o sea
quedarse
como
en
casi
no sé cómo decirlo
como maravillado
por lo que
lo que bueno aquí
yo el otro día
es que tenía
justo hace nada
hace 3-4 días
estuve como
no una epifanía
pero

como una
como un
un clic
que te hace
a ver si tú lo habías pensado
mira dime tu opinión en esto
o sea
claro
los modelos de difusión
como funcionan es
cojo ruido
no
y si ya está
que lo puedes hacer en cualquier programa
en el photoshop
o el que sea
y
mediante
haciéndolo inteligentemente
haces un denoising
que es quitar el ruido
pero quitas el ruido
de una forma
que aparece
lo que quieres
mediante
guías
guiación
guiándolo
mediante un prompt
que se hace a partir
de entender el lenguaje natural
pero puedes guiar
a través de otras cosas
que eso es lo que estamos trabajando aquí
en plan
como guío
en base al color
como guío
en base a la posición
como guío
en base a las dos cosas
incluso estás pensando
tiene sentido guiar
en base a la voz
mientras estás dibujando
como
porque dicen los artistas
están dibujando
y dicen
es que me gustaría
que fuera todo
como un poco más oscuro
y de repente
te da ahí un poco
¿sabes?
pero ya veremos
entonces claro
así funciona
pero ¿en qué me quedé
pensando yo?
a mí personalmente
cuando a mí me hizo
como click
todo en la uni
y a mí también fue en la uni
pero no exactamente con IA
a mí fue la compresión
y la verdad mía
que freaky
o sea
¿por qué la compresión?
o sea
a mí me flipó
porque por primera vez
nos dijeron en la carrera
hey
vas a entender
cómo funciona JPG
y yo
ah anda
nunca me había pensado
en pensar
cómo funciona JPG
en plan
¿por qué
una imagen
si es de 100% píxeles
y cada píxel
son tantos kilobytes
tú multiplicas
pues te tiene que salir
una imagen
de no sé cuántos megabytes
pero luego tienes ahí
una imagen
que son 10 kilobytes
y se ve casi igual
y tú como tío
¿qué está pasando aquí?
claro
y lo que están haciendo
es como comprimes
y comprimir
lo que la definición es
quita redundancia
¿no?
que por eso es que
si yo te digo
hola Keta
la gente ya en su cabeza
hace el tal
ya sabía
que ibas a decir
entonces se puede decir
que el tal
es casi que redundante
y de ahí vienen
las abreviaciones
¿no?
de que la gente escribe
hola sin H
y con K
porque es como
¿para qué?
si es redundante
¿qué pasa?
que si sigues comprimiendo
como hasta el infinito
hasta el que
comprimir
no significa más
que predecir
de alguna forma
lo que va a venir
¿no?
si comprimes
hasta el punto
que es algo impredecible
¿cuál es la definición
de esa información?
es como la
la definición
de información
más pura
que hay
¿no?
es pura
información pura
distilada
limpia
¿no?
refinada
claro
eso como
esa clase de información
¿cómo se llama?
¿te viene la respuesta
a la cabeza?
¿entropía?
exacto
exacto
¿y qué es la entropía?
¿cómo definirías algo
como entropía
como si fuera una imagen
que no puedes predecir
ningún píxel?
caos
o sea aleatorio
exacto
es caos
random
ruido
y hay un momento
me estás diciendo
que
cuando decimos
ay tío
estás haciendo mucho ruido
en plan
ve al punto
ve al grano
no no
al revés
la definición
de información
máxima
es ruido puro
¿sabes?
yo estaba como
pero bueno
sobre esto
hay un vídeo
de un canal
de divulgación
muy antiguo
pero de los primeros
que es Visos
si no recuerdo mal
que tiene un vídeo
hablando de esto
y para mí también
fue muy relevante
cuando lo vi
porque te hablaba
de la conexión
entre la aleatoriedad
la predictibilidad
la entropía
y es cierto
lo que tú dices
o sea un sistema
que es muy entrópico
que tiene mucha aleatoriedad
al final se vuelve
mucho más difícil
de predecir
y de comprimir

no es que no puedes comprimirlo
es que es información pura
es el límite
claro pero
ahí es donde está
la cosa loca
que es como
espera un momento
entonces técnicamente
cada foto
todas las posibles fotos
del mundo
por ejemplo
512x512
pues todas las permutaciones
de ruido
de 512x512
es literalmente
toda la información posible
que hay
como quien dice
en esa imagen
por decirlo de alguna forma
aunque claro
estamos hablando de RGB
puedes añadir a más canales
y si añadimos alfa
ahora añades ruido
en el canal alfa
y si te inventas canales
entonces claro
hay muchas cosas
que todavía no entendemos
de la humanidad
pero claro
cuando ves eso así
dices
claro pero entonces
es como que
el lenguaje
o sea
antes de ir al tema
del universo
porque es que
este me relaciona a mí
que no íbamos a entrar
a los técnicos
ni a los tales
esto no es técnico
no no
si no es técnico
pero filosófico
es un rato
yo estoy aquí
mientras generando
como
esto es como
el reproductor
de Windows Media
antiguo
que mientras
escuchaba el sonido
estaba
las cinemáticas
entre medias
yo te sigo
aunque tú me veas
aquí entretenido
yo estoy
si
te pareces a mi madre
cuando le hablo
y está con el móvil
y dice
si si te estoy escuchando
te estoy escuchando
yo le hago una pregunta
y
un momento
porque
a mí se me escucha bien
a él se le escucha bien
podéis confirmar
bueno
yo escuché
yo vi que el pelado
se escucha bajito
eso soy yo
a ver
pero si no
estoy muy cerca
del micrófono
no me puedo acercar más
yo te escucho perfecto

vale
la gente dice
que es sorprendente
lo que ven
o sea
la gente está flipando
con la herramienta
ok
vale
y eso es un
buen feedback
te voy a
termina la reflexión
no quiero cortarte aquí


esto es para
cómo de dónde vine
y luego podemos hablar
cómo empezó
cuál es el futuro
tal tal tal
a mí es que
o sea
yo es como que ahora
o sea

en parte
medio
no sé
puedes llamarlo egocéntrico
o no sé
que es como
ah la gente me está prestando atención
pero es como
ya que la gente me está prestando atención
me gustaría pues
hablar
sobre lo que yo
he perseguido
toda mi vida
de forma
casi accidental
total
que
claro
cuando ves esto
de lo que te está diciendo el universo
claro es como que
para mí es como un momento
entonces como que
el lenguaje del universo
es ruido
y lo demás es redundante
pero luego pensé
ok
pero si todo es redundancia
vámonos al otro lado
todo es repetitivo
todo es
porque claro
las imágenes son redundantes
por eso las puedes comprimir
JPG
lo que hace dentro
es que
yo que sé
a lo mejor
tu bigote ahora mismo
dice bueno
la parte central
del bigote
es todo negro
así que no hace falta poner ahí
todos los pelitos
para un vídeo de 1280
720
o sea de high definition
con poner ahí un cuadrado negro
ya suficiente
y la gente
tu cerebro también
rellena información
entonces claro
es como ok
lenguaje del universo
ruido
me voy a todo el rato
que es lo contrario
redundancia máxima
y que pasa
que tienes
aburrimiento
o sea que es
o tienes ruido
que es como molesto
annoying
o tienes aburrimiento
que es como una canción
que todo el rato lo mismo
en plan
y yo como tío
vale que sí
que el reggaetón
que tú
que es como por favor
añade algo más
claro y por eso
tienes que añadir ahora
la variación
de ahí viene la entropía
tienes que añadir un poquito
de caos
y de repente
Bad Bunny ahí mete algo
y es como
ay que guay
el drop
el drop
¿no?
en tecno y tal
es como que lo empecé a ver todo
y yo guau
ok
o sea lo empezaste a entender todo
como en clave de
el punto
hay que buscar el punto dulce
entre aleatoriedad pura
y monotonía pura
exacto
y claro
la cosa es que cuando haces eso
eso es lo que nosotros llamamos
no sé
arte
bonito
estético
es como tío
pero porque
hay un cierto punto
entre entre pie
y no sé qué
que a la humanidad
pues le gusta
¿sabes?
la humanidad dice
esta cantidad de ruido
me gusta
me gusta mi cerebro
y yo estaba pensando
no sé por qué pasa
pero ok
y claro
aquí es donde entra la IA
que dije
claro
entonces lo que están haciendo
los modelos de IA
es que están aprendiendo
y quejo
ojo
esto es a lo mejor paranoia mía
yo no he publicado ningún paper
sobre el tema ni nada
pero yo digo
a lo mejor lo que le están haciendo
los modelos de difusión
o la IA en general
están aprendiendo
a entender
la información
del universo
el ruido y ya está
y están aprendiendo
a comunicarse
con los humanos
es como voy a coger
esta información
y le voy a añadir redundancia
de una forma
con la guía que tú me digas
voy a transformar
esta información
en lo que tu cerebro
como que resuena
y de repente dices
rana
pues voy a coger
este trozo de información
y lo voy a convertir
en una rana
y de hecho
si tienes algo
como dibujando ahora
exacto
el cohete que tienes
esto viene a partir
de un dibujo de ruido
si no lo tocas
lo dejas tal cual
como está ahora
y le das a lo que cambia
la SID
claro
lo que cambia la SID
lo único que hace
es coger otro tipo
de ruido
y otro tipo de ruido
y otro tipo de ruido
como que estamos cogiendo
distintos trozos
de información
del universo
de donde sea
¿no?
whatever
y lo estamos transformando
en algo que cuadra
con lo que a ti humano
te gusta
como cohete
hacia la luna
y claro
yo ahí me quedé
como
ok man
yo
yo ahí quedé
como yo no sé
qué es esto
pero vamos a hacer
una demo
y ahí me quedé
como definitivamente
I want to pursue this
o sea voy a perseguir esto
y vamos a ver qué sale
esa es como
como la inspiración
y la
como
como es la palabra
lo recurrente
de
compresión
de información
de inteligencia artificial
tiene que ver
con el universo
aunque yo no haya estudiado física
y estas cosas
de yoga
pues
de universo
a universo
porque ya he creado aquí
yo mi propio universo
directamente
no estaba viendo lo tuyo
o sea lo tengo como en delay
pero
sí sí
pero
pero realmente sí
o sea lo que dices
es fascinante
porque yo mi forma
de entender los modelos
de difusión es
bueno lo que es
un mapeo
una forma en la que
hemos conseguido
de la distribución
del ruido aleatorio
de ese caos
de esa aleatoriedad
encontrar un camino
que te lleva
al lugar
a estétic
donde todos los valores
todos los píxeles
se colocan
y realmente es fascinante
y
a mí
todo lo que me pasa
con la IA generativa
sobre todo de imágenes
es que
la entiendo
como que si esto ha funcionado
esto tiene que seguir funcionando
con otros tipos de datos
y hay
hay problemas
donde
yo que sé
generación de proteínas
y cosas similares
donde
esto acabará funcionando
y es fascinante
o sea porque no hay nada
todo es información
o sea que
lo que esté resolviendo aquí
se aplica a otras cosas
por eso
de hecho
esto hace dos años
cuando estábamos empezando
y Víctor estaba leyendo
los papers de difusión
él estaba como viendo
el origen
él decía
quiero verme
de dónde viene esto
cuál es la idea original
y viene de física
y termodinámica
total
y era como
ah pues no me extraña
eso es como
pues claro
¿no ves?
bueno
para poner en contexto
un poco a la gente
de lo que ha pasado
y de la empresa
y de todo
que esta herramienta
realmente
ahora mismo
tal cual es
y por cómo está explotando
se apoya
en un trabajo
que son los LCMs
¿no?
que serían los
Latent Consistency Models
si no recuerdo mal
que viene a sustituir
lo que eran los LDMs
que son los Latent Diffusion Models
LDM
lo podemos entender
como los modelos de difusión
típicos
de Stable Diffusion
y todo esto
y los Consistency Models
lo que trae sobre la mesa
además
o sea además de cambios
en cómo funciona y tal
pero lo que aporta
y que le da tanto valor
es el tiempo de inferencia
es como que te permite
en menos steps
en menos pasos
llegar
a un resultado
medianamente parecido
o sea medianamente estético
con un nivel de detalles
similar
de hecho ayer hice el experimento
en Twitter
puse cuatro imágenes de gatos
dos creadas
sin LCMs
con 30 steps
otras dos
con tres pasos
y la gente no encontró
la diferencia
lo cual
es bastante llamativo
si reducimos los tiempos
de los pasos
del modelo de difusión
reducimos el tiempo de inferencia
y aquí estamos hablando
de que los tiempos de inferencia
se reducen
pues proporcionalmente
al número de steps
a lo mejor
tienes un orden de magnitud
menos en inferencia
lo cual te lleva
a ver herramientas
como esta
o sea herramientas
que donde
es tan rápida
la inferencia
que si yo muevo
el cohete
todo esto
cada fotograma
que estamos viendo
que se genera
que por cierto
cuando estás dibujando
con el pincel
no se actualiza tan rápido
como cuando muevo
los elementos
¿puede ser?
cuando

eso es un detalle
de implementación
pero sí
lo vamos a mejorar
exacto
o sea que lo más
tiempo real
que la gente puede ver
que funciona esta herramienta
es cuando muevo el cohete
ver cómo se actualiza
a la derecha
y es increíble
o sea
a qué velocidad
estáis generando aquí
imágenes
creo que eran
la última benchmark
o sea
como la última medida
que hicimos
y lo estamos
optimizando
a medida
que estamos
hablando
ahora mismo
está el equipo
ahí
con el equipo
dos personas
fueron 80 imágenes
por segundo
y creemos
que podemos llegar
a mucho más
80 por segundo
y hay mucho
que hacer
en el sentido
de claro
por ejemplo
es como un vídeo
en un vídeo
tienes un fotograma
y al siguiente fotograma
99%
de los píxeles
son iguales
entonces técnicamente
yo podría
enviar solo
lo que ha cambiado
y lo otro
mantenerlo en memoria
y simplemente
aplicas este cambio
y ahora pues
de repente
no sé si
no creo que
10 veces más rápido
pero más rápido
y hay mucho
que hacer
o sea
yo cuando vi esto
fue como un mixed feelings
de alegría
de decir
it's working
inmediatamente vi
10 años de mi vida
de trabajo
aquí hay mucho que hacer
ostras
acabo de romper el sistema
una pregunta gente
¿se me escucha mejor ahora?
he subido el volumen
del micrófono
porque me estáis diciendo
que se me escucha
muy bajo
tampoco quiero saturar
mucho el micro
pero
a ver
¿me escucháis?
¿me escucháis?

vale
creo que me escuchan
mejor ahora
mejoró
mejoró
vale
he metido una imagen
sin querer
dentro del sistema
oh
no
no
no
no
has descubierto
un mystery
¿no te lo sabías esto?
¿no te lo dijimos?
o sea
ayer cuando lo arrastrabas
se ponía en pantalla completa
pero ahora se ha puesto
en pequeñito
claro
es que simplemente
ponemos una imagen
y
para hacértelo fácil
para ti
te la ponemos en grande
y en el centro
pero luego
tú puedes poner imágenes
ahí donde quieras
¿sabes?
vale
lo que pasa es que
a medida que pones más imágenes
no hemos optimizado
el
el lienzo
¿no?
el canvas este
no lo hemos optimizado
con lo cual
vas añadiendo imágenes
y no vamos sustituyendo
a la anterior
con lo cual
se va como llenando de imágenes
y cada vez va un poco más lento
pero va
lento en el navegador
la GPU sigue yendo rápido
pero eso
bueno
es culpa mía
lo tengo que arreglar
todas las culpas
aquí a
a Diego
aquí la gente
me está preguntando
realmente
que cómo se puede acceder
a la herramienta
y todo esto
¿quién se encarga
de solucionarles?
nadie me ha hecho esa pregunta
no
o sea
bueno
estamos
la forma en la que
se va a acceder
o sea
siendo honesto
todavía no
no lo sabemos exactamente
cómo vamos a lanzar esto
más hacia el público
ahora mismo lo que hicimos fue
vamos a coger
amigos
que a ti ya te conocíamos
un poco y tal
y a gente
medio cercana
o gente de diseñadores
fotógrafos y tal
de todo tipo
fotógrafos
diseñadores
film directors
y influencers
algunos con 20 followers
otros con 50 mil followers
luego están super stars
como tú
vamos a escribir
a mucha gente
y vamos a ver
cómo evolucionar
el sistema
y literalmente
yo tengo aquí
en otra tab
lo tengo
o sea yo estoy
mientras estás aquí
estoy monitorizando
el tema de
gpus
a ver cómo va
y bueno
veo que va
bastante estable
entonces
claro
eso es lo que
te digo
ya me encantaría
poder hacer esto mismo
con Sam Alman
que cuando use chat gpt
esté ahí al lado
el tío
vigilándome las gpu
y diciéndome
carlos
va bien
tranquilo
puedes seguir usando
chat gpt
y no pasa nada
es un privilegio
tenerte aquí
bueno es que
esa es la cosa
que es como gracioso
mira
es que tengo tanto
que hablar
y creo que tengo tiempo
bueno
yo voy a ir hablando
y yo estoy aquí
obviamente con el telegram
y tal
mirando mensajes
pues explotan todo
pero
es gracioso que digas esto
por varias cosas
por una
yo
cuando estaba en la carrera
y un poco después
yo estaba leyendo
sobre Sam Alman
y Paul Graham
que es como el fundador
de Y Combinator
y fue como mentor
de Sam Alman
y claro
yo veía como lo que decían
y yo como que
muchas de las cosas
que ellos decían
yo las aplicaba
a creado
yo digo
yo voy a empezar mi empresa
voy a hacer lo que esta gente dice
y una de las cosas
que ellos dicen es
tío
la gente
odia
como
bueno no odia
pero no sé
como que no les gusta
que les trates
como de una empresa grande
de
te escribimos en tres días
de laborales
y yo como tío
que es un día laboral
donde empieza la labor
yo estoy trabajando
todo el rato
yo que sé
y es como que
este lenguaje corporate
que yo creo que
tiene su
¿cuál es la palabra?
su motivo
yo todavía no sé cuál es
pero sé que hay un motivo
las cosas
nunca se hacen sin motivo
y lo que dicen ellos
es cuando eres pequeño
o sea
se approacha
o sea
da la cara
eres una persona
no eres
una entidad
corporativa
es como
bro
lo hemos hecho aquí
en mi apartamento
somos
tres cuatro
esto es
mi tienda Víctor
somos tres cuatro
y
aquí estoy haciendo
como quien dice
la
la entrevista
desde la cama
¿sabes?
o sea
es una cosa
que me sorprendió ayer
cuando contacté con vosotros
porque claro
yo solo había visto
la parte corporativa
de Crea.EI
había hablado con vosotros
por la cuenta
y yo no sabía que esperarme
yo no sabía si me estaba conectando
con yo que sé
una oficina
una empresa
donde íbamos a hacer una call
o qué
y me encontré con vosotros
y fue muy guay
porque es como
joder
creo que es un mensaje chulo
también para la gente
que nos está viendo
de muchas de estas
grandes tecnologías
o estos grandes productos
que se están construyendo ahora
o sea
debería de venir
pero es que no viene
de las grandes empresas
viene de gente como vosotros
que sois entusiastas
que un día montáis
una demo en casa
y decís
coño
hemos tocado una tecla
y esto funciona

de hecho
que es gracioso
que lo digas
porque literalmente
es que
es súper gracioso
o sea
hicimos una fiesta en casa
y montamos esto
pero en vez de dibujar
con la webcam
y la gente estaba
en la fiesta
aquí en San Francisco
la definición de fiesta
es muy distinta
a la definición de fiesta
en España
os lo hago
os lo digo desde ya
para bien o para mal
es distinto
o sea
no hay alcohol
por ejemplo
bueno
cero
o sea la gente bebe agua
o
y a veces
si Coca-Cola
y te dicen
bueno si es de dieta
y hablan
como de
inteligencia artificial
reactores nucleares
yo creo que
a mucha gente
ese concepto
le modaría

por eso
vinimos a San Francisco
porque dijimos
este es el sitio
enfocarse en esto
y total
que estamos
haciendo esta fiesta
meeting de amigos
y tal
pusimos como la tele
que tenemos
nuestras métricas
el panel de métricas
es literalmente
compramos una tele
lo pusimos
en vez de la chimenea
la tele
y cada vez que ves a la chimenea
ves las gráficas
y dice vale
parece estable
para tenerlo como siempre
en la mente
es muy
a lo loco
pero es que
es como mola
que cada vez que te despiertes
ves las métricas ahí
y se va todo bien
y
y total
que cambiamos las métricas
por
la cámara web
con la demo esta
en base a una cámara
que pusimos que miraba
la fiesta
y veías a la gente
así como haciendo así
y dibujando
no sé qué
y luego cogimos ese código
y lo adaptamos para ahí
si dibujas
en vez de la cámara web
y ahora estamos diciendo
la gente está como
quiero usar el ipad
y dijimos vale
hay alguna forma
de hacer streaming
desde el ipad
para ponerlo
en el canvas de crea
de forma que tú dibujas
en el ipad
pero tienes el output
desde tal
y bueno
spoiler alert

spoiler alert
ya está hecho
spoiler alert
no lo voy a desplegar
porque si no explotará
el director
pero se va viniendo
va viniendo
o sea hablemos un poco
de la herramienta
porque
es curioso
se nota que habéis tocado
un punto clave
que representa
lo que son las herramientas
en el futuro
es decir la interactividad
yo después de haber probado esto
yo no puedo volver
a stable diffusion
y esperar 20 segundos
por una imagen
o sea no
no puedo
vale
pero claro
todavía queda mucho
por pulir
lo hablábamos ayer
en privado
de que vosotros
al final
no es que hayáis tenido éxito
ahora
porque habéis tenido éxito
sino que lleváis tiempo
persistiendo
en buscar interfaces
exacto
nuevas
nuevas formas
de interactuar
con esta nueva tecnología
y no
y esta no es la definitiva
y seguiréis iterando
y recibiréis mucho feedback
de los usuarios
pero a mí me pasa cosa
os comentaba ayer
de yo cuando estoy creando
bueno estoy creando
perdón
perdón
que la gente se me asusta
cuando estoy
moviendo elementos
de colores
por la pantalla
no estoy mirando
eso es creando con K
exacto
joder muy bien
me gusta el truco
cuando voy creando con K
yo estoy mirando
el resultado final
porque es tan interactivo
y es tan rápido
que voy fijándome
a la derecha
y no tanto en el canvas
original
donde estoy
moviendo los elementos
y es curioso
entonces
cosas como las que has comentado
de tener un iPad
y poder dibujar
y ver en tiempo real
como se genera
pues tiene que ser la leche
es que

yo pensaba que eso iba a ser un problema
pero luego me acordaba
de cuando yo hacía 3D
que tú estás con el
con el Blender
o Maya
o 3D Max
y claro
tienes como el cubo ahí
en low poly
o sin texturas
y vas como moviendo
y vas mirando el render
en tiempo real
que va como
que primero empieza
con mucho ruido
y luego se va como
como refinando
y entonces me recordó
mucho a eso
y dijimos
sí, sí
es que
es que por ahí va la cosa
y entonces estamos
como tirando el hilo este
de ver que tienen
como un Photoshop
con 3D Max
con Maya
con ZBrush
con Illustrator
con AutoCAD
es que es todo lo mismo
lo que pasa es que ahora
pues tienes un motor
de rendering
llámalo inteligencia
hemos metido un cerebro ahí
que no entiende
o de 2D
o de vectores
o de píxeles
o de 3D
entiende todo
entonces nosotros decimos
vale
pues como hacemos
así como hay
la herramienta del 2D
de píxeles
Photoshop
hay la herramienta de Illustrator
hay la herramienta
de diseño
de user interfaces
con prototipos
que es como un caso
particular
de Photoshop
que sería
Figma
y estos
y hay herramientas
de 3D
pues dijimos
cuál es la herramienta
de AI
y claro
siempre ha sido
esa la idea
que ahora
todo el mundo
lo ve como obvio
pero hace 1 o 2 años
es que lo explicamos
y cómo vais a hacer dinero
y quién quiere esto
y no sé qué
y a día de hoy
yo es como pues
no sé
vamos a verlo
claro
me ha desaparecido
una
ah no mira
ahora me acaba de aparecer
es como que hay
cosas que desaparecen
y aparecen en la interfaz
ya te iré pasando
el report luego
de books y cosas
me lo envía
por Twitter
o lo que sea
y yo me lo miro
todo
ahora
eso es lo bueno
de tener como
pocos usuarios
allá
ya están
que tenemos como
lo tenemos ahí como
en pin
o varios links
en bookmarks
diciendo aquí están
los mensajes
con Carlos
aquí están los mensajes
con Martin
aquí están los mensajes
con Zurea
aquí están los mensajes
con tal
y claro
vemos como lo que tienen
en común
y por ejemplo
vemos que ya hay gente
que pide cosas en común
y eso suele ser
nosotros decimos
que cuando personas distintas
de bookmarks
completamente distintos
incluso distintos idiomas
piden lo mismo
ahí hay como verdad
ahí hay algo
que es bueno
ejemplo
Bipel es una de las personas
que ha usado esto ya
no sé si lo conoces
es un artista
artista
que fue bastante popular
con el tema de NFT
¿no?
y todo esto
y él
él estaba ahí como
estaba todo el rato
diciendo
what the fuck
is this shit man
what the fuck
this is crazy
me cayó
el tío
el tío era muy humilde
me gustó mucho
y claro
él
y Martin
y tú
estáis pidiendo
lo mismo
pero claro
no lo sabéis
ninguno de vosotros
ha hablado con el otro
y ahí es cuando dice
vale pues
cuando nos dicen
oh ¿cómo se dice
el roadmap
y el planning?
y es como

¿qué quieres?
esto
ok

programa
ya está
se acabó
que maravilla
vale
te pregunto
cuéntanos un poco
de la interfaz
porque yo estoy aquí
toqueteando cosas
y mientras te escucho
es como que mi capacidad
de dibujar
se reduce
más todavía
y quiero que la gente
pueda ver todo el potencial
o sea
algún ejemplo
que tú digas
ok
esto tienes que probarlo
que sale bastante bien
vale
y también cuéntanos un poco
los botones que tenemos
a la derecha
y un poco
lo que tenemos aquí
¿no?
el tema
un poco
muy por encima
de la interfaz
pero tampoco
quiero entrar mucho
en detalle
primero porque está cambiando
vale
con un feedback vuestro
y otra gente
y
y segundo

o sea
también porque ya
estamos pensados
hacer tutorial y tal
pero bueno
puedo explicar
como
que lo que quiero explicar
es como
no quiero perderme
en los detalles
de la interfaz
quiero hablar
de las ideas
detrás
lo que vimos
por ejemplo
que la AI
es bastante
inteligente
y de hecho
tú también
como bueno
en el sentido
de
si tú tienes
como el pensamiento
de cohete
y haces un cuadrado
y un triángulo
literalmente
así es como
le escribes
a alguien
cuando estás
con un amigo
tienes una
servilleta
y dices
mira esto
como un cohete
aquí
pero tal
es como
tú lo entiendes
él lo entiende
entonces
la AI
pues también
lo entiende
o ese es el objetivo
¿no?
entrenarlo
para que lo entienda
pues entonces
digo vale
pues la gente
utilizará unas ciertas
formas todo el rato
que son
pincel
cuadrado
círculo
y de hecho
uno de los feedback
es el triángulo
quiero hacer casas
quiero hacer cohetes
quiero hacer flechas
vale vale
quiero un triángulo
lo entendí
lo entendí
que exigente la gente
pidiéndote triángulos
sí sí
claro
luego es como
madre mía
que van a querer
será una cosa
súper compleja
y es como
triángulos
ya ya
bueno
perdón

y bueno
pues eso
dijimos
ok
necesitan
primitivas
hacemos primitivas
luego hay gente
que pregunta
y de hecho
en el chat
ya estaban
¿cómo cambio el estilo?
y dice bueno
vamos a poner un estilo
que muchas cosas
se pueden hacer
con el prompt
pero la gente
no quiere
estar haciendo
prompt engineering
y nosotros pues
todavía no sabemos
exactamente
cómo tratar
el tema
de prompt engineering
no sabemos
si
tenemos que dar
control total
si queremos
que sea
como
para tontos
o las dos
como de
no
tienes presets
y una de las cosas
que también hemos pensado
es bueno pues
haces presets
y puedes compartir
tus presets de prompts
y te los guardas
y los compartes
y puedes sumarlos
¿por qué no?
pero a la vez
te doy la opción
de hacer custom prompts
y te haces lo que quieras
está ahí la idea
pero ya veremos
los estilos
no los hemos tocado
iba a decir
mucho tiempo
o sea
48 horas
los estilos
los tenemos aquí
a la derecha
que son como
los diferentes
cinemáticos
y lo único
lo único que hacen
es añadir
cosas al prompt
como
fotorrealistic
award winning
y de hecho
están mal
porque algunos
añaden cosas
como
no sé si
como
conceptos
como portrait
y portrait
está como asociado
a un retrato
de una persona
entonces a lo mejor
te añade una persona
donde no tendría que haber
una persona
entonces
tampoco está muy bien
nosotros
decimos siempre
nosotros vamos a hacer
presets
que medio funcionen
pero lo tenemos
claro
los mejores presets
lo va a hacer la gente
los artistas
nosotros no
total
y sobre
ya que estamos hablando
del prompt
claro
o sea aquí
el tema interactivo
lo que suma para mí
es un cambio de paradigma
por ejemplo
la parte del prompt
o sea tú puedes tener
una imagen
como esta que tenemos aquí
y en el momento
en que nos ponemos a escribir
vamos a ver
como lo de la derecha
empieza a cambiar
y claro
entonces eso ya te permite
explorar pues
el modelo que esté
no sé si es un
stable diffusion custom
lo que tengáis
pero es como que de repente
el prompt engineer
se vuelve mucho más
dinámico
o más orgánico
porque es probar cosas
pues yo que sé
a house
in the forest
fijaos que mientras estoy escribiendo
se está generando todo
with a
a ver
with a lake
oye el token
yo que sé
8k hd
como lo mejora
pues mira lo mejora

pues que esto es brutal
o sea de repente
el poder ver en tiempo real
el efecto que tienen tus prompts
cambia por completo
el concepto de
de trabajar con estos modelos
y lo mismo con la parte de
de los elementos en pantalla
el color
como correlaciona el color
con los elementos que tenemos
en la imagen
que pasa si este fondo
que ahora es verdoso
y lo entiende como naturaleza
lo cambiamos a
yo que sé
algo más
amarillento
a ver vamos a movernos
así al rojo
podemos como la escena
va cambiando
y va cambiando
todo el tono
toda la paleta de colores
y cambia
incluso el estilo
de algunos elementos
es brutal
no sé
es como ver estos modelos
con los que hemos trabajado
durante un año
año y medio
y hemos
ya ha sido una forma de trabajo
ahora sí una tortura
porque ya
viendo esto ahora
es como
¿cómo he podido aguantar
tanto tiempo
esperando
tanto tiempo perdido?
y eso es una señal
de que hay algo aquí
porque si todos los productos
te hacen
esa exacta
o sea responden
a esa pregunta
siempre
el
una vez
una vez
como con Uber
es como
tío
yo tenía que
tenía que esperar
a que apareciera
un taxi
¿qué?
¿cuál?
¿por qué me lo llevo
y viene?
¿sabes?
¿qué cómo?
que tengo que
llamar
al número de teléfono
y explicar mis datos
para que me hagan delivery
cuando lo puedes guardar
y que me
y tengas mi información guardada
y me la envíes por el rato
es como
pues aquí es lo mismo
es como
¿cómo he podido
estar
pensando en ideas
de forma tan lenta?
pues
y siempre
esa siempre fue nuestra visión
desde el día uno
pero nunca subí
sí que es verdad
que no supimos
cómo iba a surgir
pero dijimos
nuestro objetivo
hacer una autopista
de tu cabeza
a la realidad
eso lo dice Víctor
todo el tiempo
tú tienes una idea
y ahora mismo
hay tráfico
y tarda pues
de minutos
a días
a horas
a semanas
mucho
como
nuestro objetivo
es pues
teletransportar
esa idea
a la realidad
y lo cual
nos hace preguntar
nos hace preguntarnos
cosas muy interesantes
como
¿qué es un artista?
no abras esos melones
aquí por favor
que si no me las lío
y artista
también en el sentido
de diseñador
en el sentido
de ahora
ahora

es como
¿vendrán ahora
el valor
del diseño
de las mejores ideas
o también
de skill?
porque
también es curioso
porque hablar
con una AI
o sea
así como
una habilidad
de comunicación
entre personas
es una habilidad
o sea
tienes que aprender
a comunicarte
que hay muchos ingenieros
por ejemplo
cometen el error
de solamente
aprender a programar
y es como
vale
sabes hablar muy bien
con los ordenadores
pero no con las personas
claro
a lo mejor
no solo basta
con que tengas buenas ideas
tienes que saber
comunicarlas
con personas
y con AI
entonces
hemos visto
que por ejemplo
los artistas clásicos
tenemos a diseñadores
perdón

como concept artists
de Ubisoft
que probaron esto
y el tío
te hace
unos dibujos
a la izquierda
que dices
tío
eso ya es arte
y claro
no sé si puedo mostrar
muy rápidamente
déjame buscar
no sé si podemos
compartir tu pantalla
por cómo está organizado
esto
yo creo que se puede
hacer algo
pero dame un momento
déjame ver
si lo encuentro
o sea
a ver
la cosa aquí también
es que la gente
tiene que entender
esta herramienta
en mis manos
no brilla
porque yo no sé
coger el paint
aquí
y generar
nada interesante
perdón que te corte
pero mira
si puedes compartir
tú estás compartiendo
tu pantalla
con lo cual
puedes mostrar un tweet
que cuando lo vimos
dijimos
dijimos
ves a lo que me refiero
que es como
digo
what the fuck
o sea
esta persona
ya tiene un día
de experiencia con Crea
y ya está siendo
en plan
bueno pues
se fue
se fue
se fue todo
es que estoy flipando
que cuando lo vi
yo dije
es que lo vas a ver
y vas a flipar
le he pasado por el chat
vale
si puedes también
hay una pregunta
en el chat
que te preguntan
Rodrigo
dice
podrías preguntarle a Diego
qué tipo de conocimiento
fue adquiriendo
en todos estos años
para llegar a crear algo
como Crea
para los que estamos
incursionando en IA
es un poco confuso
seguirle el ritmo
a todos estos avances
desde lo técnico
y las herramientas
muchas gracias

mira
o sea
no te voy a dar
no te voy a dar el pescado
te voy a enseñar a pescar
que
cómo decirlo
aquí hay varias cosas
por una parte
bueno mira
primero
primero mira
lo que ha hecho
sí sí
a ver
es justo lo que yo he estado
dibujando todo este tiempo
tampoco hay tanta diferencia
eso es verdad
eso es verdad
no ahora
ahora me he picado
y ahora lo quiero hacer
claro
ahora quiero generar algo así
chulo eh
no sé
al final la IA
va a ser que más gente
se dedique a dibujar
bueno sí responde
perdona
sí pero no
es que también estoy flipando
lo estoy viendo ahí
como en el rey
y digo
yo es que todavía
no me lo creo
yo digo
pero tío
que te di acceso
no ni ayer
en plan
hace seis horas
sí sí
pero si la gente
que tiene talento
o sea aquí yo para mí
todo lo que estamos viendo
desde el mundo del arte
no es solo saber dibujar
no solo es la parte técnica
sino tener buenas ideas
y cuando ves a una persona
que tiene buenas ideas
que tiene buen desempeño técnico
y además le das una herramienta
como esta
es que
o sea es que vuelan
es que no
yo no le veo la preocupación
a la IA
te va a quitar el trabajo
porque esta gente
con estas herramientas
es que se convierten en dioses
de crear y tal
entonces bueno
está caliente la cosa
tampoco quiero opinar yo mucho
que
sí bueno
y tampoco sabemos realmente
la respuesta
lo estamos explorando entre todos
y con todo digo
la humanidad entera
está viendo esto
y están
estamos
o sea
what a time to be alive
que se dice en el blog
¿qué iba a decir?
vale
la pregunta
claro
la pregunta es un poco abstracta
un poco abierta
porque claro
¿a qué te refieres con
que has aprendido
para hacer algo como crea?
¿vale?
eso es un set de habilidades
que quieres abrir una empresa
quieres hacer una herramienta creativa
o quiero aprender
¿cómo aprendo sobre inteligencia artificial
en general?
como AI
para otras cosas
que no sean creativas
AI se usa para todo
para muchas cosas
¿no?
o
¿cómo aprendo a usar crea
para mi cosa profesional
como este tío
que ya está haciendo
conceparta
a la velocidad de la luz?
yo creo que la pregunta
iba un poco por
entender
si alguien está empezando ahora
en el mundo de la AI
hace cinco años
y tenía mucha gente
que me decía
oye Carlos
¿y esto de la AI
cómo funciona?
claro
yo hace
hace unos años
yo entendía
que lo que me estaban preguntando
es cómo puedo ser
investigador de AI
porque era lo único que hay
ahora tenemos
a nivel de producto
a nivel de servicios
puedes construir una startup
que tenga la AI integrada
en su modelo de negocio
como es vuestro caso
y que no tenga tanto research
como tal
fundamental
entonces yo creo
que se refiere un poco a
cómo
qué camino te ha llevado a ti
a estar donde estás hoy
con esta empresa
voy a responder también
a todas
porque creo que son
todas preguntas válidas
y muy buenas
y la menos interesante
quizás la de Crea
porque Crea
va a cambiar
y ya veremos
cómo lo enseñaremos
la AI
y estas cosas
son más fundamentales
que esta herramienta
que está por
explotar
bueno ya explotó
claro
a ver
voy a dar
consejo
consejo
como si me hablase
a mí
hace
10 años
aproximadamente
primero
sobre todo
si eres joven
y joven
la persona
o sea
solemos
asumir que joven
significa
muy joven
o sea no
joven va
bastante alto
entonces si eres
yo qué sé
hasta los 35
incluso 40
según tu situación
pero
si eres joven
sigue tu curiosidad
y es como
suena muy cliché
pero lo voy a intentar
concretizar
porque
es una de estas cosas
como el MMS
de la curva gaussiana
que es como
sigue tu curiosidad
no tienes que hacer
curso
vete al MIT
luego ve a Harvard
luego haz esto
sigue tu curiosidad
¿sabes?
que es como
en el sentido
de que
no
las
todos los grandes
descubrimientos
de la humanidad
todos
han sido
contraintuitivos
ordenadores
inteligencia artificial
el radar
gps
you name
todo
entonces
no hay
un playbook
para
llegar a conseguir
algo como esto
no lo hay
y te lo digo yo
ahora ya puedo hablar
yo ya lo decía
pero antes lo decía
con intuition
ahora tengo la prueba
de cómo llegaste a esto
que todavía no lo hay
que no hay ningún playbook
y cuando sigues tu curiosidad
lo que ocurre
es que empiezas
a desarrollar
una intuición
que la gente
normal
no tiene
y esa intuición
se retroalimenta
te ayuda
a descubrir
qué es lo que tienes
que aprender de verdad
nosotros hemos
chocado contra la pared
un montón de veces
diciendo esto
por ejemplo
una de las cosas
que a nosotros
nunca nos llamó mucho
es por qué no
entrenamos
nuestro propio modelo
y eso se desarrolló
en base a intuición
de intentar
entrar en modelos
y otras cosas
entonces yo lo que te diría
es literalmente
sigue tu curiosidad
pero que cualquier cosa
puede ser tu curiosidad
o sea
si te interesa la IA
pues lee sobre IA
busca sobre IA
luego
sobre el tema de
cómo me mantengo
al tanto
vale
yo lo que diría
es
aunque hay mucho ruido
información de calidad
hay muy poca
aún así hoy en día
o incluso hay más
pero que es muy poca
que es un porcentaje
minúsculo
y el problema es que
cuanto más ruido hay
más difícil es conseguir
esa información
por lo tanto
es irónico
yo lo llamo
la paradoja
de la abundancia
que es que
cuando la información
es abundante
paradójicamente
tienes menos acceso
a información
entonces
vale
¿cómo resolves eso?
¿cómo lo hago yo?
dedica bastante tiempo
a averiguar
cuáles son las buenas
fuentes de información
tómate
todo el tiempo
literalmente
todo el tiempo
que quieras
puedes estar meses
sin aprender
solo intentando ver
cuáles son buenos
sitios
porque va a valer la pena
te va a catapultar
años
de comer basura
a nivel de información
y yo he comido
mucha información
basura
me he comido eso
y luego pues
he tenido que estar
a dieta
de información
y me tengo que
limpiar el cerebro
te pregunto para ti
cuáles son tus fuentes
de información
¿cuáles serían
las fuentes de información?
una
mira
y un truco
si la página web
se ve a los 1990
o es la peor
fuente de información
que hay
o la mejor fuente
es otra vez
la curva de ausencia
por ejemplo
Paul Graham
el fundador de
Y Combinator
tiene unos ensayos
están solo en inglés
pero creo que hay
traducciones
dur
o sea tío
esos ensayos
tienen oro
o sea es oro puro
que yo digo
¿cómo no hay gente
viendo esto?
o sea
yo me acuerdo
que lo leí
y digo
¿por qué no descubrí
esto a los 16?
o antes
¿sabes?
paulgram.com
mira
me lo voy a apuntar
ahora mismo
o sea
os doy mi palabra
voy a apuntármelo
ahora mismo
que voy a hacer
yo tengo una página web
que es diego.computer
ya está
ese es mi dominio
y lo que voy a hacer
es voy a poner
para responder
a esta misma pregunta
porque me la han hecho
muchas veces
ya estoy cansado
de responder
a la misma pregunta
lo hemos conseguido
lo hemos conseguido chicos
por fin
yo estaba haciendo
este directo
era un pari pepa
que Diego nos hiciera
el recurso

vale
add
high quality
information
on your site

pero sí
o sea
sí estoy de acuerdo
contigo
en que
hay que saber
seleccionar
y filtrar
muy bien
la fuente
de información
porque
podemos acabar
intoxicados
por exceso
de información
y son tiempos duros
para eso
porque ahora mismo
o sea
la magnitud
de la IA
tal cual
se está viviendo
hoy en día
los avances
son tan rápidos
que yo creo que
incluso cuando el contenido
bueno
y hay un montón
de cosas de valor
no nos está dando tiempo
a exprimir al máximo
todo lo que hay
por lo rápido
que está yendo todo
y por la cantidad
de información
que nos llega
por todos lados
y tal
o sea
yo
me gusta mucho
twitter
me gusta mucho
estar ahí metido
y tengo
sigo a gente muy buena
para poder
nutrirme de todo
lo que sale
pero salgo agotado
o sea
salgo con la cabeza
que digo
y estresado
o sea
yo termino el día
y no termino
descansar
porque es como
joder
quiero tomar un tiempo libre
para sentarme
yo que sé
con mi pareja
a ver la tele
pero al mismo tiempo
tengo la cabeza
pensando
debería estar probando
lo último de Crea
debería estar probando
GPT 4V
debería estar haciendo GPT
y es como
por favor
que llegó un invierno
de la IA ya
que llegó un invierno
si
bueno bien
estamos en invierno
necesitamos descansito
vale pues sí
o sea
el tema de información
o sea
twitter
va a mí
me va muy bien
twitter va muy bien
cuando
es un poco lo mismo
pero
y lo voy a repetir otra vez
pero
no es tanto por información
para aprender
sino
twitter es mágico
en el sentido
de que te conecta
con gente
que
si tú tienes curiosidad
genuina con algo
y preguntas
como con genuina curiosidad
como has hecho esto
como funciona esto
que usaste para esa otra cosa
pues
es como una máquina
que te conecta
con otro humano
en algún sitio de la tierra
varios humanos
que están genuinamente
curiosos
por lo que tú estás haciendo
entonces twitter va muy bien
para eso
por una parte
y por otra parte
va muy bien
cuando
como lo que estoy haciendo yo
que es como
si te pones ahí a muerte
voy a modo
interactuar con la audiencia
entonces para
customer support
en público
la gente más
en las mismas preguntas
pues
respondo 5, 10, 15, 100
y luego hago un tweet
con la conclusión
de eso
y para eso va muy bien
twitter
para
esa clase de información
de transmitir información así
eh

bueno
Paul Graham
Sam Oldman
tiene un blog
muy bueno
también
eh
a nivel de inteligencia artificial
Víctor
recomienda leerse papers
y dices
pero claro
yo los leo
y no entiendo las mates
y el tío pues
te va a acribillar
te dice
que no entiendes
no sé qué significa
este símbolo
dice
lo has buscado
no
bueno
pues sigue
vale
y veas el símbolo
qué significa
no lo entiendo
qué significa
no lo entiendo
y es como
vale pero es que así
voy a tardar un año
en entender el paper
y dice el tío
ya pero me has preguntado
cómo entender el paper
pues yo te he respondido
y si
cómo lo hago
más rápido
y el tío dice
bueno no se lee más rápido
entiende más rápido
o sea
trabaja más
no no mami por ejemplo
con la demo
nos dice madre mía
habéis hecho esto
en un día
cómo es posible
habéis tenido que trabajar
20 horas
y nosotros como

es que no
no hay sustituto
para trabajar duro
quizá con un chat
con un chat GPT
podemos programar
un poquito más rápido
pero tampoco
te creas tú que
o sea
chat GPT ayuda mucho
pero
pero ahora mismo
para lo que es el
bleeding edge
lo que está
el filo
claro la AI
pues todavía no sabe de eso

pero bueno
pondré los recursos
mi sitio web
pues sí
a la gente le va a gustar
y si quieres
deja también tu handle
de twitter
en el chat
para que la gente
te busque
esto es muy freaky
o sea
es ASCII
Diego
A-S-C-I-I
Diego
ASCII como el código
de las teclas
de ordenador
ese es mi twitter
y luego
no sé
lo puedes dejar
en algún sitio
yo que sé
lo compartes
y mi sitio web
es diego.computer
y tengo también
diegovincent.com
pero no lo
no lo he configurado
todavía
pues sí
o sea yo pondré
cosas ahí
iré tuiteando
y pondré cosas
perfecto
no sé si quieres
hablar algo más
como bueno
las empresas
que claro
hay tantas cosas
hay muchos temas

o sea yo creo
que ya vamos
a ir cerrando
en breve
pero sí
te quería preguntar
un poco de
crea
hacia dónde
se va a mover
ahora
o sea al final
tenéis este producto
o sea la gran pregunta
de Silicon Valley
siempre que es
what is your mode
cuál es tu ventaja
del paper este
que salió
el artículo
que salió
de we have no mode
con el tema
de Google
y todo esto
aquí la pregunta
sería
vosotros
ahora que habéis
implementado
una interfaz así
qué camino
vais a seguir
y qué
visionáis
en qué queréis
convertir esto
y qué
os va a permitir
diferenciaros
de muchas otras
empresas
que también están
compitiendo
ahora mismo
en este sector

te voy a buscar
la respuesta
porque hice
un tweet
al respecto
vale
que bien
si que la gente
cree que lo
oiga en broma
y tú bueno
tómatele en broma
te pasa un tweet
es un poco
troll
pero
no sé
es como
a ver
qué te parece
es que
es que
el mío
vale
sería
cuál es tu
ventaja
mi ventaja
es que
tú estás
viendo
vídeos
o sea
que mientras
tú estás
viendo vídeos
de cómo
balancear
tu vida
laboral
y tal
yo estoy
construyendo
Crea
on Sunday
exacto
o sea
para ti
entiendo que los valores
detrás de lo vuestro
y me imagino
que todo el que esté
metido ahora mismo
en desarrollar algo así
es mucho curro
mucho curro
mucho trabajo
y es razonable
porque es que ahora mismo
la competitividad
que hay dentro del ecosistema
de startups
de IA
es enorme
en todos los sentidos
o sea
pero ya no solo es
tener un buen producto
sino
crear las alianzas correctas
venderlo en redes sociales
ser viral
tener
acceso a GPUs
tener
acceso a investigadores
todo
si
nosotros
bueno
o sea
la cosa es eso
eso es lo guay
que ahora
hay un montón
de gente
que nos escriben
o sea
mi email está
vamos
inundado
y el de Víctor
pues ya ni te digo
porque como eres el CEO
entonces como
el mode
también los recursos
tienes dinero
y es como
wow
o sea
hay un montón
de inversores
que nos están
escribiendo
pero hay tanto trabajo
que literal es como
prefiero endeudarme
a no trabajar
entonces como
me endeudo
y para pagar
esas GPUs
y sigo trabajando
luego
¿cómo se llama esto?
claro
nos escriben gente
de Columbia University
Harvard
MIT
para trabajar
con nosotros
luego un montón
de gente
y si quieres GPU
yo tengo GPUs
muchas GPUs
te las doy
barato
¿vale?
artistas
de eso
gente de Adobe
Ubisoft
lo que sea
y artistas
están como
quiero usar lo tuyo
luego hay gente
que ya nos ha dicho
podemos integrar esto
en una universidad
y de hecho
nosotros es como
si ya de hecho
ya habíamos integrado
unas versiones anteriores
de Crea en la uni
solo que ahora
como que todo el mundo
lo quiere
pero
nosotros llevamos
más de dos años
en esto
entonces
es como que
tenemos dos años
de experiencia
haciendo esta clase
de productos
mientras que la gente
se acaba de entrar
por ejemplo
bueno y dos años
de experiencia
trabajando
entre 12
y 16 horas
al día
o sea que son
quizá cuatro años
de experiencia
entonces
entonces sí
o sea
no pensamos mucho
en el mode
la verdad
o sea
no te voy a mentir
no pensamos mucho
y de hecho
por ejemplo
yo tengo amigos
que trabajan
en mi journey
y también me hablan
como de
o sea
ahora me están
escribiendo
pero
les digo
tío
quiero hablar contigo
pero es que
literal
que no doy abasto
que somos
te lo estabas contando
el otro día
que somos seis
la mitad enfermo
uno está
en una isla perdida
de África
que se llama
Mauritius
y el otro
está en Honolulu
Hawái
¿sabes?
y es como
y claro
12 horas de diferencia
y uno está
cae todo
y el tío de la infraestructura
está perdido
en una isla
ahí
con 5 millones
de habitantes
en total
un poco la filosofía
también de Mid Journey
que es un equipo
descentralizado
si no recuerdo mal
bueno
nosotros descentralizado
porque nos han forzado
o sea
nosotros queremos
trabajar todas
en persona
pero el tío
que está en Honolulu
pues vive en Honolulu
que de hecho
le dijimos
vente para acá
vente una semana
o sea
quiero que veas esto
y el tío
venga
yo digo
te pago el vuelo
pero vente
el tío vino
tres días
y estaba buscando
ya piso en San Francisco
dijo
sí sí
yo me voy
y el tío
que está en Mauritius
le estamos tramitando
una visa
o sea
para que venga
a trabajar
aquí en Estados Unidos
que ya
a ver si sale todo bien
y si sale
se va a venir aquí también
y hay gente
un tío que era de Alemania
que es un crack
o sea
crack
titus
se llama
se está convirtiendo viral
en Twitter también
él es el que hace las demos
muy buena
y él es un diseñador
o sea
él es el que se les ocurre
él es la persona
con la que quieres hablar
de las interfaces
el tío dice
por ejemplo
¿por qué no
cogemos ahora
un trozo de la imagen
y esto es una fresa
y esto es background
y esto no sé qué
¿por qué no añadimos 3D también?
¿por qué no
te permito
moverte en el tiempo
para que puedas ir viendo
lo que has ido dibujando?
ostras
qué guapo eso
vale
eso
te quiero preguntar
porque
a mí esta herramienta
me lleva directo
a otra cosa
y estoy todo el rato
probando con esto
y es hacer animaciones
o sea
yo lo veo
y me pongo
digo claro
es que
estamos todos peleándonos
generando una imagen
en mi journey
te la llevas a Picalabs
o a Runway
para ver si la fresa cae
y hace splash en el agua
y en cambio aquí yo
moviendo esto
falta consistencia
pero ya me está dando
como una especie de
ostras
de animación
que puede tener
medianamente sentido
¿no?
algo hay
algo hay
exacto
correcto
y eso fue lo mismo
que dijo Titus
él hizo la animación
de puedes mover el sol
y el tío dijo
introduciendo
puedes mover el sol
creo
y la gente
y claro
y la gente diciendo lo mismo
ah esto no tiene consistencia
esto
y es como bueno
ya estamos trabajando en ello
en consistencia
y
o sea

pero esa es la cosa
es lo que te digo
que ya no es una herramienta
de texto
ay perdón
de texto
de
de imágenes
de píxeles
de imágenes
o sea
es que es
es todo
es animación
es 3D
es video
y ¿quién te dice a ti
que una vez aquí
no hagas
ahora le estás haciendo el splash
imagínate que lo tienes
una vez lo tienes
dices
vale
quiero hacer copy
de marketing
¿quién te dice a ti
que yo no voy a meter aquí
mi propio large language model
que te ayude a hacer un copy
bueno
¿quién te dice a ti
que no voy ahora a coger esto
y te voy a darle un botón
que te lo automáticamente
te lo
te haga outpainting
y todo para
instagram
twitter
linkedin
y cambiando
el formato
en plan
en linkedin
vamos a hacer un post largo
y hablando de profesionalidad
en instagram
vamos a hacerlo snappy
y con colores
y lo que sea
en twitter
vamos a hacer un thread
todo eso automático
y pues claro que se puede hacer
y no
y nosotros
no sé
quizás somos nosotros
que somos
con la palabra
delusional
como estamos locos
delusional
que es como
no vas a poder hacer eso
pero es que nosotros
hacemos los cálculos
nosotros somos bastante
de first principle
porque hacemos los cálculos
y decimos
no sé
esto en una semana
o dos lo tienes
o sea
esto se puede hacer
y por eso
no
por eso no sabemos
cómo llamar a esto todavía
de hecho
muchos de los nombres
por cierto
el nombre crea
ni se nos ocurrió a nosotros
fue un tío que nos dijo
¿por qué no lo llamáis crea?
que es lo mismo que crear cosas
pero con K
y nosotros
bueno
30 dólares
pues vale
o sea
a mí me ha gustado
como hemos salvado
lo de crear
por todo el debate
que hay
me ha gustado decir
no es crear con K
perfecto
ya solucionado
fin del debate
pues te digo
no sé si seréis delusional
o no
pero realmente
lo que tenéis entre manos
es una herramienta
que cualquiera que lo pruebe
yo creo que
ha quedado patente
en el directo
o sea
he estado
mientras hablabas
pues haciendo aquí experimentos
creo que
quien lo haya podido ver
sabe percibir
que esto es
algo diferente
o sea
no es solamente
un modelo generador de imágenes
sino que
en la interacción
hay mucho juego
que antes se perdía
o sea
el tener que estar parando
para generar una imagen
e irte y tal
para mí esto lo cambia todo
y lo cambia
hasta un punto
y sé que lo que voy a decir
mal entendido
puede ser polémico
pero
me reconecta
bueno me reconecta
no porque nunca me he conectado
pero me conecta
con
el dibujar
o sea
me lo estoy pasando bien
en el punto de
estar dibujando cosas
y recibir un feedback directo
de
como la IA lo corrige
porque a lo mejor
yo estoy intentando hacer una mano
y me sale mal
y la IA lo genera de una forma
que intenta respetar
lo que yo he hecho mal
pero lo sabe
cuadrar
y eso me da un feedback
de decir
ah vale
que se hace así
venga va
pues voy a probarlo
y es como
al final acabas haciendo composiciones
que yo no sé si estoy aprendiendo
a dibujar o no
pero estoy entretenido
y he estado aquí una hora entretenido
con una herramienta
que te da un potencial
un control
que para mí es importantísimo
lo defiendo
siempre
que la IA generativa
ha empezado a tener valor
cuando le hemos dado control
cuando a partir de texto
hemos empezado a poder controlar
que generábamos
y lo mismo
pasa con las imágenes
y ahora con la interactividad
y como herramienta brutal
como herramienta brutal
la gente está deseando saber
cómo se puede probar
y como tal
me dicen por aquí
compáralo con el de NVIDIA
es que lo de NVIDIA
es otra cosa
esto mucha gente
lo pensará
porque en el canal
hicimos directo en su momento
Canvas Studio
estaba basado en Gaugan
en Gaugan 2
en concreto
y era espectacular
te generaba cosas muy bestias
pero eso estaba basado
en redes generativas adversarias
redes generativas
que eran muy rápidas
que te podían permitir
esta interactividad
pero que no
te da una diversidad
o una calidad
equivalente a lo que tenemos
con modelos como
Stable Diffusion
y todo lo que está por venir
¿vale?
entonces
allí podías hacer
paisajes brutales
y estaba todo además
segmentado con pinceles
que cada pincel
era una clase
pero esto es otra cosa
esto es la IA
entendiendo la imagen
como input
y generando un resultado
a través de un modelo
de difusión
y LCM
y nada
la gente está deseando eso
¿estás pasando códigos?
no, ¿no?
no, pero
hay gente que está vacilando
ahí en el chat


y
o sea
hay como un código
aparte de mí
quiere poner un código
ahora
pero
para
para
porque hay dos partes
la cosa es que crea
claro
la parte de esta real time
como lo ves ahí
en tu navegador
es una de las apps
que tenemos
tenemos apps también
de vídeo
tenemos apps que van a venir
también
entonces
claro
una cosa es el código
a la plataforma
y otra distinta
es código al acceso
de real time
entonces yo puedo dar acceso
quizá
voy a preguntar a Víctor
no se voy a preguntar
a mí
espérate
ojo que al final
lo sacáis
claro
pero serían las otras herramientas
no sería el real time
que eso todavía lo tenéis
porque tenéis que ir escalándolo
que eso también es
bastante interesante
el tema de
muy
dolar
dolarmente
interesante
como dijo Sam Allman
eye watering costs
son ojos
que te hacen agüita
los ojos
pero Sam Allman
tiene
a Microsoft
detrás
de hecho
le escribí un email
el tío
y me respondió
inmediatamente
le dije
es muy accesible
Sam Allman
sorprendentemente accesible
le cuesta más responder yo
a los correos
que él

yo le dije
ey
que vi que tenía como una especie
de evento de arte
de inteligencia artificial
y yo puedo ir
y me dice
espérate que pregunto
y yo
ok
en mi caso fue igual
o sea
él vino a Madrid
para un evento
y no tenía acceso
y le dije
lo voy a escribir
porque yo alguna vez
habíamos cruzado DMs
por Twitter
antes de que él fuera
súper popular
y me respondió al momento
bueno
aquí
me responde
Víctor
a ver si me responde
instantáneo
o close to instantáneo
que tú habías dicho
que estabas aprendiendo
el tema de dibujar
yo lo que creo
es que va a ser algo similar
por ejemplo
con ajedrez
hubo el tema
de que cuando
la inteligencia artificial
ganó a
no sé
creo que fue Gasparov
que ya era
como bueno
pues ya está
¿no?
¿para qué jugar ajedrez?
no, no
ahora la gente juega ajedrez
más
y
no solo eso
se hizo como una gráfica
de el elo
o la forma en la que mides
el puntaje de los jugadores
de ajedrez
medio
y desde que se introdujo
la IA
justo ahí
el elo empezó a subir
pero se nota
y eso como fue como
wow
fue como asintótico
como que subía
subía subía a lo largo
de los años
desde 1800
no sé cuándo se empezó
a medir el elo
lo buscaré
pero no sé dónde está
y
y como que empezó
a converger
y luego convergió
como ya está
esto es lo máximo
que se puede ajedrez
apareció la IA
y de repente
los ajedrecistas
vieron como
hostia
yo no había pensado en eso
yo no había pensado en eso
yo no había pensado en eso
y el elo subió
y se demostró que
humano
¿cómo es que dice?

humano
más inteligencia artificial
exacto
humano peor que IA
IA
peor que humano
más inteligencia artificial
exacto
y yo me quedé como
cuando vi eso
y es como vale
este es el primero
de muchos
o uno de los primeros
reinos
que me van a dar
quizá por metáfora
el spoiler del futuro
en otros reinos
el reino de la creatividad
el reino de la programación
el reino de escribir
el reino de bla bla bla
y bueno
quizás que soy optimista
pero yo creo
que va a seguir siendo así
yo soy de los optimistas
también
y creo que estamos pidiendo
una revolución tecnológica
que ahora se está cristalizando
en un montón de herramientas
y son herramientas
que bien utilizadas
te permiten hacer más
y mejor
o sea
de la distribución
lo hablaba el otro día
en Twitter
de la distribución normal
de la gente que a lo mejor
no sabe programar
o sabe programar un poco
o sabe
tiene nociones y tal
la IA te catapulta
para ser mucho mejor
el que está en la media
y le sabe sacar un poco de provecho
le mejora
y el que es top
no se tiene que ver por ahora
afectado directamente
porque la IA
no llega a su profesionalidad
y eso está perfecto
lo que estamos haciendo
es que la gente
entry level
la gente más joven
pues pueda
aprovecharse de estas tecnologías
y aprender de ellas
y hacer cosas muy chulas
y al final es una herramienta
es que esa es la conclusión
a la que llegamos
a la que llegamos siempre
Diego
dime
nada
que era un Diego
de despedida ya
de agradecimiento
total
por haberte pasado
y haberme dedicado
una horita aquí al canal
porque no solo ha sido interesante
el que la gente
viera un poco la herramienta
sino que entendiera
un poco detrás
lo que hay
de muchas de estas
empresas y compañías
que están surgiendo
estas startups
como Crea
que lo estáis petando
estáis cambiando
las cosas
y es también interesante
que la gente vea
bueno
a referentes de habla hispana
que eso también
mola bastante
y es una cosa
que siempre desde el canal
he querido potenciar
te dejo unas últimas palabras
simplemente me dirijo al chat
para despedirme ya
chicos, chicas
muchas gracias
por estar por aquí
seguiré publicando resultados
mientras la GPU
de esta gente
no fallen
por Twitter
y otras redes sociales
y nada
si quieres decir algo más
Diego
para cerrar
pues
si
para que estén atentos
bueno
seguid a .cv
también en Twitter
e incluido su nueva cuenta
que está en inglés
que le estamos
dando cañita
que es
the.cv
seguidme a mí
a Víctor
a Titus
y a Crea
lo voy a decir todo
o sea
la cuenta de Crea
es
arroba
Crea
con K
barra baja
E y I
o I
la mía es
arroba
ASCII Diego
o
A-S-C-I-I
Diego
y la de Víctor
es
arroba
BigPose
que siempre me olvido
cómo se escribe
es
V-I-C-C-P-O-E-S
esas son las cuentas
de Twitter
vamos a ir hablando más
y seguramente
hagamos otro vídeo
super encantados
a nosotros
super accesibles
y
lo último
es que bueno
es que estaban hablando ahí
que si
ostras
esto es como el traje
de Javier Ideami
y es como
ay si tú supieras
que Ideami
si tú supieras
que Ideami
que trabajasteis juntos
con Ideami
que eso también es otra cosa
Ideami que fue
joder
fue un
un referente
que trajimos aquí al canal
cuando salió
Dalí 2
que fue de los primeros
en tener acceso
y yo creo que la gente
al final acabó
más emocionada
por tenerla a él
que por tener a Dalí 2
porque es una persona
fantástica
y bueno
si si
y bueno
que cuando le dieron acceso

donde crees que estaba
que estaba con nosotros
al final se cierra el círculo
pero eso fue casualidad
que de repente
o sea que me lo dijisteis ayer
y yo no lo sabía
y que maravilla
ya hablaremos más
de esa historia
en otra charla
perfecto
perfecto
pues chicos chicas
muchas gracias por pasar
muchas gracias por estar
en el directo
y aquí está
la interactividad
ha llegado al mundo
de la idea generativa
y pinta bien
chao chao
así tu
hasta la próxima