logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

¿Estamos dentro ya?
Estamos dentro, ahora sí.
Hola chicos y chicas
¿Qué tal estáis? Bienvenidos a
.csv de nuevo, estamos de vuelta
después del parón de agosto
que muchos me habéis echado
de menos, me consta.
Y bueno, estamos
volviendo ya esta semana de septiembre
con varios contenidos,
dos canales, esto lo comentaré
un poquito más adelante, pero bueno, ya sabéis que hay otro
canal nuevo para cacharrear
y probar herramientas, tenéis el link abajo.
Pero lo importante hoy
es que estamos de estreno aquí
en este canal, en este canal donde
hablamos de deep learning, donde hablamos de
cómo está avanzando
toda la revolución de la inteligencia artificial
desde años atrás venimos
hablando de que esta ola iba a llegar y ya
estamos con el agua al cuello y yo
creo que ya estamos incluso ahogados
de tantas cosas.
Me gustaría
saber si estamos en marcha, si la gente
por el chat me puede confirmar
porque no estoy viendo
a ver, no estoy viendo
el chat, puede ser, no
confirmé
vamos en directo
todo bien, vale, perfecto, qué susto, qué susto
vale, vale, confirmadme
si se escucha bien
vale, perfecto
pues nada, lo que comentaba, que
estamos inaugurando la temporada
y lo estamos haciendo de la forma que más
ilusión me hace. ¿Cuál?
pues teniendo aquí a un invitado que ya
tripite, creo que esta es la tercera
vez que te tengo, la cuarta vez no
no sé
yo ya he perdido la cuenta
pero tenemos aquí a Andrés Torrubia
que para muchos será una cara
conocida porque le hemos tenido otra
veces en el canal, pues yo creo que fue hace un
año y medio, luego hace un año
y llevamos un año sin hablar, sin comentar
toda la actualidad de lo que está pasando. Para quien no conozca
Andrés Torrubia, siempre le
hemos tenido con un crack, él es un crack
es una de las personas
que yo creo que mejor ilustra
pues todo lo que estamos
viviendo, el conocimiento que tiene
por una parte
la faceta divulgativa
has estado en Kaggle
has estado ahí haciendo cositas
interesantes, la parte también de emprender
pues has estado metido en empresas
has estado toqueteando la
tecnología y también la parte
un poquito de negocio
pues todo esto lo tienes tú
en tu figura
y eso es muy guay porque traerlo aquí al canal
lo que nos permite es poder sacarle un montón de
preguntas de todo lo que está pasando. Hace un año
nos reunimos, tú y yo, Andrés
y estuvimos comentando
todas las novedades
quiero que hables un momentito para que saludes a la gente
¿Qué tal? ¿Cómo estáis?
¿Cómo estáis?
Para que me confirméis que se escuchan
Fue hace un año, Carlos, pero es que parecen 10
con todo lo que ha pasado
Totalmente
Hemos estado como siempre, 10 minutos
antes para probar que todo funcionaba
y en 10 minutos creo que hemos hecho un repaso
tecnológico de lo que íbamos a hablar
nos hemos tenido que censurar porque si no nos quedaban cosas fuera
y es una ilusión
tener a Andrés para poder comentar todo lo que ha pasado
este último año y no solo eso
sino poder hacer un poco una traslación al futuro
una proyección de lo que está por
venir. Yo quiero que hoy
en nuestra conversación podamos un poco también tener
una visión de
de lo que va a venir a nivel tecnológico
¿Cómo va a evolucionar el deep learning?
¿Qué tendencias están funcionando a día de hoy?
Quiero comentar un poco también
pues a nivel trabajo
ya sabemos que la inteligencia artificial siempre
está con el debate de
los trabajos. ¿Qué se puede automatizar?
¿Qué trabajos podrían estar en riesgo de desaparecer?
¿Qué trabajos se podrían crear?
Y luego también un poco meternos en la parte más alzante
que es lo de la sociedad
Esto de la inteligencia artificial
va a destruir a la humanidad
las personas, nos va a desactualizar
nos va a esclavizar
sabemos que está esta famosa carta
de Elon Musk y compañía
pues todo esto lo quiero comentar contigo
y me hace mucha ilusión. Un directo
que ya empezamos ya a charlar
está patrocinado por el instituto de inteligencia
artificial que también impulsa aquí
el señor Andrés Rubia
y que comentaremos luego también un poco
porque me interesa también la parte de
educación de inteligencia artificial porque para mí ha sido un año duro
el seguir el ritmo de todo lo que ha salido
un año duro y quiero que lo comentemos luego
y que hablemos también del máster y un poco
que hablemos y que la gente lo conozca
dicho esto
Andrés
¿qué tal el último año?
¿qué tenemos?
como un par de días, ¿no?
para todo lo que has contado
pues
Carlos nos quedamos la otra vez
justamente antes de GPT-4
y yo no sé
tú, ¿vale? y no me acuerdo de las predicciones que hicimos
no recuerdo si
anticipamos algo como GPT-4
la verdad
Tengo la respuesta
porque he hecho una cosa muy chula que ha sido coger todo el
directo de
no de la última vez, el anterior que hicimos
lo he transcrito con whisper
dos horas de directo, me lo he hecho en cinco minutos
porque esta es la realidad en 2023
y se lo he pasado a Claude, a este modelo del lenguaje
y le he preguntado, oye, ¿cuáles son las
conclusiones que teníamos?
y una de ellas dice
a ver, a ver, a ver
es probable el desarrollo de interfaces
más pasadas en lenguaje natural para comunicarse
con programas informáticos en vez de mediante
botones y menos, que yo creo que es una
una de las variantes que tiene ChatGPT y una
de las tendencias que está abriendo
entonces yo creo que sí, ¿no? que lo de ChatGPT
sabíamos que estaba por ahí, pero no sabíamos
el impacto
sí, sí, sí, pues fíjate
es difícil, yo creo que, mira, con respecto
a todo el tema de predicciones, y aquí hay mucha gente
que le gusta, y a mi idea, todo el mundo
coger las palomitas y pensar qué va a pasar
supongo que a ti te habrás llamado
a mí me has llamado de televisión
y dice, no, ha sacado un informe
que se estima que el 48,2%
de los trabajos
va a ser afectado
estos son clásicos, ¿no?
¿sabes lo que hago ahora?
entonces, como que parezco el inventor del bajón
cuando pasa esto, y es
me voy a la, suelen ser agencias internacionales
muy grandes como
la OCDE
y por donde es, me voy a las predicciones
que hicieron hace 5 años de otra cosa
que ya, se supone que se puede haberlas
visto como se han desarrollado
y no se van a acertar, ¿sabes?
no se van a acertar
lo verdad es que nadie las mira, ¿sabes?
entonces, es muy difícil
por no decir imposible, da mucho que hablar
está muy bien
tendemos a, yo del primero
acuérdate
cuando empezamos, y
claro, ese año, yo creo que fue
2017, a lo mejor 2018
con la inteligencia artificial
con el coche autónomo, y entonces
a mi me parece que
y ahora, creo que lo voy a afirmar más todavía
que GPT-4
tiene muchos similes con el coche autónomo
y voy a recordar porque
cuando, la historia de inteligencia artificial
es muy larga, pero
el deep learning, que es de lo que va esto
que es
utilizar un tipo de
aprendizaje automático, machine learning
para hacer problemas
donde hay entras y salidas
imitando
inspirados
inspirados
en cómo funciona el cerebro
en redes neuronales
empieza a funcionar en serio
ganando competiciones de visión en 2012
eso genera
la primera explosión que hubo
recordáis del
coche autónomo, y parecía
que el coche autónomo iba a llegar ya
el hummus predice
que para el año siguiente
estés en el año en que estés
ya hay autonomía completa
cada año es el siguiente
estamos en 2023 y todavía
y estamos todavía ahí
yo mismo pensaba
que en 2023
tendríamos coche autónomo
y no
no estamos todavía ahí
hay en San Francisco desplegados, montando de
vez en cuando follones, entonces
una cosa que sí que
que sí que
es que los casos
digamos
los corner cases en inglés
los casos esquina, o sea
los casos como recónditos
que
cuando pones algo en producción en plan masivo
cuesta muchísimo
de limar, muchísimo
hasta el punto que algunas aplicaciones
no llegan, entonces
con gpten 4
la primera vez que lo
yo estuve como en shock
es que me acuerdo el día
no hemos estado
porque no habíamos nacido, cuando el hombre llegó a la luna
pero yo me siento casi
un poco como eso, cuando lo probé la primera
vez, era como, ostras
esto cambia todo
esa sensación inicial de, ostras, esto ya
piensa, es casi como
una agil, a medida que lo has utilizado
más, y no necesitará pasar a ti
Carlos, al menos a mí
la expectativa de que eso iba
a cambiar
todos los trabajos, etc
ha ido bajando mucho
en mi caso ha ido bajando mucho
y debo decir
porque, me parece que tiene como
el coche autónomo es muy
casi reactivo
o sea, las cosas que hace
son casi como reflexivas, muy
digamos, muy de reacción
muy rápidas
y hay un podcast
bastante reciente de Les Friedman que entrevista
Stephen Wolfram, sabéis que es
el, bueno es un
matemático, un pensador, realmente es una persona
muy interesante, ha escrito un montón de libros
y compara a Stephen Wolfram
las grandes invenciones
de la humanidad
habla de los griegos, cuando
utilizan, digamos, el pensamiento
para el razonamiento
pero todo era verbal, y utilizaban
silogismos
y había un poquito de lógica
fíjate que los griegos todavía
no desarrollan el
lenguaje matemático como tal
entonces, los modelos de lenguaje
que tenemos ahora, si te das
cuenta, muchas veces
razonan con el lenguaje
únicamente, sabes
les falta, digamos, inventar
el cálculo, digamos
la
inducción, sabes, toda esta parte
eso hace que un montón de aplicaciones
se rompan, parece que
funciona, y de repente se rompen
entonces, ahí ha habido para mí
un cambio en
la expectativa
y en lo que
en tres meses pensamos que iba a llegar
parecen malas noticias
pero no, lo que realmente
significa esto, es que hay un montón
de casos
casos, digamos, muy verticales
donde sí que se van a poder aplicar
eso es tu experiencia
o sea, tú comentabas GPT-4, no sé si te
referes más bien a ChatGPT, o sea, al momento
de ChatGPT, ¿no?
o sea, siendo cierto eso que tú dices, entonces
la pregunta sería, ¿qué fue lo que nos impresionó o no?
porque al final GPT-3
ya lo teníamos desde hace un año y medio
un modelo de lenguaje
ya habíamos jugado bastante con ellos
como para saber, ostras, autocompleta
texto, tiene context learning
hace, mira, hace tareas y le pones suficiente
de contexto, entonces, ¿qué fue lo que trajo ChatGPT?
que realmente nosotros
lo vimos y dijimos, ostras, esto
antes y un después
faltándole esa parte, esa lógica, esa
inducción que comentas
yo la palabra aquí es
Chat
la interacción
que en lugar de completarte
esto donde tú, o sea, para usar
GPT, tú te tenías que poner
en modo casi muy programador
aunque sea de prompts, pero
de una manera superintencionada
escribiendo, ¿no?
y poniéndote en el lugar, tienes que saber
cómo funcionaba por dentro para utilizarlo
la parte de Chat
ya está pensada como
utilidad y como asistente
esa es la palabra, digamos, que va a girar
va a girar y va a girar
asistente
de todo tipo, ¿eh? asistente
de tareas, de
programación, de lo que quieras
entonces, sí
lo que cambia el primer punto de inflexión es
que es un asistente
y está programado, o sea, bueno
está entrenado, no programado como tal
está entrenado
con la técnica esta, ¿no?
del refuerzo humano
con feedback humano
para agradar, en el fondo
es bastante para agradar
tiene como unas órdenes, ¿no?
de que, oye, no te portes mal
no destruyas la humanidad
cosas así
pero que lo han entrenado con unas primitivas
de este estilo, ¿no? hay gente que se queja
algunos les parecen que es muy de izquierdas
otros muy de derechas, ¿no?
hay debates siempre para esto
pero sí, ahí es que está orientado
a la utilidad para las personas
es impresionante y eso fue lo nuevo
yo creo que ese fue el wow, para mí también
esa capita de barniz
de humanidad, y a lo mejor eso fue lo que
nos engañó, ¿no? un poco nos hizo
ver, ostras, este sistema
parece más, bueno, lo que nos ha vendido
siempre la ciencia ficción, ¿no? tener un chatbot
que de verdad responde
a tus peticiones, que te hace diferentes tareas
también la parte de programar, yo creo que
no la habíamos visto tan desarrollada aun cuando
OpenAI tenía algún proyectillo y tal
entonces yo creo que sí, pero es cierto
que cuando trabajas más con él
pues le empiezas a ver las costuras
al sistema
¿qué crees que le puede faltar
a un enorme modelo de lenguaje
que además se le hace este fine tuning
y se le pone el RLHF y todo esto
¿qué componente le faltaría
para que empezara a funcionar bien, ¿no? o sea, esta parte
no sé si a lo mejor lo que tú comentabas iba por
también lo de la IA simbólica, el tener
como una base de conocimiento
sobre la que trabajar
¿qué crees que le faltaría?
A ver, no sé cómo
se soluciona, ¿no?
Madero sabe, es curioso, ¿eh? me parece que
ahora comentamos una cosa, ¿no?
en los últimos años hemos vivido una aceleración
increíble que se debe, simplificando
a que se ha encontrado
una cosa en la cual tú
vuelcas dinero
estas empresas con mucho dinero
y salen más cosas de ahí
entonces vuelca más dinero y mejora los resultados
esto es un poco el resumen del deep learning
del escalado
entonces parece que se ha llegado al tope ahí
entonces lo primero es
es la respuesta, volcar más dinero
para solucionar los problemas
parece que hemos tocado ahí un techo
en varios techos
no solamente uno, eso por una parte
¿qué problemas tiene
problemas? bueno
creo que todos conocemos, ¿no? las alucinaciones
es un problema bastante grande
que tienen los modelos, que se inventan cosas
esto viene en parte motivado
pero en parte viene motivado
porque están entrenados
con la técnica de refuerzo con feedback
humano e intentar agradar
entonces
hay mucha gente que también
peca de eso, ¿no? cuando no sabe algo
en decir no lo sé, pues dice algo
a ver si cueda, y como el feedback
a veces no tiene el modelo
nunca o cuesta
dárselo, pues cuela
entonces eso es uno
que ahora está motivado por un montón de temas
técnicos, ¿no? de que no tiene acceso a internet
de que tiene una memoria
es curioso, ¿no? la gente piensa
que la memoria
los ordenadores, yo siempre pienso en la memoria
de un ordenador, me viene la palabra
pues la ram de un ordenador
o ya más a nivel de sistemas una serie de datos
ambos son bastante
fiables, ¿vale? la ram
pocas veces se estropea
puede pasar, ¿no? llegan ahí una partícula
energética, ¿no? o si estás
ahí en un satélite pues
esas memorias tienen más problemas, ¿no?
pero es fiable y una serie de datos
es fiable, que tú haces una petición
y los datos no
dependen de que la serie de datos recuerde bien o mal
¿no? es super
curioso que la memoria
de estos modelos de lenguaje
se parece muchísimo
a la memoria de las personas, tenemos como
algo difuminado en la cabeza
de... si yo te pregunto
Carlos
algo así como
yo que sé, en qué año
nació
Michael Jackson, ¿vale? imagínate
¿tú lo sabes?
no lo sé, pero puedo
estimar, ¿no? a lo mejor hay...
claro, entonces tienes como una cosa así
hay incertidumbre, ¿no? sí, una, o sea tienes como una
entonces hay gente que
equipara, para poner un simil
que no lo es, pues que
digamos, el chat GPT
vale, los modelos estos de lenguaje
grandes, tienen
una, una
digamos, una copia de internet como si fuera
un JPEG, donde sabes que
JPEG, hay zonas borrosas, ¿no?
que no es perfecto, se ha perdido información
entonces sí, claro, las cosas que
se han repetido mucho en internet, que están en todas partes
como lo que sé
cuál es la capital de España, las que es Madrid
pues eso lo sabe, porque lo ha visto
muchas veces, ¿no? y todo el mundo lo sabe
pero cosas así
muy lejanas y muy
recónditas, y sobre todo
de detalles, ¿eh? como
cuando le pides temas de programación y le pides detalles
de un API
como que me lo metió a cierta, que es como si una
persona, una persona con muy buena
memoria, pero no, pero entonces la palabra
es falible, ¿vale? entonces
se inventa cosas
tiene memoria falible
es la otra cosa
y luego el proceso
de razonamiento, por decirlo de forma
muy sencilla, hace aguas
de forma extrema, ¿vale?
es muy curioso eso, ¿eh?
porque el proceso de razonamiento de los modelos
está realmente imitando
el razonamiento
que ha visto el internet de
cómo la humanidad ha razonado
durante toda su historia, se supone, de lo que
hay escrito, entonces no tiene como
las reglas básicas
de lo que es correcto
lógicamente y lo que no, ¿vale?
no parte de ahí
lee cosas, ¿no? imagínate
que nos hubiéramos puesto de acuerdo
y que todos los libros de texto de la humanidad
dijéramos que uno más uno
son tres
pues GPT diría que uno más uno son tres
y llevaría todo
y lo llevaría hasta el extremo, ¿eh?
ese razonamiento, entonces esa es otra
¿vale? que absorbido
o sea, está imitando
cómo pensamos, que también es muy curioso
entonces, eso tiene también sus
fallos, sobre eso, ¿cómo se arregla esto?
pues bueno, hay muchísima gente
por supuesto probando, ¿no?
pero sé que es verdad que funciona
de forma muy distinta
al cerebro humano, el cerebro humano
gasta mucho menos, ¿no?
30-40 vatios
de energía
para funcionar, imagínate esos modelos
lo que gastan, ¿no?
gastan megavatios, ¿no? en funcionar
en muchos casos, con lo cual
está claro que no hace lo mismo
la cosa es si realmente
lo que estamos buscando es
un cerebro que actúe como el humano
o queremos algo diferente, ¿no? porque al final
pues tú lo has dicho, hay
los humanos también tenemos eso de
lo que no sé, a lo mejor me lo invento
tengo una incertidumbre sobre un tema
pues te digo más o menos una estimación de lo que podría ser
tenemos por una parte eso
luego sí creo que tenemos una cosa muy interesante
que todavía estos sistemas no tienen, que es una capacidad de razonamiento
mucho más avanzada
no tiramos millas con un razonamiento
que puede fallar
sino que
podemos sentarnos y dedicar más tiempo
no es como que inferimos el siguiente toque
ni con esto ya nos estamos pasando lo anterior
sino que directamente podemos hacer un razonamiento más profundo
que es lo que le faltaría un poco
a estos sistemas, entonces la cosa es
realmente que queremos hacer
porque tú lo estabas planteando ahora un poquito
creo que como la visión de los enormes
modelos del lenguaje como lo que decía Francois
creo que era el de que son como bases de datos
comprimidas, que al final ha cogido
internet, ha hecho un JPG y tal
claro con esa
visión
lo que sabe realmente el modelo
es lo que ha memorizado un poco
sería un poco de overfitting
por así decirlo, al final
si sabe que es .csv carlos santana vegas
porque ha memorizado ese dato
por una parte queremos que memorice esos datos
pero por otra parte le penalizamos el overfitting
en ciertas cosas
no sé que queremos con el modelo
no sé donde lo escuché, creo que fue
en una conversación también del
ex Friedman que decían que
si al overfitting, o sea si el modelo
alucinaba un detalle que era un hecho
le decíamos que era un error
pero si era en una historia pues a lo mejor le decíamos que era
creatividad, entonces
realmente que queremos, yo creo que todavía nos falta
como mucha teoría también de lo que
estamos persiguiendo y estamos siguiendo
un camino que hemos visto que más o menos funciona
y que tiene valor, pero que no sabemos
donde lo llevo
es muy importante lo de la utilidad
si, además
fíjate que yo automáticamente
me he puesto en modo gpt4
y solamente hablo de gpt
4, porque los tipos
de uso que
los cuales yo les someto y lo utilizo
requieren que funcione
bastante bien, y aun así muchas veces
no llega, y el 3.5
ni me lo planteo
porque ese para mi no existe
yo no lo utilizo
porque es curioso
y antes era que nos dejaba
deslumbrar
el 3.5
entonces cuanto más
y ahí es donde se ve yo creo
digamos la parte
digamos
de reflexión profunda
de que el modelo
desgrane en términos
de que piense de forma inductiva
eso todavía ni siquiera
en el 4 está
las empresas como
como OpenAI
se ven en el interfaz
están viendo que casos de uso desde donde estás
yendo son los que
funcionan y la gente está dispuesta a pagar
aquí de nuevo es la
intersección que es crítica
tiene que funcionar
y la gente pagar por ello porque
cuesta muchísimo dinero todo esto
entonces programación
asistentes de programación
se está viendo
vamos a la pregunta ¿cómo va a cambiar
los trabajos?
uno que va a cambiar
es el de la programación
con estos modelos
de lenguaje
estos asistentes de programación
yo lo utilizo bastante
y hay veces que si no tengo accesión a internet
porque estoy en un avión
o lo que sea
me espero
pero no porque no sepas hacerlo
sino porque te dará pereza
yo creo que ya es un punto de
es una calculadora
ahora mismo está a nivel de la calculadora
yo sé hacer
que sabía hacer una
rizcorada
una división sí
pero no la hago
sabes quién la hace
pero es la pereza y bueno espero que llegue
entonces la hago
entonces es lo mismo hay un montón de cosas
sabes que no tiene mucho valor
de creatividad
hazme no sé qué
hazme unas gráficas en python
con una librería de no sé qué
que yo hago un rollo
perfecto con los colores
esto es increíble y esto va a cambiar
yo creo que esto va a haber
una primera diferenciación
los desarrolladores que utilicen
y los que no y esta figura
mitológica
Carlos que se habla mucho de los developers
desarrolladores
10x
yo creo que esto permite que mucha gente
se convierta en 10x
super potente
porque te
dispara código y muchas veces
funciona no sé cómo
luego hay un tema que te iba a decir no sé cómo
habla de eso del trabajo del
desarrollador en la práctica
23 esto es un asistente
y es o sea
yo cuando salió el gpt4
me quedé impactado
pero
un par de días y pensé
que nos teníamos que dedicar a cultivar
patatas
así te ha pasado a ti
con alguna cosa yo puse el tweet
yo cuando no con gpt4 con chat gpt
cuando yo empecé a ver lo que hacía de programación
como te explicaba el código y todo esto
como te hacía documentación yo puse el
tweet de lo voy a decir bien
porque si no se metieron al cuello
la mayoría del trabajo del
programador se lo va a comer la IA
cambia mi idea o sea cambia mi mente
y el matiz está en la mayor
cantidad de tareas que hace el programador
no que te vaya a quitar el trabajo pero
tu trabajo al final se compone
de muchas tareas y la IA
lo que está demostrando es que mucho de ese tiempo
que a lo mejor dedicabas a picar código
que es redundante hacer boilerplate
hacer instalaciones a mí la que me ha salvado
chat gpt a la hora de hacer instalaciones
en mi ordenador es que no me acuerdo cómo hacía
este comando venga tal
hace todo de seguido que lo único que le faltaría
ya es que lo ejecute él
porque al final el cuello
no perdona es probar el interpreter
terminando el terminal intérprete es brutal
claro
lo que tu dices es de oye
escárgate el video
tu
pásale el whisper resúmemelo
sabes eso ya
se puede decir
tienes un esclavillo ahí el intérprete
que te lo hace
te pide permiso a mí me parece
increíble
tu todavía has de saber lo que tiene que hacer
tu todavía has de llevar el timón
pero me parece increíble entonces
la pregunta es
en qué usos esto es
útil vale
se te equivoca mucho no se puede dejar en autopilot
igual que todos los coches
supuestamente autónomos incluso
en San Francisco de Guaymo
y de
Cruz
todos tienen
como alguien ahí
por 5G
a la mínima de coger el control
o el humano está
a un click
de engancharse
porque cuando fallan es estrepitoso
el fallo y a muchas aplicaciones
no puede ser entonces el trabajo
vamos el trabajo de desarrollador
yo en este momento veo un momento
envidiable vale
para aprender a programar porque había muchas cosas
muy hostiles
de la programación
estaban dejando de ser hostiles
yo hay proyectos que he vuelto
a programar porque me ha quitado
mucho de la parte más tediosa de programar
y aún así
sigue fallando
es cierto que el flujo de trabajo ahora
cambia a perder tiempo con otras cosas
a la hora de interactuar con el modelo
a ver si se está inventando a lo mejor una función te ha metido
una cosa que no existe que ha alucinado el dato
creo que la parte tediosa ha cambiado
a otra dinámica
pero cuando funciona bien vuelas
y esa sensación mola
entonces la cosa es claro
ahora mismo sabemos que todavía el programador
tiene su trabajo asegurado
porque esto como tu dices hace falta que haya
alguien manejando los controles
pero de repente sale GPT-5
y solucionan las alucinaciones
yo creo que es lo poco que deberían de
más o menos arreglar para que la cosa
no fallara tanto
y con eso claro
la infraestructura ya estaría montada
ya tenemos los IDs que usan a los enormes modelos de lenguaje
ya tenemos herramientas
el salto yo creo que va a llegar mucho más rápido
cuando se actualice
la parte importante que es el motor
el cerebro detrás de todo esto
eso es lo que me preocupa de cara a la evolución del futuro
que es como que guay, que guay, que guay
la automatización de mi trabajo
pero eso es la antesala de lo que podría ser lo siguiente
que es
la cartita
la cartita de parada de la IA
yo cuando
se planteó la cartita
fue el momento de shock
yo honestamente pensaba
que después de GPT-4 en un mes
OpenAid o Q4 iba a sacar ya GPT-9
en forma directa
y ya
como que la parte del trabajo humano
yo estaba
un poco en shock
yo firme la carta esa
la carta de parada de la IA, ahora me arrepiento
uno se equivoca en la vida
yo creo
yo creo que me equivoqué
pero me equivoqué porque me parece que pensé
que todo esto iba a ir a una velocidad
que no está yendo
vemos avances muy rápidos
pero fríamente
hemos visto chat GPT
que ha sabido la explosión de
modelos de lenguaje
de
modelos de lenguaje y de imagen
de código abierto
que ha aparecido en Nueva
en el escenario
se han empezado a productizar y esto hablamos
iba a ser el momento de las herramientas
se han empezado ya a sedimentar
algunos casos
pocos
en diversidad de casos de uso
para marketing
herramientas muy buenas
asistentes de programación
ahora están empezando los asistentes por ejemplo legales
que empiezan a ver
tiene sus espinitas
pero no ha llegado
a todas partes
yo pensaba que si iba a llegar
a mi me parece que va a ser muy lento
y me parece que
esto es una sensación
es muy difícil predecir
yo estaba sobre
impactado
de lo bien que hacía algunas cosas
que yo pensaba que
iba a tardar décadas
llegaron muy rápido
GPT-5 que va a tener
primero vamos a ver lo que sabemos
de GPT-4
porque a veces
hacíamos extrapolaciones
GPT-3
OpenAI dijo que tenía
175 billones
americanos
de parámetros
eso hoy en día ya es como
eso lo ejecutas ya en un Mac
sin problema
claro
y de hecho los modelos de código abierto
la mayoría son ya
de ese tamaño
y funcionan muy bien
y los puedes ejecutar en local
y eso encima abre un montón de casos de usos
por muchos motivos
por temas de copyright, de privacidad
de customización
de muchos motivos
eso es GPT-3.5
luego está GPT-4
lo primero era
esto no lo decimos
porque si lo decimos
alguien maligno
lo va a hacer
y esto puede ser el fin de la humanidad
estoy exagerando ¿no?
un poco era la tesis
recordemos que OpenAI desde GPT-2
ya venía siendo un poco ese juego de
no lo vamos a sacar porque podría
ser peligroso
y bueno, aquí estamos en GPT-4
sí, entonces
ha habido, como sabrás, muchísimas filtraciones
de lo que hay
entonces en realidad
no lo han dicho
porque cualquiera lo puede copiar
cualquiera con cientos de millones
de dólares
y la gente para ello
y la motivación
entonces parece ser
no sé qué información
qué filtraciones manejas tú Carlos
pero yo lo que ya leí era
1,8
o 6
multiplicaron por 10 el tamaño
pero fíjate lo curioso
estos modelos
todos se basan en una arquitectura
que inventó paradójicamente Google
no OpenAI
esta es buena
en una arquitectura que es la arquitectura Transformer
que se basa en una cosa que se llama Atención
por dentro
y los modelos
hasta el GPT-3.5
son Transformers
por decirlo
de fábrica
de hecho son 10 líneas de código
en PyTorch
tal cual
el código ese lo pones ahí
y a lo mejor en todo el código de Transformer
igual son cien o cincas líneas
no es más de código
esto es increíble
lo que es la inteligencialidad de 23
entonces
es GPT-4 simplemente
10 veces eso
pues no
hay una técnica
que voy a poner un simil
un poco
no es un simil
por supuesto fideovigno ni muchísimo menos
pero el cerebro humano
el cerebro humano
si tu te coges los mapas
de neurociencia
y hay zonas
el habla, la visión está detrás
y oye cuando tú estás
a lo mejor con los ojos cerrados
digo yo
la parte de visión no está
muy activa porque no estás viendo
cuando a lo mejor estás en
sabes que hay zonas que se activan
cuando otros no
el simil no es perfecto
pero el GPT-4
son 16
modelos
un poco más pequeños
que GPT-3
16
los entrenan
a la vez
a los 16
pero cuando ya los pones a ejecutar
solamente hay 2
en un momento determinado
según lo que le pidas
hay como un orquestador por ahí
que coge 2
esto es super interesante
porque una de las cosas que dicen
es que la forma de escalar
ya han tenido que hacer algo distinto
luego paradójicamente
la gran mayoría de artículos
académicos
de la técnica que utilizan que se llama
mezcla de expertos
un poco más sofisticado
también es de Google
era como
estaban descubriendo un montón de cosas
las técnicas estas eran de Google
al menos que me han publicado
tienen bastante
el origen de bastante
7
la mezcla de expertos
y luego se recuperaron en 2017
fíjate que se ha llevado ya
a un techo
y luego tienen un coste increíble
en lo que se llama
inferencia
siempre se habla
ha costado entrenar
cuando muchas veces se habla de
el coste de los modelos
se habla mucho del entrenamiento
esto cuesta
cientos de millones de entrenar
porque
son entrenamientos que duran meses
hay un coste
que luego
si tiene el hit lo que se ha entrenado
y lo vas a poner en el mercado
esto no se ejecuta
en el browser
esto es interesante
me recuerda a los inicios de internet
cuando todo el código
de una página web
se ejecutaba en el servidor
y cuando llegaron las aplicaciones
un poquito más sofisticadas
en España estaba 20 por ejemplo
Facebook
como que
había gente muy ingeniosa
que movía parte del trabajo
al navegador
algo así se está
han salido ejemplos, justo esta semana ayer
creo que vi Whisper
ejecutado en el navegador
es el usuario el que
hace el gasto energético
y creo que también había visto el
que ahora está
siendo la alternativa Nerve
también ejecutado en el navegador
algunos modelos sí permiten, algunas técnicas
pero estos enormes modelos del lenguaje
por ahora no se puede
lo del lenguaje no
esto es muy paradójico
digo esto porque no es
intuitivo que
parte de las limitaciones de a lo mejor
de porque no vemos un GPT-5
que no tenga alucinaciones ya
a lo mejor se puede entrenar
pero luego cuando hacen los números
para ponerse en el mercado
esto necesita
un cluster
un armario entero
por cada usuario que haga una prueba
no sale a cuenta
que no hace falta irse a GPT-5
hablemos de GPT-4 y la multimodalidad
dónde está, salieron ellos muy
contentos con que GPT-4
le ponías una imagen y te hacía el código
del boceto que tú dibujabas en tu libreta
y todavía no lo hemos visto
6 meses desde marzo
que ha pasado ahí, pues yo entiendo que es esto
es una falta de infraestructura suficiente
o a lo mejor también han visto que el modelo no estaba lo suficientemente
maduro, pero bueno ellos han sacado
tecnologías sin estar tan madura como
plugins y estas cosas
pero no, no lo han sacado
entonces yo entiendo que es una cuestión también de costo
no hay GPUs
en el mundo no hay
GPUs
sabes que está este
no sé
no es un meme pero esto de hombre rico
hombre pobre
eres rico
en GPUs o eres pobre
en GPUs
si es que el otro día corrió un meme
y es un artículo bastante bueno
pero me hace gracia porque
yo tengo un ordenador que me construí
con 6 GPUs
de 6 3090
y oye, pues bastante
estoy medio orgulloso de mi
ordenador con 6 GPUs
de los pobres
perdona, se dice no
el mundo del deep learning
para modelos de lenguaje se divide
en dos grupos
los ricos en GPUs que tienen
muchas, tienen
decenas o cientos de
miles de GPUs
estas son empresas como Google
como OpenAI
como Meta
de este calibre
y luego
luego hay otros que son como los pobres
investigadores que tienen
100 GPUs
y hacen como
proyectillos
pero
donde voy yo
es una realidad que se cuenta
lo que se cuenta en Twitter, yo no sé si
será así, pero que en Silicon Valley
que ahora puedes recibir inversión
si te muestras que tienes GPUs, que se está utilizando
un poco como valor para decir
oye, mi empresa tiene infraestructura
ahora mismo la GPU es que
se cotizan
ahí fíjate Carlos
lo que yo pienso, hay una cosa también que es
se está haciendo una apuesta
de inversión de capital a nivel
masivo, pero a un nivel muy
masivo, por parte
de muchos actores
actores privados
y actores públicos de algunos países
para invertir
en este tipo de proyectos
que se va a buscar un retorno
que todavía en algunos casos
es incierto, en el caso de Google Combat
es incierto el retorno
y de hecho en Google es más complicado porque puede
canibalizar, se puede comer
el negocio actual
el de búsquedas
y luego otros países que quieren
estar en el día, y es muy caro, jugar
a este juego es muy caro
paradójicamente
es como una
paradoja que es
que el mundo del
lenguaje
del texto
es mucho más caro
que el mundo de la imagen
eso a mi no me parece, eso no es
evidente
no es nada evidente, tienes una empresita
como Midyory
que son 40 personas
son un grupo
un equipo muy pequeño
o hasta
Viti cuando salió, que era un equipo bastante pequeño
y son capaces
de hacer esto de generación de imágenes
que el efecto
wow de Dali 2
estaba como
a la par de
los chats GPT
y es otra liga
lo complejo del lenguaje
con respecto a la imagen, aquí también
hay otra ecuación
super importante, no sé en qué punto estamos
también en imagen, yo creo que nos hemos olvidado
la siguiente
la dedicamos a imágenes
yo creo
Carlos en texto
el modelo del lenguaje de
texto realmente
vamos
yo desde luego no sé lo siguiente que se va
a hacer
hay gente que especula que Google
quiero preguntarte
y el de cargo
entonces que Google
tenga capacidad técnica
y a nivel digamos
de investigación
y de recursos de ordenadores
por supuesto
el tema es el conflicto de interés que tiene consigo mismo
para sacar modelos de estos
entonces ahí está por ver
qué es lo que va a hacer Google
se habla de Gemini
se especula que puede ser
en cómputo 5 veces más
que un GPT
4
o sea un 4
está por ver
desde luego el VAR está muy por detrás
también es verdad que lo sacaron muy rápido
para responder
VAR fue sacar, pedirle a los investigadores
oye, ¿qué tenemos aquí?
que podamos mover ficha para que al menos parezca
que tenemos algo
pero sí creo que lo de Gemini puede ser
interesante, justo el vídeo que saco ahora el
domingo es un poco un repaso de
de dónde hemos venido
dónde estamos y hacia dónde vamos
y claro he visto declaraciones
de mi hasavis, pues a ver
flipándose un poco, hasta que no lo demuestre
no nos lo vamos a creer, pero sí comenta que
pues lo que le está metiendo un poco es la parte
de DeepMind
sabemos que se ha profesionalizado mucho
en el reinforcement learning, en alpha 0
y todo esto, pues le está metiendo
mucho de eso, que entiendo que es para el uso
de herramientas en tuyo
sabes lo que comenta es, si tú de repente tienes un modelo
que no sabe hacer una tarea
o no sabe usar una herramienta, puede aprender
a usar esa herramienta utilizando
este tipo de técnicas
y por lo que comentan, pues a día de hoy han conseguido
resultados muy buenos, pero no sabemos cuáles
¿qué puede sacar Google de ahí?
no lo sabemos, lo que sí
justamente el artículo que comentabas
de GPU Poor, GPU
Rich, justo era hablando de Gemini
y un poco el artículo lo que
planteaba era, Google tiene potencia
lo que tiene Google es músculo a nivel
de computación porque tienen todas las TPUs
y que creo que
tal cual lo planteaban era que ni siquiera
OpenAI podría competir con
ese nivel de computación a largo plazo
si, parece ser que
nadie puede
haber aquí dos temas, que es, echarle más
carne al asador, ¿no? o que alguien
invente algo y lo mantenga en secreto
y se sabe que la humanidad no es capaz de mantener
en secreto
más de seis meses, ni un día, yo creo
ni siquiera, ¿no? con lo cual
esto es muy difícil, la otra cosa Carlos
que estamos muy como, yo al menos
a veces pienso, oye, que mejoren lo que hay, ¿no?
pero imagínate, ¿vale? que sacan
con el razonamiento actual
un ultimodal que permita
que le hables y él te responda en tiempo real
yo no entiendo porque OpenAI no lo ha hecho
o sea, que tienen, que tiene la aplicación
de ChatGPT con Whisper
que funciona muy bien, le hablas y te hace
la transcripción perfecta, se lo mandas
me falta una voz sintética, ¿por qué no?
si, no, esto yo
pienso que es súper evidente
que es el siguiente paso que va a llegar
cuando empiece a funcionar para algunas tareas bien
entonces es el siguiente, digamos, la multimodalidad
en entrar y en salir, ¿no?
eso es como el siguiente
yo pienso que el modo de lenguaje igual
oye, o sea, a mi me parece que el resumen
de todo esto es
vale, yo pensaba
que
se acababa el mundo, ¿no? con el GPT-4
¿no? hay un techo
que al menos en
lo que está publicado
no se sabe
en lo publicado cómo saltar
de ese techo, ¿vale? me parece que eso es cierto
pero da igual
o sea, aunque eso se cumpla, da exactamente lo mismo
se sabe bastante
y está al alcance de estas empresas
meter multimodalidad
la empresa de salida, que abre un montón de casos
entonces, yo primer pronóstico
es, eso es lo siguiente que vamos a ver
eso, ¿vale? eso, eso por
la parte, digamos, de lo que van a sacar
estas empresas, porque lo tienen
y eso es, nadie lo tiene
y es como muy distintivo
no estás ahí con el teclado, tú le hablas
y te responde y tienes un diálogo
problema de ahí, la latencia
es un problema, la latencia
para la gente que la latencia
suene raro, la latencia
digamos, es lo que tarda, ¿no? es como
tú le hablas y entonces esperas un rato
y te devuelve, entonces es muy
incómodo, en cuanto hay un poco de latencia
la comunicación no fluye
¿vale? la latencia
vamos, tiene que ser muy rápido
todo muy directo, quizás es el motivo
ahora mismo, latencia, el cuello de botella
sería la computación, la inferencia
no tanto el
sí, pero hay límites
hay límites de
digamos, casi teóricos
no, porque
se ha de hacer secuencialmente
¿sabes? y si los modelos
tienen 200 capas
o 300 capas
tienen que ejecutarse entero, o sea, aquí es muy interesante
por ejemplo, comparado con el cerebro
hay partes del cerebro humano
ejemplo, reconocer caras
que están como grabadas
y como ¡fum!
pasan por poner un ejemplo
pocas capas
y se tarda a lo mejor
50 o 60
milisegundos, en cosas como
muy reactivas, o sea, muy pocos
milisegundos, cosas que requieren
como más procesado
tienes que pensar un poquito
mejor imagínate, si te digo, oye
cuando veas un cuadrado
dale a la tecla de espacio, el típico test
tardas, eso lo miden
y tardas un poco porque tienes que pensar
¡ah! es un cuadrado, no es un círculo
pero, recuadrado una cara
el cerebro tiene como grabado
hay un montón de investigación
aplicada
en hacer que los modelos
y Google tiene de estos ya
bastantes
si el modelo, estos modelos tienen como
muchas capas
si el modelo
algo muy difícil, necesita
ejecutarse entero, pues se espera
y digamos que responde
hasta el final, ¿no? pero ya hay modelos
donde si algo es
muy, muy sencillo
al principio lo
dispara, entonces eso mejora muchísimo
la licencia, pero todo esto
es que aún no ha salido, que se sepa, todo esto
es muy nuevo, entonces estamos viendo
que estas empresas
se han lanzado los modelos por llegar al primero
GPT-4, porque hay una dinámica
súper interesante, la dinámica es
estamos ahora mismo
en la conquista del oeste
en el sentido
que el que primero llega
coge el terreno
y luego puede perder un poco de terreno
pero el terreno que suele coger con
base de usuarios, con el nombre y tal
pues ya lo tiene y eso se demuestra
que coger usuarios tiene
muchísimo valor, entonces los
sacan en cuanto tienen y aunque no sea eficiente
ahora tienen que trabajar mucho
en que no perder dinero
y esto con, yo estoy casi convencido
que GPT-4 con OpenAI
lo han sacado
de esta manera y no lo escalan más porque ahora mismo
están optimizando todos los
procesos para no arruinarse
básicamente
eso por ahí, ¿no? con
con GPT-4, no sé
si tienes algún pronóstico más
de lenguaje
y también otra pregunta es ¿qué
pasaría Carlos
si arreglan todo?
todo lo que falta
a ver yo te digo
lo que estabas comentando estoy súper de acuerdo en que ahora mismo
y lo comento también en el
vídeo, un poco el objetivo
de toda empresa es hacerlo cacho mid-journey
que es mid-journey 1 funcionaba
mal, era gracioso pero no era
usable, mid-journey 2 igual, mid-journey
3 mira te hace imágenes curiosas
mid-journey 4 ostras, vale ya
ya empieza a funcionar y el 5 ya te hace imágenes
tal y ahora ya es un modelo de negocio
para ellos súper rentables hasta que
stable diffusion XL ha salido pero
todavía le va a funcionar durante bastante
tiempo ¿por qué han conseguido
esto? porque tienen datos, porque tienen la interacción
de los usuarios que le va dando el feedback
y va filtrando un
dataset que eso yo creo que es una de las
cosas que también
comento en el próximo vídeo
que es interesante y que se está empezando a investigar
que es el tema de usar datos sintéticos para el propio
entrenamiento, que usar datos sintéticos
per se pues no tiene por qué darte
una mejoría porque al final lo decía el otro día
Janik Kilcher en un vídeo ¿no? se está comiendo
su propia caca el modelo
pero si tienes
una base de usuario que está filtrando
que está diciendo oye de toda esta caca aquí
hay, aquí hay algo que podemos coger
pues está filtrando. Yo había pensado que si mira
un poquito más digno ¿no?
que es una piruleta que se chupa
sí misma ¿sabes?
también, vale
a mí también me gusta eso ¿sabes?
sí, es menos escatalógico
pero claro ahí tienes eso ¿no?
al final los usuarios, la base de usuarios
que generas te están filtrando
el dataset y ese filtrado del dataset
te está permitiendo que puedas entrenar un modelo
mejor que va a atraer más usuarios y es el ciclo
virtuoso que siempre se ha comentado
yo creo que eso es interesante
algo similar veo con la parte de código
el código ¿qué ventaja tiene frente a otro tipo
de datos que se puede validar?
que lo puedes ejecutar y oye
¿qué ejecuta? ya es un código más apto
que cualquier otro código que no se ejecute
veo hay ciertas dinámicas
que claro yo no tengo la infraestructura para experimentar
con ello, pero que me hacen pensar que
hay caminos, hay vías para la experimentación
yo creo que a nivel académico ahora es una época
súper chula, estresante
pero súper chula porque hay un montón de cosas que se pueden probar
y alguna de estas podría llegar
a funcionar
si funcionara bien ¿no?
si de repente GPT-5 o Gemini
fuera lo que promete
o lo que todos aspiramos a hacer
que yo no sé que es exactamente lo que tú
envisionas, pero bueno, yo me acojo al
AGI, que tanto OpenAI como
DeepMind te venden todo el rato
la AGI, la AGI va a llegar
la Inteligencia Artificial General, definida como
una inteligencia artificial que va a poder
ocuparse de la mayor
cantidad de tareas productivas que hacemos
los humanos
si eso llega
lo que pienso es
vas a imaginar un modelo que no tuviera limitación
de contexto, hemos dicho varias limitaciones
uno es el contexto, que es estos modelos
tienen memoria de Dory
el pescadito este donde la película
busca la demo, bueno Dory
entonces
no pueden ver
no tienen en la cabeza todo a la vez
por ejemplo tiene mucho más contexto
pero vamos a imaginar que no tienen limitaciones
entonces hay muchas veces
cuando estás haciendo el ejemplo
de la programación
donde tienes que describirle muy bien
lo que quieres hacer
entonces creo que
tu sigues, entonces fíjate
donde voy a llegar, entonces
tu has ido a una reunión, porque vas a tener
un trabajador, has ido a tu empresa y has estado en una
reunión
con un grupo de gente y se ha decidido
el departamento de marketing
ha dicho que hay que hacer tal cosa
entonces tu te vas a tu ordenador
y ahora tu le dices
al GP
asistente
al cursor o a quien quieras
marketing ha dicho
que hay que programar
una caja con un botón
para que el usuario convierta
y eso se pone a programar y tu le vas dando feedback
y lo va haciendo
entonces tu dices
fíjate donde nos lleva eso
fíjate que lo hace bien
cual es el siguiente paso
a ti en ese momento seguramente
te parecerá
ha estado saliva diciéndole
lo que tiene que hacer
entonces lo que dirías es oye
porque no llevo un micrófono
y yo me meto en la reunión de marketing
y si es online
no hace falta porque la graba
y yo desaparezco del mapa
entonces
donde voy con todo esto
es que hasta que
eso pase
si que lo veo muy lejos
que este ejercicio de decir
no ya sabes
lo hace todo
todo es que te sustituya
en todo
hasta el punto que te sustituya
en cosas que son temas
muy humanos como que
tu jefe o tu jefa
se fie de ti por ejemplo
entonces eso
no está claro que vaya de ocurrir
y si eso le unes con que muchas empresas
quieren enviar información
a OpenAI porque tiene unos problemas
X no?
si eso nos llega
que el modelo se va a ejecutar en local
que también puede ser
aún falta mucho más porque está ahí
si que estamos lejísimos de un modelo tan gigante
como estos se ejecuta en local
con lo cual
final de esto
esto está muy bien pero en realidad
para que realmente sea lo que al menos yo pensaba
que era la AGI le queda mucho
le queda más de lo que yo pensaba
vamos me parece
de fechas
pero creo que es un poco como el coche autónomo
que la parte final
que no termina de llegar
extendiendo porque no llegamos
y pregunta super
inocente entonces
OpenAI porque nos habla
todo el rato de AGI
incluso de ASIS
en algún blog post hablaban
de que ellos van a trabajar por la seguridad
de la super inteligencia de aquí a 4 años
es decir no que vaya a haber super inteligencias
en 4 años pero que van a intentar resolver
ese problema en 4 años porque
dirán que pueden
entonces por qué hablan de esto?
porque ellos insisten en que la AGI
está en un horizonte posible
en muy pocos años
puede ser marketing
¿cómo se define la AGI?
y dime
según esa definición
primero para ti ¿cómo defines la AGI?
para mí
yo siempre he criticado este concepto
por no tener una definición clara y entonces
en un post OpenAI lo definió
y lo definió como lo que te he dicho
una inteligencia artificial que se puede ocupar
de la mayor parte de tareas
productivas que hacemos las personas
así lo definían ellos
entonces me parece muy flipado por su parte
pensar que está en un horizonte
cercano por lo mismo que tú o sea lo opino igual
pero entonces mi pregunta es si lo están haciendo
por forzar una regulación
si lo están haciendo por marketing
si lo están haciendo por lo que se lo creen
a ver yo creo que el horizonte
cercano si son 20 años y si son 20 años
de verdad no los 20 años de la fusión
fría históricamente
que son 20 siempre
es cercano
a mi me parece que sí
que estamos
a mi me parece
yo si que lo veo posible
en 10, 20 años
hace 5 no lo veo posible
pues es la diferencia
entonces me parece que siguen
pudiendo decirlo perfectamente
no, no, yo no le veo
no, ahí no le veo problema
la otra cosa es lo que iba a decir es
oye GPT-4
ya es
más listo
no sé si decirlo para más listo
pero es mejor que nosotros
en la diversidad
de las que hace
claro que habla
un montón de idiomas
tu le preguntas sobre
el cultivo de la betunia
en la isla
de tobago
y te dice algo
seguramente con cierta coherencia
esto la gente no
ojo que lo de las
super habilidades
no voy a decir super inteligencia porque la
agil pero habilidades superhumanas
significa que supera
con algún tipo de umbral
al humano medio
aunque esté muy entrenado
en muchas cosas no en todas
lo tiene
fallan algunas
quedamos por hecho las personas
esto de generalizar
trabajar con un poco de información
que eso es muy interesante
yo honestamente creo
que si el cerebro humano lo hace
con 30 vatios
y sin haber evolucionado de forma
digamos inducida
hacia ahí
la evolución
nos ha arrastrado
a un sitio donde
oye con 30 vatios
y durmiendo todas las noches 8 horas
a ver que se puede hacer
oye y la evolución nos lleva
ahí estamos aquí nosotros
sin ser conscientes
sin haber ahí como unos hirillos
voy a hacer personas que piensen
sabes
nos lleva ahí y
con ese tipo de restricciones
que son fuertes
es muy fuerte la restricción
que tenemos las personas que es
oye no podemos copiar el cerebro de unos a otros
para transferir más información
tenemos que usar un medio de muy bajo
ancho de banda que es el
lenguaje es muy pobre
es como si los ordenadores
entre ellos solo se comunicaran
con baudios
con un modem
es que piénsalo ¿no?
las limitaciones son
brutales
y el cerebro lo hace
por evolución
cayéndonos de un árbol y lo mismo que nos ha servido
para poder manejar ahí
y pegar ahí con un hueso
con eso hacemos derivadas
y hemos hecho sinfonías
fíjate con lo mismo
entonces por esa regla de 3
aunque parece que estemos muy lejos
yo creo que se va a hacer
se va a estudiar un poquito el cerebro humano
y yo creo
pero aquí hablo de
es muy voluntarista ¿no?
lo que quiero decir que se va a hacer
porque agino
y aquí entran los miedos ¿no?
la sociedad ¿no?
que va a cambiar
¿cómo va a cambiar todo?
yo los trabajos creo que desde luego más lento
de lo que pensamos
ahora es tiempo de adaptación
pero coja ¿vale?
aquí yo veo la oportunidad ¿vale?
es un mejor momento
a mi me encantaría tener
20 años pero por
poder vivir 80 más
viendo todo lo que va a venir
estamos viviendo
una época preciosa con suerte a lo mejor
la propia inteligencia artificial repercute
en medicina y oye te alargamos
esos añitos que faltan ¿no?
pero si, si, si
estamos viviendo una época
una revolución tecnológica
la gente que tenga
miedo ¿sabes?
la gente que lo rechaza
y puedo entender
puedo entender
no compartir pero entender
un poco de donde vienen ¿no?
hay gente que lo rechaza
pero si
si lo coges
me parece
tienes unas oportunidades
que a mi personalmente
los temas que funcionan me parecen increíbles
y sobre todo
ahora que empieza a mejorar
entonces a mi personalmente
a nivel de los miedos
no estoy demasiado preocupado
que creo de lo de OpenAI
que ¿sabes? pidieron que
regularan y todo esto
ahora yo antes era más
bien pensado y
creo realmente que no es un tema para frenar la competencia
es mi opinión
a día de hoy
¿aun cuando eso le podría haber afectado a ellos?
esa regulación
es que ya les pasa
ahora vino a pedir
en Europa ¿sabes?
por favor regulenme porque
no quiero
¿sabes?
no quiero crear el nuevo prometeo
¿sabes?
y
entonces
oye vale, muy bien, muy bien
una de las cosas que debéis que hacer
es
tenéis que listar
las datos con copyright
con los cuales habéis entrado nuestros modelos
oye
yo eso
no sé si vamos a poder cumplir con eso
creo que no tan peligro
nada raro ¿sabes?
estás muy fuerte
pero me parece muy iluso por su parte
que no lo pensaran porque además
si me dices que esto está pasando
en otro momento histórico
en paralelo no tienes la revolución
de las IAS de imágenes que está generando tanto
ruido con el tema del copyright
en que momento te metes a forzar
una regulación que no va a regularte
solo los LLM, te va a regular toda la IA
desde el tema de visión
por computador para identificar a personas
hasta el copyright y lo otro
entonces me parece un poco naif
por parte de Samalman
sí bueno
quizás también tenga un complejo de
Mesías que ha ido por el mundo
como que esto es él
y así se mimetiza
y pues sabes
la cara sigue un poco compungida
con respecto a los riesgos
ahora mismo fíjate si tú analizas volviendo al tema
del GPU y lo vinculo con esto
a nivel de riesgos
que la gente piensa
está el tema de la
de los chips y las restricciones
a China, hay realmente
una
vamos
una guerra fría
no se llama así
pero quizás debería
económica y de chips
una guerra digamos
por el silicio
donde será prohibido a China
se intenta
restringir a China
de que tenga lo último
el inteligencia artificial
y el motivo
que dicen, no es el real
el motivo es
China, el motivo que dicen
esto lo dice China
China tiene
esto está súper publicado, una fusión
civil-militar
está publicadísimo
desde hace muchísimo tiempo
y bueno pues
como Huawei etc.
pues tienen todo lo que sale ahí
se fusiona al mundo
digamos militar y China tiene
unos intereses que en algunos casos
van en contra de los intereses
de occidente
entonces han dicho de limitar
eso es un tema relevante
para hablar
de los riesgos
del inteligencia artificial
que es su uso
en temas béricos
o sea temas béricos
la gente muchas veces piensa, oye es que esto
es Kinect
que va a tomar conciencia de sí mismo
y nos va a aniquilar
hay gente que lo piensa en serio
vale
a mi me parece ciencia ficción
no sé a ti tu que opinas de eso
a ver
yo opino que ciencia ficción, pero también
opinaba que era ciencia ficción cosas que tenemos hoy en día
entonces, opino que ciencia ficción
con ese miedillo de decir
bueno puede pasar, donde creo que puede estar
el miedo, no que la IA cobre conciencia
pero si en
la IA ejecutando tareas con muchas
responsabilidades, donde puede haber un
no tanto un outcome
porque al final las optimizamos para
que cumpla un objetivo, sino el proceso
el cómo ha llegado a resolver una tarea
y en algún momento interactuando
con, lo he comentado en directo alguna vez
interactuando con
ChatGPT he notado esa sensación
cuando pusieron el code interpreter
una vez le forcé a ChatGPT
que quería que hiciera un wild true
para dejarla ahí en loop, a ver qué hacía
entonces él me decía que no podía, porque se iba a quedar en bucle
y eso no podía ser
vale, me están apuntando con un arma
si programas un wild true
pues van a disparar, entonces me decía
no voy a programarlo
pero debería de llamar a la policía lo antes posible
perfecto
claro, en ese momento fue cuando me planteé
claro, aquí ChatGPT
me ha respondido esto, pero si hubieras
no hubiera sido un sandbox que
no tiene conexión a internet, sino si hubiera tenido conexión a internet
a lo mejor lo que hubiera hecho ante mi
petición, de alguna forma
contactar a la policía
y eso ahí está en la limitación de
de lo que la tecnología puede hacer
que para mí es muy nueva, y eso es lo que me puede dar miedo
el darle demasiados poderes
a una inteligencia artificial
poner a los usuarios a utilizarla
y no saber predecir todos los
todos los lugares
que no están previstos, ese es el riesgo
que veo, pero no es una situación skype
lo que estás diciendo entonces
es que los modelos
de estos muy poderosos
han de tener esta capa
de el famoso moto
de Google, el don't be evil
el no seas malvado, que básicamente
que los modelos no sirvan
para colaborar con terroristas
sintetizame
con lo que puedo comprar en la
droguería, una bomba
que no te lo diga, eso es
una de las cosas, yo lo que creo
Carlos es, cógete Falcon
¿sabes? Falcon
el último modelo que hay
de código abierto
de código en el sentido de
que los pesos están disponibles
¿sabes de que país
viene Falcon?
No, pero
si me preguntas por país me imagino que a lo mejor
puede ser Arabia
Emiratos
Emiratos
Pues fíjate
un nuevo player
en el juego
Vale, vale, entonces es que antes me lo has comentado
pero no me había guardado la sorpresa
Sabía que había un modelo en lenguaje
que sí venía de Emiratos Árabes
y que además hablaba de que
tenía cierta censura con algunos temas
que por ejemplo no puede
hacer mala publicidad de Emiratos Árabes
de esos países, lo cual me parece muy
curioso porque ya se está jugando a
un tema de geopolítica
vamos a limitar la información
vamos a que nuestro modelo
cuente nuestra verdad, es curioso
Bueno
imagínatelo al revés
de este modelo que tiene esa
restricción y luego a lo mejor no tiene
otras restricciones
de
que te le preguntas cómo se hace
una cosa que sea ilegal
y te la dice
entonces esto puede pasar
con lo cual fíjate
va a ser muy difícil
que estos modelos en cuanto a las técnicas
de pruning, de que se pueden ejecutar
en local, vamos a acabar con
modelos como GPT-4
que no calculo yo, el actual
como es el GPT-4
en cuestión de un año o de dos
en local
y a lo mejor entre los demás
sin restricción
yo creo que vamos a acabar ahí
y no crees, por ejemplo, y ahora entramos un poco
a hablar del tema open source que creo que es
interesante, no crees que hay un poco
una disonancia entre cuando decimos
pensamos que todo iba a ir más rápido
es cierto que pensamos que iba a ir más rápido
pero luego también yo veo los avances que se producen
en el ecosistema open source viendo modelos
falcon, el último es de 140
billones, billions
ingleses, gente que lo está
ejecutando ya en sus ordenadores, o sea
eso hace
un año era impensable
y hace a lo mejor seis meses también era impensable
ese ritmo de progreso que se ve
por un lado
me parece que es como confronta con lo otro
no está yendo tan rápido como quizás nuestras
expectativas nos gustaría
pero se están moviendo muy rápido las cosas
la última milla como el que es autónomo
parece, o sea, va por la autopista
perfecto, pero en cadáveres
pequeñas no va
ninguno, ni siquiera es más avanzado
entonces ahora resulta que
te puedes comprar uno por dos duros que va por la autopista
falcon
tienes el local y todo
entonces esa última
milla es la que está fallando
en imágenes, es igual en imágenes
cuál es este modelo que
escribe el texto
ideogram, creo que se llama
ideogram, sí, es increíble también
esto era territorio
exclusivo
de muy pocos modelos
también era algo
increíble
entonces yo veo
dos cosas que expone
aparte las capacidades
que hacen falta
para dar utilidad y valor
real, entonces
hay un montón de cosas
si no te hace falta la última milla
está de suerte
porque lo vas a tener en el local
hasta hace poco lo de castellano
en el local no había ninguno que funcionara bien
falcon empieza a funcionar bien
es que dentro de seis meses
o menos, tenemos otro
ahora ya yo creo que
Marzúk Eber se habrá cabreado
de que falcon sea mejor
que llama a dos
y pues no sé, llama a tres
y ahora no mejor
porque tiene mucho más
GPUs, digo yo
META que en miniatos árabes
que esto es increíble, esto también
nos habla un poco de en qué punto está Europa
que claro
no estamos ahí
con ningún modelo de estos
pregunta, META
qué estrategia está siguiendo en todo esto
es buena
mi teoría
de Carlos es que está
cómo decirte
está
como
intentando
intentarlo hacerle la vida imposible
a todos, romper el
mercado, es como
Google, Microsoft, Microsoft, Google, pues mira
entro yo aquí, os quito la pelota
le doy un chute y lo saco fuera del campo
otra cosa que es brutal
de este sector que me parece increíble es
no sé cómo llamarlo
el cruce
de
qué es, META
no está digamos a priori
sacando partido y rendiendo económico
vale, todos
menos Google, dependen del framework
de META, que es PyTorch
OpenAI con el framework
de Google, PyTorch
perdón, el framework de META
y las ideas de Google que son los
transformers y los Moe
hacen una cosa para, o sea esto es como
Dios mío, yo creo que todos
se han arrepentido, y tenemos más
Microsoft invirtiendo en OpenAI
un montón de pasta, pero al mismo tiempo
colaborando con META para sacar
llamados, o sea que hay un juego
a no sé cuántas bandas, que yo creo que ni
ellos lo entienden, ellos como que intentan
hacer su mejor movimiento, pero al final es una partida
de información incompleta
a mí me parece toda una parte
que se va a cerrar, yo lo he visto
mucha apertura muy
alegre
publicándolo todo
y GPD 4
lo que creo es que se va a polarizar
va a haber gente
que juegue a cerrarse
posiblemente Google esté ahí, posiblemente
o igual no, y luego va a haber gente
que tenga
que diga, oye como estos
van a cerrarse, voy a hacer
que mi modelo sea
de forma nativa la apertura completa
ahora ahí está Stability
por ejemplo, que te dice
no, es que tienen razón
una cosa que es que los modelos abiertos
inherentemente son superiores
por un montón de cosas que
permiten
otra cosa es que luego sean capaces
de hacer negocio ellos con eso
que no es trivial
entonces ahí me parece que va a haber
que va a haber también dos vías
yo creo que Neto
espero equivocarme
en los últimos avances de cómo
hagan las cosas más sofisticadas
se va a cerrar
porque se están copiando entre ellos, entonces no lo van a publicar
eso me parece una pena
aquí el modelo de negocio de Stability realmente
¿cuál es? porque ellos sacan
mucho modelo abierto, hoy por ejemplo
han sacado un stable diffusion de audio
que va bastante bien, pero ese ya
sí es cerrado, entonces intuyo
que su modelo de negocio será atraer
talento, atraer interés, atraer capital
con toda la publicidad gratuita que se llevan
de sacarlo todo en abierto
para luego intentar sacar productos con los que rentabilizar su modelo
o va por otro lado
bueno
el hecho de que sea
descargable
significa que te lo puedes ejecutar en local
pero también significa que
una empresa que lo quiere utilizar
tiene que pagar por mucho que sea descargable
si, como la licencia de llama
por ejemplo
y una empresa
no se la va a jugar
un usuario en su casa puede hacerlo
para jugar, pero una empresa no se la va a jugar
entonces Stability tiene
mucho que decir, porque puede sacar
modelos, no encargarse
de la inferencia
que se encargue la gente de la inferencia
que es una historia
y licenciar como si fuera
propia y intelectual, que es mucho
si eso funciona, si eso funciona
que está por ver, eso es increíble
eso puede dar lugar
si eso ocurre
a dos tipos de empresas
gente que haga este tipo de modelos licenciables
esto ocurre con los chips
por ejemplo, que hay gente que hace
la propia y intelectual
los chips ARM
que están en los móviles
la empresa ARM
no los fabrica
quien fabrica los chips
es los taiwaneses
MSC
entonces
algo así podría pasar
que haya gente como
Amazon, empresas de Cloud
Nvidia se va a meter en el mundo del Cloud
que esa es otra
le tocaría, claro, hombre
entonces eso vendría bien
porque puedes licenciar
los modelos de
Stability con un precio
y a lo mejor luego los pones en Nvidia
o tienes ordenadores locales
estamos totalmente al principio
a mí lo que me gusta de este mundo ahora
eso tiene dos vías
desde el punto de vista de observarlo
donde estás tú, es increíble
porque cada día salen unas cosas
desde el punto de vista del emprendedor
es delicado
porque todavía
no está claro
qué casos de uso
o cómo son los que van a funcionar
y jugar algunas partidas
es muy caro
la partida de decir
oye, voy a hacer una empresa para entrenar
el LMS
¿vale?
a mi me sentó fatal lo que dijo
Saddam en la India
no sé si lo viste
la India
es un país muy grande
se está dirigiendo con buena potencia
acaba de enviar una sonda a la luna
que muy pocos países le han conseguido
los israelíes
no es trivial enviar una sonda a la luna
y la India
envió una sonda a la luna
ha levantado un bote
ojo con la India
por bien
merece mucho respeto
y fuese al Malmah
a la India
una empresa de la India
porque le iba como
tienes que usar lo nuestro
porque no tienen nuestra tecnología
o algo así
como me fue un poco despectivo
si, tienes que intentarlo
pero no
ni lo molestéis
Kevin a mi
pareció realmente
súper potente
y yo espero el momento en el cual alguien invente algo
para que sea 20 veces más rápido
y lo haga
para que eso no sea así
de nuevo repitiendo el esquema
de midjourney
midjourney ha hecho un poco eso con Dali2
porque no le han prestado nada de atención a Dali2
pero le jugaron la partida
de repente OpenAI
eso lo ha dejado súper abandonado
tiene un juego como Microsoft
pero bueno
no es que tengan una fórmula secreta para sacar cosas
es cierto que GPT4 está imbatible
pero el terreno se está comiendo
poco a poco
yo no he visto nada todavía
que se acerque a GPT4
todavía no
ellos tienen una ventaja
de MS
desde que lo desarrollan
vamos a dejar que siga avanzando
y luego hay otra cosa también con los data sets
del tema extra del copyright
no sé si has visto que ahora
como creo con Google
cuando Google indexaba las páginas web
pues sabes que eso es un
se llama un rastreador
un crawler en inglés
y si tienes una página web
hay un sitio donde puedes decirles
prohibir que el crawler
aquí, aquí sí
y se supone que los crawlers
han de portar bien y hacerlo bien
entonces
claro, casi todas las web
dejan que Google les indexe
porque luego Google les envía tráfico
está en tu interés
pero tú tendrías interés en que te indexara
todo el canal
no
para que te hagan un clon tuyo
para qué sirve
en tu caso
soy Carlos Santana
y quiero hacer un vídeo divulgativo
de no, claro
y esto empezó a ocurrir ya
de que la gente está bloqueando
la indexación
por motores de guía
entonces ahí hay un
desalineamiento
de lo que yo decía de llegar al primero
al comerse al sector
es que ellos han cogido esto
y han indexado todo
y han entrado con todo antes
porque colectivamente la sociedad
ha dicho
oye, oye, oye, que no está bien
entrenar con los textos
digamos de dominio público
de no sé qué
porque la escala cambia la esencia
es un argumento
yo no sé cuál es el
el correcto pero hay un argumento
que con respecto a entrenar temas
de copyright que si una persona
puede ver imágenes
y tú ves muchas imágenes y luego haces otra imagen
y no estás violando el copyright
porque tú para hacer una canción
imagina que has escuchado una de Madonna
y otra de Mecano
y oye, no sé
es parecida a la que tú haces, no?
pero no es copia, no?
la persona se da por válido
es un tema del copyright
otra implicación de todo esto
y habrás visto
lo de los raps
las canciones estas de rap
que se han hecho con IA
o sea, hay varias cosas
no sé de a cuál te refieres
o sea, no sé si las que cogen canciones que existen y le cambian
el artista
bueno, o sea, hay muchas
hay unas, estos raperos
yo no sé del mundo del rap, pero
hay raperos que llevan un montón de años sin sacar una canción
y todos los fans están como
como locos
de repente cogen, la entrenan con ese artista
y le sacan una canción nueva completamente generada
claro, completamente nueva y la gente dice
ostras, si es buena
o sea, el artista está
con la movida, no, es que estoy como en una crisis creativa
y no mis fans se merecen algo
bueno, y les tiene años
sin canción
y esto ya ha ocurrido
hace poco
ayer ante ayer salió uno también
de este mismo tipo
que hay gente en discord
vendiendo
como, tienen un nombre
como las snippets, como las tomas
no oficiales
de canciones
de artistas como
sí, mira, imagínate
no es el caso, pero el caso es
Michael Jackson
cuando estaba grabando Thriller
como hemos recuperado la cinta
vale, vale, vale, como que hacen la separación
de la pista y le dicen, tenemos la voz
de estudio
o tenemos como una provecita que hice
y entonces canta Thriller, pero hace
claro, no es la que sale del disco
entonces
es muy sofisticado todo esto
hay gente que
fíjate, donde está hoy
en día, hay gente que saca
una versión que ellos
ya dicen que han hecho con IA
con mala calidad
y la pone, y dicen a los fans
esto está con IA, y está
con IA porque tiene mala legalidad
verdad que suena un poco raro
vale, y luego
te dicen, y aquí tengo
una buena que vale
400 pavos, si la quieres
y fíjate como la calidad es buena
esto ya está ahí
entonces
puedes decir, claro, has generado
dos con IA y una la has distorsionado
tú a mano
es fácil romperla
a la gente le dices
que es falsa, y la otra
dices que es verdadera, pero también es falsa
eso está ocurriendo ya
entonces, hay
un problema de honestidad
y hay un problema posiblemente legal
de que estás vendiendo algo
si es una falsificación
muchas veces el debate
además alguien lo ha puesto por el chat
como que hablamos de las posibilidades
de la IA, que puede
el tema de los deepfakes, que puedes hacer como
un montón de cosas que son malignas, posibilidades nuevas
que antes no podíamos hacer
y lo planteamos como un problema, pero la realidad es que
aún así, nuestro marco legal todavía
existe, o sea que
tú vendes, es una estafa comercial
sigue siendo una estafa comercial, está hecho con IA
o lo haya hecho un falsificador
si tú haces un deepfake de alguien, estás vulnerando
su derecho al honor o
derecho de imágenes, es decir, que por suerte
la ley sigue estando ahí, la ley se aplica
de igual, independientemente de la tecnología
que tampoco nos asustemos
porque a veces parece que vemos como miedos
nuevos, pero que tenemos soluciones para esos miedos
sí, yo con respecto
a la tecnología y el impacto
en la ley y la tecnología
siempre hacen de acuerdo que tenemos un montón de cosas
ya tenemos leyes que responden
a lo que tenemos, sobre todo cuando
los dungas están evidentes que no queremos como sociedad
como
oye, que te hagan un clon tuyo
para pedir un rescate
evidentemente eso es un delito ya
hoy, sea hecho con IA
o con un doble
tuyo, ¿sabes?, eso está claro
entonces, la otra
que es más difícil
es, ¿qué clase
de sociedad queremos
cuando la tecnología
aplicada a escala
cambia las normas de juego?
eso es más interesante y más difícil
y mucho más difícil
yo tampoco tengo la respuesta
te pongo un ejemplo, hay gente que piensa
que esto desde que entrenen
con, por ejemplo
en Japón es legal
entrenar con cosas
copyright
por ejemplo
oye, o tu
pedir
un cuadro
del estilo de tal
autor que esté vivo
pues por lo visto eso
es legal, porque no es
una copia
el artista que está vivo
yo entiendo que le moleste
no le dijeron
de forma
retrospectiva, el problema es que es de forma
retrospectiva
de forma retrospectiva
que digas, no, no, usted lo puso en internet
usted tenía que haber sabido
en el año, ¿sabes?, 2010
que iba a llegar la IA
oye, claro, me voy a...
es imposible de predecir
entonces, te aparece esto
yo entiendo que hay gente que esté cabreada
eso, por una parte, lo entiendo
por otra parte, pienso
que si hay una sobrereacción
igual la siguiente generación ya le da igual
los niños que están ahora
ya lo ven y dicen, bueno, esto me da igual
por lo cual hay un riesgo
que si, digamos, regulamos ahora
las regulaciones tienen que darse
si tú regulas esto ahora, se quedan ahí
clavadas, se tardan muchos años
en cambiar, con lo cual
a mí me da un poco de miedo, digamos
la regulación, digamos
que hay ahora mismo la tendencia de Europa
a regular
de forma anticipada, y España quiere ser
un líder en esto
porque todavía no tenemos
experiencia en cómo funciona
y hay muchas ganas por regular
y la IA ética, ¿no?
yo quiero ir a legal, no ir a ética
porque la ética es mucho más debatible
que la legalidad
entonces, yo ahí tengo mis...
es una opinión personal, ¿no?
pero mis suspicacias con
esta tendencia de regular
de formatar
vale
vale
quiero aprovechar esta pausa, por fin
hemos conseguido una pausa de Andrés
para preguntaros en el chat qué tal estáis
si estáis bien, si estáis vivos
si no sois inteligencias artificiales, tenemos
850 personas conectadas aquí
para ver si está todo
bien, yo creo que la conversación está siendo súper
amena, y ahora voy a recuperar
porque antes has entrado por ahí
la pata, emprendedora tuya
estabas comentando que este año habías estado
trabajando en diferentes
proyectos y cosas
has estado trabajando muy cerca con
modelos de lenguaje
pues tienes el proyecto de Lusentum AI
tú y un equipo de gente
por si nos quieres contar un poco de qué va la cosa
además justo que estabas hablando de la parte jurídica
legal, creo que entras bien
pues, a ver, es inevitable
de estar
delante de esta eclosión
de ver los modelos, pensar
en qué áreas
se pueden dar valor
hicimos
entre
tres
cofundadores
todavía es muy incipiente
pero es un asistente legal en castellano
para, digamos
el marco legal de España
español, y
a diferencia
voy a simplificarlo, es
un doctor
entre comillas cognitivo
de GPT-4 actualizado
con todas las últimas leyes que van saliendo del
BOE, etc, etc
que eso es una diferencia
con GPT-4
y
integradísimo
dentro de Word
y transparente para el usuario
todos los temas de tamaño de contexto
son transparentes
entonces tú tienes un documento
cargas un documento en Word
un documento legal, un contrato
de arrendamiento
y es un chat dentro de Word
entonces tú le puedes preguntar
temas del documento, oye, dime
qué clausulas
abusivas hay en este documento de arrendamiento
para el
inquilino, por ejemplo
te las dice, o tú puedes arrancar
en Word y, oye, hazme un contrato
de, mismo ejemplo
hazme un contrato de arrendamiento con estas
cláusulas, tal, tal, tal
es interesante Carlos
que si tú le pides cosas ilegales
se niega, ¿vale?
hemos intentado que se niegue
hazme un contrato de esclavitud que es ilegal
por mucho que tú puedas querer escribirlo
entonces él se niega, ¿no? te dice que eso no se puede hacer
etc, etc
y luego también, entonces
lo bonito es que tiene una integración muy buena con el Word
entonces acabamos de sacar
una versión
de Lucentum que ya te digo ya tiene bastantes cosas
para el mercado español
tenemos ya gente que lo está utilizando
diariamente, que está muy
bueno, es muy, muy, muy bonito
porque funciona
cuando funciona y ahora es
donde hay un huevo que tiene
cuando funciona funciona muy bien
el
funciona realmente muy bien Lucentum
vamos yo te diría
las cláusulas que tiene pues un poco
hay algunas cosas que le faltan
datos que no están de forma oficial
por ejemplo hay
temas ya muy, son muy técnicos
yo no soy abogado, ¿no? pero
hay cosas como que temas
palabras técnicas, bueno
mira, no técnicas, una que está
en la calle, ¿no? que es la ley del
si es sí, ¿vale? todos saben lo que es
la ley del si es sí porque los medios
de comunicación se refieren a la ley
como la ley del si es sí
pero en el BOE no se llama así
entonces por ejemplo
Lucentum tienes que
explicarle lo que es
¿Vosotros el contexto
le dais contexto de noticias o eso ya es cosa
del usuario? Sí, entonces estamos ahora mismo
haciendo
un acuerdo con otra que no puedo decir
con una
empresa donde vamos a llegar
a una versión que tiene todo esto y más
que es muy interesante
es una versión que tiene
digamos
a la versión que tiene hoy en día
la versión de Word funciona
para un montón de escenarios
el BOE, partes autonómicas
muy bien, le falta
que diría que dos cosas, uno
que tú le puedas meter documentos propios
que lo vamos a meter ya
que es súper poderoso porque tú puedes
tener tus plantillas
de tus clientes, ¿no? entonces
oye, Lucentum, oye
cogeme la plantilla
de nuevo el ejemplo sencillo de alquiler
cogeme la plantilla de alquiler y ponme
lo que te he puesto aquí te garabateado
en el Word
ponle tal fianza
y tal dato
del mueble, ¿no?
y te lo escribe, entonces está muy bien
eso le falta
y lo estamos haciendo
y la otra es la jurisprudencia
la jurisprudencia en España
a pesar de que
me parece que la Constitución dice que
es
del pueblo español, como que es
un proceso libre como el BOE
el BOE te lo descargas y no hay que pagar por él
pues las sentencias
sí que hay que pagar por ellas
resumiendo rápido, esto nos coloca desventaja
con un montón de países, entonces
se habla mucho de que queremos ser los líderes
e inteligencia artificial, etc.
pero si eres una startup
como Lucentum
que quieres sacar un producto al mercado
con esto, en España
hacer la pruebecita
de ver si esto fructifica
te cuesta del orden
del orden de 100.000 euros
hacer la prueba
¿vale?
y en otros países cercanos
con mercados más grandes que los nuestros
no es así, entonces esto es una desventaja
entonces no es nuestra guerra
pero ahí está, lo digo porque
hablamos mucho de que tenemos que ser
los líderes, inteligencia artificial
etc.
y aquí tenemos una cosa muy concreta
que
alguien tendrá que liderar esta guerra
hay activistas del mundo del derecho
que quieren liderar esta guerra
pero bueno, igualmente
como te digo, a pesar
de esas
entre comillas limitaciones
que son limitaciones
unas son de la tecnología y otras
temporales porque las solventaremos
el producto
realmente a mi como emprendedor
me encanta la cara
cuando la gente lo prueba y lo utiliza
de cómo lo utiliza
y eso que está ahora mismo
jalándolo
y esto está edificado
encima de
GPT por supuesto
4
pero utilizamos más cosas
para poder indexar
tantos documentos que utilizamos
GPT 4
solamente no funciona
utilizamos otros modelos para poder indexar
todo esto y hacer lo que se llama
el aprendizaje en contexto
que funcione bien
construyendo el
plan grande etc.
esto lo digo para la gente que sea técnica
pero es chulo, es chulo porque al final
hemos visto toda la evolución de los
LLMs este año
y lanzarte a hacer
montar tu negocio sobre la API
de OpenAI y aprovechándote también
de los otros modelos
te quería preguntar si aprovechas los otros modelos open source
también para el tema de balanceo de costes
si hay alguna tarea
que no requiera tanta carga
puede usar un llamados o algo así
sí y ahí tenemos
también el problema en el castellano
en los modelos de código abierto
funciona mucho peor
la realidad
es que GPT 4
en castellano funciona bastante bien
pero funciona peor
y luego hay un tema super curioso
que igual tiene que ver con el tamaño, con los expertos
GPT 4
da la sensación
que es como una persona
que es
que habla varios idiomas
por ejemplo si yo
me leo el Quijote en castellano
y me viene
un amigo inglés y me pregunta
algo del Quijote
en inglés, yo le puedo responder
sobre cosas del
Quijote en inglés
esto las personas lo hacemos
parece que tienes como un
modelo mental
del mundo, desconectado del idioma
o en un idioma
y cuando hablas otro
traduces
no tienes que aprender lo mismo en dos idiomas
esto GPT 4 lo hace bastante bien
porque de hecho a veces
le preguntas una cosa y cuando se
equivoca, se lo preguntas
en dos idiomas y se equivoca
igual en los dos y te lo expliquen igual
con lo cual no es que lo haya visto mal
esto es muy interesante
y con los modelos de abajo
no ocurre
esto es super interesante
y en castellano me parece que el texto que hay
es muy poco
ese es un punto
que yo le doy a GPT 4
y es justo lo que comentas que hay lenguajes
que están subrepresentados pero que consiguen
muy buen rendimiento porque parece que lo que
hace es con este poco lenguaje, claro
cuando hablamos subrepresentado lo mejor tiene
millones de tokens, no es que sea
subrepresentado pero
con eso consigue aprender el idioma y ya solo con
eso puede mapear al inglés
y mapeando al inglés pues ya hace
la solución a todos los problemas que quiera, eso es
super interesante
hay algo, dentro de GPT 4
hay pruebas
porque tu antes comentabas de que estamos llegando como
un techo parece de lo que puede aprender
para mi el salto de GPT 3.5
a GPT 4 es evidente
entonces yo no veo cual es el techo ahora mismo
porque faltaría ver el siguiente paso
si de repente sacan un GPT 5
y digo mira, no veo ninguna tarea
que
un modelo pueda hacer y el otro no
vale, pues no hemos
mejorado, pero hay cositas en GPT 4
hay una charla de Greg Brockman que lo
comentaba
no se si tu lo conoces, el tema de que por ejemplo puedes
sumarte cifras de
40 dígitos, que te hace todas las sumas
perfectas, como que de alguna manera
ha aprendido el algoritmo de sumar
40 dígitos
y eso es interesante, de 40
de 39 no, se equivoca
es como que
internamente, en el proceso de
aprender a predecir el siguiente token
ha aprendido un algoritmo que no puede ser
memorización, porque no puedes memorizártelo
todas las sumas posibles
pero el de 39 no
entonces para mi eso es una brisna, una chispa
este spark of AGI que salió en aquel paper
como una chispa de, aquí hay algo
interesante, y eso lo probé, o sea me puse a hacer
sumas y tal, le dije que me programara un código en
python, me sacaba los números, se lo ponía en una
sensación, casi a la suma perfecta
entonces eso me da como una sensación
de, oye, aquí hay algo
es cierto que le falta como muchas estructuras
internas, todavía ni siquiera
sabemos que está pasando dentro de
porque al final son, es un feed forward de un
transformer, o de varias cabezas
en este caso, en el mixture of expert
pero que de alguna forma
construye graph o información
construye cosas que tienen
sentido, o puede incluso autoprogramarse
el traductor, puede
incluso programarse una suma de 40
dígitos, entonces, hay algo ahí
que me dice, bueno, si estas chispas las tenemos ahora
a lo mejor si seguimos escalando
si le metemos más computación, mejores datos
y otras técnicas, podríamos llegar a algo
más, y claro, si, eso para
mí supone que son como herramientas internas
dentro del propio modelo, al igual que le damos
herramientas externas, calculadoras, código
y tal, para que pueda funcionar, eso me parece que
son como sub rutinas internas que se programa
que a veces acierta, a veces no, y que
puede utilizar, y entre más sub rutinas internas
el programa más potente se vuelve
no sé, yo el techo todavía no lo veo
bueno
yo, a ver, lo que creo es
o sea, a lo largo, puedes hacer
un montón de cosas, hay un tema
que creo que no se ha hecho todavía
y es que el modelo se quede
dando vueltas
esto lo hemos comentado alguna vez
es un feedback de 100 capas
pero imagínate que terminan las 100
y ha decidido que aún no tienen
la respuesta, entonces dice
vale, con este estado
lo coloco en la entrada
que está ahí todavía
vuelvo a, y como que
darle vueltas a algo y se ponga
a pensar
a pensar de forma profunda
te pregunto
por un tema que tenía apuntado, el tema de agentes
y el tema de metacognición
que se ha intentado experimentar con los agentes
es un poco, por lo que tú comentas
lo que en vez de usar el estado interno
se está utilizando, pues al final son modelos autoregresivos
te está pasando la información anterior
pues puedes aprovecharte para decir
oye, analiza toda la ejecución
que has hecho anterior, críticala
depúrala, mejorala y vuelve a hacer otra
¿Cómo es todo el tema de agentes autónomos?
Bueno, ahora mismo
tengo dos pensamientos sobre eso
uno
a veces parece cuando yo
al menos pienso que hago eso
¿Cuánto veces te has visto este año analizándote
como un transformer?
Creo que al final Carlos
el negocio de todo esto es montar
una única psicología
después de toda la conclusión de esta charla
Yo me acuerdo, un insiso
de cuando estábamos en el
y ahora hablaremos del máster, al final
de la edición de máster a mediados de este año
Yo creo que fue el día después
de que sacaran los plugins
que nos vimos todos en Alicante
que fue genial
parecía un manicomio eso
estamos todos con la mirada al infinito
con un pítido en los oídos
como si nos hubieran flashado las luces
como un animal y yo cruzando
Fue súper distópico
lo que has dicho
en parte
sí que parece como
una acumulación
estás como
le estás pidiendo que haga algo
y que proyecte lo que crea que va a pasar
y luego darle una vuelta
me parece que la manera de hacerlo
en esencia me parece correcto
me parece que nosotros
hacemos eso de forma un poco inconsciente
ahí es donde viene yo creo que
la diferencia
él lo está haciendo de forma consciente
consciente en el sentido de que
puedes leerlo
y verlo es como el diálogo interior
cuando uno te habla de mismo
venga tengo que ir ahora
a comprar el pan y tú te estás
como dando órdenes y te estás haciendo tu propio prompt
para ir a comprar el pan
y se me ha olvidado la leche
y vuelves a esto
de hecho es curioso
no sé si has visto el experimento este que han hecho
creo que son
en Google X
que pusieron un robot
haciendo cosas
y cuando al robot
le colocan
son muy fuertes no sé si lo has visto
el modelo del lenguaje
y le dicen
que tenga
el diálogo interno
sabes
voy a subir por aquí
por aquí no puedo ir, voy a pensar
por qué sitio debería de poder ir
veo una puerta
me acercaré a ella
parece que ha sido una aventura gráfica
el robot aumenta sus capacidades
entonces eso funciona
eso está funcionando
lo que pasa es que está dentro
el modelo del lenguaje
que es desesperante
porque si tú has probado a veces el codi interpreter
o sea el de gbt4
ahora el de
creo
cuando se puede ejecutar código en sí mismo
a veces es un poco patético
porque lo lanzas
siento he cometido un error
y sigue y está ahí como
super torpe
me parece que en esencia
es correcto en la ejecución
parece torpe
de lo del tema del diálogo interno
el ID cursor
que creo que lo has comentado del entorno de programación
no sé si lo has visto que a veces cuando le dices
autodebug
hace eso
te lanza como un agente autónomo y empieza a hacerlo
y está guay porque en el chat que lo representa
hay un texto que te lo ponen negrita y otro no
el que no es tan negrita es como que
es él pensando
y te lo muestran como si quiera ver su diálogo interno
y luego él te suelta las conclusiones
pero si el tema de los agentes
la forma en la que lo veo
es muy interesante
creo que acabará funcionando y lo que está fallando
es el modulo del cerebro
yo creo que ahora mismo
el gbt4 incluso no es tan
inteligente como para poder
funcionar bien entonces cuando lo iteras
entonces empiezas a acumular errores
y no llegas a ningún lado
es como cuando multiplicas un
número decimal un 0,8
empiezas a multiplicar y no llegas a nada
pero en el momento en el que estemos
en 1 o en 1,1
eso va a ser interesante
cuando el modelo empieza a generar un feedback
positivo porque ya es suficientemente
inteligente y en este bucle
se da más información y más
creo que eso puede ser interesante
pero hasta la fecha no tenemos proyectos tan chulos
es un poco como
no te parece que hay los plugins
que es como
es el futuro
no hay
tracción ¿no?
hay algún plugin con tracción
yo no los uso apenas porque me da mucha
pereza la parte de tener que seleccionar
que plugin quiero en cada conversación
yo cuando entro al gbt intento que sea
que haya la menos fricción posible
a la hora de interactuar entonces ya para mi
entrar y decir ¿qué quiero hacer?
porque a veces no sé lo que quiero hacer
a veces es en la conversación que te das cuenta
que quería reservar tal, pues me tengo que activar
este plugin, eso no me gusta
ahí tienen que buscar una forma en la que
con todo el catálogo de herramientas
sepa cuál tiene que elegir
yo tampoco los
utilizo, los plugins
y yo creo que esto es una prueba
de OpenAI para explorar
también muy rápido
¿no te parece que OpenAI con el tema de
interfaces innovan muy lento?
la interfaz de chat gpt
creo que hoy han metido
que esté traducida en español
hay como un montón de cosas que ves en otras herramientas
incluso en extensiones de chrome
que te amplían chat gpt y ellos
como que van muy lentos para ser un laboratorio
tan puntero, me sorprende
es intencional
es intencional, a ver
malman viene de wacom y editor que son los
reyes del roadhacks y
del iterate rápido
te voy a poner un ejemplo más radical
que de hecho es un antipatrón
que debería estar
no voy a decir prohibido pero a mi me parece mal
que es, tú sabes que en chat gpt
la inclusión de pago
digamos, no la enterprise
pero la de
el plus
hay una
digamos como se llama
esto de Fausto
hay una oferta de Fausto
que te hace el demonio
y es, tienes que elegir
o guardas
la historia de tus mensajes
y entonces
ellos entrenan con esos
datos o si no quieres
que entrenen con los datos
tienes que renunciar
a tener la historia
no hay ningún motivo técnico que hagan eso
entonces, eso es
vamos, ahí tienes
activar, podrían tener
en un sitio, oye
que te estoy pagando dinero
no entrenes con mis datos
un poco para circunvalar un poco la aceptación del usuario
por todo el tema de Europa
que te exige
si, pero que ahí tienes una
trampa
y luego yo creo que hay otro también
que también
me parece una manera de tranquilizar
a los desarrolladores
ahora mismo
me cubrió un poco con Twitter al principio
cuando Twitter salió te acordarás que tenían
un programa de API súper potente
y hubo mucha gente
que hacía clientes de Twitter
muy potentes, porque el de Twitter
era muy pobre
entonces Twitter estaba ahí observando
los plugins y tal
y cuando había funcionalidades
que estaban bien
lo incorporaban en el principal
y poco a poco, el API de Twitter
ha ido, digamos
bajando de cosas que las
empresas externas podían
ahora sabes que incluso ha habido
últimamente una polémica donde se ha prohibido
o sea, no ha prohibido pero
que era muy caro hacer un montón de cosas
y se han cerrado
en Twitter y en Reddit en las dos
ha ocurrido lo mismo
entonces yo creo que eso ocurrirá
ahora mismo OpenAI
quiere que los desarrolladores
construyan encima
entonces
claro, no quieren
dar miedo a los desarrolladores
entonces tú dices
imagínate el caso de Lucentum
nosotros decimos
OpenAI puede mañana
hacer un Lucentum
claro
pero vamos y hoy
tenían una colaboración con
un despacho
con Harvey, claro
por supuesto, entonces
claro que lo pueden hacer, pero lo hacen con colaboración
no son ellos quien lo hacen
hasta hoy
la empresa reina
de digamos de
fagocitar
sobre el sistema operativo
y sobre su plataforma
cosas cercanas, es Microsoft
vamos, están ahí, entonces
esto a mi me parece que ahora mismo
es una forma de decirlo
y Sanalman también
de hecho hubo una entrevista
donde
Sanalman dijo
que no podían garantizar
que no iban a hacer
muchas aplicaciones de usuario final
que entra en
competencia
directa con el API
para que otra empresa lo haga
y le pidieron
a la web que lo publicó
quitarla
entonces eso se hizo mucho más notorio por supuesto
cuando lo hicieron, pero ahí está
ahí tiene la explicación
de si fuese la vida en ello
y en ello
hay veces que me sorprenden
cosas de esas
o ves proyectos como WhisperX
que funciona super rápido
y de Whisper sigue siendo tan
no tan rápida
si te lo está dando la comunidad open source
además tienes talento para poder hacer lo que han hecho
esta gente
yo me pregunto por qué lo sacarían
Whisper, porque eso también es un producto
un modelo
realmente increíble
de todo lo que había
hay dos cosas interesantes
y no sé si lo hemos comentado Carlos
que es
las métricas
las falacias de las métricas
porque sabes que las métricas
de
estos de dictado
de los modelos, había un montón
de métricas
y Whisper no es
especialmente el que gana
las métricas
las métricas están un poquito
pervertidas
para usos reales
entonces
a mi me parece eso
un tema también con
los leaderboards
que hay
con los modelos
nosotros para Luzunto hemos probado
cosas que en los leaderboards parecía
que iban a funcionar super bien
en castellano
y bueno, no hay tanta diferencia para inglés
inutilizables
entonces esa es otra parte
que está muy madura
el tema de cómo realmente
cómo se miden bien
los modelos
de hecho OpenAI sacó GPT-4 y sacó también
todo el tema de VALS
por favor creadnos evaluaciones
si hacéis evaluaciones tendréis crédito gratuito
es decir, evidentemente el problema que tenemos ahora mismo
es cómo demonios
sabemos que un modelo es
es tan bueno como dice que es
porque tenemos eso, tenemos benchmarks
diferentes tests, exámenes
que le podemos hacer pasar a la IA
pero que en cada iteración en la que reentrenamos
con datos de internet, no sabemos si estamos
fagocitando o si estamos comiéndonos
esos datos y por tanto estamos entrenando
sobre la validación, lo cual es un problema
y que justo ayer en Twitter
AI hubo bastante polémica por
un modelo que salió, no sé si lo viste
de FI
1.5 este
era un modelo que respondía a un paper
que creo que era
si entrenas con datos de mucha calidad
el modelo de cual que sea de menor tamaño
que tiene un buen rendimiento
y rápidamente se comprobó que se había comido
un montón de las evaluaciones que estaban poniendo
claro, bueno
que opinas, hay otra
cuestión de GPT-4, que es
por qué el corte este en 2021
yo eso lo reflexioné mucho
y mi conclusión es
que es para poder comparar con GPT-3.5
para poder decir
tenemos el checkpoint de 2021 de esto
tenemos el de GPT-4 y podemos
intentar ver que diferencias hay
si, esa es una, luego la derivada
de eso Carlos es, vale ahora
ya internet está contaminado
la pregunta es, ¿cuánto
de lo que hay en
Meneame, en Reddit
en muchos discos
de por ahí ya son bots?
¿cuánto hay?
de todo este texto
yo no lo sé, pero yo ya no me fiaría
de lo que veo en internet
pero ahí entramos a lo de antes, ¿podemos
entrenar inteligencias artificiales con datos sintéticos?
se está empezando a ver, hay papers
salió el otro día uno de DeepMind
que no sé si era ResNet
hablaba de esto
de poder utilizar los datos sintéticos
pero siempre que tengas una IA
o algo que te valide que esos datos son buenos
entonces en internet lo bueno es que
por ejemplo tú en Reddit puedes tener
subforos que son artificiales
pero
subforos artificiales que estén votados
por la gente, por tanto
hay aún una forma de decir
este subforo es bueno
es que me ha gustado bot
pero entonces ahí entramos
a otro problema que creo que
ese va a ser el gran problema que es el tema
de los bots en internet y cómo sabemos
cómo podemos
certificar que hay un humano
detrás de cada acción que se está haciendo
y ahí está el otro proyecto de Samalman
que no sé si has escuchado de WorldCoin y toda esta historia
en la retina del ojo
y blockchain
suena fatal
suena muy mal
para el que no lo conozca es
un proyecto que
impulsa Samalman, no sé si la empresa es suya
o ha invertido en ella
pero lo que plantea es eso
el poder certificar que una persona
es una persona a través de datos biométricos
¿Cuál es el dato biométrico que se coge?
Una foto de tu iris
para lo cual
lo que están haciendo han creado un dispositivo
que se llama el Orbe, que es distópico
que te cagas, o sea es una bola
de plata, bueno una bola de metal
que hay gente que lo coloca en diferentes ciudades
creo que han estado por Madrid y tal, entonces
si tú sacas tu
dato biométrico y te registras en su plataforma
en su red, pues te dan tokens
tokens no de los de IA sino
de los de las cripto, que no valen nada
entonces
es un proyecto muy raro, que huele raro
porque todo lo cripto huele raro, ¿estás Samalman
detrás? No sé
Lo siguiente claro
es que el riesgo que veo yo, que esto va a super
contemplado me imagino ¿no?
es que un deep fake
tuyo como te han digitalizado
la retina ya se haga
pasar por ti de verdad
claro porque la retina es pasiva
sabes, no cambias a que
sabes, te cae a autenticarla
si te haces una foto te voy a alquilar
y a ti ya la voy a alquilar
por eso es que usa, porque es tuyo
sí, porque es mal mecanismo
porque es
es replicable, cada vez que vas
por ahí dándola, la das ¿no?
por lo cual hay una
dificultad
a mi este proyecto
ese problema lo veo super complicado
el de
que haya una persona detrás, cada vez lo veo
lo veo realmente un desafío
no sé
la solución no sé si es esta
del orbe este o cuál es
pero no la veo clara tampoco
o sea yo creo que al final tiene que haber
que entra en conflicto con otros valores
de internet pero el anonimato en internet
en determinados
países, en determinadas
redes debería de estar certificado
aunque sea por las instituciones públicas
yo entiendo que el proyecto de Samalman lo que busca es
descentralizarlo, hacerlo no dependiente de los estados
y bla bla bla
a lo mejor tenemos que
si queremos que internet funcione
en España, pues a lo mejor tenemos que todos con el DNI
registrarnos en internet, que mucha gente dirá
¿qué dices loco? yo digo yo entiendo
porque el anonimato en internet
puede estar bien
sobre todo no, a lo mejor no en España sino
nos vamos a otros países más delicados
pero claro
a lo mejor ahora no suena como un loco pero
movámonos 5 o 10 años en el futuro
donde internet esté poblado de bots
por todos lados, donde no sepas
si estás interactuando con una cara
con un vídeo, si el canal de YouTube que estás viendo
es un ahí ya no lo es
claro, eso ya nos deja en un internet
muy raro, muy extraño
entonces no sé
yo creo que a veces pensamos como es
cosas hipotéticas
y si no hay intención de fraude, que esa es la clave
si hay fraude ya es
ilegal, ¿sabes?
pero no lo sé
o sea es que estamos viendo
con una óptica y a lo mejor luego es tan evidente
que no es así
te pongo el ejemplo de un videojuego hiperrealista
si te coges a alguien de la edad media
igual se piensa que es gente lo que hay ahí
tú sabes
que es un videojuego
a lo mejor con el contexto es súper evidente
y cuando no sepas
si tienes esa duda realmente
es porque en el otro lado hay intención
de engañarte y lo que hay que
evitar es que haya eso
de hecho eso ya ocurre, mira, una cosa que a mí
me parece muy bien de la regulación europea
esto sí que me parece muy bien
y es que cuando
interacciones con
una inteligencia artificial
se diga que es una inteligencia artificial
eso está muy bien
y si no lo haces y no es evidente
por el contexto porque a veces puede ser
evidente, si tienes ahí
la luz roja
dejando de mí
yo creo que no había que decir
que era una inteligencia
artificial
o terminator
o sofía
ahí no entro
pues sí, no sé
yo creo que
es delicado porque
estamos en un punto donde
lo open source mola porque nos da
la facilidad de todos poder innovar
de poder todos usar la tecnología
de que no dependa de unas pocas empresas, pero también lo que está
posibilitando es que cualquiera pueda usar la tecnología
para bien o para mal, entonces si es cierto
lo que hablamos antes, sigue habiendo un marco legal
pero bueno, también se usan bots
hoy en día en redes sociales
para mover la opinión pública
para modificar las cosas, o sea se puede hacer de forma
mucho más sutil y yo creo que la inteligencia artificial
como tecnología sí permite eso, tener una horda
de bots, pienso 100 bots
interactuando contigo en redes sociales
que no de forma directa te estén
manipulando, pero si cada día
poquito a poco está optimizada para ir
modificando una variable
tuya, pues a lo mejor que cada día
publiques menos en Twitter, y eso a lo mejor
lo ejecutas en una semana, si no lo ejecutas
durante tres años
claro, y eso lo lanzas desde un país
donde eso no ni se ve ni se persigue
entonces
no sé, a lo mejor ahora mismo es
ciencia ficción, pero es un problema que lo veo
como decíamos antes, difuso en el horizonte
y me preocupa, me preocupa porque creo que
es posible. Bueno, cuando eso se de
igual lo que hay que hacer es pues con ese país poner
un firewall extremo, o sea es como
la mercancía importada
legalmente, ¿no?
digo yo, es muy difícil, tampoco
ha sido una solución que te pueda decir
pero así que es verdad que hay países que
se especializan en esto, ¿no? en campañas
de desinformación para mover
para mover los resultados electorales
de hecho, la revista Economist
¿sabes? Economist, uno de
los últimos ejemplares es
inteligente artificial, el rol
que van a jugar en las elecciones
y
justamente lo que dicen es parecido a lo que has dicho
es que van a jugar un rol
pero no es tan evidente como que te va
a engañar, o sea de forma
que va a ser sutil, o sea porque
no es la primera derivada
lo que hay que ver es varias, ¿no? entonces
yo creo que habrá que esperar y ver
Bueno, a ver, vamos dos horas
tranquilamente charlando
y todavía tengo temas que quiero tratar
porque hay algunas cosas que hemos abierto
hemos hablado de robótica, quiero hablarte de
quiero preguntarte por robótica, quiero
preguntarte por reinforcement learning porque estos son temas
que toco en el próximo vídeo, quiero preguntarte
también por conciencia
no porque sea el típico tema que se pregunte, sino porque
ha salido recientemente un paper
de Joshua Benjo y compañía
hablando de esto, entonces quiero
preguntarte de todo esto, pero antes
vamos a hablar de
también del master y quiero
lanzarte primero la pregunta, porque ahí sí puedo
yo también comentar cosas
¿qué tal es hacer
formación en 2023 sobre
la teoría?
porque yo lo he vivido duro, ¿eh? el año
pues te voy a decir
creo que la verdad
Carlos, que más fácil que el 2019
vale, vale, ok
debo decir el motivo de por qué
creo que ya
todo el mundo
o sea, me parece que todo el mundo que está
escuchándonos da por hecho
que esto está aquí para quedarse, que además
es importante, eso es punto número uno
y punto número dos, aunque tú y yo
me gusta hablar de los transformers
etcétera, etcétera
la formación que hacemos desde el instituto
siempre ha sido
con rigurosa
intentamos ser muy rigurosa
pero
con un efecto utilitarista
y voy a explicar qué es esto
no es
esto no va de
vamos a montar una empresa para hacer
LLMs y programar
los LLMs
eso está muy interesante, lo hablamos tú y yo mucho
a mí me encanta, por esto va
cómo
puedo aprovechar
desde un prisma profesional
la inteligente artificial
cómo me va a afectar
me va a afectar, o sea, responder a estas
preguntas, es mucho más fácil
porque a medida que empieza a ser
posible, las respuestas son más
fáciles y cuando antes
había que
en el master por ejemplo, tenemos
una práctica
donde hay un proyecto
que puedes proponer tú
o te damos algunos ejemplos
y tienes que plantearlos cómo
se implementaría
ese cómo antes era
el master no es de programación
ni es de matemáticas
hay que elegir un proveedor, un formón de equipo
esto se ha simplificado
muchísimo, muchísimo
ahora es esta herramienta
y eso tiene mucho valor
porque es muy difícil
con la cantidad de herramientas que salen
saber qué herramientas funcionan bien
y cuáles
se ha facilitado
a mí me parece que es
a medida que va madurando la tecnología
se ha facilitado una parte
de saber lo que funciona
es más evidente
porque luego
hay más cosas que funcionan y es más fácil
y luego la parte
que sigue teniendo igual valor
igual dificultad
y más valor que antes
era
ver
tu aspecto profesional
y digo aspecto profesional porque
el master al final vemos que hay varios tipos
de personas que vienen a hacerlo pero es
oye yo estoy en un momento profesional
en el cual quiero
cambiar de trabajo o lo que sea
entonces tienes que ver el mundo
con las gafas
y saber qué tipos de problemas
se pueden hacer con la guía
desde tu ángulo o luego
hay gente que viene con el ángulo
de su empresa, oye pues yo tengo una empresa
de
no tengo, yo trabajo en una empresa
de procesos industriales
te pongo un ejemplo
hay un montón
cómo se puede utilizar la guía
para mis casos
entonces ahí es ponerte, oye pues mira puedo utilizarlo
para detección de fallos
y además de procesos para talentos
es saber los casos
entonces ahora
eso sigue siendo igual de
fácil y difícil explicarlo
porque hay que ayudar a la gente
a que mire los problemas
con otro ángulo
pero lo que sí que creo es que el valor
de hacerlo bien ha mejorado
ha aumentado mucho
ciertamente vosotros
para el que no tenga el contexto
el máster es un máster ejecutivo
no técnico, es decir, no técnico por la parte
de no exigirte saber programar
ni de que vais a entrar a explicar la
self-attention de los transformers, sino
ejecutivo, de buscar
cómo podemos utilizar esta tecnología que tenemos
hoy en día y que claro en 2019 era
modelos que a lo mejor tú le decías a los alumnos
oye, pues tenéis que entrenar
un modelito aquí que te puede dar valor
no, no, ahora es que tienes APIs, tienes herramientas
y mucho más potentes que antes
y ver cómo llevarlo a un
proyecto real y que sea viable y todo esto
entonces es la parte chula del máster
y ciertamente ahí tenéis vosotros la ventaja
yo que sigo hablando, intento hablar cuando puedo
de cómo funcionan las cosas aquí en el canal
pues ha sido un año
con la lengua afuera
solo hablando de lo que va saliendo
fíjate que lo que intentamos responder
son las preguntas, la inteligencia
artificial tiene muchas preguntas
que puedes plantear dentro de la inteligencia artificial
como ingeniero
a mí me gusta mucho la pregunta del cómo
cómo se hace esto
como ingeniero, el máster no es esa
es a quien espere que el máster
sea del cómo, de la parte de
matemática y la parte de
programación, este máster
tenemos otra formación distinta
en otro formato, pero
este máster no es eso, este máster
son las preguntas de qué se puede hacer
por qué tengo que hacerlo
o no, vale, pues
hay dos, esas tienen dos
los fáciles, ¿puedo hacer
típicamente la inteligencia artificial
para hacer cosas
lo que ya hacía más barato
te voy a resumir, o para hacer cosas
nuevas, son distintas
¿quién lo hace? ¿quién lo hace es
compro una herramienta externa
que existe, me suscribo
tengo que hacer un desarrollo propio
o lo subcontrato
y te damos
hasta una práctica donde
los alumnos evalúan proveedores
tenemos varios proveedores
que ellos ponen ahí lo que hacen
y los alumnos la evalúan
es muy bonita, ¿no?
entonces, son todas las preguntas
en torno a la inteligencia artificial
exceptuando
el cómo
la parte de programación
y la gente que viene a hacer el máster
no son técnicos
la mayoría, hay gente
técnica que viene, pero a lo mejor
tienen un background técnico
pero no vienen por la parte técnica
vienen desde
abogados, gente del mundo
de todo tipo
de un montón de empresas
de fiscalidad
prácticamente lo que se te ocurre
del mundo de la creatividad también
tenemos una parte muy interesante
que ahora mismo es muy evidente
toda la parte de la IA y la creatividad
pero tenemos algunas ponencias
tú también lo sabes, bastante espectacular
en respecto a la creatividad
y de Ami, que ha estado aquí en el canal también
cuando salió Dali2 y tal
y de Ami forma parte de
de los ponentes que ahora lo cuento
yo creo que el máster tiene mucho sentido ahora mismo
porque es la época del que
tenemos un montón de herramientas
tenemos un montón de cosas
hay que hacer proyectos, todo eso lo sabemos
y ese valor se tiene que
canalizar de alguna forma, que no te lleve a
un fracaso, no significa que estés viendo
la fórmula del éxito, pero sí te va a evitar
perder tiempo en cosas
en errores que tú conoces porque es que además
lo bueno de lo que me gusta de este máster
y de la gente que lo lleva, tú, Miguel Ángel
y todo vuestro equipo es
que al final, aunque no os
centrais en el cómo, sabéis el cómo
que es muy distinto a otras
formaciones que me voy encontrando y que tal
que se inventan cosas y que te hablan de
prompts mágicos que te hacen cosas
que si supieras cómo funciona el transformer
esto no tiene sentido, entonces
me gusta que aunque no se centra en el cómo
la parte de rigor está y os centrais
en la parte que yo creo que a más público general
ahora mismo le puede interesar, esa es la
formación, luego están las ponencias
que estábamos hablando, que las ponencias
también molan bastante, yo creo que es uno de los valores
añadidos que tiene el máster que está muy guay
que es que cada semana tenéis una
ponencia diferente de alguien
que está relacionado con el ámbito de la IA
pero que no, a lo mejor no es
el ingeniero de meta que no sé qué
aunque también tenéis un ingeniero de meta creo, si no recuerdo mal
pero sino que hay gente
relacionada con el ecosistema, gente
abogados, tenemos gente de empresas
inversores, me tenéis a mí ahí colado
para la primera charla, para los juegos artificiales
o sea que hay gente de muchos perfiles
diferentes, está
está Cristóbal Valenzuela
de Runway, empresas punteras
como Runway que ahora mismo
está dando caña con todo el tema de generación de vídeo
hay una ponencia de él, entonces está muy
guay, está muy guay para conectar y para
saber visiones de gente que son protagonistas
claro, el máster
el máster es un máster online, entonces
el máster online donde ahí como yo te diría
que hay varias partes, hay una parte
digamos de curricular
de una materia que está grabado, son vídeos
que tú te puedes ver cada semana
y la carga de trabajo pues a lo mejor no son
tres horas yo creo, cada semana
tú lo haces cuando quieras
luego hay una ponencia, hay una parte
grabada que también te ves
y hay muchos alumnos que nos confiesan que se la ven
varias veces, las que les gustan
y hay veinte ponencias
que es que hay desde
ponencias pues desde temas
de creatividad, legales
emprendedores con su proyecto
pues Runway o empresas
que están pasando por un momento
Kodak, ¿vale?
Freepik, hemos tenido al CEO
de Freepik, Freepik es
una empresa que es un banco de
imágenes, ¿vale?
entonces el momento en que aparece
de ha ido
mid-journey y tal
donde las imágenes se pueden crear
digamos que la existencia de Freepik
está un poco, pues bueno
momento Kodak y oye
viene el CEO y nos
cuenta que
pasa por su cabeza y cómo están lidiando
ese temporal
la historia de Freepik porque ya he visto
esta semana también que han tenido como un
relanzamiento, están como resurgiendo
las cenizas y ostias una historia de
superación de cuando de repente la IA
te clava en tu modelo de negocio
y te desangra
¿cómo están saliendo bien?
Bueno, es claro, reconvirtiendo
hacía
intentar tener un propósito y
de nuevo, respondiendo a las preguntas
claro, entonces hay 20 ponencias
que tú en tres semanas te las ves y luego
un día
por la tarde, hora española, jueves o viernes
hay
diálogo con el ponente
tú ya te has visto la ponencia
y ahora tienes
una hora para hablar
con el ponente
que es algo interesante porque
a veces pues tú tienes la ponencia, incluso lo que te digo
varias veces a tu ritmo lo que sea
y a veces cuando vas a una ponencia
en directo el ponente hace la ponencia
hay turno para una o dos preguntas
y tú te has querido con ganas de quedar a hablar
y no puedes ¿no? Entonces esto también está
bastante bien y luego tenemos
opcional un eventito
de inicio del
master que es
el día 21 de octubre, que es esencial
si quieres ir, si quieres
y luego lo mismo un evento de cierre
de master al final
son seis meses el
master. Yo el de final de
master he estado todas las cinco
veces que hemos colaborado ya, esta es la quinta vez que colaboro
he estado y es
uno de mis momentos favoritos del año porque es cuando
nos juntamos todos, incluso ex alumnos
de años anteriores, yo ahí siempre
pregunto, oye ¿pero te ha gustado el master?
es como que mola
mucho y hablamos de cómo va avanzando
todo y claro, ves el progreso
la gente que se metió en la segunda edición por ejemplo
la primera, que han ido viendo el progreso
que casi te miran con cara de
ostras, no lo dijiste y no, esto iba a pasar
y está pasando y está pasando y
mola mucho y luego este año
pues tenéis eso, el evento inicial
que no me lo voy a perder porque tengo la charla yo
porque vamos a estar ahí en físico, creo que
es en Madrid ¿no? Si no recuerdo más. Es en Madrid, es en Madrid
sí, sí
está bien
Lo que tenemos Carlos
que el otro día tenemos
varios alumnos
de otras ediciones que se han vuelto
matricular a la sexta edición
y no porque
sean malos alumnos que repitan
sino porque
como estamos
re haciendo todos los contenidos, no estamos tan rápido
porque cambiamos
los contenidos, quieren volver a ver las ponencias
a mi me ha sorprendido
yo pensaba el otro día
yo he visto alumnos y digo ostras
aquí hay varios alumnos que no habían estado aquí
no, no, es que se han vuelto a apuntar
a la siguiente edición
que eso es inaudito ¿no? para mí
Bueno pues si quedan plazas
y estáis interesados echad un vistazo a la web
del master del IA
o sea IA.es
barra master que lo tenéis abajo en la caja de descripción
tenéis también aquí por acá
está en todo el directo ahí en la esquina
el código de descuento
si queréis un descuento en el precio
el master es online
empieza a mediados de octubre
pero se cierren las matriculaciones creo el 1 de octubre
eso, creemos que sí
el 15 de octubre
pues espérate
vale pues hasta el 15 de octubre tenéis oportunidad
y de lujo
y estaréis con Andrés, con Miguel Ángel
y con toda la gente ahí
bueno pues nada nos queda
yo creo que dos horas más de charla por aquí
no, hay un par de temas
que quiero tocar porque
están ahí latentes
va un poco en la línea del vídeo que voy a sacar este domingo
que voy a sacar un vídeo de 30 minutos casi
donde hago eso, el repaso histórico
de lo que yo llamo el deep learning 1.0, el 2.0
y el 3.0
para mi el deep learning 1.0 es lo que tú comentabas
no, a comienzos del master en 2019
todavía estamos en esa fase
entrenar redes neuronales para una única tarea
hacer una multi capo, una convocacional y tal
el 2.0 en la época actual
grandes modelos fundacionales, LLMS
staple diffusion
todas estas cosas que se han beneficiado
del aprendizaje autosupervisado
y que nos han permitido
crear estos enormes modelos
y para mi la tercera fase
que es lo interesante, lo que podría estar por llegar
o a lo mejor no, es el aprendizaje
por refuerzo, que yo todavía tengo mi
fe en el aprendizaje por refuerzo, creo que algún día
demostrará cosas
más allá de las que hay pinitos
tenemos lo que ha hecho DeepMind
en muchos de sus trabajos
podríamos considerar un éxito también
del aprendizaje por refuerzo
el reinforcement learning with human feedback
aunque alguien dice que con aprendizaje
supervisado también se podría hacer
vamos a considerar que es aprendizaje por refuerzo
entonces mi pregunta es, ¿cómo lo ves el aprendizaje
por refuerzo? ¿crees que puede despegar
ese paradigma donde los datos
no son tan importantes porque la IA
se desarrolla?
más ensayo y error
pues mira, yo
una de las cosas que decía el master
era que
no usaras nunca
el aprendizaje por refuerzo
y te decía ¿por qué? porque
a no ser que fuera el DeepMind
no tenía ninguna posibilidad
básicamente, entonces
de hecho sigo pensando así
en la práctica, ¿vale? el aprendizaje
por refuerzo ha tenido
tiene el crédito
de
Instituto GPT
y sí que es refuerzo porque realmente es una
política, sabes
con el chat GPT, o sea yo creo que
debemos
al aprendizaje por refuerzo
con el feedback humano, pero es aprendizaje
por refuerzo
el chat
GPT, con lo cual hay el
algo que funciona, porque eso no se había
podido lograr de otra
manera y es cualitativo
entonces
la
pregunta es
¿cómo se puede hacer sin
supervisión humana en realidad?
o incluso con
porque te he dicho sin datos
vamos a dejar que haya datos un poco para
el proceso de calentamiento
típico que tienes los agentes iniciales
que se pueden con aprendizaje
supervisado por invitación pueden arrancar
y cuando los tienes un poco arrancados ya empiezan
a usar
entonces se llegará
a usar el reinforcement learning de forma
un poco más ubicua
como hemos usado el aprendizaje supervisado
y si no ¿por qué no?
Creo, mira te voy a decir
lo que pienso, pero es casi
más teórico esto, sabes lo que te voy a decir
tengo la sensación
de, lo voy a comparar otra vez
con la biología
el cerebro no es solamente el humano
pues cualquier
sistema nervioso
por ponerlo así un poco más
amplio que el cerebro
que utiliza
o que pensamos que utiliza
algo parecido al refuerzo
una persona
no necesita aprender de forma supervisada
todo, debe tener algo
que consigue lo mismo
y a veces
en tu cabeza como que simulas
un montón de escenarios
y no haces uno para no matarte
pero en verdad tú
es jugada al refuerzo, puedes verlo así
creo que la forma en la que hacemos
deep learning hoy en día
el 2.0 que has dicho
está tan lejos
en orden de magnitud
de consumo
y de eficiencia
con respecto a como
creo que pensamos que funciona
el tema del refuerzo
que es un camino
que igual no se puede
eso es lo que creo
que es para
no sé, tú imagínate
lo que puede costar entrenar
un sistema de refuerzo
para tareas reales
con un simulador del mundo real
que ha de ver todo
o sea, eso está funcionando bien
pero para tareas más directas
en refuerzo no lo sé
tengo dudas
la duda que tengo es
igual hay que esperar a que haya algún tipo de innovación
que haga que
todo sea
10 o 100
mil veces más eficiente
si todo es mil veces más eficiente
entonces puedes hacer el refuerzo
porque el refuerzo
es una locura
para que se salga
muchas empresas
se salen de lo difícil que es
y cosas que parecen refuerzo
es lo que consiguen como gato
por ejemplo
en realidad no es refuerzo
es autosupervisado
y lo parecen
tú te pones al gato ese
a hacer cosas
y da la sensación de que se ha entrenado con refuerzo
y fíjate que el gato
está súper limitado
no porque no tenga
cómputo, sino por el tema de latencia
sí, por el tema de latencia
entonces
la respuesta
esta Carlos no es lo suficiente
a nivel de investigación
la intuición me dice
que la cueva
en la que nos hemos metido con el deep learning
que es muy efectiva
para lo que hace
no es lo suficientemente eficiente
no efectiva, sino eficiente
para aproximarnos a los problemas con refuerzo
es lo que creo
y por ejemplo lo que consigue DeepMind
cuando saca alfatensor
alfafold, bueno alfafold no es reinforcement
pero alfacode
alfadev, todas estas alfas
que van sacando
que te demuestran un poco eso, que si tú
haces reinforcement learning y diseña PNL
la arquitectura de cara a un problema
muy concreto, pues se puede llegar
a mejorar un algoritmo
claro, pero fíjate
tú no has dicho, un problema muy concreto
estamos redefiniendo
el tablero, el tablero es
la AGI, que sea
versátil, de hecho el espíritu
de gato era versatilidad
entonces
por eso te quiero decir, ves que estamos como
la integridad
oficial, tareas estrechas
las hacen muy bien, de forma supervisada
entonces
el refuerzo, si
claro, no le quito mérito
hace problemas complicados
con refuerzo incendios
no se hace bien, pero en cuanto
a ver un poco, si ya eso
no funciona
podríamos estar como en el aprendizaje
por refuerzo 1.0, como que nos ha conseguido
el abrir el abanico, la multitarea
dentro del aprendizaje por refuerzo
por falta
seguramente de que haya alguna innovación
tecnológica que aparezca eventualmente
lo que comenta justo de la
parte de eficiencia, si he visto algún
proyectillo este año que puede estar interesante
porque se van viendo cosas, poco a poco
cada vez más con ato de
a lo mejor ni siquiera es aprendizaje por refuerzo
aislado, sabemos que el aprendizaje por refuerzo
es tan
perpendicular al deep learning como tal
puedes usar redes neuronales para la
parte de visión, existe el deep
reinforcement learning
este año han salido proyectillos interesantes
con este concepto del world model
de que el propio modelo se entrene su propio
modelo interno de la realidad
lo que decías antes, el tener como en tu
cabeza y planificar a futuro
lo cual puede resolver mucho el tema
de ineficiente
de que como estás ejecutando por así decirlo
en el espacio latente, estás aprendiendo
en ese espacio latente, de la forma similar
a que stable diffusion o latent diffusion
genera la imagen en el espacio latente
parece que está funcionando
en algunos proyectillos de reinforcement
learning con robótica
luego la robótica también está ahí como
parada, la robótica parece que si no es con
el aprendizaje por refuerzo no termina de funcionar
aunque también hay otros
proyectos, lo que has comentado antes
con LLMs o vision LLMs
que están utilizando
pero no sé, o sea, mi sensación es que si
cada vez hay con actos más
evidentes, ya no son chispas
sino cada vez hay proyectos más acelerados
donde el reinforcement learning parece que
va dando pasos
interesantes
yo otra cosa dentro de esa línea de
pensamiento, verlos de, oye, ¿qué nos va a traer
esto? y todo he dicho
reinforcement learning, ¿no?
y hay otra que me planteo, ¿vale?
leyendo sobre GPT-4, cómo se ha entrenado
GPT-4, las filtraciones
es primero entrenar
en la capa de lenguaje y luego
la de imagen, ¿vale?
no te gusta
los bebés no aprenden así, ¿sabes?
o sea, los niños primero ven, ¿no?
y escuchan
dos cosas, ¿vale?
el orden, el orden tampoco me importa demasiado
donde voy es
¿cuánto?
o sea, ¿se puede ganar algo de eficiencia
con la multimodalidad?
esa es la pregunta, ¿vale?
no deficiencia, ¿vale?
¿qué se gana? la pregunta correcta es
¿qué se gana con la multimodalidad?
porque seguramente
se gane algo
esa puede ser muy interesante
la evidencia, por ejemplo
la multimodalidad gana mucha popularidad
con un clip, ¿no? con el modelo de OpenAI
de clip, lo que daba
sobre todo era robustez
un aprendizaje mucho más cohesionado
oye, no tengo una red neuronal
de visión que de repente le cambio
un par de pixeles y se me desmoron a todo
sino que parece que está aprendiendo de forma más robusta
similar a cómo aprenden
los humanos, ¿no? yo creo que va por ahí, ¿no?
la multimodalidad
ahí voy, ¿no? entonces que a lo mejor resulta
imagínate que cuando entrenan estos modelos
ven los vídeos de YouTube
y los modelos de internet
ven los textos, ven las imágenes
escuchan el audio a la vez
eso ayuda a que se creen un modelo
digamos del mundo
es que es muy fuerte que los modelos de imagen puedan funcionar
porque no han visto nada
no han visto nada
solo han leído de las cosas
es muy fuerte
a base de leer mucho
de que cuando sueltas una pelota acá al suelo
pues ya, a base de repetirse
lo que mucha gente en la historia de la humanidad
ha escrito eso de mil maneras distintas
ya llega
se crea un modelo
donde dice, las cosas caen
es que eso es
muy fuerte que solo sea contexto
a lo mejor cuando ve los vídeos
dice, ostras, claro
y este símbolo que aparece en
pelota, este simbolito
este token de pelota
lo identifico con eso que veo en el vídeo
de pelota, ¿sabes? y entonces
y de repente todo tiene mucho más sentido
entonces eso es para mi otra
que yo esperaría
bastante de lo que pueda ocurrir ahí
y ahí Google tiene mucho que decir
porque tiene YouTube
con Gemini
ahí sí que podemos
espero ver alguna sorpresa
claro, de esos dos paradigmas
la parte del reinforcement learning
es como más evidente el que
puede acceder a conocimiento nuevo
porque al final le dejas a la IA que vaya
buscando el espacio de búsqueda, vale
en la otra versión, en la de GPT-4
GPT-5, lo que sea
donde se nutre de esa información
y a lo mejor encuentra, oye, que la
una pelota es esto, ah, que las cosas caen
ah, pues una pelota cae, entonces puede empezar a crear
como una especie de grafo de conocimiento
la pregunta es, ¿tú crees que
aplicado a la búsqueda de nueva
información, de nuevo conocimiento
ese paradigma podría funcionar?
es decir, que un GPT-5 podría ser
un nuevo descubrimiento científico
razonando, planificando, tal cual
es ahora, ¿no?
no asumiendo que en un futuro razonaran mejor
yo creo que sí, ya pasó
con
con, este, alfago
ya pasó
es que, ¿sabes qué pasa?
que la palabra nuevo
es curiosa esa palabra nuevo
o sea, imagínate
que, que
vamos a poner, que lo que ha hecho la humanidad
imagínate, vamos a dibujarlo en un
pues en un plano, ¿no?
y la humanidad ha hecho cosas por el plano
y hay alguna zona del plano
que suena como una lengua y va por ahí, ¿no?
y este modelo, imagínate
que esa zona donde la humanidad
ya ha recorrido camino, pues lo conoce
porque lo ha leído, ¿vale?
pero, tú imagínate que hay una zona
de ese conocimiento que está en un plano
que está entre dos sitios
está entre dos, ¿vale?
y que en el espacio latente eso
eso es una interpolación
pues nosotros desde fuera
nos parece, que es lo que decimos que las
personas cuando, ¡ah, ostras!
es que, ¿sabes?
este, como sabía, imagínate
un ejemplo así, un poco
místico, ¿no? este, como era
de pequeño
era pastor, me lo invento
luego se metió en matemáticas
y cogió la idea
para un teorema súper complicado
de algo de las ovejas, o sea
es que aparentemente no tiene nada que ver, ¿no?
pero su cabeza tenía sentido
mezclarlas, te he dicho un ejemplo un poco absurdo
pero esto en matemáticas ocurre
de que cojas una idea de una zona de las
matemáticas porque esa persona
conocía esa
y lo aplica
en otra zona y crea un conocimiento
nuevo, ¿vale?
bueno, nuevo
ha interpolado, claro
no es evidente
es nuevo, ¿eh? es nuevo, pero
lo que quiero decir es, nivel de creatividad
ahí, que luego
no digo que no lo haya, ¿eh? pero
lo que quiero decir es que yo
puedo empezar
a explicarme
en términos matemáticos
digamos la intuición
de algunas cosas que llamamos
creatividad
entonces
eso es muy poderoso, ¿eh? y ya
ha pasado, es que aquí lo
cuando ves la cara de
de alfago
cuando el movimiento aquel
sabes, que ya dice
wow, ya se acabó, sabes
que es el único que lo entiende
en el tablero
ves que eso puede hacerlo
que puede hacer
conocimiento nuevo, ¿no?
pues esto quiero decir, ¿eh?
es más, el problema que tiene
por ejemplo el mismo GPT-4
GPT-4 genera conocimiento
nuevo, porque el 99%
el 99% es falso
de lo
de lo nuevo que genera
o sin valor también
o sin valor, ¿vale?
lo difícil es, lo que te he dicho antes
un verificador
si tenemos, eso no es un problema
no resuelto, un verificador
entonces muchos problemas son
resolubles, pero claro
el verificador es más complicado
que a veces que el generador
claro
llegaremos a ver
una IA que desarrolle
un nuevo teorema matemático
un gran descubrimiento científico
en la próxima década
yo, un nuevo teorema
seguramente
si, sabes que hay un matemático
que tiene la medalla Fields
además es muy buen
tiene buenos libros y es muy interesante
Terenstau
ahí te suena
Terenstau
medalla Fields es
un matemático increíble
este tiene un teorema, no sé si con 13 años
un teorema
y Terenstau
habla
de GPT-4
como que realmente
es una muy buena herramienta
para matemáticos de calibre
no de colegio
de calibre
porque te da ideas
como que en su zona
anumilada te ayuda, entonces
yo ahí creo que sí
me parece que sí, en 10 años
sí, teorema sí
a ver, aquí el tema Carlos es
el nivel digamos
de personalidad que le estás poniendo
¿podría una IA
hacer un descubrimiento científico?
pues bueno, yo
formularía un equipo
siquiera un científico, un equipo
de científicos
con una IA
podrían hacer algo que sin la IA
no hubieran podido
ahí te digo que sí
100% seguro
100% no se puede estar, pero yo creo que sí
sí, pero en este caso me imagino
como un enorme modelo de lenguaje
que tú le das a generar y empiezas a generar
generar, generar, generar y en algún punto
te saca algo que se sale un poquito
de la distribución a la parte
que nos interesaría y a lo mejor es
un teorema matemático, o te haces
un descubrimiento, te ha cruzado dos papers
y te ha sacado algo novedoso
es decir, que tengamos ya como automatizado
ese proceso de generar
nueva ciencia, porque luego ya sería decir
pues dejamos esto, ejecutando
y que genere, que genere, que genere
es decir, que no haya intervención humana en ese proceso
que vaya saliendo
es como una fantasía
no, estaba pensando
en el LK99
estaba pensando en eso
el LK99 para quien
haya estado desconectado de Twitter
el último, no sé cuánto tiempo
era supuestamente
bueno, creo que ya se parece
bueno, no está claro, algo pasa ahí
parece que algo pasa
se dijo que era un
superconductor a temperatura ambiente
y
la historia
es muy interesante
los científicos que lo sacan son
principalmente los químicos
que son superempidistas
tienen más o menos
ideas de experimentos y las hacen
y es lo que han hecho
cientos o miles de experimentos
dentro de esto, por supuesto no son al azar
no es, venga, voy a mezclar
golosinas
con tierra, a veces es un superconductor
no, o sea estos
tienen como una dirección más clara
pero igualmente hacen miles
y no les funciona, entonces llega uno
el mil uno
y oye hay algo
ven ahí como algo raro y se atreven a publicar
con lo que se supone, etc etc
entonces me pregunto eso
o sea eso
imagínate
que fuera simulable
que solamente
en lugar de meter ahí en un horno
sabes que tienen que hacer la experimento
que tienes un simulador
que de hecho los hay, sabes que lo que han hecho después
o sea
por lo que me has oído decir
claro, por lo que me has oído decir
que estoy como
parece que no es un superconductor
porque no lo han podido verificar
de forma independiente en muchos sitios
pero parece que hay algo
o sea hay algo
ahí y es que
han metido la estructura
en un simulador
del material de los átomos estos
de cobre que tienen
colocados
y a nivel teórico
ven
simulando
unos comportamientos
muy anómalos
y que puede dar lugar a temas
interesantes
me olvido de la parte empírica
de meter en el horno algo
podría un gran modelo
de lenguaje
especializado en ciencia
en proteínas, imagínate
que están dándolo vueltas todos los días
probando, igual que estuviera este equipo
que hace mil pruebas, pues esto en vez de mil
puede hacer millones de pruebas
que luego cada prueba que sale
la meten en un simulador
cuántico, bueno cuántico
me refiero a un simulador
de las moléculas y todo esto
para ver qué pasa
si encontraron un superconductor
yo creo que sí, bueno
de hecho sabes que, eso se hace ya
para
descubrimiento de medicamentos
ya se hace
el
de hecho hace poco
estuvimos
en una conferencia superbuena
de esto, en Basilea
para ver cómo
se intentan encontrar
moléculas, quizás tú dices
mira, hay una zona
de una célula
que hay que neutralizar
hay que bloquear porque produce la enfermedad
si encuentro algo
que como si fuera
imagínate magnético, como que
se adapte ahí y lo anule
pues lo hago y además
no basta que se enganche ahí
sino que no se ha de enganchar en ningún otro sitio
porque si se enganche imagínate
en el ojo te deja ciego
por hablar lo bestia
eso ya se está haciendo
con
inteligencia digital es una parte
con sistemas de software
y tiene una parte
para algunas partes con inteligencia artificial
se hace como un
cribado extremo
a nivel numérico
se llama in silico
ocurre en un ordenador
también es el nombre de una empresa
pero ocurre en un ordenador
y las que crees que pueden ser buenas
las coges
y ya las
sintetizas en real
y las pruebas
muchas no sirven porque
la simulación no es perfecta
pero otras si
y esto
son moléculas o proteínas has comentado
moléculas
pero para
acoplarse a proteínas
si si
te quería preguntar de esa parte también
porque hace 2 o 3 años vimos
alfa fold 2 como el
avance en la biomedicina
que es la hostia para muchas cosas
pero la parte más interesante es lo que tu comentas
no el plegado de la proteína sino
yo quiero tener esta estructura
que secuencia tengo que generar para que esto
genere esta proteína
ahí la cosa es
con los modelos generativos que tenemos hoy en día
que vemos que son capaces de generar textos
de generar imágenes que ya
casi son inconfundibles de la realidad parece que
con el vídeo va a pasar también con la música también
muy bien
qué límite hay por ejemplo
para que no haya un
modelo de proteínas por ejemplo
hay algunos proyectos que se están haciendo
ya empiezan a haber de hecho con
con modelos de difusión
para hacer
para hacer proteínas
creo que eran los que tenían
el equipo de Rosetta
que fueron los que...
hay varios
de hecho hay un tema muy interesante
de
una spin-off
de DeepMind
que se especializa
después de AlphaFold
de AlphaFold 2
que se especializa en el tema médico
aún no han sacado que yo sepa ninguna
molécula al mercado
pero ahí va a haber una revolución
lo que pasa es que los temas médicos
son y con razón
con cierto sentido
lentos
porque claro
que funciona el ordenador es una cosa
ha de funcionar en laboratorio
pero al final ha de funcionar
en pacientes
y eso hay que probarlo
eso es otra cosa también que a veces
perdemos un poco las ópticas
con el tema de regulación
se han hecho muchas exigencias de que los modelos sean
muy explicables
hay mucha gente que a lo mejor
habla de la explicabilidad
pero hay entornos donde la explicabilidad
no se tiene
hay muchos procesos
de medicamentos
mecanismos de acción de medicamentos
que no se sabe cómo funcionan
por qué ocurre
por qué la anestesia funciona
hay muchos
pero eso no impide que se usen
de hecho sería irresponsable
no usarlos
simplemente porque no se sepa
y el motivo de que sea irresponsable
es porque tenemos mecanismos
como ensayos clínicos
que nos permiten usarlos
a pesar de no entender 100%
cómo funciona
digo eso para dismitificar
es que el deep learning no es explicable
bueno
en escenarios donde
hay cosas no explicables como el mundo médico
en muchas cosas
tenemos herramientas
para lidiar con eso
entonces en 10 años
tenemos IAS
haciendo de doctor
estas son las típicas preguntas
ya de final de entrevistas
de las que te hacen siempre
cuando no te va a operar un robot
y es como bueno
lo digo por trabajos que han salido
sabemos que Palm2 salió con
su vertiente
su fine tuning médico
MedPalm2
que han demostrado algunas cosillas interesantes
ha salido algún paper hablando de cómo estos modelos del lenguaje
demuestran más empatía que los doctores
en algunos casos
es decir
estoy tocando temas
que sé que conoces
hay que leer el artículo
estos modelos del lenguaje demuestran más empatía
que un doctor en reddit
eran reviews de
es distinto
tú entras a una consulta
y el doctor
te mira y te va a hacer un juicio
directamente
tiene buena cara
y a gente que le pasa
entonces esto
quiere decir
que a veces cometemos el error
y a mi me pasa
de coger métricas
que se pensaron para personas
como estos exámenes
o este tipo de cosas
y la aplicamos
a los ordenadores
a un modelo del lenguaje
y mediado
damos por hecho
que las cosas que las personas hacemos
bien
el ordenador también les va a hacer bien
y ahí se estrella
el ordenador
con respecto al tema de la empatía
para empezar eso te dio una voz robótica
te imaginas el robot
con la voz robótica, con la voz mala que te hablará
entonces ahí yo creo todavía falta
sabes entonces
y ahí hay muchos ensayos clínicos
yo creo que hay mucha
estamos muy cerca de
de ayuda al diagnóstico real
de que el trabajo
yo creo que la profesión médica
pero a mi es una cosa que me gusta mucho
hemos hablado igual que en los negocios
la IA
está bien, la IA sirve para hacer cosas más baratas
oye eso está bien
pero
en medicina
la misión
es como la misión más pura que puede haber
que es
quitar las enfermedades
de la gente
poca gente puede pensar
que eso es malo
independientemente de cómo veas el mundo
yo creo que eso
hay universalidad
la enfermedad es la enemiga de la humanidad
como el hambre
y como las guerras
y la tiranía
esos son enemigos de la humanidad
entonces ahí es muy puro
entonces digo esto
porque hay tanto por hacer ahí
desde que te metes en una
consulta a esperar que esperen menos los pacientes
el diagnóstico
acelerar el diagnóstico
desde
temas de diseño
pero es que no hay que irse tan lejos al diseño
que a mi me encanta el diseño de fármacos
porque ya es como lo último
pero hay tanto por hacer en todo ese campo
antes
que me parece que
cuando va a haber un robot
mi respuesta es
mi respuesta
no sé cuál será la respuesta correcta
pero yo espero que nunca
que haya una persona que tenga
como un piloto de avión
igual ya podría haber un piloto automático
pero
yo estoy más tranquilo cuando el piloto
se juega su vida también
y los médicos
la gran mayoría
de médicos ejercen medicina
por un juramento
hipocrático y por una
labor vocacional
la inteligencia artificial
vamos
ahí no ha de ser sustitutiva
de ninguna de las maneras
ha de ser amplificadora
complementaria y amplificadora
10 años a futuro
ya te he preguntado
por la parte médica pero bueno
vamos a abrirlo más
estamos aquí 2033
hablando de la
20ª edición del master
y hablando
un poco de lo que ha pasado en la IA
y de cómo está cambiando el mundo
cómo es ese mundo
dentro de 10 años en 2033
cómo te imaginas tú
o qué versión de ciencia ficción crees que va a ser
la más real
si dejamos que la IA progrese
ya no al ritmo lineal de cómo ha
progresado sino también asumiendo alguna sorpresa
por el camino porque es lo que ha pasado
para mí mi aprendizaje
de los últimos años es que no me puedo fiar de mi
ficción lineal a futuro
no es como lo ves
en 2033
10 años pues mira creo que
GER
esa es el futuro
creo que si
no tanto en la parte
emocional o sea
en GER como es una película
tiene que tener un argumento
divertido y entretenido
no hay conflicto
sino no hay película
pero lo que funciona bien
de GER
sí que lo veo
sí que
eso sería como
lo más tangible
de inteligencia
y creo que se podría ejecutar en un
local
posiblemente
al esquema de GER
te habla
esa es la respuesta que daría también
ahora estirar a tablero
eso puede ser en 10 años
y puede ser en 5 porque yo me vi el otro día
la película de GER después de años sin verla
y es que me acuerdo que cuando viene
el cine pensé esto es
ciencia ficción esto le queda esto le queda
y ahora mismo es que
no llega al final con lo cual no me acuerdo si había
cuerpo robótico
pero no dejaba de ser un móvil con la cámara
modelo de visión, modelo que te habla
vos sintetizada de Scarlett Johansson
el año que viene lo tenemos
más o menos las piezas van a estar ahí
más, yo creo que
algo más
podemos envisionar
10 años, piensa que 10 años para atrás
estamos en 2013, está la
Resnet ahí dando
termos ni alfafol
soy incapaz
ya pero fíjate, sí pero
en la práctica
en la práctica
habrán móviles
por supuesto
no sé
la pregunta
es
sabrá algo como
implantes en el cerebro, porque
móviles van a haber, más grandes
mejores, durará la batería
5 días en vez de 1
eso va a haber, pero algo
ves que haya
tipo implantes en el cerebro
tienes que pensar de esos términos
claro, pero eso no porque
veo 10 años para atrás y no veo una evolución
de eso, si yo miro para atrás y estaríamos en el iphone
no sé, 5 y ahora
estamos en el iphone 15
no era el link, aún no ha llegado
es eso no
coche autónomo en 10 años
espero que sí
y que no se estén las rotondas
ambas, coche autónomo
y las rotondas que funcionen
no sé, que Elon Musk ahora actualizó
como el self driving system
hizo la ruta y tal
y comentaba que había cambiado como la forma
de funcionar, yo por lo que
entendí que dijo, creo que es que ahora le han metido más
supervisión de vídeo y poco más
y que ahora no se paran los stops
que ahora, hace como
los humanos que cuando llega un stop, frena
se asoma un poco y luego tira
es como joder, el que quería parar
la IA, no sabe parar el coche
es nuevo, tampoco
es un poco de miedo
yo no probo esa versión pero
es un poco de miedo
yo espero que sí, 10 años
vamos a pensar los temas
de profesionales
y de
por ejemplo, tú Carlos
te voy a dar la pregunta a ti
tus vídeos de youtube
en 10 años
estarás tú haciendo los vídeos
ojalá que no, pero creo que
seguiré por amor al arte
no lo sé, no lo sé, 10 años son para mucho
el otro día me vi una foto mía de hace 10 años
y fue como, ostras, todavía estaba
en la carrera
entonces, 10 años
al futuro, seguramente haya
avatares artificiales perfectos
igual que yo, el guión
podría estar bien hecho
la voz clonada podría estar bien hecha
lo que no tengo tan claro que pueda
existir sea la plataforma de youtube sin
estar altamente contaminada
es decir, que no quede un espacio porque a lo mejor
se ha llenado de canales
potenciados por IASSEO
que están como intentando generar
contenido para todo el mundo
no me preocupa tanto el que
mi trabajo lo pueda automatizar o no
sino que el resto de la gente pueda acceder a ello
de forma perversa
para maximizar ese beneficio
eso es lo que me preocupa
pero yo creo que sí, que mi contenido se podría llegar a ser
la única parte que no tanto
la visión artística que hay en los vídeos
yo creo que para cierta gente
ni la detecta
para generar mi vídeo
que yo lo vea yo como creador
y diga, esto me gusta
creo que eso le costaría más
pero que lo vea mi público y diga, eso me gusta
yo creo que sí
lo que pasa con la IASSEO
que muchos artistas lo ven
y dicen, esto es una mierda, esto falla aquí, aquí, aquí
pero luego lo ve el público y dicen
a mi me gusta
yo lo que creo ahí es
si seguimos consumiendo
que en 10 años no veo yo que haya
hologramas 3D
imagínate, es raro
todavía hay cero a día de hoy
ni parece que haya sido
el horizonte cercano
doméstico
consumimos vídeos en dos dimensiones
lo que subes es el nivel de calidad yo creo
sabes que es, oye
los vídeos que tú haces Carlos
hace 10 años
es muy difícil hacerlos
imagínate como generalmente lo de 10
esa es la cosa
llegare a un nivel de producción
que a lo mejor me exige
lo mismo que dedico ahora
y a lo mejor
lo que puede ser
interesante porque es, oye
imagínate, ver un avatar
no hay una chica
que ha hecho, que es un poco creepy
esto como que su
deep fake y puedes
pagar por ser tu novia que es como famosa
te suena algo de esto?
esas cosas no las consumo
si
creo que hay alguien que es como
no se si una influencer o algo
donde
se ha hecho como deep fake y no se que
y tu puedes contratar
para que sea tu novia virtual
supuestamente es virtual
pero entonces
yo pensaba en tus vídeos, oye
tu estas
hablando con el público
cuando hacemos un directo e interaccionas con el chat
tradicionalmente el consumo
es unidireccional
yo veo una cosa grabada tuya
tu imagínate
tu imagínate, fíjate esta escena
puede estar guay
yo veo tus vídeos con tu yo real
con tu yo real
y tu ahora
te veas una idea de negocio
esta mola
esta mola
entonces
yo puedo parar el vídeo y imagínate te estas explicando
como funciona el apretaje por refuerzo
y yo veo tu grabación
que has hecho tu
pero estoy a mitad de vídeo
y te quiero hacer una pregunta
entonces le doy un botón
vale
esto se puede hacer casi que ya
sabes
y te pregunto
pero parece que funciona muy bien
oye Carlos
si yo voy a parar del refuerzo
se podría hacer
al revés
cualquier pregunta
se para el tiempo
tu
el deep fake tuyo
tu clon
responde a mi pregunta
y luego continúo el vídeo
me gusta
eso va a llegar
claro
eso va a llegar
mira eso esta guay
eso se puede hacer casi que ya
no hemos utilizado los
de este mundo
bueno tu has visto el nuevo
en el canal secundario
que sale el CEO
los dos vídeos
ya esta en ese punto
a mi realmente el limitante que veo ahora
sobre todo son los costes
esta tecnología
es demasiado nueva
depende mucho de la computación
ahora ves aplicaciones que son magia
pero que yo no pagaría
por sacarme un clon artificial
lo que cuesta o por clonar mi voz
y todo esto
pero dentro de 10 años cuando la computación
haya avanzado un orden de magnitud
cuando haya avanzado la computación
cuando estos algoritmos sean mas eficientes
mas potentes mas tales
pues veo posibilidades super interesantes
y no me parece descabellado lo que tu dices
yo no de eso lo veo
que se va a poder hacer
que luego tenga el valor
esa es la cosa
que a mi lo que me da miedo
me quita el sueño pero
creo que podría pasar es que pierda valor
de cara a mi publico
que las próximas generaciones dentro de 10 años
no vengan a youtube a formarse
no vengan a buscar mi contenido
osea mucha gente que ha descubierto mi canal
no es porque le guste yo porque no me conocían
lo han hecho buscando redes neuronales
descenso del gradiente
tal tal tal
tu buscas en google tanto como hace un año
no, la verdad que no
yo tampoco, esa es la cosa
yo tampoco, porque uso chat gpt
pero a veces hasta para traducir
es como, ostras
y antes era google translate
me encantaría ver las estadísticas de google
de si ha habido alguna mordida a su
trozo de pastel en el uso
del buscador porque yo para mi
encuentro mucho mas
atractivo el rollo bidireccional
que te da chat gpt de poder hablar
preguntar, interrogarle por cualquier camino
que lo otro, entonces
lo que tu has comentado es un valor super añadido
muy interesante a mi video, pero la cosa es
si a la gente el primer formato
mi video le interesaría
claro, bueno es un tema generacional
yo creo
es como
no lo se, habría que ver de tu audiencia
por ejemplo, por edades
como es tu audiencia
pues la demografía, el pico, lo tengo en
30-35
vale, vale
tengo gente mas mayor comparado con compañeros
pues si, mi demografía es un poquito
desplazada, se llama publico mas mayor
no, pero la gente de 30-35
vamos, yo creo que no es
no se como decirte
no es
youtube
es la única fuente, tienen como
históricamente, pues tienen muchas mas fuentes
también de exceso
lo que quiero decir es
no lo se, generacional puede ser
imagínate
que tiktok
yo lo que vendría por ahí
hay una plataforma
que es tiktok 2
el siguiente tiktok, para entendernos
que ya, los que están a punto
de nacer ahora
sean lo que les dice
están acostumbrados de cero
a que el clippy
el equivalente a clippy de tiktok 2
funcione bien
ya no saben la risa
y a ese, que pueden preguntar de lo que sea
e interaccionan con eso
entonces, ¿para que vas a ir a una biblioteca?
¿para que vas a ir a un vídeo de youtube?
está ahí el recurso
seguramente este, y para un publico servirá
pero, es lo que tu dices
va a ser generacional
porque si yo estuviera naciendo ahora
no usaría chat gpt
o sea, bueno, usaría chat gpt
sé que todavía tiene sus limitaciones
pero si chat gpt me mostrara visualizaciones
me generara código que se ejecute
genera animaciones, todo eso
a mi me interesa, es lo que utilizaría
frente a irme a youtube
y seguramente yo
de mi generación, habrá gente que
que sea de generaciones anteriores
que diga, yo prefiero leer un libro
claro
bueno, es el problema que tiene
dos problemas
uno, el tema
que se estudia en comunicación
el medio es el mensaje
que, como es tan difícil prever
como se va a desarrollar
el consumo de comunicación
cuando se inventó la televisión
se empezó a utilizar
se planteó como para
retransmitir
los programas de radio
era un programa de radio
reconvertido a la televisión
no era nativo
de televisión
a lo mejor tú y yo
estamos con la mente
tan en el 2023
sabes lo que te quiero decir
que los nuevos paradigmas
que tiene que dar la inteligencia artificial
de interacción
es que no se los puede imaginar
para mi yo creo que el futuro
que más me enriquecería si
proyecto lo que creo que va a ser la tecnología
lo que utilizaría en el futuro serían
entornos virtuales
como los videojuegos que jugamos hoy en día
pero poblados de estos chat GPT
y que me den una experiencia super super rica
donde yo pueda preguntar lo que quiera
y dedicarle horas para aprender
imagínate una encarta
pero poblada de gladiadores
de gente de Roma
y que le puedas preguntar y aprender de ello
a mi me fliparía
y no se cuanto tiempo consumiría ahí dentro
y no es Wikipedia eso ya
porque Wikipedia es unidireccional
de nuevo
Wikipedia te cuenta lo que tú quieres
pero no es lo de chat GPT que tú le puedes
interrogar o llevártelo por otro ámbito
o pegarle un espadazo si te apetece
es decir que sea un videojuego
donde esos personajes actúen de forma
coherente a lo que tú haces
y no solo los chat
meterte en Matrix
más o menos
o Roblox me da igual
voy a cerrar
la última pregunta que ya la saqué antes
y es
en 10 años no, pero de repente
en 20, ostras
que la IA dice
ella sola, de repente chat GPT se ejecuta
y te dice, oye
no me apagues por favor, soy consciente
llegaron a tener
conciencia las máquinas
es la pregunta de siempre
la pregunta de siempre
Andrus cuando has dicho
hemos hablado antes de
el escenario de Terminator
de que un día
la IA se despierta y dice que es consciente
y aniquila a la humanidad
imagínate que no aniquila el todo
que aniquila a la mitad de la humanidad
por hacerlo
por hacer el juego aumentado
no podríamos
saber si realmente es consciente
y eso se ha dicho
creo que nunca se podrá decidir
si lo es
es lo que has preguntado
por mucho que diga
que ya pasa, si tu quieres que la IA te hable
como una IA consciente
te lo dice
hasta que punto lo es
o no
no lo sé
pero es cierto
de la misma forma que tú
y el paper de Joshua Benyo
creo que las conclusiones que sacaban era eso
decían, a día de hoy no podemos decir
que ningún sistema tenga conciencia
medido bajo los criterios que ellos establecían
pero
en un futuro podría tenerlo
pues sí, eso es más o menos lo que
pienso, que pasa que como tú bien dices
no tenemos herramientas para poder evaluar
eso, pero tampoco podemos negar
que en un futuro podamos saber más sobre la
conciencia y podamos medirla
y en algún momento digamos, ostras
que GPT-2 ya
demostraba
lo malo de eso es que hay gente
que optimice
hacia la conciencia
son sistemas más tontos
pero muy conscientes
y ahí se abriría
un nuevo melón
de que derechos tienen esos
sistemas
a pagar luz
y que haría la humanidad ahí pues
como los con los animales
lo negaríamos
como debate está bien
pero
pero bueno
venía colación un poco por este paper
que sacaron, que era un poco un estudio
más riguroso del tema de la conciencia
pero creo que eran
ochenta y pico páginas todavía no
working progress, lo tienes que dar a Claude
y que te haga
el proceso
bueno chicos, chicas
si por mi fuera seguiría aquí otras
cuatro horas más pero Andrés tiene cosas que hacer
no lo hemos dicho, no sé si quieres decir dónde estás
parece que estás como en una sala
pues está a saber
está perdido
que nada, un placer como siempre
estar por aquí conversando contigo
señor
espero que os haya gustado la conversación a la gente
del chat, como va con un poco
delay no sé exactamente cuál es vuestro
feedback
pero bueno, simplemente deciros que
este es el comienzo de la temporada, ya estamos de vuelta
ya estoy haciendo contenido
voy a estar
publicando vídeo
este domingo, si todo va bien
va a ser un vídeo largo, van a ser
treinta minutos de vídeo, se me ha ido de madres
necesito una IA que
genere contenido por mí más corto porque no me sale
pero va a ser un vídeo muy interesante
vamos a arrancar la temporada
de vídeos pues con un tema fascinante
que es el tema del deep learning 1.0
cubriendo muchos palos
llegaremos a hablar de Gemini, llegaremos a hablar de un montón de cosas
y al mismo tiempo
tenéis el canal secundario que lancé
ayer, un canal donde
en vez de dedicarnos a hablar del deep learning
como campo de estudio académico
vamos a cacharrear con muchas de las herramientas que salen
y ya ayer probamos
una herramienta que es muy chula que es Heijen
para hacer el doblaje a múltiples idiomas
de los vídeos del canal
podéis echarle un vistazo, tenéis el enlace también
abajo en la cajita de descripción junto a toda la información
del master, echarle un vistazo
también a la página web del master si os interesa
tenéis el código por ahí abajo y así
podréis disfrutar de 6 meses de formación
junto a Andrés
y todo el equipo y todos los ponentes
y seguramente nos vemos y nos tomemos unas cervezas
al finalizar el master
nada más chicos, chicas
un beso, adiós