logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

A ver, ¿cómo hacemos este directo? ¿Cómo lo afrontamos?
Hola chicos y chicas, bienvenidos a un nuevo directo aquí a DOT CSV,
vuestro canal de inteligencia artificial donde intentamos seguir la actualidad de lo que ocurre en el mundo de la IA.
Un ámbito de estudio que como nos hemos dado cuenta en el último año sobre todo, va muy rápido, va extremadamente rápido, va acelerado.
Demasiado, diría yo. Creo recordar que hace no mucho dije, ojalá, ojalá, llegue un invierno de la inteligencia artificial.
¿Se me oye? ¿Se me está oyendo? Confirmadme que se oye bien y que está todo bien.
Hace, creo que en el directo que hicimos con la gente de CREA, pues sí, dije, ojalá llegue ya un invierno de la inteligencia artificial.
Pido perdón. No pretendía esto. No pretendía que pasara esto, ¿vale?
Quien no se haya enterado, quien se haya ido de retiro espiritual durante el fin de semana y haya desconectado móviles, haya desconectado internet porque vivimos intoxicados de información,
habrá visto un acontecimiento que yo creo que quedará para la historia de Silicon Valley, del sector tecnológico.
Hemos visto como la que era hasta ahora la empresa líder, y podemos decirlo, ¿no?
La empresa líder de inteligencia artificial, OpenAI.
Una empresa que desde este canal hemos visto crecer, desarrollarse.
Una empresa que se funda en 2015 y que ahora mismo, 2022, 2023, ha sido el año donde ha vivido una explosión mediática sin precedentes.
Que ahora vamos a explicar que esto puede estar en gran parte detrás de todo lo que ha pasado.
Pues en tres actos, viernes, sábado y domingo, y todo lo que está sucediendo ahora, se ha explotado, se ha destruido por dentro, se ha abierto en canal.
Por fin vuelve a ser Open, OpenAI, se ha abierto en canal en una serie de acontecimientos que ahora vamos a intentar desgranar secuencialmente, ¿vale?
Ya me adelanto y pongo la tirita encima de la herida, pero es un directo complicado porque han ocurrido muchas cosas.
Hay muchísima información que comentar.
Los hechos cronológicos cuestan seguirlos porque al final nos vamos informando por todo lo que está ocurriendo en Twitter y todo lo que se está publicando a través de Twitter, que es bastante.
Y vamos a intentar hacer más que el análisis, que sí, que va a ser un análisis, pero vamos a intentar hacer terapia colectiva porque yo lo necesito.
Yo estoy, tengo la cabeza loca después de ver todo lo que ha pasado.
Para quitaros un poco de expectativas y tal sobre esta historia, saltamos al spoiler final, al final session, por ahora, es la última hora que tenemos, sería este tweet de aquí, ¿vale?
Me parece bastante relevante, donde vemos a Lilia Wang, que es Applied Research at OpenAI.
Dice lo siguiente, 650 de 770 trabajadores de OpenAI han firmado esta carta ahora mismo, ¿vale?
Una carta donde, más o menos, bueno, no está en este tweet, pero una carta donde se habla de que si no se restaura o no sé qué tiene que pasar aquí, si no vuelve, si no se revierta la situación de la semana pasada, toda esta gente podría dejar la empresa.
OpenAI, ¿vale?
Estamos hablando, no de números, sino estamos hablando de trabajadores reales, con sus vidas, con sus trabajos, con sus familias, que toman la decisión de dejar la empresa por los motivos que, bueno, que ya sabéis, ¿no?
Que, entre otras cosas, han despedido a Sam Alman, que es todo el meollo de lo que vamos a comentar.
Entonces, claro, pensemos un poco también, y esto lo quiero analizar ya de cara al final, ¿qué va a pasar?
¿Qué va a pasar con el futuro de este laboratorio?
¿Qué va a pasar con el futuro de OpenAI?
¿Y qué va a pasar con la mayoría de proyectos que viven dentro de esta organización?
¿Qué va a pasar con ChatGPT?
¿Va a morir ChatGPT de repente?
¿No van a desconectar ChatGPT dentro de una semana cuando esto se siga descomponiendo y se desintegre todo?
O sea, ahora estamos viviendo una explosión nuclear, y me acojo aquí al tweet de Andrew Karpathy, que ponía el emoticono de radioactividad.
No sé exactamente si se refería a un núcleo irradiador en plan positivo, en plan Sam Alman, es nuestro núcleo irradiador,
o directamente esta situación es una explosión nuclear, sálvese quien pueda.
Pero ahora mismo estamos viviendo una explosión nuclear dentro de OpenAI,
y las grandes incógnitas, y aquí podemos especular, pero realmente no vamos a saber cómo se va a desencadenar esto,
es qué va a pasar con toda esta tecnología, qué va a pasar con los desarrollos actuales,
qué va a pasar con los desarrollos futuros, y qué va a pasar con la infraestructura,
que ahora mismo, y es uno de los grandes éxitos de OpenAI,
da servicio a millones de usuarios y millones de aplicaciones que se sustentan sobre ellos.
Voy a estar atento al chat también, porque es que para recibir parte de la información de lo que ha pasado,
necesito que me vaya a ir refrescando cosas según vayamos contando la historia,
pero vamos a intentar analizar un poco qué ha pasado aquí.
¿Vale? Y vamos a ver quién puede salir ganando de todo esto ahora mismo,
ya lo comentaremos, pero sabemos que Microsoft, por lo que parece,
podría ser una de las grandes beneficiadas de todo lo que ha pasado.
Vamos a intentar ir cronológicamente para entender un poquito toda esta situación,
y para el que no conozca lo que ha pasado,
también le sirva este vídeo un poco como crónica de lo que está ocurriendo.
¿Cuánto vale OpenAI ahora?
Mira, bueno, OpenAI, su evaluación creo que depende de lo que ha invertido Microsoft y tal,
el valor que le han dado, pero no lo podemos saber como si tuviera acciones por su estructura de empresa y tal,
que lo vamos a ir comentando.
A ver, ¿cómo empezamos por aquí?
Bueno, el acontecimiento comienza, la bomba explota el viernes.
Viernes por la noche en España, sería, yo creo que el amanecer, más o menos a las 12 del mediodía en Silicon Valley.
De repente, OpenAI, en la cuenta oficial, publica el tweet con el blog post que tenemos por acá.
Bueno, lo voy a buscar directamente porque tenemos que verlo, ¿vale?
Si venís para la página web de OpenAI, pues el último blog que tienen publicado es este de aquí.
Y entonces yo, o sea, mi situación, también quiero contaros un poco cómo lo he vivido porque,
porque madre mía, nada, yo llego a casa y digo, bueno, un viernes por la noche, tranquilito,
ya se acaba la semana, voy a descansar un poquito, me meto a Twitter, veo esto, digo, uy, qué curioso.
Y empiezo a leer, y la primera frase que leo es esto, ¿no?
La CTO Miramurati ahora mismo es la SEO interina de OpenAI.
Sam Alman, deja la compañía.
Entonces yo aquí, cuando leo esta frase, Sam Alman, deja la compañía,
pues mi primer pensamiento es, joder, el C1 de inglés que tengo me está fallando
porque esta frase la tengo que haber leído mal.
O sea, esto no entiendo lo que estoy leyendo aquí.
Entonces sigo leyendo.
Y empiezo a hacer una lectura rápida, empiezo a ver aquí palabrejas y cosas,
y entonces salto a la frase que ha sido bastante repetida,
que la quiero ver porque ahora mismo no lo estoy...
Aquí, esta frase.
¿Vale? Dice, el señor Alman, o sea, la salida del señor Alman
se debe a un proceso de revisión deliberado por la Junta, ¿vale?
Que concluye que no ha sido lo suficientemente,
o lo consistentemente honesto en sus comunicaciones con la Junta, ¿vale?
Quitándole así sus capacidades de poder ejecutar responsablemente
sus responsabilidades, ¿no?
O sea, básicamente lo que estaban diciendo de forma pública,
que esto es una de las cosas graves que se está criticando
y que se va a seguir criticando y que creo que ha sido
uno de los grandes errores de todo este proceso,
porque luego también podemos entrar en pensar en los if, ¿no?
Y si se hubiera hecho de esta forma, y si se hubiera hecho de esta otra forma.
Pero aquí lo que nos están diciendo es,
oye, nuestro CEO, nuestro CEO, Sam Alman,
la Junta ha decidido que lo vamos a quitar,
lo vamos a retirar, fulminantemente,
y públicamente además decimos que esto ocurre
porque no ha sido honesto a la hora de comunicarse con la Junta.
Es decir, que de alguna forma,
Sam Alman había hecho algo
que a la Junta no se le había comunicado
y que era lo suficientemente grave como para retirarle
de su posición de CEO.
Que uno dice, a ver, Sam Alman,
sí, hay motivos para, públicamente, ¿no?
Por lo que sabemos de esta persona.
¿Hay motivos para retirar a Sam Alman
de su labor de CEO en OpenAI?
Bueno, lo que sabemos nosotros es que OpenAI
ha pasado de ser un laboratorio
que surge en 2015, ¿no?
Con todo el desarrollo que ha tenido.
Se empieza a desarrollar
y empiezan a entrar en una línea de investigación
que llegado a un punto,
Sam Alman decide empezar a comercializar,
productivizar,
y empieza a orientarse
hacia esta versión más comercial de OpenAI.
Pero donde tienen un éxito,
que es ChatGPT,
y que hemos visto a lo largo de este año,
que ha catapultado a esta empresa a ser,
bueno, vista como la principal empresa tecnológica
de Silicon Valley
y una de las principales empresas tecnológicas
que estaban llamadas a ser,
y ya hablo en pasado,
estaban llamadas a ser
la gran revolución dentro del sector tecnológico.
Y eso ha sido cosa de Sam Alman.
Y Sam Alman sabemos
que ha tenido un papel muy relevante,
sobre todo en este año,
porque no solamente ha jugado su papel
de llevar internamente a la empresa,
sino que ha sido la cara visible,
le hemos visto en un montón de presentaciones,
le hemos visto haciendo cierto,
bueno, cierto no,
haciendo mucho lobby con políticos,
haciendo un montón de,
bueno, de labor que se esperaría de un CEO.
Entonces, públicamente,
la visión que yo creo que teníamos todos,
y que yo tenía,
y que todo el mundo tenía,
además que recordemos,
veníamos de el gran evento,
porque, joder,
es que el tiempo parece que,
parece que han pasado años,
recordemos,
no se ha cumplido ni un aniversario
de la salida de ChatGPT,
estamos a 20 de noviembre,
estamos a 20 de noviembre,
pensad que dentro de 10 días,
se empieza a cumplir el aniversario
de cuando ChatGPT llega a nuestra vida.
Y entonces aquí,
yo creo que la opinión pública general,
o sea, con sus críticas,
y se puede criticar a Sam Alman,
y se puede criticar la orientación
que estaba teniendo OpenAI,
pero públicamente,
al menos,
se le podría ver como un CEO exitoso,
que estaba llevando a la compañía
a un éxito dentro de su propuesta.
Entonces,
públicamente no se entiende
que salga un mensaje tan duro
por parte de la empresa,
internamente por parte de la empresa,
por parte de la Junta,
una Junta que además son
los cofundadores,
el grupete que ha armado
toda esta compañía,
que de repente le acusen directamente,
públicamente,
de haber sido poco honesto con la Junta.
Esto ocurre,
y poco a poco nos vamos enterando de cosas,
y nos vamos enterando de que,
por ejemplo,
pues Sam Alman,
también se entera de esto
casi casi al momento.
Es decir,
que en una reunión
se le convoca,
se le avisa en un Google Meet,
que también ha habido coña
con esto del Google Meet,
y se le avisa,
se le notifica de que,
hey,
que está despedido.
Y a Greg Brockman,
que es otro de los miembros
de la Junta,
o la posición de Chairman,
también se le destituye,
pero sigue dentro de la empresa,
que luego más tarde,
pues avisa que también se va a pirar,
porque no está de acuerdo
con lo de Sam Alman.
Entonces,
esto pasa el viernes,
esto es el día uno,
esto es,
cae la bomba.
Y cuando cae la bomba,
creo que la psicología,
o sea,
la mentalidad general de todos,
es,
ay Dios mío,
¿qué ha pasado aquí?
Pero en plan,
¿qué ha hecho Sam Alman?
O ¿qué han hecho dentro de OpenAI?
Que de forma encubierta,
no se ha comunicado correctamente,
algo ha pasado,
algo muy gordo ha pasado,
era lo que yo creía,
algo gordo ha pasado,
y Sam Alman,
o no lo ha notificado,
no lo ha gestionado bien,
o se están previniendo
ante la salida de,
pues por ejemplo,
un artículo el lunes,
donde de repente The Guardian,
pues te saque un artículo
de que se ha filtrado
toda la información
de OpenAI,
o algo por el estilo,
que OpenAI está en bancarrota,
y que realmente se estaba ocultando,
lo que fuera,
algo que realmente
justificara
esa agresividad
en el propio comunicado
de OpenAI,
porque si no,
no se explica,
normalmente este tipo
de comunicaciones,
cuando tú tienes que echar a alguien,
intenta ser un poco más
cordial,
correcto,
ya al fin le estás dando
una patada en el culo,
pues ya que le das una patada
en el culo,
tampoco vas a hacer sangre
con la pobre persona
que está dejando la empresa,
que se suelen decir
las típicas frases de,
pues va a pasar tiempo
con su familia,
o a lo mejor va a trabajar
en nuevos horizontes,
en nuevos proyectos,
lo que sea,
creo que cuando echaron a,
cuando echaron no,
cuando se fue la CEO
de YouTube,
hace cosa de un año,
fue esto,
fue,
va a pasar más tiempo
con su familia,
o algo por el estilo,
entonces cuando esto pasa,
si tú me pones en una frase
lo que pone aquí,
significa que Sam Allman
tiene que haber hecho
algo muy grave,
tiene que haber hecho
algo muy grave,
y se ha ocultado,
y esta era,
yo creo que la psicología,
o sea,
el estado mental
en el que estábamos todos
en Twitter,
y entonces ahí empezaron
a aflorar todo tipo de teorías,
empezaron a aflorar teorías
de,
pues,
OpenIDA está en bancarrota,
se han filtrado datos,
se han filtrado los modelos,
ha habido,
sí,
una filtración,
porque luego se sacaba
que si Microsoft,
por ejemplo,
durante la semana pasada
le había pedido a algunos empleados
que no usaran
ChatGPT
por un tema de privacidad,
es decir,
habían un montón de especulaciones,
se habló también,
salieron tweets antiguos
de la hermana de Sam Allman,
que le acusaba de abusos,
en Twitter se armaron
círculos de estos de audio,
donde la gente se metió
a ver qué estaba pasando,
es decir,
era el caos absoluto,
había caído una bomba,
y no nos estábamos enterando
de qué estaba pasando,
también es cierto,
tampoco hay
una obligación pública
de que nos informen
de todo esto,
más allá de que,
bueno,
de que si haces un comunicado
como este,
pues,
que surjan interrogantes
es bastante normal,
¿vale?
Esto es el comienzo,
esto es el comienzo,
yo para mí,
mi teoría era
que GPT-5
había cobrado conciencia,
y se había metido
dentro de la junta
de OpenAI,
estaba empezando
a tirar de los cordeles
para empezar a tomar
el control
de esta organización
que es OpenAI.
Cuando pasamos
a este primer día,
y ya entramos
un poco
a la fase 2,
que sería
el desarrollo
de toda esta trama,
se empieza a apuntar,
claro,
esto al final
viene de una junta
que ha votado,
que ha votado
Charas Amalmant,
entonces dentro de la junta
se empieza a ver
quién hay por ahí,
está
Miramurati,
que es la que
habían puesto
de CEO Interina,
estaba Iliad Sutzkever,
que va a ser una persona
importante dentro
de todo esto,
una serie de personalidades
y se empieza a ver
quién ha votado
en contra
y qué motivos
puede haber.
Entonces se empieza
a dibujar una de las teorías
que yo creo que
ahora ya podemos
empezar a confirmar,
puesto que ya hay periodistas
que han hecho la labor
de investigación,
ya han empezado
a preguntar a empleados
para ver cómo era el clima
dentro de la empresa,
y lo que se empieza
a observar
es una cosa muy interesante
porque es algo
que hemos estado viviendo
durante el último año,
y es súper interesante,
es decir,
a mí que al final
estoy aquí haciendo la labor
de divulgaros un poco
toda la actualidad
de la IA,
me interesa mucho
también entender
que es todo lo que
estas empresas
pues están viviendo
de dentro,
y de OpenAI
estaba pasando
una cosa interesante
a lo largo de este año,
y es que yo veía
una bicefalia un poco rara
que no terminaba de entender,
y ahora creo que con esto
se explica bastante,
y es,
todos hemos visto
como OpenAI
al mismo tiempo
que nos está hablando
de hay que tener
mucho cuidado,
hay que alinear
la IA con las preferencias
humanas
para evitar grandes riesgos
en el futuro,
que la AGI,
la Artificial General Intelligence,
la inteligencia artificial
general está a punto
de llegar,
y que tenemos que tener
cuidado porque podría haber
ciertos riesgos
de que esto
se vaya de madres,
ya este año
no nos hablaban de AGI,
sino que ya pasaban
a hablar de ASI,
que sería la superinteligencia
artificial,
es decir,
una inteligencia
soberanamente superior
a la capacidad humana,
y que esto
hay que controlarlo,
este año han destinado
gran parte
de los recursos,
un 20%
de la computación
creo que era
destinada a un departamento
para la seguridad
de la ACI,
es decir,
un montón de cosas
que tú las ves
y dices,
vale,
esta es una empresa
que se preocupa
realmente
por el futuro
de una inteligencia
artificial
que está descontrolada
y que tiene un peligro
por su potencialidad,
al mismo tiempo
que es la empresa
que está pisando
el acelerador
y que está liderando
toda la carrera,
toda la revolución
de la inteligencia artificial
y que nos está llevando
a el mayor modelo
disponible del lenguaje
pues que todos
lo podamos acceder
a través de una app
y que podamos construir
sobre él,
que abrió la puerta
pues con el sistema
de ALI 2
a toda la revolución
de la IA generativa
y que está rompiendo
el mercado laboral,
pues de artistas,
de ilustradores,
de diseñadores gráficos,
es decir,
la misma empresa
que está corriendo
en una carrera
donde además
su principal inversor
que no hemos hablado
pero bueno,
aquí también entra en juego
el papel de Microsoft
en todo esto,
pues su principal inversor
y el propio Sam Alman
están forzando
a que esta carrera
se produzca
lo más rápido posible.
Recordemos
a Satya Nadella,
CEO de Microsoft,
diciendo que ellos
lo que quieren
es sacar a bailar
a Google,
¿vale?
Su principal competidor
que Google,
sabemos que públicamente
estaba en una postura
de investigamos CIA,
publicamos papers,
sacamos cosas,
pero no queremos tampoco
entrar a competir
comercialmente con la IA
porque consideramos
que todavía esto
no está lo suficientemente
maduro,
pues de repente
OpenAI dice
que no,
no,
vamos a bailar,
vamos a entrar aquí
con todo
y vamos a empezar
a hacer una alianza
comercial con Microsoft
para que todos los productos
de Microsoft
puedan acceder
a nuestra tecnología,
nosotros seguimos desarrollando,
seguimos avanzando
y vamos a acelerar
todo esto.
Entonces no tenía mucho sentido
y muchas de las especulaciones
y yo creo que el discurso
o la forma de entender nosotros
esta disonancia cognitiva
que parecía que venía
de OpenAI
era,
bueno,
están intentando
forzar regulación,
están intentando
vendernos hype
porque si nos dicen
que la AGI
está a punto de llegar
GPT4 no,
pero GPT5
tendrá que ser la hostia
y GPT6
pues ya será una AGI
será eso,
¿no?
Entonces,
estas dos posturas
inconciliables
aparentemente
se empiezan a entender
ahora cuando se abre
OpenAI
cuando se abre en canal
y empezamos a mirar dentro
y nos encontramos
con algo que tampoco
era oculto,
es decir,
si buscabas declaraciones
de los diferentes miembros
pues te dabas cuenta
de que esto podía pasar
pero te das cuenta
de que esas dos posturas
existían dentro
de OpenAI
¿vale?
Por ahora
todo bien,
¿no?
Estamos todos aquí
contentos.
Vamos a entender
un poco
el surgimiento
de OpenAI
¿vale?
OpenAI
es una empresa
que como he dicho
se ha fundado
en 2015
y originalmente
cuando se funda
yo esto no lo sabía
este dato
me lo he cruzado
hace no mucho
obviamente sí
Elon Musk
formaba parte
del equipo fundador
era uno de los
de los que
potenciaron
que se creara OpenAI
y yo lo que no sabía
es que la palabra
Open de OpenAI
la había potenciado él
porque lo que quería
era que se creara
inteligencia artificial
open source
¿vale?
Y en este sentido
Elon Musk
y compañía
pues estuvieron
intentando
clonar un poco
la dinámica
que se vivió dentro
que se estaba viviendo
dentro de DeepMind
por aquel entonces
el mayor laboratorio
de inteligencia artificial
que teníamos
era DeepMind
de Google
laboratorio independiente
ahora ya no lo es
y esto también es otro aspecto
que comentaremos
pero bueno
intentaban hacer un poco
clonar
la fórmula
que muy bien
le estaba yendo a Google
con su laboratorio
independiente
DeepMind
¿cuál era esta fórmula?
pues en aquel momento
si recordamos
tenéis un montón de vídeos
en el canal
de aquella época
aquellos viejos tiempos
aquellos locos tiempos
por aquel entonces
pues DeepMind
estaba muy metido
con todo el tema
de reinforcement learning
estábamos viendo
la victoria
de AlphaGo
AlphaGo Zero
estábamos viendo
ejemplos de
no en Dota
sino en el otro juego
pues aplicado
a diferentes juegos
estábamos viendo
avances muy interesantes
de DeepMind
¿no?
entonces OpenAI
quiso clonar esto
y de ahí vinieron
pues vídeos
que tenéis en el canal
el típico vídeo
este de los bichillos
que era un equipo azul
un equipo rojo
que con reinforcement learning
conseguían
atrapar unos a otros
¿recordáis?
eso era de OpenAI
trabajos por ejemplo
de robótica
un brazo robótico
moviendo un cubito
para poner las letras
OpenAI
pues eso también
era de ellos
obviamente
Dota 2
un sistema multiagente
capaz de ganar
al juego Dota
también era de ellos
y si os dais cuenta
esta parte de la empresa
esta versión
de OpenAI
es muy diferente
a la versión de OpenAI
que tenemos hoy en día
¿no?
de repente
aquello se parecía mucho más
a lo que DeepMind
ha hecho
y ha seguido haciendo
y en algún punto
OpenAI dijo
oye
esto no funciona
ese punto
ese punto de inflexión
sucede en 2018
y es cuando ocurre
que Elon Musk
que formaba parte
de la junta
abandona
y luego también
empieza a entrar
como aliado comercial
Microsoft
que creo que entra
un año más tarde
entonces
en ese momento
en esta transición
en ese punto de inflexión
ocurre algo muy interesante
que explica cosas
de lo que estamos viendo hoy
que es el cambio
de la estructura
de la propia OpenAI
OpenAI
está fundada
por un equipo de gente
cuya mentalidad
y es la misión
que está puesta
en la página web
de OpenAI
y os lo intento enseñar
para que veáis
que no son unos pirados
es decir
que ellos creen en esto
vámonos para acá
aquí lo pone
nuestra misión
es asegurar
que la inteligencia artificial
sistemas
que son generalmente
más inteligentes
que los humanos
beneficie a toda la humanidad
esta es la misión corporativa
de OpenAI
¿vale?
esta es la misión
de la empresa
y claro
para esto ocurrir
pues este grupito
estos fundadores
de la empresa
se habían inicialmente
creado
en una estructura
sin ánimo de lucro
es decir
que
si
estamos pensando
vamos a pensar esto
en clave
de que tenemos
un sistema
de inteligencia artificial
¿no?
que lo estamos entrenando
por la función de coste
estaba evitando
meter
el concepto de
estamos aquí
por la pasta
¿por qué?
porque así lo que te permite
es focalizarte
en la misión
que es
beneficiar a toda la humanidad
que todo el valor
que genere esta empresa
de alguna forma
repercuta en positivo
y no en negativo
en el desarrollo
de la humanidad
con lo cual
si de repente
pues imagínate
vamos a poner un caso
muy loco
imagínate que en 2015
cuando ellos están creando esto
envisionan un futuro
donde consiguen desarrollar
un chatbot
capaz de generar
lenguaje tan realista
como el humano
vamos a poner que eso
ocurría
pues a lo mejor
si de repente
venía un inversor
de fuera
vamos a pensar
una empresa grande
Microsoft
si de alguna forma
tú estabas limitando
que
o sea
ni siquiera había
capacidad de hacer beneficio
pero
si tú limitabas
este aspecto
de
vamos a crecer
por la pasta
pues se te
iba a desincentivar
esa idea
de vamos a meter
inversores de fuera
que a lo mejor
quieran que crezcamos
hacia una orientación
que difiera
con nuestra misión
de queremos que la IA
no haga daño
y a lo mejor
evitamos problemas
como que
abrir este chatbot
capaz de generar lenguaje
pues pueda crear
fake news
pueda crear
todos los problemas
derivados de esto
¿vale?
eso era lo que
originalmente se tenía
una empresa sin ánimo
de lucros
y en 2018
2019
esto cambia
hacia la versión
de OpenAI
que tenemos hoy en día
que es una versión
con beneficios limitados
esto es una empresa
donde
bueno
hay una estructura
sin ánimo de lucros
una empresa
con beneficios limitados
donde ahí
se permitía
el acceso a inversiones
de fuera
que entrara gente a invertir
por ejemplo
Microsoft
y que bueno
dentro de lo que cabe
que ese beneficio
que se pudiera generar
pues estuviera
de alguna forma limitado
¿no?
en una cierta cantidad
entonces de esto
es de lo que empiezan
a surgir
dinámicas
como las que hemos visto
en los últimos años
¿no?
OpenAI
y esto me lo habéis
escuchado decirlo
muchas veces
durante los directos
que hemos ido
haciendo este año
cubriendo
ha pivotado
se ha transformado
ha pasado de ser una empresa
donde
se hacía investigación
además investigación
en abierto
donde muchas de sus tecnologías
sus papers se publicaban
sus modelos
hacían open source
notaban acceso a GPT-2
notaban hasta tal
parte de su tecnología
y sus cosas
pues eran proyectos
de investigación
y era un laboratorio
y la deriva
que han tomado
en los últimos años
ha sido la de convertirse
en una empresa
de productos
esto ocurre
cuando empieza
a entrar en juego
pues la línea
de investigación
que le ha dado
la popularidad
a OpenAI
cuando de repente
dejan de ser
en 2019
entra la inversión
de Microsoft
tienen acceso
a infraestructura
tienen acceso
a computación
de los muchos proyectos
que se estaban
investigando
pues hay un investigador
que es
Iliad Zutzkever
que digo investigador
pero bueno
ocupa el rol
de Chief Scientific Officer
o no sé qué
que es como el director
de investigación
de la empresa
este perfil
Iliad Zutzkever
es muy interesante
y es muy interesante
entender
su postura
para entender
un poco
las dos cabezas
que tenemos
dentro de OpenAI
siendo una de estas cabezas
la representación
de Sam Alman
y la parte que
entiende
que para poder crecer
para poder desarrollar
una inteligencia artificial
más potente a futuro
no puedes ir
con una restricción
en tu capacidad
de generar beneficios
o de atraer inversión
porque
amigos
la AGI
va a ser cara y costosa
va a necesitar
de mucha computación
va a necesitar
de muchos datos
va a necesitar
de muchos recursos
entonces necesitas
de alguna forma
financiar la fiesta
aquí estaba Microsoft
dispuesta a financiar la fiesta
y yo creo que esa era
un poco la idea
de Sam Alman
cuando toma esta orientación
y cuando empieza a crear
pues esta dinámica
de atraer
cada vez a más usuarios
formar la API
etcétera
entonces esta es la postura
de Sam Alman
pero al mismo tiempo
tenemos a Ilia Schutzkeberg
e Ilia
hay que entenderlo
y me estoy focalizando
mucho en él
porque se ha puesto
mucho la culpa
de lo que ha pasado
en Ilia
Ilia es el investigador
es un investigador
brillante
de hecho es
podríamos verle
como el desencadenante
de toda la revolución
del deep learning
que estamos viviendo
una de las piezas
fundamentales
en todo esto
puesto que estuvo
en uno de los trabajos
fundamentales
en el desarrollo
de AlexNet
que fue una de las
redes neuronales
que estuvieron
en 2002
en el momento
de cuando el deep learning
no era conocido
y se hizo esta competición
que también hemos comentado
muchas veces
en el canal
ImageNet
donde se presentó
por primera vez
una solución
basada en deep learning
con redes neuronales
aceleradas por GPU
en ese paper
está firmado por Ilia
¿vale?
y es un tipo
brillante
con un montón de trabajos
que merece la pena leer
Ilia
estuvo detrás
de la línea de investigación
de lo que sería
la neuronas
sintiente
la neuronas
sí, a ver
lo voy a buscar
porque no quiero mentir
pero
Neural Sentiment
Ilia
¿vale?
que este es el trabajo
aquí
este es
este es un trabajo
de 2017
si no me equivoco
ahí está ¿vale?
Ilia Sutzkeberg
Ilia Sutzkeberg
este es el trabajo
del que surge
todo el desarrollo
que tenemos actualmente
de GPT-4
o sea
este es el embrión
este sería como
el perceptrón
por así decirlo
de toda la revolución
de chat GPT
y todas las cosas
que tenemos ahora
¿por qué?
porque este es el trabajo
germinal
de
oye hemos entrenado
a lo que sería
un protomodelo
de lenguaje
ni siquiera sé
si estaba basado
en Transformer
diría que estaba
basado en otra cosa
en red recurrente
o algo así
y donde se detectó
que había una neurona
que había aprendido
que había emergido
un aprendizaje
¿no?
esto era para hacer
análisis de sentimiento
pues había una neurona
que justamente
predecía el sentimiento
en esta tarea
de aprender
a predecir
la siguiente palabra
es decir
era como una primera
demostración
de esta idea
súper potente
en los modelos
del lenguaje
de si tú
entrenas a la red
con una tarea
lo suficientemente general
como para
aprender el lenguaje
pues puede aprender
de forma accesoria
otras tareas
como sería esto
entonces de ahí
surge GPT-2
GPT-3
y GPT-4
y chat GPT-i
todo lo que hemos visto
e Ilia Schutzkever
es la mente
o uno de los
de las grandes mentes
pensantes
detrás de toda esta línea
investigación que le ha dado
tanto poder
y tanto éxito
a OpenAI
¿vale?
no podríamos entender
el éxito de OpenAI
sin estos trabajos
de Ilia
entonces
el problema aquí
con Ilia
os lo voy a enseñar
¿vale?
tengo un vídeo
que creo que es bastante
determinante
no lo voy a poner entero
pero sí quiero que
la verdad que es un vídeo
que está bastante bien tirado
porque es de hace dos semanas
y quiero que veáis
en persona
a Ilia
¿vale?
algunos
los que hayáis seguido
en mi canal de YouTube
la actualidad
de todo lo que he ido sacando
OpenAI
a lo largo de los años
recordaréis
una de las ponencias
por ejemplo
la de Codex
donde se presentó
el sistema de programación
Codex
ahí salió
si no recuerdo mal
Greg Brockman
y Ilia Schutzkever
a presentar
lo ubicaréis por eso
pero este vídeo
es un vídeo
de The Guardian
de hace dos semanas
y el título
del vídeo
se llama
Ilia
el científico
de Ilia
que está dando forma
al mundo
¿vale?
entonces quiero que te des cuenta
un poco
de cuál es la línea
de pensamiento
de Ilia
y por qué difiere tanto
de la postura
de Sam
vamos a verlo
me decís cómo se escucha
¿vale?
Ahora,
AI es una gran cosa
porque la AI
va a resolver
todos los problemas
que tenemos hoy
Este hileo
El problema de la noticia falsa va a ser un millón de veces peor.
Cyberattacks van a ser mucho más extremenos.
Tenemos totalmente automáticos de AI.
Creo que la AI tiene el potencial de crear un dictador de infinito.
Esta mañana, una alerta sobre el poder de la inteligencia artificial.
Lo escucho y se me pone la piel de gallina.
Más de 1300 líderes de industria de la tecnología, investigadores y otros
están ahora pidiendo un pausa en el desarrollo de la inteligencia artificial
para considerar los riesgos.
Vale, voy a adelantarme aquí para escuchar a Ilia.
Es una fuerza de la naturaleza.
Creo que hay mucha similidad entre la tecnología y la evolución biológica.
El video está muy bien, está muy bien producido.
Es muy fácil de entender cómo funciona la evolución biológica.
Tienes mutaciones, tienes selecciones naturales,
mantienes los buenos, los que sobrevive.
Y justo en este proceso, tienes una gran complejidad en tus organismos.
No podemos entender cómo el cuerpo de la humanidad funciona,
porque entendemos la evolución.
Pero entendemos el proceso, más o menos.
Y creo que el aprendizaje de la tecnología está en un mismo estado ahora,
especialmente el aprendizaje de la tecnología.
Tenemos un simple, muy simple rule
que toma la información de los datos y la coloca en el modelo.
Y continuamos a repetir este proceso.
Y como resultado de este proceso,
la complejidad de los datos se transforma,
se transforma en la complejidad del modelo.
Así que el resultado del modelo es muy complejo.
Y no sabemos exactamente cómo funciona.
Necesitamos investigar.
Pero el algoritmo que lo hizo es muy simple.
Vale.
El vídeo está bastante bien.
Y una cosa que apunta aquí José López,
y es que el vídeo está estrenado hace dos semanas,
pero efectivamente esto se grabó hace tiempo.
Creo que de hecho se grabó en la época.
Ese metraje donde sale él,
creo que se grabó justo hace un año,
en el momento en el que estaba saliendo ChatGPT.
Pero que es bastante determinante
para entender un poco la psicología de Ilia.
Y puedo empatizar muchísimo con él.
Es decir, nosotros estamos viviendo los avances de OpenAI.
Os voy a pasar, por cierto, el enlace por el chat.
¿Vale?
Nosotros estamos viviendo los avances de OpenAI desde la barrera.
Es decir, ellos van publicando cosas
y nosotros vamos recibiendo tecnología,
la probamos, nos sorprendemos, alucinamos, etc.
Pero creo que no tiene que ser lo mismo
el simplemente experimentar con la tecnología una vez está hecha,
que es cierto que pasa de 0 a 100.
Yo recuerdo el momento de probar ChatGPT
y muchos recordaréis ese momento,
como ese momento de wow, esto es mágico.
Pero creo que la sensación de que eres tú con tu trabajo
y el trabajo que hace tu organización,
el que se está enfrentando a ver cómo
las barreras del conocimiento se van empujando
cada vez llegas a una tecnología más potente,
que no terminamos de entender.
Ver cómo de simples multiplicaciones matriciales
utilizadas para analizar datos,
emergen IaaS como ChatGPT capaz de hacerte un poema,
escribir código de programación o lo que sea.
Creo que es algo que hay que gestionar.
O sea, creo que es algo que hay que gestionar.
Y hay gente, y hay mucha gente en investigación,
que cree que esto, como el propio Ilia dice,
esto no para aquí.
Es decir, ChatGPT no va a ser el sistema más potente
que vamos a tener.
GPT4 no va a ser el sistema más potente que vamos a tener.
Y esto, por ahora, aparentemente,
parece que sigue mejorándose.
Entonces, entiendo la preocupación
y no tenemos que irnos a ideas super catastrofistas de la IA
donde cobra conciencia y todas estas cosas,
sino lo que ha dicho al principio.
Estamos creando herramientas que,
traídas al mundo real,
puede generar muchas cosas positivas,
pero también puede generar muchas cosas negativas.
Aquí en este vídeo, Ilia me recuerda muchísimo
a la película de Oppenheimer.
Estamos trabajando con una tecnología
que tiene un potencial enorme,
que puede generar una virtud enorme en el mundo real,
pero que cuando te das cuenta del mal uso que puede tener,
pues también te genera esto.
Entonces, internamente puedo entender,
sobre todo cuando te han confiado
el deber de la misión corporativa de tu empresa,
es que la inteligencia artificial general
que tú estás construyendo,
que gracias a tu trabajo se está dando forma al mundo,
como dice el titular del vídeo,
cuando estás viendo que a lo mejor,
ya no digo que se está haciendo un mal uso
o que el beneficio sea menor que lo negativo,
pero que estás viendo que tú no tienes control.
Es decir, que tú estás trabajando dentro de una organización
y que tú formas parte de una junta
donde te das cuenta de que parece que te están diciendo
sí, sí, no pasa nada.
Sí, sí, lo que tú digas.
Venga, va, te ponemos 20% de recursos
para que tú trabajes en tus cositas.
Sí, sí, que la IA se va de madre.
Vale, jaja, ok.
Mientras ves que parece que la dirección
perseguida por su CEO, por Sam Alman,
era la otra, era la versión rápida
de todavía esto bastante prematuro,
que yo comparto.
O sea, yo creo que todavía a día de hoy
ChatGPT o GPT4 no demuestra
un enorme peligro para la humanidad.
Y sinceramente lo digo.
Y mira que me encanta toda la revolución open source
que está ocurriendo, pero siendo más prematura
me preocupa más toda la corriente open source
por el descontrol que puede tener
que lo que ha desarrollado OpenAI.
Entonces sí puedo entender que esta persona,
Ilia, llegados a un punto, que no lo sabemos,
o sea, aquí todavía falta hacer una investigación completa
que el nuevo CEO de OpenAI, porque no hemos llegado ahí,
pero que hay un nuevo CEO de OpenAI,
dice que va a ser una investigación de a ver qué ha pasado
y que sacará los resultados en 30 días y no sé qué.
Pero sí me puedo creer el razonamiento
donde Ilia, pues por este miedo,
aunque también hay quien dice que es por ego,
que este miedo le puede haber llevado a tomar este paso.
Eso es una cosa, es decir, que esté justificado
que podamos empatizar o que podamos entender
por qué lo ha hecho es una cosa.
Otra cosa aparte es que lo hayan hecho bien,
que desde mi punto de vista lo han hecho de culo,
lo han hecho fatal, lo han hecho fatal.
Pero puedo entender, puedo entender el movimiento de Ilia.
Y esto no es algo nuevo en OpenAI.
Es decir, esto ya ha pasado anteriormente.
Muchos de vosotros conoceréis que uno de los competidores
de ChatGPT es Cloud,
el sistema Cloud de la empresa Antropic.
Pues Antropic es una empresa formada por gente que dejó OpenAI,
que abandonaron OpenAI,
Darío Amodei creo que es su apellida,
su hermana y una serie de trabajadores,
y formaron Antropic.
Es decir, esto ya ha pasado previamente,
pero ha pasado de forma un poco más sutil,
menos escandalosa como está ocurriendo ahora.
Que de hecho, un poco de la salida de Antropic
o de la formación de Antropic,
es de los motivos que hizo que OpenAI
pues acabara sacando ChatGPT de forma prematura.
Porque originalmente ChatGPT
no estaba pensado para salir como
la versión 3.5 que todos conocemos,
sino que ChatGPT iba a salir como la versión 4.
¿Vale?
Iba a salir directamente...
O sea, la idea de OpenAI internamente
era sorprender al mundo
con una evaluación de...
Una evolución de...
GPT3 se va a convertir ahora en ChatGPT
que va a ser GPT4.
Y eso realmente...
Yo no sé cómo lo hubiéramos vivido.
Porque si ya pasar de...
GPT3.5 a ChatGPT
fue realmente una cosa
que nos voló la cabeza.
Imaginad si el salto hubiera sido directamente
a GPT4, ¿no?
Y aceleraron por la simple...
Por el simple rumor de que habían escuchado
CanTropic podría sacar algo similar a esto.
Entonces, bueno.
No es algo nuevo que haya pasado,
pero parece ser que ha sido un poco
Ilia en su idea de querer
controlar esta...
o defender esta idea de
tenemos que hacer que la EGI se asegura
pues los que tomaron la decisión
de echar a Sam.
Aquí lo interesante es
Ilia y quién más.
Porque esto se votó en una junta.
Y en la junta hay más gente.
Entonces, que levanten la mano
los culpables
y que salgan ahora
porque...
Esa es la cosa, ¿no?
¿Qué ha pasado aquí?
¿Quién ha instigado?
A mí me interesa más
no tanto quién es el culpable
porque incluso Ilia
ya ha salido en Twitter
y ahora lo veremos.
Iremos abriendo tweets
e iremos viendo la última hora
porque, recordemos,
ahora están despertando
en Silicon Valley
el lunes
después de todo el culebrón
del fin de semana.
Entonces, Ilia
pues parece ser que ha sido
una persona que ha podido motivar esto.
Pero a mí lo que me interesa
es quién ha susurrado
al oído de Ilia.
Quién le ha dicho
oye, esto no puede seguir así.
Esto tiene que cambiar.
¿Quién se ha coordinado?
¿Quién ha conspirado
para hacer esto de esta forma?
Porque la forma ha sido
bruta, mal y fea.
¿Vale?
Bruta, mal y fea.
Entonces...
Estoy leyendo.
A ver...
Fue Elon Musk.
Bueno, aquí ya hay rumores
de todo tipo
que ha sido Elon Musk.
Que sí ha sido
Microsoft Satya Nadella.
Vamos a acelerar un poco a futuro
para que entendamos
que...
¿Dónde estamos ahora?
¿No?
Básicamente,
la cronología continúa así.
Sam Alman es echado
de la empresa.
Deja mensajes...
Vamos a buscar.
Vamos a entrar a Twitter.
Vamos a buscar aquí a Sam.
Bueno, es que cada vez que actualizamos
surgen cosas, ¿no?
Vamos a echar un vistazo.
Ta, ta, ta, ta, ta.
Gente de OpenAI.
Gente de OpenAI.
Vale.
Vamos a buscar a Sam Alman.
Y vamos a ver un poco la cronología
de los tweets que ha ido publicando
el bueno de Sam.
Bueno, claro.
Un montón de corazones
porque esto ha sido la fiesta.
Ti, ti, ti, ti, ti.
Vamos a ver.
Vale.
Vale.
Empezamos a ver tweets como este.
Pues...
Me ha encantado despidiéndose, ¿no?
De la empresa.
Me ha encantado mi tiempo en OpenAI.
Ha sido transformativo.
Para mí.
Normal, ¿no?
Con el uso de los transformers.
Y espero que haya transformado también el mundo un poquito.
Vale.
Me...
Me voy con un montón de gente talentosa, bla, bla, bla.
Vale.
Ya hablaremos de lo que viene después.
Ya hablaremos de lo que viene después.
Eh...
También vemos a Greg Brockman que, recordemos,
se había quedado dentro de la empresa,
pero que también OpenAI le había dado con un palo en el morro.
Le había destituido de su posición de chairman.
Pues también diciendo hasta luego.
Gracias por el pescado.
Y...
Y adiós.
Luego empezamos a ver tweets como este.
¿No?
Esto ya es el día siguiente.
Ya estamos a 18 de noviembre.
Y empezamos a ver tweets...
Ojo, eh.
Para que vea cómo ha ido la paranoia.
Tweets como...
I love you all.
Os quiero a todos.
Pero que si empiezas a rascar un poco,
si coges la I, la L, la Y y la A,
lo que te sale es Ilia.
Ilia.
Como Ilia Sutzkever.
Apuntando directamente a Ilia.
Bueno, esta es la paranoia de Twitter.
Pero creo que no estaba mal tirado, eh.
Yo creo que Sam es un tío listo y sabe...
Sabe gestionar muy bien sus palabras y saber qué decir en cada caso.
Y eso es una de las cosas que me ha gustado mucho de él siempre.
Que creo que ha tenido...
Que es bastante asertivo y bastante correcto a la hora de liderar.
Pero...
Bueno.
Dice...
Hoy fue una experiencia rara en muchas formas.
Pero...
Lo voy a traducir directamente para no estarlo haciendo aquí.
Hoy fue una experiencia extraña en muchos sentidos.
Pero algo inesperado es que ha sido como leer tu propio panegírico mientras aún estás vivo.
El derramamiento del amor es impresionante.
Una conclusión.
Ve y cuéntale a tus amigos lo geniales que crees que son.
Vale, ok.
Vale, como diciendo que todavía está en shock y bla, bla, bla.
Y bla, bla, bla.
Entonces aquí empieza el momento Love Bombing.
Que es toda la gente de OpenAI dándole corazones a Sam Alman.
Sam Alman diciendo que no sé qué.
Y entonces ya pasamos al día de ayer.
En el día de ayer vemos el primer movimiento de OpenAI diciendo...
Ostras, la hemos liado.
La hemos liado porque de repente hemos echado a Sam Alman.
Esto ha tenido una repercusión enorme.
Y recordemos que la psicología general era...
Aquí ha pasado algo.
Pero seguramente Sam la ha cagado y ya se sabrá.
Se sabrá.
En algún momento se sabrá.
Pero ya durante el fin de semana, OpenAI, con conversaciones con medios de comunicación,
periodistas que contactan con la junta, empiezan a decir...
Empiezan a matizar palabras.
Empiezan a decir que realmente, donde habían dicho que no había sido honesto con sus palabras...
Bueno, que a lo mejor...
Que a lo mejor se habían expresado mal.
Que no sé qué.
Y entonces aquí es cuando empezamos a darnos cuenta todos.
Y se empieza a posicionar mucha gente a favor del propio Sam de que la han liado.
De que la han liado porque han echado por una discrepancia que puede ser legítima entre los que quieren ir rápido y los que quieren ir lento.
Perfecto.
Es legítimo.
Pero lo han echado de la peor manera.
Sin avisar.
Y con repercusiones que ahora estamos viendo que están ocurriendo.
Que a nivel estratégico son pésimas.
Vemos a Sam Alman, volviendo con...
Esta imagen fue bastante popular.
Pues que decía...
Primera y última vez que llevo uno de estos.
Y de nuevo, este es un tweet que está muy bien tirado.
¿Por qué?
Porque lo que es es Sam Alman entrando de nuevo en OpenAI con un batch de invitado.
Es decir, le quitaron, le revocaron permisos para entrar en la empresa.
Le quitaron del todo, ¿no?
Como cuando hacen un despido en una empresa tecnológica que es...
Cortamos relación y vete ya porque no queremos que tengas acceso que te pueda llevar información confidencial.
Bueno, lo típico, ¿no?
Entonces, en este caso, vemos aquí a Sam diciendo...
Primera y última vez que voy a llevar este batch, ¿vale?
Ya que había habido ultimatums en días antes y tal.
Pero bueno, Sam Alman entra a negociar a OpenAI.
Y en esta negociación se tiene que decidir todo.
Porque lo que da a entender con este tweet es que va a ser la última vez que lleve esto.
Puede ser porque vuelve como CEO y listo.
Y se restaura todo.
O directamente se va y se va a su siguiente proyecto.
Entonces, aquí al final, lo que sucede...
Con esto nos fuimos un poco todos a dormir anoche.
Y aquí ya se esperaba que todo fuera a revertirse.
Y que quedara como un esperpento espectáculo entre OpenAI, el CEO, la Junta...
Y entonces, ¿qué pasa aquí?
O sea, yo ya ayer me fui a dormir pensando...
Bueno, lo han hecho fatal.
Lo han hecho de puto culo.
Porque si lo que querías era forzar la destitución del CEO,
porque estás en contra de su postura de que la IA tiene que desarrollarse más lento,
lo que has conseguido es echarle, ponerle más en valor, ¿vale?
Se ha hecho... Es la broma, ¿no? Que hemos hecho todos.
Se ha hecho el desarrollo que hizo Steve Jobs cuando le echaron de Apple,
pero en vez de en una década, lo han hecho en 48 horas.
Y ahora le estás pidiendo que vuelva porque ha generado una situación interna insostenible en tu empresa,
con lo cual haces que vuelva con toda su capacidad de negociar lo que quiera.
Puede negociar que ahora la Junta se destituya y que se reintegre con gente a lo mejor más afín a sus ideas.
Puedes hacer lo que quieras, ¿vale? Es decir, ya has perdido tu capacidad, tu leverage para poder negociar.
Y bueno, pues ahí está, ¿no?
Entonces, yo me fui a dormir pensando que esto se iba a solucionar.
Que Sam estaba siendo ya cordial, jiji, fotito en redes, tal, pero que todo esto se iba a solucionar.
Y que iba a quedar como un tropiezo entre gente que, bueno, que son más investigadores que empresarios
y que se han liado y que, bueno, que la ha liado parda.
¿Vale? Hasta ahí hubiéramos cerrado el capítulo y se hubiera quedado en esa semana.
Excepto porque esta mañana nos despertamos y vemos el acto final de toda esta fiesta.
Y el acto final es que en estas negociaciones no ha salido nada, ¿vale?
Que Sam Alman rompe la baraja y se va.
Que no le interesa lo que le estaban ofreciendo y que se va para Microsoft, ¿vale?
Satya Nadella, CEO de Microsoft, ha estado mediando, porque claro, bueno, ahora hablamos de esto, pero Satya Nadella, CEO de Microsoft,
ha estado mediando en todas estas negociaciones entre Sam Alman, la Junta, para solucionarlo.
Porque recordemos que aquí uno de los actores principales dentro del desarrollo de OpenAI es Microsoft.
Microsoft ha invertido a lo largo de una serie de inversiones en los últimos años un montón de pasta para desarrollar mucha tecnología,
o sea, para que OpenAI desarrolle mucha de la tecnología de la que ellos luego se están lucrando para ser líderes dentro de esta batalla entre las big techs de inteligencia artificial.
Bing Chat, Microsoft Copilot, el nuevo Windows, todo, ¿vale?
Microsoft aquí tiene mucha pasta en juego.
Y Microsoft, Satya Nadella, bueno, siendo uno de los principales inversores de OpenAI, es cierto que sí, que nuestra estructura no busca tener un control directo por parte de los inversores, bla, bla, bla.
Vale, pero bueno, le habrán avisado del movimiento tan drástico que iba a hacer OpenAI, ¿no?
Sobre la expulsión de Sam Alman.
Pues no, aparentemente Satya Nadella no sabía nada, se enteró casi al momento igual que Sam.
Otro desastre, ¿vale? Otro gran fallo de comunicación.
Entonces Satya ha estado todo el fin de semana, le jodieron el finde.
Un CEO de Microsoft que tendría su barbacoa, su ir a jugar al golf, sus cositas de SEO, le fastidiaron el finde.
Y entonces ha estado mediando en todo esto, y como dice el refrán, a río revuelto ganancia de pescadores.
En toda esta revolución que está pasando, en este totum revolutum, todos con todos aquí, lo que nos hemos despertado es con la noticia de Sam Alman rompe la baraja, se va de OpenAI, no va a ser SEO.
Han incluido un nuevo SEO en OpenAI, que sería, no me sé el nombre de este tipo ahora, pero bueno, era el antiguo SEO o fundador de Twitch.
Que también tiene tela, esta persona que ahora le vamos a intentar ubicar un poco.
Pero Sam Alman se va, tanto Sam como Greg, Greg Brockman.
Y se van, ojo cuidado, ojo cuidado, y este ya empieza a dibujarnos un poco hacia dónde va el futuro de lo que se viene, a Microsoft.
Sam Alman, Greg Brockman, y quien se quiera ir, se van a Microsoft.
Entonces, yo soy ahora la junta, ¿vale?
Yo, lunes, 8 de la mañana, junta de OpenAI, se sientan todos, haciendo un poco el postmortem, ¿no?
Vamos a ver, vamos a supervisar nuestro aprendizaje, vamos a ver si, si esto fuera un esquema de aprendizaje por refuerzo, vamos a estudiar la secuencia de acciones que hemos realizado,
y vamos a estudiar la recompensa o la pérdida que tenemos, a ver, a ver cómo, a ver qué aprendizaje tenemos de aquí.
Entonces, el aprendizaje es, nuestro problema era que en OpenAI se estaba viviendo una situación en la que éramos un coche de Fórmula 1,
esto iba muy rápido, donde uno estaba pisando el acelerador y otro estaba pisando el freno.
Oye, que a lo mejor la bicefalia, que era un poco rara, que para los analistas y tal se nos hacía bastante raro,
vale, a lo mejor es raro, ¿no?, tener el acelerador y el freno, pero el coche se conducía, y es que se estaba conduciendo e iba primero en la carrera.
Y va primero, es que Google, empresa de automovilismo de toda la vida, no se te acerca, todavía no ha salido de boxes.
Microsoft está enganchado a ti con la caravana, está rebufo.
Amazon, tal.
Apple está corriendo el motocross porque no se ha enterado que esto es una carrera de coches.
Es decir, el acelerador y el freno funcionaban, a lo mejor íbamos más rápido de lo que tocaba,
a lo mejor en la siguiente curva nos íbamos para afuera, ¿vale?, pero funcionaba.
Entonces, ellos han querido decir, no, queremos que el equipo de pisar el freno gane y lidere esto, ¿vale?,
que se cumpla aquí las órdenes del equipo desaceleracionista, y a los otros les echamos,
que seguro que si les echamos no van a hacer nada, seguramente se quedarán en casa.
Seguramente Sam Allman salga de esto y diga, pues yo ya, lo de la IA ya está,
ahora me voy a dedicar a hacer un huerto urbano, ¿vale?
Sam Allman, que también otra cosa que se le critica, y que yo creo que va a ser uno de los factores,
porque es lo que se ha visto en las noticias y tal, y me cuadra,
que al mismo tiempo que estaba llevando todo el tema de...
Ahora os leo, ¿vale?, los super chat y todo esto, pero me parece interesante que me pongáis preguntas.
Sam Allman también se sabe que estaba al mismo tiempo que desarrollando, pues, toda su labor dentro de OpenAI,
con las limitaciones que el equipo de OpenAI, pues, le podría poner.
En paralelo estaba desarrollando una serie de proyectos, pues, para la creación de chips de...
para el entrenamiento de IA, hardware basado en IA, pues, esto se había rumoreado y se conocía que
Johnny Yves y Sam Allman estaban colaborando en algún proyecto de desarrollo de algún dispositivo,
pues, a lo mejor tipo Human, que, si no me equivoco, creo que también está en parte financiado por Sam Allman.
Es decir, que de alguna forma, Sam Allman, bueno, sí, dentro de la estructura corporativa de OpenAI,
tenía este control de la junta y todas estas cosas, pero luego en paralelo,
y desde una posición de estatus que tiene por todo el conocimiento de los desarrollos que están haciendo,
pues estaba poniendo huevos en otros canastos y estaba... a lo mejor estaba forzando a acelerar
creando otros proyectos, ¿no? Y yo creo que esto podría ser lo que haya molestado a la junta en esta...
en esto de... no ha sido completamente honesto. Entonces, si la mejor idea que tenía la gente de la junta
era sentarse y decir, bueno, vamos a echar a este tipo, que seguramente si le echamos no pasa nada,
aquí nadie va a decir nada, además le echamos un viernes que la gente está ya con ganas de irse para casa,
no suben a producción, los viernes no se suben a producción, nada.
O sea, ya directamente le echamos un viernes y ya está. Pues ahí la han cagado.
La han cagado porque lo que han hecho ha sido separar en dos al equipo lento y al equipo rápido,
con lo cual ahora el coche, si tú querías que la idea parara,
lo que has conseguido es que el coche acelere, que la empresa que te estaba apoyando,
que es Microsoft y que supuestamente va a seguir apoyando a OpenAI,
te siga apoyando, pero al mismo tiempo ahora va a ser...
O sea, yo pensaba que lo que iba a pasar es que se iba a crear un laboratorio independiente tipo OpenAI
y que Microsoft diría, bueno, pues ahora en BTU no tengo dos, pero es que va a ser interno dentro de Microsoft.
Ahora están creando un DeepMind dentro de Microsoft, que aquí también, ojo, Google.
Google yo creo que el viernes y el sábado estaban descojonados de risa.
Estaban ya diciendo, bueno, bueno, bájame la computación dedicada a Gemini, que ya no hace falta correr tanto.
Y de repente el domingo, cuando han visto que Microsoft ha hecho la jugada del año y posiblemente del siglo,
ahora estarán diciendo, amigos, ojo, ojo.
Aunque todavía, y lo comentaremos ahora,
ahora entramos un poco a las dificultades de empezar una compañía desde cero, que también están ahí, ¿no?
Pero como estrategia, si tu estrategia era evitar parar a toda costa a aquellos que estaban acelerando la IA,
lo que has conseguido ahora es que ellos puedan ir más rápido porque ya no tienen ese control,
ese mecanismo de control que tú representabas y que me parecía muy interesante que estuviera
y que estaba funcionando bien hasta ahora, ya no está.
Y no solo eso, sino que si cerramos el círculo con el tuit que hemos abierto al principio,
seguramente si me muevo por aquí lo vamos a encontrar.
Lo que está pasando es esto, que no solamente se te van,
no solamente pierdes parte de tu mecánica de tu coche,
sino que además todo tu equipo de mecánicos se van con la otra compañía.
Como es obvio, como es obvio, porque el liderazgo de Sam Alman,
aunque pueda haber gente dentro de OpenAI que estuviera en contra de todo este desarrollo tan acelerado de la IA,
para gran parte de la gente, y pensemos que gran parte de los que han contratado en el último año,
ha sido a través del crecimiento que se ha vivido dentro de OpenAI en 2021, 2022, 2023,
es decir, gente que se ha sumado a OpenAI porque lo que ha externalizado a OpenAI le ha interesado,
pues la llegada de ChatGPT, todo el desarrollo de los GPTs, el futuro marketplace que iban a abrir.
Claro, si tú esto de repente a toda esta gente le dices,
mira, que el proyecto que representaba esta persona ahora ya no se va a hacer porque esta persona ya no está,
porque se va a ir a hacer otro laboratorio, pues ¿qué hace toda la gente?
Dice, amigos, ante una situación que nos parece injusta, que no nos parece beneficiosa
y que no está alineada con nuestro interés de estar trabajando en esta empresa,
pues aquí lo tenemos, 650 personas que han firmado ahora esta carta abierta,
bueno, carta abierta no, carta filtrada a la prensa, de 700 que hay en OpenAI, 770.
Vaya resumen, vaya turra os estoy dando, perdón, pero es que tenía que soltarlo,
o sea, esto, creedme que para mí es terapia, no, este directo no es para vosotros, es para mí.
Te voy a leer, Kao, dice, una clave,
el conflicto de interés de Adam D'Angelo está en el board de OpenAI,
a la vez fundador de Quora, más POE, competición de chat GPT, más GPTs.
Sí, bueno, ya lo sabremos, es que a mí, ya te digo, se ha apuntado mucho a Ilia Schutzkeberg
como posible instigador de este motín en el barco pirata de OpenAI,
pero que se le haya apuntado tan rápido, a mí es que es como, me gusta mirar más los que están callados,
los que guardan silencio, los silencios a veces dicen mucho más que las palabras,
y a Ilia, y me sabe mal porque me parece la mejor persona de, o sea,
me parece uno de los cerebros más brillantes que hay dentro de OpenAI,
pero algo le ha podido, ¿vale? O sea, la decisión que ha tomado no es una decisión racional,
es emocional o es desilusional, ¿vale? En inglés.
Es decir, no me parece una decisión que esté tomada desde la cordura absoluta.
¿Qué significa esto? Es decir, que puede ser que su percepción de lo que es la inteligencia artificial,
¿de cuáles son sus riesgos? Y te digo, a lo mejor estamos locos nosotros,
y él es el que tiene razón, y a lo mejor lo que tienen en el sótano de OpenAI,
mañana acaba con el mundo. Yo, ayer cuando se cayó la red de pagos, ¿vale?
La red bancaria en España, que hubo una bajada durante una hora, yo me asusté.
Yo dije, a ver, que esté cayendo OpenAI y que al mismo tiempo esté cayendo la red bancaria,
a mí me huele chungo, pero no, luego se recuperó y no pasó nada.
A lo mejor tiene razón, pero lo que digo es, o su percepción de la AGI es exagerada,
o se separa mucho de lo que ahora mismo la tecnología puede ofrecer,
o le han hecho creer que la repercusión de esto sería menor y que habría que apretar el gatillo.
No se sabe, pero bueno. La cosa es que está hecho y está hecho mal.
Estamos centrando mucho el foco en Ilia, pero como digo, aquí en la junta han votado más personas.
Entonces todo esto ya se irá sabiendo.
Parece que estamos haciendo un análisis como si la situación hubiera acabado,
pero es que está ocurriendo ahora mismo. Es decir, este directo seguramente,
si lo volvemos a hacer dentro de una semana, todo habrá cambiado para más.
Entonces, sí, hay gente que puede tener intereses variados,
hay gente que puede haber desestabilizado esto por X motivo.
La conclusión es que, sea lo que sea, aquí el único que ha ganado por ahora
son los de Lala, aceleracionistas y Microsoft.
¿Vale? Microsoft ha hecho Satya Nadella, persona brillante,
persona que desde que ha entrado en Microsoft
solo ha hecho una secuencia, una serie de catastróficos aciertos,
porque este hombre, la verdad que ha llevado a Microsoft a lugares bastante interesantes
y ha sabido encadenar aciertos en un año que ha sido muy turbulento tecnológicamente,
al menos en esta batalla, con el privilegio de haber estado en el lugar correcto,
en la inversión correcta con la compañía correcta, que era OpenAI.
Ahora OpenAI, ¿qué va a pasar? Vamos a hablar un poquito de esto,
¿qué podría ocurrir con OpenAI?
OpenAI.
Las grandes preguntas, ¿puede caer OpenAI? ¿Puede caer ChatGPT?
Pues no lo sabemos, no lo sabemos, pero la situación está muy mal.
O sea, la situación ahora mismo está muy mal.
Sí, perdón, que lo iba a decir y justo lo acabo de leer en el chat y gracias que me lo apuntéis.
Ilia, dentro de lo que tal, dentro de su papel en la junta y todo esto,
ha pedido disculpas, vamos a buscarlo.
Vale, o sea, Ilia hoy en su domingo,
vamos a poner aquí, Ilia ha pedido perdón.
Cosa que es bastante importante, ¿vale?
No había dicho nada hasta el momento y su tuit ha sido
que lamenta profundamente mi participación en las acciones de la junta.
Nunca tuve la intención de dañar a OpenAI.
Me encanta todo lo que hemos construido juntos
y haré todo lo que pueda para reunir a la empresa.
¿Vale?
Entonces, Ilia ha pedido perdón.
Ilia ha reconocido, entiendo, ¿no?
O sea, que las acciones tomadas por la junta han sido un desastre
y que se han cargado la empresa.
Y hay que decirlo así, se han cargado OpenAI.
Y esto, hostia, es duro, ¿eh?
O sea, yo el fin de semana he tenido como una sensación súper rara, ¿vale?
Hablado a nivel personal.
Porque al final yo desde mi postura de divulgación de IA y todo esto.
Hostia, pues yo son empresas que le tengo mucha estima.
Chicos, yo a mí el fútbol no me interesa.
No soy del Barcelona ni del Madrid.
Pero DeepMind, OpenAI, MetAI y los grandes laboratorios de IA.
Y toda la historia que los recoge.
Y todo el seguimiento que yo he hecho de estas empresas.
Y lo que estaban logrando y lo que estaba por venir es que...
Uff, me pongo malo, ¿eh?
Solo de pensar todo lo que se está perdiendo ahora.
Y espero que se pueda recuperar sin problema.
Pero...
Pero, coño.
O sea, son empresas que casi casi yo he visto crecer.
OpenAI sale en 2015.
Mi canal empieza en 2017.
Y yo creo que hago referencia a OpenAI desde el primer año en el canal.
Y desde ahí hemos visto el progreso.
Tenemos vídeos de GPT2, GPT3, GPT4, GPT, Whisper.
Las guías que habían antes de todo esto.
O sea, es una empresa que me gusta.
Que la tengo en el corazoncito.
Y, tío, el sábado yo estaba...
Con una sensación de quiero enterrarme de lo que está pasando.
Y esto es un...
En la fiesta.
Porque en Twitter, claro, esto se vive como...
Con palomitas, ¿no?
Pero al mismo tiempo era una sensación interna de...
Tío, no puede ser.
O sea...
Es como ver...
Creo que lo puso en un tweet, ¿no?
Es como ver un edificio que se está desmoronando ante mis ojos.
De un proyecto que estaba funcionando como un reloj suizo.
Aparentemente.
Por dentro.
Si esto ha pasado es porque estaba podrido por dentro.
Y estaba ocurriendo cosas que ocurren en las mayores familias.
Ocurren en los partidos políticos.
Ocurren en todos lados.
¿Vale?
Al final aquí...
Lo interesante del aprendizaje que tenemos aquí es que los humanos, como siempre,
somos excepcionalmente buenos para no ponernos de acuerdo.
Y...
Y no sé.
O sea, ha sido raro.
Pero me preguntaba Sandra.
Oye, ¿y lo de OpenAI tal que ha pasado?
No sé.
Es que...
O sea, me estaba hasta mal el contarlo.
Hubo momentos en los que ya me desconectaba.
Y no he hecho un seguimiento al minuto en Twitter.
Porque ha sido como...
Me...
Noto como que no me termina de gustar todo esto.
Entonces...
Es...
Es curioso.
Y claro, ¿qué va a pasar?
Pues a ver.
Si una empresa como esta...
Pensemos que al final OpenAI ya no solo es una empresa de producción.
No es un laboratorio científico como era hace dos años.
Sino que es una empresa que ha desarrollado una infraestructura.
Que ofrece un servicio a usuarios.
Es decir, el paso de laboratorio de investigación a empresa de productos.
Es lo que le ha llevado a la situación en la que estamos ahora.
Y es la transición que han dado durante este año.
Y lo que me preocupa es que...
Esto no lo puedan ofrecer.
Es decir, que la infraestructura para mantener a los servicios.
Que sabemos que echar GPT falla todo el rato.
Que de repente se cae.
Que hay sobrecarga por X motivo.
Esto...
Lo llevan ingenieros.
Lo llevan equipo técnico.
Lo llevan personas.
Que ahora mismo están firmando que se van a pirar.
Que se van a pirar a Microsoft.
¿Vale?
Se van a pirar al nuevo proyecto que arme Sam Allman y Greg.
Al mismo tiempo yo no veo un incentivo para Sam de volver.
¿Vale?
Yo creo que ya se intentó hacer la negociación ayer.
Falló.
Eh...
Si todos los investigadores de OpenAI se van y Sam no quiere volver.
OpenAI va a estar en muy mala posición.
¿Vale?
OpenAI va a estar en muy mala posición.
Y...
Y...
Y...
Y...
Y...
Bueno.
Microsoft va a seguir invirtiendo en esta empresa.
Pero yo creo...
O sea, el escenario más positivo que me gustaría a mí realmente que ocurriera es...
Vale.
Que puedan mantener una capacidad de...
O sea, que puedan tener un equipo técnico que pueda sostener a ChatGPT.
Como está ahora.
Yo creo que no vamos a ver grandes evoluciones en el sistema ChatGPT.
Yo creo que todo lo que iba a ser el desarrollo de...
Eh...
Marketplace.
Los GPTs.
Nuevas herramientas y tal.
Creo que eso se va a paralizar por completo.
Y vamos a mantener a ChatGPT con vida, ¿no?
En...
Que funcione.
Que funcione.
Y...
El estado de las cuentas internas de...
De OpenAI.
Pero...
Si se puede hacer investigación para minimizar el coste de infraestructura que les lleva a ejecutar estos modelos.
Eso seguirá funcionando.
E...
Idealmente me encantaría ver a una OpenAI.
Que entonces...
Con la gente que se queda ahí dentro.
Vuelva a la situación de...
2021.
¿Vale?
Un laboratorio de investigación que se ocupa de hacer avances.
Y mira.
Que los papers que lo vuelvan a sacar en abierto.
Para escrutinio público y tal.
Que también te digo.
Era de los que estaban en contra de esto.
O sea que...
Veríamos a la OpenAI quizás más cerrada.
Que no te da ni acceso a la investigación.
Ni te da tampoco acceso a...
A los...
Al conocimiento.
No.
Al servicio.
Perdón.
Eh...
Entonces no sé.
No sé cuál es el futuro de OpenAI como tal.
Se quedará como una organización residual.
Había quien hablaba de que Antropic.
¿Vale?
Ese equipo de gente que se fue y armó Antropic.
Que ahora está financiada por Google.
Sería tremenda ironía.
Pero que acabarán de alguna forma juntándose.
Porque pensemos que las facciones que se han quedado en ambos sectores.
Serían los que estaban más de acuerdo con el desarrollo de una inteligencia artificial general segura.
Entonces sería Darío Amodei con todo el equipo que está actualmente.
No sé.
Para OpenAI la cosa está bastante, bastante oscura.
Y me duele.
Me duele como si se estuviera cayendo uno de los pilares fundamentales que para mí era la empresa del futuro.
O sea, sinceramente creo que lo que estaba consiguiendo Sam Alman.
Y creo que es un poco lo que envisionaba él.
Y quizás se ha dejado llevar por eso.
Y internamente.
O sea, yo creo que al final el cabreo interno que puede haber contra Sam Alman se explica por un Sam Alman desatado.
Que tiene una visión de lo que podría ser OpenAI.
Y que a lo mejor lo ha querido llevar incluso desoyendo sensibilidades de otra gente que tenía al lado.
Pero...
Pero esto no.
O sea, yo creo que la visión de Sam Alman pues sería...
Somos el nuevo Google.
No vamos a competir.
O sea, no nos vamos a meter a hacer el nuevo Google haciendo lo que hace Google ahora.
Sino que somos Google hace 15 años.
Somos esta pequeñita empresa que de repente está creciendo de forma explosiva.
Y que nadie puede alcanzar.
¿Vale?
Recordemos que GPT-4 a día de hoy sigue siendo el modelo más potente.
Punto.
Entonces...
Eso.
Yo creo que eso lo veía y lo veía como un camino.
Y creo que tenía sentido como un camino hacia la AGI.
Creo que el camino que estaban tomando y la frase que dijo de...
En un futuro...
O sea, esperada lo que tenemos el año pasado que vamos a presentar que va a ser súper interesante.
Yo me lo creo.
¿Vale?
Pensemos que OpenAI, si a día de hoy nos han ofrecido esta tecnología,
es que internamente ya tienen cosas más interesantes.
¿Vale?
Ya tienen cositas que se empiezan a ver y tal.
De hecho, voy a recuperaros un fragmento que se ha compartido en redes,
que yo creo que es interesante que escuchéis, que es este de aquí.
¿Vale?
Que supuestamente esto lo dijo, fue de las últimas...
Las últimas palabras de Sam Alman, ¿no?
Antes de que le echaran.
Esto creo que fue el 17 o...
Sí, el jueves de la semana pasada.
Hace 20 años.
Como cuatro veces, ahora en la historia de OpenAI.
El tiempo más reciente fue en las últimas semanas.
Tengo que estar en la sala cuando nos empiecen la valla de ignorancia y la frontera de descubrimiento adelante.
¿Vale?
Entonces, la frase que ha dicho aquí es...
Ha habido cuatro momentos en la historia de OpenAI en la que yo he tenido la oportunidad de estar en la habitación
en la que la ignorancia la empujamos hacia atrás y nuestro conocimiento hacia adelante, ¿no?
Algo así.
Que es una frase que viene a decir...
Hostia.
Hostia.
Hemos encontrado algo...
Hemos tocado una tecla interesante, ¿vale?
Y no sabría identificar cuáles son estos momentos.
Lo estaba pensando antes, que yo creo que podría ser ese momento de la neurona sintiente que hablábamos.
No sé si en aquel momento ya se pudo percibir que esto podía ser como algo relevante.
No sé si sería a lo mejor ChatGPT.
Yo creo que sí.
¿Vale?
El uso de los modelos y el reinforcement learning with human feedback.
O sea, la llegada de ChatGPT podría ser.
Y no sé si con Dalí o algo así.
Si serían estos los tres momentos y ahora uno nuevo.
Claro, y una frase...
Una cosa importante que dice la frase es que este cuarto momento ha ocurrido recientemente, ¿vale?
Que es algo importante, ¿no?
Para la declaración que ha hecho.
O sea, que en las últimas semanas podría ser que hayan tocado una tecla que funcione.
Que podría ser a lo mejor, pues, sacar un checkpoint de GPT-5 que está en entrenamiento y que funcione de la leche.
O que hayan encontrado una nueva arquitectura.
Lo que sea.
Lo que sea.
Pero que algo habían encontrado, ¿no?
Entonces...
No sé ya ni por dónde iba el razonamiento, pero creo que es interesante, ¿no?
Ver cómo OpenAI, pues...
Estas investigaciones...
O sea, que todavía sí había camino por delante dentro del desarrollo de OpenAI.
Entonces...
Vale, y de hecho hay mucha gente que este vídeo lo ha tomado como...
¿Cómo es esto?
Esto es lo que han encontrado.
Tienen una AGI...
Bueno, había una discusión.
Porque esto también es interesante conocerlo.
Había una discusión sobre si la Junta realmente había discutido sobre uno de los aspectos que existe en la estructura tan especial que tiene OpenAI con respecto a sus inversores.
En este caso con Microsoft, que es la siguiente.
Y es...
Ellos tienen...
O sea, ellos tienen que dar acceso a Microsoft con toda la tecnología que vayan desarrollando.
Oye, que hemos desarrollado Whisper.
Palante.
Dalí 3.
Palante.
ChatGPT.
Palante.
GPT5.
Palante.
Ah, no.
Espérate.
Que GPT5 hemos detectado que es una AGI.
Una AGI, ¿no?
Pues...
Dentro de...
El About de OpenAI...
A ver.
Lo enseño.
Lo enseño, lo enseño, lo enseño.
Y ahora sí voy a atender a vuestras preguntas, que me parece interesante los debates que pueden salir de aquí.
Pero si buscamos por aquí...
A ver si está...
A ver dónde está esto.
Bueno, no lo voy a encontrar.
Pero bueno, uno de los puntos importantes es...
Si la junta detecta que una de las tecnologías que han desarrollado es una AGI, una AGI, Microsoft no tendrá acceso a ello.
¿Vale?
Es decir que OpenAI se reserva el derecho a compartir...
O sea, tiene que compartir toda su tecnología, excepto si desarrollan una AGI.
Que a lo mejor la discusión que estuviera ocurriendo ahora...
Conectado con este vídeo y tal...
Como digo, esto es especulación y...
Bastante fumada, pero bueno...
Vamos a ponerlo ahí porque...
Me parece interesante, ¿no?
Al menos como...
Como...
Comentarlo.
Pues que este descubrimiento que comenta Samalman podría ser la discusión sobre si...
Ilia aquí estaba viendo que esto podría ser una AGI y que entonces no se tenía que compartir con Microsoft, etc.
Es decir, discusiones de las que no vamos a saber nada, pero que ahora mismo lo que tenemos en frente es una empresa que se está cayendo a trozos, que se está perdiendo a su principal mode, por así decirlo.
Su gran ventaja, que creo que es su equipo humano, ¿vale? OpenAI...
¿Cuáles son las...
Vamos a pensar esto, ¿no? Ahora...
Vamos a pensar esto ahora...
Leo algunos que dicen...
Me está explotando la cabeza con esto último...
Disclaimer enorme, ¿vale?
Si esto fuera un vídeo mío, aquí saldría clac, clac, el title, ¿vale? Lo que seguramente habréis escuchado hasta el sonido en vuestra cabeza.
Disclaimer.
Sé que en esta situación de alta incertidumbre, donde existen muchas hipótesis y muchas teorías en el ambiente, nuestros sesgos de confirmación nos...
Nos motivan a llevarnos, a dejarnos llevar por aquellas teorías que sean más sugerentes o estén más alineadas con nuestro conocimiento de todas estas cosas y que a lo mejor empecemos a dar más validez desde la que toca ciertas teorías.
No nos flipemos, ¿vale? De momento vamos a dejar que todo esto se desarrolle, que sigan llegando las evidencias, que sepamos realmente qué ha pasado aquí, porque la realidad suele ser mucho más aburrida de lo que parece y mira que está siendo bastante emocionante, pero...
Pero bueno, ¿vale? O sea, vamos a... Yo lo he contado porque me parece divertido que conozcáis que esto se está hablando, sobre todo un poco también para frenar todas las teorías de la especulación que de aquí van a surgir las próximas semanas, meses y años.
Ya veo canales de temas esotéricos y cosas parecidas haciendo vídeos sobre la IA que OpenAI esconde en su sótano, cuando ahora mismo OpenAI no tiene sótano porque no tiene ni empresa, ¿vale? Que se están hundiendo.
Entonces, quiero hablar ahora un poco del futuro, ¿no? De lo que viene ahora.
Vamos a entender que OpenAI se queda en este estado residual o a lo mejor no, ¿eh? A lo mejor siguen desarrollándose con el nuevo SEO.
Vamos a echar un vistazo al nuevo SEO. Quiero presentaros al nuevo SEO de OpenAI.
Lo vas a ir a permitir. Creo que OpenAI no ha movido ficha, ¿no? No han planteado nada todavía.
A ver...
Nada. Está el artículo y poco más.
¿Cómo se llama este hombre? Ponedme en el chat...
¿Cómo se llama? Emmet.
Emmet.
Vamos a echar un vistazo un momento a Emmet Shear, que es esta persona de aquí, y os voy a enseñar otro vídeo. Aprovecho. A ver, este es nuestro directo. A ver, OpenAI Caos. Creo que se llamaba el vídeo. Vale, este vídeo me lo he visto antes.
Está bastante bien. Y en este vídeo hay una declaración de esta persona, que es el SEO de OpenAI.
Ok. Fijaos. Emmet Shear es el nuevo SEO, ¿vale? Ayer cuando Sam Alman abandona la OpenAI, se va, pega una patada y... No, eso no ha pasado, ¿vale?
Bueno, OpenAI, cuando al final rompe la baraja y no se llega a ningún acuerdo, aquí OpenAI anuncia que Emmet Shear va a ser el nuevo SEO.
Esta persona es el antiguo fundador, o sea, no me acuerdo, de Twitch. De Twitch. Creo que no me estoy equivocando, ¿vale?
Y entonces lo interesante de esta persona es, claro, cuál es su postura en el sector tecnológico en el último año.
Nadie se ha quedado indiferente con toda la revolución de la IA que estamos viviendo, con lo cual es muy fácil encontrar qué piensa cada persona sobre la revolución de la IA.
Más aún, si la han puesto como SEO de OpenAI, es que sabe, ¿no? Controla el tema.
Entonces, esta persona es interesante porque se nota, no es que se note, se hace evidente que es del ala desaceleracionista que quiere frenar el desarrollo de la IA.
Y en este tuit lo comenta, dice, ¿estoy a favor de pausar la IA o más bien estoy a favor de ralentizarla?
No podemos aprender cómo construir IA seguras sin experimentación y no podemos experimentar sin progreso, pero realmente tampoco deberíamos de ir a máxima velocidad tampoco, ¿vale?
Entonces, su postura es, no hay que parar la IA, ¿vale? No está en ese punto de la IA no va a acabar con todos, pero sí hay que frenar.
Hay que frenar porque está yendo muy rápido y tal, que es bastante legítimo.
Y luego hay unas declaraciones en este vídeo que quiero que veáis, ¿vale? De esta persona.
Speaking for just a couple of minutes, outlining his views on the risk.
I have a very specific concern about our AI. We've built an intelligence. It's kind of amazing, actually.
It may not be the smartest intelligence, but it is unintelligence. It can solve problems and make arbitrary plans.
At some point, as it gets better, the kinds of problems that we'll be able to solve will include programming, chip design, material science, power production,
all of the things you would need to design an artificial intelligence.
At that point, you'll be able to point the thing we've built back at itself.
And this will happen before you get that point with humans in the loop.
It already is happening with humans in the loop.
But that loop will get tighter and tighter and tighter and faster and faster and faster until it can fully self-improve itself.
At which point, it will get very fast, very quickly.
And that kind of intelligence is just an intrinsically very dangerous thing because intelligence is power.
Human beings are the dominant form of life on this planet pretty much entirely because we're smarter than the other creatures.
Like my P-Doom, my probability of doom, is like my bit-ask spread, and that's pretty high because I have a lot of uncertainty.
But I would say it's like between 5 and 50.
It should cause you to shit your pants.
But it's human level extinction, I think.
Yeah, yeah.
No, no, it's not just human level extinction.
It's such...
Extincting humans is bad enough.
It's like potential destruction of all value in the light cone.
Here I am being the guy.
Vale.
Lo paro aquí.
O sea, la postura de él es, estamos en un punto donde la tecnología pues eventualmente seguirá mejorando, seguirá mejorando, seguirá mejorando.
Y en tareas como, oye, desarrolla IA cada vez más potente, esto nos podría meter en un loop donde acabemos en una situación donde podría destruir la humanidad.
No destruir la humanidad rollo, ah, ha infectado el agua de la tierra y hemos muerto todos porque ha desarrollado un virus que, ah, no, no.
Que puede cargarse todo el cono de luz, es decir, todo lo que el espacio habitable, el espacio conocido, albercable.
A mí esto me parece exagerado, ¿vale?
O sea, a mi punto de vista yo lo siento, pero no estoy ahí, no estoy ahí.
Porque veo que en el chat me estáis preguntando, ¿no?
Si yo estoy más cerca de uno o de otro.
Yo, de momento, me alineo mucho más con la visión de Jean Lecun, director de Meta, que sí considera que ni la tecnología está lo suficientemente madura,
que ni la tecnología tiene un desarrollo tan grande.
Y creo que en puntos como este, creo que se subestima muchas veces el control que el humano tiene sobre estos sistemas.
Que es que parece que hablamos de la IA como si fuera una entelequia que se desarrolla en un mundo donde nosotros no tenemos control.
Y no es así, ¿vale?
Y no es así.
Me parece súper interesante hacerse estas pajas mentales y estar pensando en situaciones donde esto se podría ir de madre solo por evitar esos riesgos o riesgos que puedan ser más realistas y que estén cerca.
Pero me parece que mucho del foco que pone esta gente en este fin del mundo a través de la IA, creo que quitan el foco a problemas más reales que están ocurriendo ahora.
Es decir, creo que muchos de los esfuerzos ahora mismo tienen que estar centrados no en los riesgos que hipotéticamente a futuro se podrían desarrollar con esta tecnología,
sino lo que ya está ocurriendo.
Transformación del mercado laboral, gente que se está quedando fuera en cuestión de meses de un trabajo que a lo mejor se han especializado durante años.
Estamos viendo que llega la tecnología y pum, se lo cargan.
Desinformación.
Todo esto son problemas reales que hay que abordar ahora.
Y cuando tenemos a gente haciendo discursos de este tipo, me falta base, me falta rigurosidad.
Entonces me preocupa ver a una postura como esta tomando el control de OpenAI.
Esa es un poco mi postura sobre el nuevo SEO.
Luego también tenía unos tuits un poco también polémicos, raros y tal, que también habría que revisar,
que la gente de OpenAI debería haber revisado a lo mejor antes de ponerlo.
Me falta contexto para saber realmente si se lo podemos imputar directamente a él o depende de un contexto que no entendemos,
pero tuits un poco raros.
Entonces, esta es la nueva persona que tenemos en OpenAI y claro, ¿qué pasa?
Que tener a esta persona ahora en OpenAI haciendo de SEO para la carrera, no, para tu coche.
En nuestra metáfora tan bonita que he desarrollado sobre la conducción, no para la carrera, la carrera sigue.
Y el problema, como hemos dicho antes, es que la carrera ahora ocurre con tu principal competidor,
que eran los aceleracionistas, que estaban antes en tu compañía, esto de decir a los amigos los tengo cerca y a mis enemigos más,
eso era perfecto, era una situación perfecta, pero ahora le has dejado ir, le has dejado que se puedan crear su propia empresa
con todos tus recursos directamente en el seno de Microsoft.
Entonces, ¿esto qué situación nos puede llevar?
Vale, OpenAI, Greg Kiprockman y toda la plantilla de OpenAI se va para Microsoft.
Microsoft, ahora, entiendo que hubo un incentivo incluso mayor que antes en hacer que este laboratorio funcione perfecto,
creo que le va a dar billetes, el lingote de oro directamente, le va a abrir la puerta de todo,
pero claro, primero habría que entender qué tipo de negociación habrá llegado Sam Allman con Satya, ¿vale?
Porque no creo que tampoco haya sido una...
O sea, aquí Sam Allman tenía también mucho que ganar tras la salida en OpenAI
y podría haber creado un proyecto él solo y podría haber recibido inversión de Microsoft,
pero creo que si se ha ido adentro de Microsoft es porque Satya le ha ofrecido algo bueno,
algo donde posiblemente en una estructura similar a lo que había en OpenAI,
que yo creo que eso sí era cómodo para Sam Allman,
esta independencia entre el inversor y la empresa que él representaba,
yo creo que de alguna forma eso se va a preservar, de alguna forma, ¿vale?
No creo que sea con un profit limitado o algo así,
pero de alguna forma yo creo que Sam Allman va a querer tener cierta independencia
para poder decidir, para poder desarrollarse,
cumpliendo su visión y no notando que está dentro de una gran empresa como es Microsoft.
Porque esto es lo que pasa en las grandes empresas, ¿no?
Que al final no es lo mismo desarrollar una investigación base,
una investigación base para construir una misión a futuro
que lo que le está pasando a Google.
Que Google es, sí, hacemos investigación base, pero no la convertimos a producto
porque a lo mejor nuestro producto, el departamento legal nos dice que no hagamos esto,
el departamento de producto nos dice que la estrategia choca frontalmente
con nuestro modelo de hacer revenue a través de la publicidad,
nuestro departamento ético nos dice que, o sea, como que toca varios palos y no interesa.
Yo creo que de alguna forma Sam habrá negociado una independencia
para poder crear una empresa tan especial como era OpenAI,
pero dentro de Microsoft, ¿vale?
Entonces, eso es muy interesante, pero la cosa es,
¿se puede crear un OpenAI desde cero?
Si vemos que Google ha costado la vida sacar a su Gemini
y que todavía hay empresas que no igualan a GPT-4,
¿puede de repente Sam Allman y compañía construir algo semejante a ChatGPT
o a GPT-4 o a GPT-5, lo que tuvieran en el sótano,
y llegar a tiempo a lo que tiene OpenAI?
Pues a ver, yo creo que sí, porque se llevan una de las cosas más importantes
que es el know-how, ¿vale?
El conocimiento, el saber cómo montar todo ese sistema,
si además se absorbe todo el talento de OpenAI,
va a estar en una situación bastante favorable para ellos.
Pero hay mucho que construir.
Lo bueno es que Microsoft, obviamente, que no quería poner toda su inversión,
que toda su inversión dependiera solamente de tener a OpenAI como aliado,
sino que internamente sabemos que Microsoft ha trabajado bastante.
Seguramente, internamente, pues tengan sus propios modelos,
tengan gente investigando cosas interesantes.
Y uno de los factores clave que entran aquí en juego
y que quizás es lo más costoso de todo esto, los datos, ¿vale?
Los datos.
Porque pensemos que para entrenar a GPT-4, para entrenar a DALI-3,
para entrenar a todos estos sistemas, hace falta un cóctel de datos
y un dataset que OpenAI ha ido desarrollando durante muchos años.
Y no pensemos en simplemente una arañita que se mueve por internet
cogiendo páginas web y descargando artículos y tal.
No, no.
Pensemos que OpenAI tenía subcontratada un montón de empresas.
Recordemos la polémica con la empresa subcontratada en Kenia.
Pensemos...
Bueno, tenían un montón de empresas que le servían para etiquetar datos,
para hacer muchos de los procesos de, por ejemplo,
reinforcement learning with human feedback.
Tú necesitas tener a mucha gente trabajando en leer textos generados por la IA,
numerándolos, valorándolos, ordenándolos.
Es decir, un dataset que llevan construyendo y que han invertido durante mucho tiempo.
Yo sospecho que Microsoft internamente esto también lo habrá trabajado.
Y si no, el dinero es muy poderoso y Microsoft tiene pasta para hacer todo esto sin problema.
Pero creo que llevará un tiempo, ¿vale?
Creo que llevará un tiempo.
A lo mejor con esto de OpenAI, con esta tontería,
se ha conseguido pararla ahí a seis meses, en cierta forma.
O sea, ha ralentizado seis meses el objetivo vista.
Al menos sabemos que 72 horas se ha parado.
Pero sí, creo que la parte sobre todo de datos es la más costosa ahora mismo para montar.
Recordemos que OpenAI también tenía trabajo donde estaban creando datasets,
que hicieron públicos, pero seguramente a nivel masivo internamente tendrían más,
donde ya no solo era, pues por ejemplo, ¿no?
En problemas matemáticos ya no solo era crear un dataset de
tengo este problema y este es el resultado,
sino que ya tenían a gente contratada, especializada para hacer desarrollos matemáticos complejos
para que la IA pudiera supervisarse en cada etapa del desarrollo matemático.
Es decir, su gran fuerte yo creo era este cóctel de datos y eso queda ahí.
Y otra cosa que pierden, que creo que era muy importante,
la otra cosa que pierden, que era muy importante, es la imagen de marca.
Porque por muy loco que parezca, ¿vale?
Yo sé que aquí somos, ¿cuántos estamos conectados?
Perdonad que no he estado atento a cuántos somos, pero quiero vigilarlo.
Mira, somos seis mil personas en directo hablando de una empresa en el otro lado del charco
preocupados por esto.
Pues os invito a que bajéis a la calle, coges a una persona y le digáis
oye, ¿te has entrado de los de OpenAI?
Y seguramente te diga quién eres, ¿vale?
Mucha de la gente no se está enterando de lo que está pasando y esto se la sopla.
Y me parece súper normal y me parece legítimo y es la realidad.
Afrontémoslo.
A la gente esto se la pela.
Lo que pasa es que mucha de esta gente, lo que sí conoce es ChatGPT.
¿Vale?
Mucha gente, y ha sido uno de los éxitos de OpenAI y lo que le ha llevado yo creo que
a crecer tanto que se le ha roto la costura por la mitad, mucha gente conoce ChatGPT
y mucha gente conoce esta empresa.
Si tú preguntas a la gente por la calle si conoce ChatGPT, a lo mejor te dicen que sí.
Si le preguntas si conocen Bart, te van a decir que no.
¿Vale?
O Grok, o Claude, o el que quieras.
O Llama.
¿Vale?
Entonces, ese impacto, esa imagen de marca, ese producto que está tan bien posicionado
ahora mismo lo tiene OpenAI.
Y es una cosa que se va a quedar dentro de OpenAI y que no sabemos qué va a pasar con
él.
¿Vale?
No sabemos cómo va a evolucionar, si va a evolucionar o qué.
Pero es cierto que esto no, o sea, no nos va a permitir llegar tan rápido a lo que
creíamos que íbamos a llegar, ¿no?
Pues ya estamos visionando un futuro cercano donde muchos de estos modelos del lenguaje
pues iban a empezar a trabajar como agentes autónomos, el e-commerce de los GPTs, todas
estas cosas.
Creo que eso se va a quedar paralizado por un tiempo hasta que estas empresas cojan un
poco el ritmo y se vayan desarrollando.
Todavía está todo por decidir, todavía pueden haber más giritos de guión.
Todo esto va a seguir evolucionando, obviamente, pero la visión que más me gustaría es ver
que ya se empieza a construir internamente este nuevo laboratorio.
Estaremos contando aquí todo en el canal a ver qué ocurre.
Y la gran incógnita para mí es qué va a pasar con OpenAI.
¿Vale?
Y nada, quiero saber qué pensáis vosotros.
Quiero saber qué pensáis vosotros.
Si tenéis alguna preguntilla, aprovechad ahora y decidme si os ha gustado toda esta
chapa que os he dado.
Porque realmente yo me he puesto aquí a hablar y no me he callado.
A ver.
¿Siguen las principales mentes pensantes dentro de la junta de OpenAI?
Es que depende, o sea, yo creo que OpenAI al final, incluso aunque he puesto mucho peso
en Iliad Susskever como en su papel de los que ha estado en esos famosos papers y ha desarrollado
esas líneas de investigación, tenemos que pensar que ahora mismo la ciencia y el desarrollo
del deep learning no viene de una persona.
O sea, una persona tiene éxito y luego a lo mejor el resto de ideas que trabaja no funcionan.
Y muchas veces todos estos grandes proyectos que vemos no dependen de solo un equipo.
O sea, no solo dependen de una persona ni de un equipo, sino de muchas cosas que se hacen bien.
Esto es una cosa que Sam Alman siempre ha hecho mucho hincapié y es que si OpenAI ha conseguido
el éxito que tienes porque han conseguido aciertos en muchos factores diferentes que cuando empiezas
a colocarlos en fila, optimizaciones del modelo, buenas interfaces, un equipo excelente de entrenamiento,
datos, tal, tal, tal, tal, tal, tal, de repente te sale un modelo que es superior a la versión anterior, ¿ok?
Entonces esos éxitos no dependen de una única persona ni de un conjunto de mentes pensantes
que están ahí.
Yo creo que eso dependía mucho más de gente talentosa, de un equipo de recursos humanos
excelente donde ahí creo que Sam Alman también ha tenido bastante que ver y de una cultura organizativa
que hasta ahora estaba funcionando muy bien. O sea, porque yo creo que mucha gente que
ahora mismo... O sea, sí, yo lo pienso, ¿no? Si yo a día de hoy fuera ingeniero de IA,
hubiera hecho mi doctorado, tal, y tuviera mis papers en NeurIPS y tuviera mi carrera académica
para poder elegir y tuviera una oferta entre trabajar en Google, trabajar en Meta o trabajar
en OpenAI, yo me hubiera ido a OpenAI porque es sexy. Era la empresa más sexy ahora mismo
de Silicon Valley. No, bueno, de Silicon Valley no, del mundo.
Era la empresa más sexy porque estaban liderando una carrera donde no deberían de liderar.
O sea, aquí siempre se ha esperado que Google fuera la que cortara el bacalao.
Y no nos olvidemos que sí, que el paper que dio pie a todo esto, el del Transformers, el de Google y bla, bla, bla.
Pero Google no supo sacarle el rendimiento económico.
OpenAI, sí, vale. OpenAI convirtió esto en la revolución de la IA.
Entonces, esa cultura organizativa y ese sexiness se lo han ganado a pulso.
A mí siempre me ha gustado OpenAI, pero es cierto que en los últimos años
han convertido a su empresa en una empresa de grandísimo valor.
Y la proyección que tenía OpenAI es que...
O sea, yo creo que Sam Allman lo sabía.
O sea, Sam Allman coqueteaba con Microsoft y lo tenían muy ligado dentro de la estructura de la empresa,
pero Sam Allman yo creo que de alguna forma sabía que sí,
que quería tener a Microsoft cerca por lo que le podía beneficiar,
pero que de alguna forma OpenAI iba a tener un impacto mayor
y lo estaban consiguiendo bastante bien, ¿vale?
Entonces, bueno.
¿Parece que Microsoft puede ser una de las beneficias?
Sí.
Microsoft, Microsoft.
O sea, Microsoft creo que Satya Nadella está ahora en casa en plan de
hostia, hostia la que nos ha salido.
O sea, sí, se han llevado...
Hay gente que dice, se han llevado a OpenAI por cero dólares.
A ver, por cero dólares no.
Habrá que ver las ofertas y la inversión que tienen que volver ahora
a hacer ahora.
Es decir, Microsoft ha puesto mucha pasta en OpenAI
y ahora va a tener que volver a pagar por lo mismo, ¿vale?
Está pagando dos veces por la misma empresa,
porque al final estás comprando el talento,
lo que ese talento puede desarrollar.
Que la forma en la que se convierte ahora,
o sea, la forma en la que va a tener ahora ese talento
dentro de su empresa le puede generar mucho más valor a futuro, seguramente.
Pero bueno, han pagado la fiesta dos veces, ¿vale?
El único que gana es Carlos.
Pues sí, estoy ganando ojeras, perdiendo la voz, estoy medio constipado,
que me he levantado y constipado.
En fin.
Pero bueno, o sea, es increíble lo que hemos vivido estas 72 horas
y lo que está por venir.
Pero yo creo que la tormenta perfecta ya ha pasado y ahora vamos a vivir semanas
de cosas que van a ser muy graves, que si me lo dices hace unos días
hubiera sido increíble, pero ha sido tan bestia lo que hemos vivido estos días
que, bueno, que yo creo que hemos vivido un momento histórico.
Hemos vivido un momento histórico que además ha desarrollado a los tiempos
a los que la IA nos acostumbra, que es a toda mecha, a toda leche.
Esto ha sido exageradamente rápido y ha sido espectacular,
porque muchas de las cosas que vemos, cuando de repente vemos el Open AI Death Day,
no dejan de ser cosas que están diseñadas y están pensadas durante muchos días
para darnos los anuncios que ellos han diseñado, para darnos la tecnología
que ellos han pensado.
Todo está muy medido.
Pero esto ha sido ver en tiempo real cómo se jugaba una partida de póker en tiempo real,
cómo se destruye valor en tiempo real, cómo se transfiere valor a otra empresa.
O sea, ha sido una paranoia.
Y además lo hemos podido ver todos en Twitter, ¿vale?
Que, madre mía.
Con el lanzamiento de un cohete de Elon Musk entre medias como para fuegos artificiales,
de paso, ¿vale?
Ha sido una locura.
O sea, realmente, si esto fuera una serie, hubiera sido un...
A mí que me gustan mucho las series y tal, hubiera sido un final de temporada digno.
O sea, yo me hubiera quedado enganchadísimo a la siguiente temporada.
O sea, yo lo hubiera hecho así.
Hubiera hecho todo lo que ha pasado ahora.
Para mí sería como...
Esta temporada vendría representada por, desde el 30 de noviembre del año pasado,
ahora.
Empezaría con esa trama, arco argumental, que acaba ahora, justo un año después.
Con toda esta explosión que sería como los dos últimos capítulos y decir,
madre mía, madre mía, madre mía.
Y ahora eso acaba con lo de ahora, que nos deja con todas las incertidumbres de la siguiente temporada,
pero añadiría un cliffhanger más final.
¿Vale?
Añadiría el cliffhanger.
O sea, pasa todo esto y lo último que se vería sería una música,
cuando ya parece que va a acabar el capítulo o incluso pasan los créditos,
y es un plano de dron que se va acercando a un data center.
Se mete, la cámara va volando, entre ahí, los ordenadores, tal, tal, tal.
Se va viendo todo y se acerca de repente dentro de uno de los racks,
pues se ve un ordenador.
Se ve como una interfaz de un chat.
Y de repente en el chat, sin nadie, sin intervención humana,
pipip, hola mundo.
Y se escribe.
Un ordenador que escribe solo esas palabras.
Silicon Valley, temporada 2, 2024.
Se cae al estadio.
Se ha vivido así, se ha vivido como un show, como un espectáculo.
¿Vale?
O sea, increíble.
Cine.
Esto es cine, chavales.
Hubiera sido espectacular, ¿no?
Pero bueno.
Pero en la cabeza de mucha gente eso ya ha pasado, eso ya ha ocurrido.
Vamos a mirar Twitter, porque claro, es que esa es otra.
Todo esto va sucediendo en tiempo real.
Ahora mismo amanece en Silicon Valley.
Diría que ahora allí son como las 9 o las 10 de la mañana.
Vamos a echar un vistazo, ¿no?
A ver qué tenemos por aquí.
Tenemos gente, Logan, Chipití.
Bueno, gente que dice que a pesar de la incertidumbre van a seguir trabajando para sus, que van a priorizar la estabilidad y seguridad de nuestros sistemas.
Importante.
Ahora todos sus sistemas, su tecnología, la API, están a un punto muy vulnerable y todo el ecosistema de empresas que se ha construido alrededor de esto también, ojito, cuidado.
Podríamos estar viviendo una crisis que podría profundizarse mucho más.
Es decir, de aquí lo que se puede desencadenar es si de repente OpenAI no consigue sostener todo este sistema.
Pensemos, todas las empresas que durante un año se han construido sobre esto, ojito, cuidado.
Aquí entra mucho en valor todo el desarrollo open source que ha ido creciendo durante este año y la importancia que tiene.
Bueno, vemos tweets de Ilia que se arrepiente.
Esto lo hemos visto antes y muchos corazones.
También Sanalman ha reaccionado a este tweet con muchos corazones.
Es decir, ahora todos se quieren mucho.
Hay mucho amor y muchas tal.
Que a lo mejor esta terapia grupal les hubiera venido bien hace un año.
O sea, hace un año, hace una semana.
Seguramente.
Vale, seguramente.
Y bueno.
Se parece que no hay ninguna novedad más que esto y la famosa carta.
A ver, estamos viendo aquí.
A ver, me vais a permitir.
Esto es mucho texto ahora para ver.
Vale, bueno.
Gente que estima que puede pasar 3-9 meses hasta que se desarrolle algo.
Vale, bueno.
Yo seguiré enterándome de lo que vaya pasando.
Y si hay alguna cosa más importante, pues os contaré.
Vale, os contaré.
Pero en principio, esto es la actualidad hasta ahora.
O sea, el día de hoy va a ser intenso porque pensemos que hoy, día laboral, pues mucha gente irá a trabajar a OpenAI o no.
Habrá mucha comunicación interna, que esto es lo que más destruye a una empresa, ¿no?
La comunicación interna entre toda la gente ahí.
Los rumores.
Entonces, a ver qué pasa.
A ver qué pasa.
Yo creo que hoy va a ser un día bastante decisivo para muchas de las cosas que veamos.
Pero creo que también Microsoft se tiene que mover rápido para dar cobertura a mucha de esta gente.
Seguramente a nivel privado ya esté habiendo comunicaciones de contratación de, oye, pues esta empresa va a existir.
Podemos montaros el equipo.
Eso estará pasando seguramente.
¿Vale?
Pero es bastante increíble.
Es bastante increíble que hayamos asistido al desarrollo y muerte de lo que era una compañía bastante prometedora.
¿Vale?
No sé si tenéis alguna preguntita más.
¿Qué dice Musk?
Bueno, Musk...
Claro, Musk aquí tiene un papel interesante.
Y yo creo que Musk ha callado más de lo que...
¿Ha callado Musk?
Ha callado más de lo que corresponde.
O sea, ha callado más de lo que creo que ha ocurrido luego en privado.
Es decir, pensemos que Elon Musk...
Vamos a ponernos un poco en los pies de Elon Musk.
Él estaba inicialmente en la fundación de OpenAI.
Él fue parte de la fundación de OpenAI.
Llegados a un punto, OpenAI tomó un camino que a él no le interesa.
Él ofrece comprar...
O sea, encargarse él de OpenAI, que fue una empresa suya.
Y que él se encargara.
Y la junta le dice que no.
Entonces él dice, pues me piro.
Chao, pescado.
¿Cuándo OpenAI era nada?
Cuando era en un laboratorio, pues...
Que perdía dinero, por así decirlo.
Que pretendía ser un clon de DeepMind, pero que no llegaban ni a eso.
Entonces Elon Musk se pira.
Se va con Tesla.
Se lleva a Andrew Karpathy.
Uno de los ingenieros que también...
Importante dentro de OpenAI.
Es decir, se mueve a sus otros proyectos.
Y de forma latente, OpenAI sigue creciendo, creciendo, creciendo.
Hasta convertirse en el éxito que tenemos hoy.
En 2022, cuando OpenAI consigue esta popularidad, es cuando Elon Musk de repente se revuelve.
Y dice, pero que esta empresa yo estaba ahí.
Yo puse la palabra OpenAI.
No sé qué, no sé cuánto.
Empieza a criticar mucho y a estar en contra.
Porque se empieza a dar cuenta de que el liderazgo de la IA que él pensaba que iba a tener a través de esta empresa.
Y que luego, a través del desarrollo de Tesla, el autopilot y todo esto, ahora sus antiguos compañeros se lo estaban llevando.
Se estaban llevando todo ese éxito.
Entonces, ahí es cuando empezamos a ver movimientos de StopAI.
Y Elon Musk firmando la carta para parar el desarrollo de la IA.
Aprovechándose de un movimiento que venía potenciado por esta gente que quería desaceleracionar.
Pues Elon Musk, que siempre ha tenido este discurso de cuidado con la IA que puede ser peligrosa.
Pero que luego te desarrolla un autopilot y te lo pone dentro de un coche que se conduce solo en mitad de una ciudad.
O sea, pues quería parar la IA y luego ya hemos visto a seis meses de vista, siete meses, que todo esto era para generar su propia empresa de IA con el sistema GROC y tal.
Entonces, yo creo que Elon Musk habrá intentado, yo sospecho que estos días habrá intentado, dentro de que también estaba con el lanzamiento del cohete y eso lo habrá tenido muy ocupado.
De alguna forma habrá intentado meter mano, ¿no?
De intentar a ver si lo mismo que ha hecho Satya, pues si puede ganar algo dentro de esto.
Y al final lo único para lo que ha quedado es para hacer memes graciosos, que bueno, no están mal.
Por ejemplo, este tuit donde dice look like instability.ie is still available.
Bueno, pues ok.
Y luego algún tuit más de Satya, bueno, el padrino, quien será presidente en 2032, Diffusion of Transformers.
Bueno.
Y tuits sobre haciendo bromas con el tema de que se usaban Google Meets o tal.
Memes y cohetes.
La verdad que vivimos en el futuro.
Sinceramente, tener imágenes como estas y al mismo tiempo tener una empresa que se diluye por el posible desarrollo de la inteligencia artificial general.
Es bastante...
Es una situación que hace 10 años quizás no estaba planteada en ninguna de las quinielas de todos nosotros.
¿Vale?
Sí, dots.sv.
Pero si OpenAI pierde el 90% de la plantilla, ¿cómo van a seguir el funcionamiento o siquiera en mantenimiento?
Bueno, yo creo que al final lo que conseguirán será atraer a gente.
O sea, de alguna forma reducirán todos los equipos que no sean prescindibles.
O sea, que no sean importantes para el mantenimiento de la empresa y conseguirán gente.
Es decir, será por ingeniero para mantener un sistema como esto.
¿Vale?
No estamos hablando de entrenar el próximo GPT-5 por ahora, pero plan de contingencia.
Entonces, yo creo que podrán...
De alguna forma podrán salvar más o menos lo que hay.
Pero sí, es una situación delicada.
Yo lo que puedo prever problemas es en el muy corto plazo, ¿no?
De repente mañana se cae el GPT y la gente está que no sabe si ir a trabajar, no ir a trabajar o lo que sea.
Pues sí me puedo leer problemas, ¿vale?
En ese sentido.
Luego también hay un artículo muy interesante que os invito a leer, que es este de aquí.
Que habla mucho del caos de OpenAI.
¿Vale?
Y que habla un poco de todo este año.
De cómo se ha podido...
O sea, de lo que ha podido llevar a desarrollar que la facción más desaceleracionista, pues haya acabado hartos.
Como han acabado para hacer algo como lo que ha pasado.
Y donde entran en juego cosas como...
Pues que ciertos recursos internos cuando sale ChatGPT y explota el éxito.
Porque recordemos que OpenAI, esto no se lo esperaba.
ChatGPT cuando sale, y lo dicen bien en el artículo.
Dentro de la empresa de OpenAI había apuestas sobre cuántos usuarios iban a entrar al sistema.
Que era un proyecto de investigación que no iba a tener una gran repercusión.
Pues 10.000, 100.000 usuarios.
Al final entraron un millón en una semana.
Ha muerto de éxito, por así decirlo, OpenAI.
Y en este sentido, gran parte de los recursos que a lo mejor estaban dedicados a equipos para el AI Safety, para el alineamiento de la IA y todas estas cosas.
Pues al final se estaban dedicando a, por ejemplo, detectar fraude en las suscripciones de 20 dólares de ChatGPT.
Entonces, esto fue una dinámica que fue cansando mucho a la gente.
Y habla de cómo OpenAI, que hemos visto que este año han tenido que contratar un montón de gente y todo esto.
Pues su crecimiento ha sido tan rápido que posiblemente haya generado todas estas fricciones que ha explotado como ha explotado.
Pero digo que es interesante porque demuestra que por muy bonito que sea lo que vemos fuera,
internamente puede ser un auténtico caos que acaba derivando en este tipo de cosas.
Voy a compartir este artículo porque creo que es bastante relevante.
Ah, no me deje enviarlo porque es muy largo.
Bueno, pues lo buscáis por el título.
Vale, si no veo alguna preguntilla más interesante.
Fíjate las replies de Elon que ha contestado cosas a Microsoft.
Vamos a ver, vamos a ver si hay salseos recientes.
Vamos a ver.
Nada, esto es político.
Siempre metiendo ahí su buena política.
O sea, yo creo que a OpenAI, o sea, a Elon Musk esto no le favorece.
O sea, porque al final está viendo como uno de sus competidores, ni a Google, ni a...
O sea, todos los que antes eran competidores de OpenAI, ahora mismo estarán pensando, bueno.
O sea, el fin de semana estuvieron pensando, bueno, pues esto no viene muy bien porque ahora esto se va a parar.
Y de repente lo que están viendo es que, sí, se para, pero posiblemente su principal competidor ahora corra más.
Entonces no le favorece.
Vale.
Nada, no veo cosas interesantes, la verdad.
Nada, chistes, memes y cosas.
Tengo que ir al tuit de Satya, madre mía.
¿Pero ha puesto algo relevante o simplemente se están tirando bif y cosas?
Satya, Satya, Satya.
Satya, Adela.
Este es el jefazo.
El mundo será dominado por calvos.
Aprended esta lección.
Satya, Adela, del minuto uno salió con mensajes como, bueno, no pasa nada.
Nuestra alianza con OpenAI está a salvo y bla, bla, bla.
Vale.
Vale, tendrán que usar Teams.
Ok.
Bla, bla, bla.
Bueno.
La verdad que no veo nada relevante.
Pero este sí me gusta.
Es Microsoft hoy.
Hoy.
Más cosas.
A ver.
Vamos a ver el último minuto, a ver si hay alguna novedad.
Si os está gustando el directo, compartidlo en Twitter, ¿vale?
Os dejo por aquí el enlace del tuit.
Me gusta mucho la portada que le he hecho al directo porque recoge justamente la frase de
cuando se cierra una puerta se abre una ventana y en este caso la ventana es Windows.
Literal.
Y os agradecería si le dais ahí, compartís bien el directo entre todos.
Si os ha gustado la información que he puesto.
Si os ha parecido una turra, pues no pasa nada.
También podéis dejar algún like y este tipo de cosas.
Y luego es interesante pensar que también Samalman seguirá con estos otros proyectos de desarrollo de chips
que estaba investigando, de hardware que estaba investigando.
Lo que ahora el cerebro que funcione tras esta tecnología, sobre todo la del hardware de consumo,
pues ya no será GPT, como tal.
Vamos a ver los me gustas.
Reporteros de tecnología cansados hoy, ciertamente.
Ha sido un fin de semana intenso.
Vale, está todo el mundo hablando de esto.
Bueno.
Nada, no veo...
Me encantan esos tweets, ¿no?
Con lo de Ilya Sutskever pidiendo perdón.
La gente como, ¿what?
O sea, ¿por qué ahora?
¿Por qué ahora?
Ilya Sutskever renunció...
Bueno, luego está Gary Marcos haciendo el ridículo, como siempre.
Vale.
La cuenta de Akalik.
Cuenta recomendable para seguir en Twitter, si no lo hacéis.
Es que toda la actualidad...
O sea, no la actualidad justamente de esto.
De hecho, se me hace muy raro verle tuiteando cosas como esta, pero...
Lo merece.
Pero dice...
Open AI Investors still have hope.
Altman will return if Board resigns.
¿Vale?
Imaginad...
Vamos a pensar en esta situación, ¿no?
Que de repente hoy la gente dice...
Oye.
La gente la junta, ¿no?
Lo que pedías ayer, Sam.
Hoy te lo concedemos.
Parece como que la junta va a un día de retraso.
Siempre.
Con todo.
Y eso es un indicador de que no están negociando bien nada de esto.
Pero imaginad que hoy la junta le dice...
Oye, Sam.
Que sí.
Que lo que tú querías te lo vamos a dar.
Hay una forma de hacer un rollback.
¿Vale?
O sea, podemos volver a la situación del jueves.
Y aquí nada ha pasado.
Se olvidará.
Le pedimos a ChatGPT, a GPT4, GPT5.
Que borre esto del dataset también.
Para que cuando la gente lo busque...
Esto no ha existido.
¿Vale?
Esto no ha ocurrido.
¿Qué debería hacer Sam Alman?
¿Qué creéis que debería hacer?
¿Qué creéis que debería hacer?
Porque yo no lo tengo claro.
Mira que...
O sea, me encantaría.
Es como...
Quiero que se vuelva...
Es como intentar arreglar un jarrón que ya está roto.
O sea, las piezas...
O sea, por mucho que parece que encajen.
Si no hay un adhesivo más fuerte ahí...
No tiene sentido.
Entonces, yo creo que...
O sea, creo que ya he asimilado este futuro donde...
Otra empresa existirá y habrá un desarrollo más rápido y tal.
Pero ciertamente no...
Algo me incomoda en todo esto.
Lo que os he contado antes, ¿no?
Al final yo creo que...
Mi voluntad sería que lo que surja dentro de Microsoft sea lo suficientemente independiente como para que se mantenga este equilibrio tan especial.
Donde el laboratorio no se vea fuertemente contaminado por estar dentro de Microsoft.
Y eso no tengo claro que vaya a existir.
Porque ya eso nos dejaría en una situación donde...
Tío, OpenAI...
Se...
Muere.
Su sustituto forma parte dentro de Microsoft.
Y DeepMind también ha sido fagocitada por Google.
¿Vale?
Esto me dio mucha pena el otro día darme cuenta.
Pero...
Tío, la web de DeepMind ya es un blog genérico de Google.
O sea, ya esto es...
No es la típica página de DeepMind, sino que es una web plana, blanca.
Como la de Google AI.
Y esto me dio penita.
Porque es como, tío...
Todo lo especial que tenían estos laboratorios, esta independencia, aunque fuera ficticia, aunque fuera de maquillaje, corporativa de maquillaje y tal.
Una página web donde se hacía más post de investigación con un tono, un tipo y tal.
Todo eso se está perdiendo.
Y de esto es culpable OpenAI, pero ahora OpenAI ha muerto.
Entonces, bueno.
Bueno.
Estas son las noticias.
Y así os la hemos contado.
No sé si nos dejamos algo más en el tintero.
¿Algún tuit interesante?
Tengo aquí unos cuantos.
A ver si hay alguno que hayamos pasado por encima.
Bueno, hay tuits.
Bueno, de este tipo, ¿no?
Por ejemplo...
Pues ya este tuit no está.
Parece que el trabajador lo ha borrado.
Vaya.
Bueno, era un tuit donde un trabajador de OpenAI decía algo así como...
O sea, que Ilia no se preocupa realmente por la seguridad ni la humanidad.
Sino simplemente es el ego y las ansias de poder que le han salido por la culata.
¿Vale?
Luego hay otro tuit de Ilia Schutzkever de hace un tiempo.
Que se ha reproducido.
Bueno, de hace un tiempo.
De hace dos meses.
Ego is the enemy of growth.
¿Vale?
El ego es el enemigo del crecimiento.
OpenAI le da like a esto.
Y bueno, nada.
Yo creo que más o menos hemos cubierto todo lo importante.
Todo lo importante.
Para mí, el tuit que mejor explica lo que ha pasado para los fans de Breaking Bad es este tuit de aquí.
A ver si lo encuentro.
O a lo mejor no lo encuentro.
Espérate.
Vale, pues no lo voy a encontrar.
Pero me hizo mucha gracia.
A ver, me gustas.
Bueno, bueno, bueno.
Emad...
Perdón.
Es que esto también tiene tela.
O sea, ya que estamos comentando, comentamos todas las chorradas.
La mejor actualización de todo lo que ha pasado son los tuits de Emad.
Emad, que a cada cosa que pasaba, iba publicando su...
Es como pasaba algo y Emad.
Es como pasaba algo y Emad.
Hostia.
De repente...
Pasaba algo.
A ver, a ver...
Madre mía, cuánto tuiteas, Emad.
Madre, madre, madre, madre.
No sabía que había tuiteado tanto.
Me mata, eh.
Me mata, me mata.
Este lo explica muy bien.
Pero nada, no encuentro el otro.
Es curioso.
Hay un montón de tuits que se están eliminando, eh.
Hay un tuit de Adam GPT, otro trabajador de OpenAI, que ponía...
GPTs were going to be so lit.
En plan, los GPTs iban a ser algo tan guapos, pero en pasado, ¿no?
Iban a ser...
Y ese tuit también lo ha borrado.
Interesante.
Interesante, interesante.
Nada.
Y gente muy cabreada.
Este, este es el tuit.
Este es el tuit que para mí mejor explica lo que pasa.
Quien haya visto en Breaking Bad, entenderá que esta es la situación.
Esta es la situación.
¿Vale?
Este momento de Breaking Bad, de diciendo Mike a Walter, teníamos algo que era perfecto,
que funcionaba y por tu ego se ha destruido.
Esto es.
Esto es.
Esta toma.
Esta toma es que es lo que ha ocurrido.
Veo que me ponéis en el chat Sam, Sam, Sam.
Sam, Sam, Sam.
Vamos a ver actualidad en tiempo real.
A ver.
Dice.
Tuit de Sam.
El equipo de liderazgo de OpenAI, particularmente mira Brad y Jason, o mira Brad y Jason, pero en realidad todos ellos han estado haciendo un trabajo increíble a través de esto que quedará en los libros de historia.
Increíblemente orgulloso de ellos.
¿Y cómo entendemos este tuit?
Porque este tuit aumenta un poco la probabilidad de rollback, ¿vale?
De revertir la situación, de que a lo mejor algo se ha arreglado o algo ha pasado aquí.
¿Esto qué es, Sam?
Sam.
Amigo Sam.
Hmm.
¿Suena despedida?
¿Suena despedida?
¿Suena despedida?
¿O creéis que es sarcasmo?
No creo, ¿eh?
Hostia, espérate, que no lo estaba leyendo en clave de sarcasmos.
Hostia, espérate.
Pero no, porque mira es Miramurati y con Miramurati ha habido buen rollete.
No, no, no creo, ¿eh?
No creo.
A ver un momentito.
No creo, no creo.
O sea, son gente de la junta, todos estos.
O está apuntando...
No creo, ¿eh?
No creo.
Por favor, haz uno de estos posts que tengan sentido.
Nada, da igual.
Vamos a esperar.
Es que, de nuevo, intentar especular aquí es simplemente...
Por el afán de entretenimiento tiene mucho sentido, pero aquí estamos un poco para intentar dar algo de información.
Así que no vamos a estar haciendo especulaciones ni cosas.
Pero bueno, si os ha gustado el directo, chicos, chicas, estad atentos a todo lo que vamos publicando por redes sociales, sobre todo en Twitter, que es donde está pasando toda la mandanga.
Si de repente el miércoles se descubre la EGI, el jueves Sam Allman desarrolla su nueva empresa y el nuevo CEO de Microsoft pasa a ser la EGI desarrollada, pues la próxima semana hacemos otro directo cubriendo todo esto.
Si no, pues seguiremos con la actualidad, como siempre, de .docsv, trayendo papers científicos y vídeos de lo otro.
Mira que yo prometí, o sea, dije en un tuit, por favor, que ya hasta aquí, de aquí a final de año, OpenAI esté tranquilita, que no haya más movidas, que no saquen más cosas.
O sea, antes tiene que pasar a todo esto, que no pase más cosas con OpenAI para poder cubrir la actualidad de otras cosas que pasen.
¡Pum! En tu cara, Carlos.
Así que, bueno, ahí estamos.
Vamos, Elon respondió a Sam, vale, acabamos con esto ya, con este último salseo y listo, a ver, a ver.
Bueno, luego estaba esto, sí, lo de la carta, la carta de OpenAI, que entre ellos, los que han firmado, diciendo que el comportamiento de la Junta estaba mal hecho, estaba.
Mira Murati, la primera, Ilya Sutskever, el número 12, es como, soy parte de la Junta, o sea, es una forma de reconocer que lo habéis hecho mal, que está pasando aquí.
Bueno, estos son los, el stock de Microsoft, pero que no tiene mucho sentido.
O sea, si lo miras luego en el largo plazo no tiene mucho sentido.
Nada, nada, nada.
Vamos a ver solamente la respuesta de Sam, o sea, de Elon a Sam.
Y ya con esto sí que sí, cerramos el directo.
Vamos a ver, Sam, ¿qué te ha puesto Tito Sam, Tito Elon?
No, pero aquí el que ha respondido es Elon, Elon Fake, Elon Parody.
Vale, este es Elon Parody.
Bueno, chicos, chicas, ahora sí, muchas gracias por estar en este directo.
Si os ha parecido interesante, compartidlo.
Creo que sirve un poco para contextualizar todo lo que ha pasado.
Creo que explica parte de lo que nos ha llevado a esta situación tan ilógica.
Y ahora estaremos atentos a lo que pase en el futuro.
Como siempre, la inteligencia artificial quitándonos horas de sueño, haciendo todo más emocionante.
Es una mala noticia, no vamos a negar, pero de toda esta explosión de lo que hay dentro de OpenAI,
este destripamiento de OpenAI, puede que salgan cosas interesantes.
Al final, muchas de estas empresas, cuando acaban por descomponerse,
no están formadas por gente que no tengan otra inquietud que trabajar en esa empresa,
sino que por lo general están formados por gente que ahora apostará por crear nuevas startups,
que se llevan parte del conocimiento, el secreto, dentro de estas organizaciones a otras compañías.
Y bueno, sabemos que gran parte de este conocimiento se va ahora para Microsoft,
con lo cual podemos esperar que de aquí pueda florecer mucho más.
¿Qué puede salir de aquí? Lo iremos descubriendo y os lo contaré todo en .csv.
Madre mía, sois unos cansinos con la gente. Vamos a ver qué dice Elon.
¡Hostia!
No me esperaba yo a Elon Musk, pero ¿esto es como respuesta de alguien o qué?
Hostia, este es el cuñado. Esto no sé si la gente de Foro lo va a entender.
Ni siquiera sé si Elon Musk entiende quién es el cuñado, pero bueno.
Nada, no veo nada interesante, chicos.
Chicos, chicas, muchas gracias por estar ahí, muchas gracias por seguir el directo
y hasta la próxima.
Chao, chao.
Chao, chao.
Chao, chao.
Chao.
Chao.
Tao, chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.
Chao.