logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

Muy buenas, chicos y chicas, chicas y chicos, bienvenidos a.csv, a ver que no se oiga con
eco, bienvenidos a.csv, vuestro canal de inteligencia artificial, estoy mirando aquí
la pantalla, tengo aquí la cámara, y nada, estamos nuevamente en un directo en el canal,
como ya saben estos son directos que vamos haciendo pues cada mes, mes y medio, para
voy a ponerme aquí con todos ustedes a debatir, hablar un poco sobre inteligencia artificial,
sobre preguntas que se les ocurran, a lo mejor me van a decir que el audio está abajo
porque es el meme ya, y bueno, la cosa es, estamos en directo realmente o no estamos
en directo, como lo podríamos saber, como podríamos saber si esto es un directo de
verdad o no, a ver, ya saben como es la dinámica, vale, lo que vamos a hacer es, pues vamos
a estar aquí respondiendo preguntas que me vayan poniendo por el chat, el chat lo
tengo ahí, aunque me da que lo voy a mover para acá, para estar siempre mirando cara
a cara, y yo creo que vamos a estar pues una hora, una hora y cuarto, y luego lo que vamos
a hacer, interesantemente, es estar un ratito más, vamos a hacer un extra time, pero no
en youtube, sino en twitch, que es un sitio, algunos lo conocerán mucho, lo conocerán
que twitch es la típica plataforma para hacer streaming, y donde yo he estado últimamente
haciendo directos, editando vídeos, y a veces me pongo a hablar porque sí, no son tanto
como los directos de aquí, que aquí suele haber mucha más gente, porque la audiencia
es mucho mayor, pero sí es cierto que allí pues quiero empezar a hacer también cosas
que no creo que vayan a ver en youtube porque no encajan en el contenido, porque a mí me
gusta que el contenido que está en youtube sea el contenido puro, depurado, bien tratado,
y no que se me llene de streamings que hago así de manera improvisada y tal, entonces
en twitch pues quiero empezar a hacer cosas como lectura de papers, comentar vídeos en
directo de Dallas, de inteligencia artificial, hacer diferentes cosas, incluso programar
proyectos que empezaron a llegar al canal, programarlos en directos, con lo cual pues
por eso quiero mover también a parte de la audiencia para allá y lo vamos a hacer, además
que twitch pues como muchos sabrán también a nivel de repercusión de dinero que se le
paga al youtuber es mucho mayor, no al youtuber, sino al streamer es mucho mayor, con lo cual
pues también es una plataforma muy atractiva para hacer cosas allí.
Dicho esto, vamos a hacer lo que he dicho, voy a mover la pantalla para acá, voy a empezar
al, no, no la voy a mover para acá porque está muy pequeña, a ver un momento, vamos
a hacer pop out, vamos a poner esto aquí, a ver si me carga, vale, me pueden confirmar
que está todo bien, todo se me oye, creo que debería decir que son las siete y ocho
minutos, 14 de febrero, no sé, no sé, no sé cómo poder deciros que estoy en directo
por si acaso, pero bueno, vale, entonces lo que voy a hacer es eso, empezar a leer preguntas
y hablar con ustedes un rato, vale, vamos a estar aquí yo creo con una horita hasta
las siete y cuarto podremos estar y luego en twitch estaremos de siete y cuarto a siete
y cuarenta y cinco. Genial, se oye, perfecto. ¿Cuándo veremos cambios disruptivos en la
inteligencia artificial? ¿Cuándo veremos cambios disruptivos? Depende de lo que queramos
entender como cambios disruptivos. Hoy, hoy me han pasado la página, una página que
se llama, además creo que la he puesto en todas las redes sociales porque me ha parecido
muy interesante, que se llama This human is not real y básicamente es una página que
tú te metes y te sale la foto de una persona, súper realista, pero que son caras creadas
con el método este del style gun, el que comentamos en el último vídeo de noticias
y es básicamente pues una página que tú vas actualizando y te va saliendo una cara
diferente en cada momento de una persona que no existe porque está creada con inteligencia
artificial. Y mira que he visto lo de style gun desde hace tiempo ya porque no solo es
style gun sino que esto es como el avance de una investigación que ya partió de NVIDIA
de hace un año que son las caras a alta resolución, antes de esto también ha salido cosas como
las beacons que son también bastante sorprendentes, antes de esto pues ya habían caras generadas
artificialmente, pero me sigue sorprendiendo muchísimo y vale que no es un cambio disruptivo
a nivel de que se te pueda aplicar en el día a día y que pueda ser una transformación
muy importante, pero simplemente, lo estamos comentando hoy en el grupo de Machine Learning
Hispano, el simple hecho de que tú puedas tener una tecnología con la capacidad de
crear eso es bastante alucinante y es una cosa que ha surgido en los últimos 5-7 años,
es decir que nosotros como especie humana seamos capaces de generar algoritmos, que
sean capaces de analizar datos y que sean capaces de generar caras de personas completamente
realistas pero que no existen, yo creo que es bastante raro, pero aparte de eso, yo creo
que si se están dando bastantes pasos disruptivos, lo que pasa es que no los vemos, muchas de
las cosas no las llegamos a ver porque son cosas que suceden a nivel de investigación,
a nivel de investigación en medicina, investigación en física, en diferentes campos de la ciencia
y que tarde o temprano sí empezarán a llegar a nuestras vidas, pero bueno, luego también
pasa que todos estos cambios que son muy disruptivos, son disruptivos y a lo mejor nos sorprenden
durante un breve periodo de tiempo, pero luego nos adaptamos bastante rápido y lo normalizamos,
es decir, si pensamos que hace 20 años no existía internet, sí existía, pero que
no existía a nivel doméstico, pues es bastante impresionante ver como todo ha cambiado y
cómo asumimos esta realidad en la que vivimos con móviles, con conexiones inmediatas, con
internet, todo esto lo asumimos bastante, van a ir llegando esos cambios y son bastante
sorprendentes, otro ejemplo, la conducción autónoma, no tenemos conducción autónoma
a día de hoy, pero sí tenemos los coches semiautónomos de Tesla, coches que a lo mejor
ya te pilotan solo dentro de un carril, donde te gira el volante, donde te analiza lo que
hay en la carretera, sale de la autopista, todo este, el nivel de conducción autónoma
nivel 2, eso ya existe a nivel comercial y es bastante disruptivo y bastante sorprendente,
entonces bueno, poco a poco irán llegando las aplicaciones reales del tema de la inteligencia
artificial.
No encuentro esa página de This human is not real, ya es que a lo mejor me he inventado
el nombre, a ver un momento, si me das un minuto, un minuto de directo malgastado, les
pongo el link muy rápidamente, a ver, a ver, a ver, a ver, a ver, vale, ojo este enlace,
recomiendo el que no lo haga seguirme en twitter y recomiendo seguir también la cuenta de
machine learning hispano, vale, la tengo aquí, la pego por el chat, vale, creo que la habré
pegado bien, espero que sí, this person doesn't exist, vale, ahí está, muy bien.
Voy a hacer una ronda rápida de respuestas a preguntas que suelen ser muy comunes para
saltárnoslas ya, que he estudiado inteligencia artificial, especialización de inteligencia
artificial, máster de data science en la universidad de Helsinki y la carrera fue doble
grado de administración de empresa e informática, eso por un lado, ¿qué libros recomendaría
de inteligencia artificial? no suelo leer libros, lo explico mucho en los directos que
es que yo para mí cuando tengo una duda que necesito consultarla voy a internet, si no
lo encuentro en internet, si suelo tirar a libros pero a lo mejor a modo de consulta,
es decir, buscar temas en un libro determinado pero no coger un libro y decir bueno este
libro me lo voy a leer de principio a final para entender todo el tema, no, suelo ir picoteando
de bastantes fuentes diferentes. Eso, no sé qué más preguntas, bueno, ya irán saliendo
y las iré respondiendo así en plan rápido. A ver, a ver, a ver, porque no estoy acostumbrado
a que seamos 266 personas, 271 personas y 62 likes, qué feo. A ver, hola Carlos, me
encanta tu contenido, Javi Santaolalla le hizo este año en México una entrevista a
Mikio Kaku en la que mencionan que la inteligencia artificial está al nivel de una cucaracha,
es lo mismo, pues no sabría decirte porque no creo que se pueda hacer esas comparaciones
de esa manera. Se pueden hacer en ciertas maneras, hay gente que compara al número
de conexiones, número de neuronas, pero yo creo que la manera justa de comparar inteligencia
debería de ser a nivel de funcionalidad y claro, al nivel de una cucaracha, ¿en qué
te está pasando? Porque una cucaracha jugando a, yo qué sé, al Go, no va a llegar al rendimiento
que tenemos nosotros, que ha sido una inteligencia que ha superado a un humano profesional. Entonces,
eso qué pasa, que es una inteligencia artificial muy específica, ¿nos estamos refiriendo
a la capacidad de una cucaracha de resolver una variedad de problemas? No me consta que
hay una métrica que sea capaz de medir eso, con lo cual no sé cómo se hace esa comparación
y cómo se establece que la inteligencia artificial está a ese nivel. Yo no me preocuparía de
hacer ese tipo de comparaciones, a menos que sea, pues eso, número de conexiones neurorales
o número de la potencia requerida por el cerebro de una cucaracha comparado con, no
sé, no sé a qué nivel está hecha esa declaración. ¿Cómo se sabe que no existe? Entiendo que
no te referes a lo de las caras. Se sabe que no existe y que no es overfitting porque se
compara las caras generadas con los puntos de tu dataset y todo se busca cuál es la
similaridad. Y esto se suele hacer a nivel de características y también a nivel de
pixel. Con lo cual, técnicamente, cuando tú haces eso y ves que no hay ninguna foto
o ninguna imagen que tú hayas utilizado en el entrenamiento, que no está replicada,
o sea que no hay similaridades o que hay una distancia bastante considerable, pues se puede
asumir eso, que no existe dentro de tu dataset. Pero también lo estamos comentando antes
en el grupo de Machine Learning Hispano, Santi Iglesias comentaba que cuando el dataset es
muy, muy, muy grande, hay que tener cuidado porque el overfitting puede parecer aleatorio
en el sentido de que tienes tantos ejemplos que es muy fácil, claro, creo que se refería
al tema de las interpolaciones, pero que es muy fácil no ver que efectivamente esa cara
sí pertenece. No sé, a mí me parece, a mí me resulta súper llamativo el ver una
cara y pensar que realmente no ha hecho una especie de mezcla de elementos de diferentes
caras, pero es que luego, por ejemplo, cuando ves las interpolaciones famosas, cuando tú
coges el espacio, el vector latente y empiezas a moverte y a generar todas las interpolaciones
intermedias, ves que para todas esas da una respuesta de una cara que tiene bastante coherencia,
eso significa que la red efectivamente se está generando caras nuevas. Es brutal, a
mí me parece brutal. ¿Existen modelos predictivos de la economía por medio de la inteligencia
artificial? Segurísimo. Bueno, sí, o sea, no. El campo mismo de la econometría que
hace uso de modelos predictivos aplicados a economía, eso simplemente ya es inteligencia
artificial aplicada a la economía. ¿Qué pasa? Que ellos no son tan flipados como los
ingenieros de machine learning como para llamarle inteligencia artificial, pero si te vas a
la definición de machine learning, pues sí se aplicaría que esos modelos son modelos
que aprenden en base a datos y sí sería. Pero bueno, si te refieres a modelos más
avanzados seguramente también. No entiendo, no entendería lo contrario. Yo creo que
toda la forma de operar de la bolsa a día de hoy usan algoritmos. Yo no sé si esos
algoritmos son algoritmos que aprenden a trabajar en bolsa o están diseñados específicamente,
pero que se haya intentado al menos aplicar estas técnicas de machine learning, segurísimo,
no tendría sentido lo contrario. Él se refiere a la capacidad de autonomía
frente a diferentes entornos. Claro, pero… volvemos a lo de la cucaracha. Yami Kiyokaku.
Se refiere a la capacidad de autonomía frente a diferentes entornos, pero ¿y eso cómo
lo mide? Yo no sé cómo se está midiendo eso a día de hoy. No sé si existe una métrica,
pero… no sé. Me cuesta bastante hacer una comparación de elementos que son cualitativos,
porque vale, tú te puedes adaptar a diferentes problemas a la capacidad de adaptación, pero
es que los problemas que resuelve una cucaracha y los problemas que resuelve a lo mejor una
inteligencia artificial de aprendizaje reforzado que busca que un robot se mantenga en pie
y donde hay transferencia del aprendizaje y por tanto también hay una adaptación a
diferentes tipos de problemas, esos problemas son de diferentes dominios, con lo cual cualitativamente
hacer una comparación de decir esto y esto es lo mismo, me parece complicado. A lo mejor
existe esa métrica, pero yo la desconozco. El Qubil de Peter, el canal El Qubil de Peter,
está por aquí con una pregunta importantísima para San Valentín. Para San Valentín. ¿Por
qué no me regalas tu corazón? Tanta inteligencia artificial y nada de tu calor. Lo siento, Peter.
Este canal es pura inteligencia y cero sentimiento. Lo siento, somos fríos como máquinas. Bueno,
¿qué más? Después de este momento de San Valentín, ¿qué más tenemos? ¿Conseguí
alguna beca para estudiar mi maestría? ¿Cómo fue el proceso? Vale, esta suele ser otra
pregunta recurrente sobre el máster que yo hice en Helsinki, es un máster gratuito.
La educación en Helsinki si eres ciudadano europeo es gratuita. Ténganlo en cuenta quien
quiere aplicar el año que viene. A ver, somos 315 personas, wow. Ah, vale, voy a hacer scroll
para abajo. ¿Me miré al final algo del distillation? No, no me he mirado el paper. Lo siento, soy
el peor moderador del canal de lectura de papers de Machine Learning Hispano. Pero que
va, esta semana he tenido trabajo fuera de YouTube y ha sido un poco estresante. Vale,
más preguntas, más preguntas. ¿Qué opinas de los cursos de Udemy? No he hecho, creo
que no he hecho ninguno de Udemy. ¿Solo para europeos? Solo para europeos, sí. Hace tres
años era para todos los ciudadanos del mundo, pero esto se cambió lamentablemente. Y bueno.
¿Cómo se determina la cantidad de neuronas y capas que utilizará tu modelo? Muy buena
pregunta. Esto te diría que dependería bastante del problema a resolver, pero que tampoco
hay una forma empírica de hacerlo. No solo esto, también más elementos como tipo de
función de activación, tipo de batch size, todos estos elementos, todo lo que son los
hiperparámetros de la arquitectura, pues es en sí mismo un propio problema de optimización.
Yo creo que al final, un poco con la práctica, ir probando, pues podés encontrar mejores
trucos aplicados a un problema en el que tú estarás trabajando un largo tiempo. Pero
bueno, lo que se está buscando dentro del campo del Machine Learning es también la
propia automatización de este proceso. Y encontrar diferentes, o sea, hay algoritmos
actualmente como Auto Machine Learning, AutoML, que te busca hacer la automatización de encontrar
cuál es la arquitectura óptima para resolver un determinado problema. Pero bueno, luego
lo que hay que estar haciendo es estar atento a las últimas publicaciones que van saliendo
y ir cogiendo lo que va apareciendo. Por ejemplo, recientemente ha salido un paper que confirma
que utilizar batch sizes, tamaño de batch más grande de 32 no tiene sentido. Lo dijo
Jean Lecune hace un año y creo que hace poco salió el paper que lo confirmaba. Pues bueno,
pues ya sabes que eso tiene que ser así. ¿Qué pasa? Que a lo mejor de repente se
descubre que para un problema determinado es bueno tener batch sizes grandes, por encima
de 32. Entonces yo creo que es bastante complicado en ese sentido. O sea, yo creo que hay demasiadas
combinatorias aquí en este caso. ¿Puede la inteligencia artificial ayudar con el teorema
a descubrir si P igual a NP completo? Pues no sabría si la inteligencia artificial podría
ayudar con ese teorema, pero lo que sí sé es que quiero hacer un vídeo sobre eso, en
el canal quiero hacer un vídeo de PNP, porque conecta bastante con el vídeo de 100 motivos
por los que estudiar informática, sobre todo con la parte de abstracción, y es un problema
que a mí... o sea, no es un problema, sino un teorema que a mí me encanta y creo que
es como la raíz de lo que es la informática. El código, o sea, el... ¿cómo se llamaría?
El root de la informática es el P igual a NP. Y eso lo quiero expresar en un vídeo
que luego nos va a conectar con otros temas bastante interesantes, porque tienes NP completo
y luego tienes... bueno, no lo voy a decir. Computación cuántica. Bueno.
¿Hay inteligencias artificiales que optimicen inteligencias artificiales? Sí, Álvaro.
Tengo un vídeo en el canal, un datacoffee de la primera etapa, creo que era de los últimos
que hice, que era una inteligencia artificial de Google consigue superar a sus ingenieros,
y hablo todo el vídeo de eso, así que échale un vistazo. ¿Cuándo viene el vídeo del
overfitting? A ver, el vídeo del overfitting. Ya lo sé, que soy muy lento con los vídeos.
El vídeo del overfitting debería salir este domingo, ¿vale? La cosa es que la semana
que viene yo voy a estar de vacaciones, me voy a ir una semana fuera de España y voy
a estar desconectado. La cosa es que quiero dejar para este domingo el vídeo del overfitting
y antes de irme quiero también preparar un vídeo para la semana que viene. Si lo consigo,
genial. Si no, posiblemente tenga antes hecho el vídeo para la semana que viene, que va
a ser un... ¿cómo le llame? Un bit, un vídeo de estos cortitos, y entonces no me daría
tiempo de hacer el del overfitting parte 2. Pero bueno, en principio debería estar para
este domingo. Somos 340 personas. ¿Y si no eres europeo, cuánto cuesta el semestre
de estudiar en tu universidad? 15.000 euros. Bastante. Bastante, bastante, bastante. ¿Por
qué un día dijiste que se decía machine learning? ¿Cuál es la referencia que se
diga así? No, lo de machine learning es un meme que cogí prestado del canal de Oliver
Navani. Oliver Navani, búsquenlo. Que bueno, que tiene una anécdota bastante graciosa
y que creo que él la cuenta en uno de los podcasts de los que él hace. Así que recomiendo
que lo vayan a ver. Es un meme. Básicamente alguien que le puso en un comentario después
de hacer un vídeo explicando todos los conceptos de machine learning y tal, uno se le puso,
el típico que mete a decirte oye, muy bueno tu vídeo, va a buscarte la puntillita y le
venía a decir que no se decía machine learning, sino que se decía machine learning. Y a él
le hizo mucha gracia porque además de la ironía de que el tío era un poco imbécil,
además lo decía mal porque no es machine, es machine, pero bueno. Entonces él lo ha
adoptado como la coletilla de su canal. Machine. Recordad que no se dice machine, se dice machine.
¿Python o R? ¿Por qué? A mi gusto Python. Python y R son dos lenguajes que a día de
hoy se utilizan bastante para el tema de análisis de datos. R quizás conecta más con la parte
académica, científica y Python conecta tanto con ese mundo como con la parte más industrial,
por así decirlo. Y quizás por eso me gusta más Python, además de que a mí R de siempre
me ha parecido un lenguaje, no sé, no me gusta ni la interfaz para programar del IDE,
ni es un lenguaje que me apasione. Luego las librerías son siempre más científicas,
tienen bastantes librerías para hacer análisis científico, pero Python tiene librerías,
TensorFlow, TensorFlow seguramente habrá algo para trabajar con R también, pero bueno.
TensorFlow, PyTorch, Keras, muchas librerías, Numpy, SciPy, SKlearn, todas estas librerías
están para Python, la verdad que desconozco si están para R, pero bueno. Es como que
Python se está convirtiendo en el lenguaje de facto para todo el tema del Machine Learning,
y no es que se está convirtiendo, es que ya se ha convertido. Y gracias a la programación
con cuadernos Jupyter, que sé que también R tiene algo parecido, pero bueno, con los
cuadernos Jupyter además ya es que ni IDE ni nada, yo me dedico a trabajar en Colab
o en Jupyter Notebooks a hacer prototipos, implementaciones y tal, y de momento me viene
bien eso. En un futuro yo no sé si la Inteligencia Artificial se moverá a otro lenguaje, ahora
están saliendo pues las opciones de JavaScript para el tema de web, pero de momento Python
parece un lenguaje bastante interesante para estudiar, y además un lenguaje súper cómodo,
súper expresivo. En muy pocas líneas de código te puedes hacer mucha lógica y yo
creo que son bastante interesante. De todos modos da igual, o sea que cada uno programa
lo que quiera, los algoritmos son, y da igual que el lenguaje que haya, o sea siempre depende
para que lo quieras utilizar, si es para hacer algo en producción, si quieres hacer tal,
pues ya tendrás unos requerimientos que si te van a definir que lenguaje usar sobre
otro, o cuánto tiempo quieres que te dure el código, muchos elementos ¿vale? Pero si
tú solamente quieres aprender, da igual, da igual, o sea si quieres aprender el algoritmo
el algoritmo va a ser igual lo implementes donde lo implementes, la cosa es que a lo
mejor la implementación te va a costar más o menos, y yo soy de esos informáticos que
nunca me han gustado tampoco el tema este de a mí Python es lo mejor y Java es lo peor
y C es tal, me da igual, a mí yo programo si me gusta bien, si no también, al que le
guste R, pues perfecto, no hay más ¿si puedes trabajar con TensorFlow en R? Sí, pero vamos
yo prefiero Python, o sea lo dice Raúl que también prefiere Python, ¿Tensorflow que
era soPyTorch? Pues mira, TensorFlow empecé programando en TensorFlow, luego recientemente
cuando empecé el curso en Las Palmas, el curso de Machine Learning, me pasé a enseñar
Keras porque es bastante más sencillo, por así decirlo, la interfaz que crea Keras es
bastante cómoda y últimamente me he quedado con Keras por comodidad y PyTorch no lo he
utilizado nunca y está fatal porque debería empezar a, o sea empiezo a adoptar una responsabilidad
para con ustedes a la hora de, pues si quiero comentar cuál es la mejor librería y tal,
creo que es bueno saber de diferentes tecnologías también y PyTorch es una que no me ha metido
porque no sé, no sé, no me he metido, tengo, o sea me interesa más seguir aprendiendo
la parte de algoritmos y tal que estar mirando en otro lenguaje, pero bueno, sí, me acabaré
metiendo para hacer tutoriales también aquí en el canal. Yo diría que Python tiene mucha
fuerza Machine Learning y Computer Vision, la tiene, sí. Hola Carlos, todo bien, todo
bien. Mejor algoritmo para NLP, diría que depende del problema que quieras resolver,
pero ahora mismo últimamente se habla mucho de los Transformers y de BERT y de todos estos
algoritmos que te hacen los embeddings y estas cositas, pero bueno, creo que depende un
poco del, uy va, se está pillando, ah vale, está bien. Se me está trabando un poco aquí
en directo, yo no sé si a ustedes se les estará trabando también, pero bueno, espero
que vaya bien. A ver, había un comentario que estaba leyendo y se me acaba de ir. ¿Cuál
crees que es la ruta de aprendizaje que debería de seguir alguien que quiera adentrarse en
el mundo de la Inteligencia Artificial y ya sabe programación? Pues la ruta sería primero
cogerte algún curso de estos online masivos OpenCourse, los MOOCs, y vértelo, ¿vale?
Un curso que sea de Deep Learning y ese curso posiblemente lo que trace sea una recta vaya
pasando por muchos de los conceptos que son bastante interesantes del Deep Learning, ¿vale?
Esto va a ser útil no tanto para que aprendas, sino para que conozcas que esos conceptos
existen, y una vez sabes que esos conceptos existen, pues lo que deberías hacer es empezar
a entenderlo. ¿Qué significa entender una cosa? Primero, entenderlo conceptualmente,
es decir, ¿para qué te sirve? ¿Cómo funciona? ¿Qué hace? Eso es un poco lo que hacemos
aquí en el canal de YouTube, les cuento mucho la conceptualización de las cosas, porque
el overfitting ¿qué es? No que te suene de memoria, sino que sepas lo que es. Entender
todo, todo, todo, o sea que tú lo puedas explicar, que tú te puedas abrir mañana un canal de
YouTube y explicar el concepto de la misma manera. A partir de ahí, cuando ya tienes
el concepto hecho, lo siguiente que tienes que hacer es implementarlo. ¿Por qué? Porque
pasa muchas veces que cuando tú ves un concepto y lo puedes entender muy fácilmente, por
ejemplo, una red neuronal o más básico, una regresión lineal, tú puedes entender la
lógica y cómo funciona todo, pero luego te pones enfrente del ordenador y dices, bueno,
voy a implementarlo, y te encuentras con muchas carencias, ¿vale? Entonces ir cogiendo soltura
también en la parte de implementación. Y con eso poco a poco irás construyendo, irás
viendo más conceptos, irás entendiendo más cosas, y ya cuando llegas a ese punto, yo
creo que lo interesante sería empezar a aplicarlo en casos reales. Y para eso te recomiendo
que te metas en alguna página donde se hagan competiciones de Machine Learning, en alguna
comunidad donde puedas tú comentar con la gente cosas que sean interesantes de Machine
Learning, estar un poco al día de lo que va saliendo, leerte a lo mejor algún paper
y darte cuenta que no entiendes nada, y entonces ponerte como reto e intentar leerlo mejor.
No sé, son como muchas cosas que puedes ir haciendo, yo creo que el mundo de Machine
Learning te permite explorar muchas maneras de aprendizaje que sean bastante interesantes
y que se puedan adaptar a tu forma de aprender. Mi recomendación también aquí es, tenemos
desde el día 4 de enero, que fue cuando publiqué el video en 2018, ahí hice el anuncio de
que estaba la comunidad de Machine Learning hispano, que no le he dado mucho más bombo
aquí en el canal, pero que próximamente quiero hacer un video exclusivamente de eso.
En esa comunidad pues somos bastantes personas del mundo del Machine Learning que nos gusta,
que compartimos cosas y tal. Creo que somos 1500 personas en el grupo, pero la realidad
es que somos unos 30, 40, los que a diario estamos ahí y a diferentes horas vamos respondiendo.
Pero la cosa que es, métanse en ese grupo y pregunten todas las dudas que tengan, intenten
participar de las actividades de lectura de papers, de cosas, tengan iniciativa, y yo
creo que también es una buena forma, una forma bonita de aprender, que es en comunidad,
que es un poco lo que buscamos también aquí en YouTube.
¿Hay cursos de Google para aprender Machine Learning? Sé que tienen un video de TensorFlow,
pero seguramente tengan algo también al concurso. ¿No se escucha? ¿Se escucha o no se escucha?
Sí se escucha, ¿no? Por si acaso.
Mi opinión sobre la inteligencia artificial de IBM, que debate. Vale, vamos a hablar un
poco de eso, de Project Debater, creo que se llamaba. No sé si lo vieron que esta semana
salió IBM y hizo una de estas demos que son como muy, pues igual que DeepMind cuando hace
el tema del StarCraft o el AlphaGo, estas demos que se hacen muy de cara al público
para demostrar que la inteligencia artificial que ellos tienen, que en su caso Watson, pues
tiene la capacidad de llegar a ser un hito, ¿vale? En ese caso ellos lo que querían
demostrar es que su sistema Watson era capaz de participar en un debate con una persona
profesional, Natarajy, no sé quién, un tío que era muy bueno debatiendo, y que podía
mantener un debate con esa persona de manera natural, ¿vale? En ese caso estuvieron como
una hora debatiendo, no sé si tocaron varios temas, yo me vi trozos del vídeo y vi la
parte en la que debatían sobre financiar la escuela pública. Y era básicamente eso,
un debate, tenían un turno de palabra uno, luego el otro, y se iban respondiendo. Y la
verdad que era bastante interesante porque parece, o sea, lo que parecía es que efectivamente
la inteligencia artificial tenía la capacidad de mantener una conversación, es decir, de
si la persona daba un argumento, pues te podía responder diciendo, tal y como ha dicho él,
esto es esto, y yo creo que este punto, este punto y este punto. Desde ese punto de vista
me parece una pasada que se pueda lograr eso. Luego, cuando lo vea a nivel técnico, pues
te empiezas a dar cuenta de que a lo mejor de cara a la prensa, de cara a la gente que
no conozca, puede ser más impresionante de lo que verdaderamente es. Porque lo vi en
un comentario del vídeo de YouTube que decían, si se dan cuenta, en este momento del vídeo
cuando está mencionando esto, he buscado palabra por palabra en Google y lo que me
ha parecido es un artículo del cual se puede ver que el bot está leyendo la frase entera,
el párrafo entero, ¿vale? Y después buscabas otra frase y efectivamente también estaba
leyendo el párrafo entero. Con lo cual, lo que está haciendo realmente la inteligencia
artificial de IBM no es, obviamente, bueno, obviamente no, es que no es tan obvio para
la gente que no sabe, pero no es que esté leyendo o sintetizando palabra por palabra
lo que quiere decir, ¿vale? Lo que está haciendo es coger trozos de artículos que
ella, no sé por qué la personalizo mujer, pero bueno, bueno, la inteligencia artificial
está cogiendo trozos de artículos que cree que pueden servir para dar como respuesta
a la otra persona y está haciendo como una especie de amalgama, un copipaste de diferentes
artículos. Claro, para alguien que lo vea externo y que no entienda, a lo mejor pensará
que está generando toda esa conversación y a lo mejor ven que hay una inteligencia
artificial que tiene una capacidad de diálogo súper elocuente, que hace unas frases súper
bien preparadas, pero esto no es así, esto lo que está haciendo es leer artículos de
gente, de periodistas que tienen esa elocuencia y la parte inteligente ahí es el saber elegir
entender la semántica de para qué utilizar esa información, todo es bueno. Me recuerdo
un poco al caso de Sofía, en este sentido no es tanto que le escriban las respuestas
sino que sabe, o sea que encuentra qué artículos tiene que enunciar, pero bueno, igualmente
fue interesante, fue interesante porque aunque sea ese el caso, el saber responder, el saber
encontrar esos artículos ya es una fuente interesante, es un recurso interesante. A
mí me interesaría poder tener un chatbot que efectivamente me conectara con todas
las bases de datos de internet y supiera buscar frases de artículos para mantener una conversación
conmigo, o sea, me da igual si la inteligencia artificial sabe o no, lo que yo quiero es
poder beneficiarme de esa conversación y aprender, entonces ahí sí puede estar guay.
Haré vídeos sobre redes neuronales convolucionales? Sí, sí los haré, llegarán. Overfitting
parte 1, overfitting parte 2, regularización posiblemente y ya después convolucionales
y va a ser convolucionales, autoencoders, GANs, los implementaremos, lo veremos todo,
la arquitectura, overglass, creo que en todos los directos hago la misma ruta, pero bueno,
llegará, todo llegará, tiempo al tiempo. Un momento, ahora vengo. Vale, ya estoy.
O sea, IBM Watson es un fraude me preguntan, a ver, no es un fraude, no es un fraude, pero
bueno, yo creo que pasa mucho con las compañías, incluso pasará con Google, con DeepMind,
con Amazon, me estoy viendo irme, es muy extraño, pasará mucho con estas compañías que es
que se aprovechan cuando tienen un cierto descubrimiento o un cierto progreso en su
inteligencia artificial, hacen una especie de este tipo de eventos donde lo mezclan
o ocultan un poco lo que pueda hacer para que público que no conozca lo vea más. Vale,
entonces aprovechan un poco de la tecnología, nadie podrá decir, bueno, no hace lo que
hace porque algo inteligente hace, pero no. Pero al mismo tiempo consiguen el efecto de
sorprender y de que la gente diga wow. Vale. Para cuándo la serie de Support Vector Machines
al estilo dot csu y por qué escogí primero las redes neuronales? Pues es una buena pregunta,
pero bueno, básicamente porque todo el tema de Support Vector Machines, regresiones logísticas,
tipo de algoritmos de clasterización, camins, todo esto, todo lo que sería el Machine Learning
más clásico al final queda un poco generalizado por lo que son las redes neuronales porque
internamente se dedican a hacer esto y yo creo que poco a poco, según vayamos tocando
ciertos algoritmos de Deep Learning, estos temas aparecerán y me servirán para colarlos,
pero me parecía que si me pongo a hablar de esos temas, entonces las redes neuronales
iban a quedar muy retrasadas y si esto es un canal de inteligencia artificial, de Machine
Learning y de donde estamos intentando llegar a lo que es lo actual, pues creo que es más
importante hablar de las redes neuronales que hablar de lo otro. A ver, ¿tú crees
que clave de las inteligencias artificiales se encuentra en la arquitectura? No entiendo
exactamente la pregunta, no sé si te refieres a la arquitectura de la propia red o si te
refieres a otra cosa, pero bueno, si en parte viene por la arquitectura, en parte sí, porque
mucho de los avances que se consiguen a día de hoy en ciertas tareas viene por diseñar
las arquitecturas que son bastante personalizadas para el tipo de datos que va a procesar, por
ejemplo una red neuronal convolucional, su arquitectura, en la que permite conseguir
un rendimiento superior a lo que sería una multilayer perceptron, simplemente porque
aprovechan la espacialidad de la localidad de la imagen. Entonces yo creo que hay la
arquitectura si tiene mucho que hacer, pero no creo que sea solamente eso, también los
hiperparámetros pues tendrán una implicación bastante importante en todo el proceso de
aprendizaje, y seguramente aparecerán algoritmos que no sean ni siquiera basados en redes neuronales
que mejoren y generalicen lo que tenemos actualmente. Entonces bueno, es importante, pero no sé
si yo, no sabría decirte si es el único factor determinante. ¿Consumo algún tipo
de droga? Cerveza, y café en grandes cantidades. Tengo pensado hacer videos de redes neuronales
recurrentes también. A ver, ¿qué más preguntas? Somos 350 personas, no sé si estamos patiendo
a lo mejor algún récord de audiencia de los videos en el canal, o no. Pero bueno, ¿existe
puente entre la informática, inteligencia artificial y la medicina? Pues sí, que sería
todo el tema de la biotecnología, y también la aplicación de métodos computacionales
en la medicina, y yo creo que es bastante importante. De hecho bueno, con Pau, con Diario
Dunmir nos hicimos el directo hace ya unos meses, hace 4 o 5 meses, pero sigue subido
en el canal, y fue bastante interesante porque tocamos varios temas en ese sentido, de cómo
conecta la inteligencia artificial con la medicina. Pero simplemente analiza el último
video de noticias y mírate la noticia de AlphaFault, ¿vale? ¿Cómo utilizando la inteligencia
artificial conseguimos algoritmos que mejoran las técnicas que existen? En ese caso pues
sería biotecnología, ¿no? Métodos computacionales aplicados a la bioquímica, a la biología,
para el tema de la estructura de la proteína. En este caso pues ya aquellos métodos son
métodos informáticos, pero en este caso es un método casi puramente informático que
apenas hace uso de información del dominio del problema, ¿vale? O sea, sí es cierto
que saben que las variables que le meten son la diferencia entre aminoácidos, en los elementos,
el ángulo del enlace químico, pero tampoco es que hagan una arquitectura muy personalizada
al tipo de problema, y sin embargo, consiguen quedar primeros en esa competición frente
a otros métodos. Entonces sí, sí hay muchísimas aplicaciones de la inteligencia artificial
en medicina, y yo creo que eso es uno de los campos que van a ser, conectando con la
primera pregunta, que van a ser muy disruptivos, al mismo tiempo que yo creo que no nos notaremos
tanta cuenta, ¿vale? Pero que sí van a ir revolucionando poco a poco en el trasfondo.
En el trasfondo pues irán siendo disruptivos sin que nos demos cuenta, ¿vale? Ahí, acabada
la frase. ¿Cómo va el Patreon para el computador cuántico? Pues va bien. Esta última semana
ha habido bastante gente que se ha animado a apoyar el canal por Patreon, y somos 54
Patreons. O sea que está muy muy bien. ¿Qué opinan de IBM Watson? Más o menos lo he
comentado antes. ¿Cómo llegó el grupo de Machine Learning Hispano? Pues creo que puedes
verlo. Si te vas al vídeo de YouTube 2018, el que subí en enero, en la descripción está.
Es un fallo mío que no esté también en la descripción de este vídeo. Y si no te vas
a Twitter y te vas a la cuenta Machine Learning Hispano, la encontrarás. Y si no te vas a
la página www.machinelearninghispano.com y lo encontrarás. ¿Se pueden hacer redes neuronales
de aprendizaje no supervisado? ¿Cuál sería su intuición teórica? Pues sí se puede
y ya existen, ya existen. Por ejemplo, un autoencoder es un tipo de red neuronal no
supervisada. ¿Por qué? Porque tú lo que tienes ahí en el autoencoder, o sea para
el que no lo sepa, un autoencoder es una red neuronal donde se dice que es no supervisado
porque tú no tienes un vector de salida. Tú lo que utilizas como vector de salida
de datos son tus datos de entrada. Es decir, tú tienes tu matriz X y la salida es tu matriz
X. Tú metes una imagen de un perro y en la salida a lo mejor le metes la misma imagen
del perro. La pregunta es ¿para qué quieres hacer esto? ¿Vale? ¿Para qué quieres que
tu red neuronal haga este proceso de procesar la información para llegar al mismo resultado?
Básicamente lo que aprendería ahí sería una matriz identidad, pero esto no es así
porque realmente lo que se hace es forzar que la arquitectura tenga un embudo, ¿vale?
Tiene una estructura en forma de reloj de arena. Con eso lo que estás haciendo es que
la información se tenga que comprimir para pasar por ese canal, por el, a ver cómo se
llama, el código creo que se llama, el punto mínimo va a ser que esa imagen tenga que
comprimirse, con lo cual tú lo que estás utilizando aquí en el autoencoder es, estás
haciendo un proceso de comprens, comprens, a ver, comprimir, compresión. Un proceso
de compresión que se asemeja a una reducción de dimensionalidad, ¿vale? Y eso te permite
hacer cosas muy muy chulas. Además con eso, pues por ejemplo están los variational autoencoders
que ya lo que te meten en medio es un vector latente y entonces te permite no solo procesar
la información, sino también generar nuevos resultados, que eso es súper interesante
y es un poco el punto de partida de los modelos generativos, si hay, si hay no supervisado.
De hecho diría que una, creo que una red generativa adversaria se puede considerar
un algoritmo no supervisado, porque tú en ningún momento haces un matching de pares,
tú no dices esto y lo otro, tú ahí simplemente, exacto, sí, sí, efectivamente, no supervisado,
tú tienes unos datos que son los que el discriminador si ve, pero no tienes un input, tú el input
que le metes es ruido aleatorio, con lo cual sería otro ejemplo de no supervisado. ¿Haré
vídeos sobre NPL? Sí, haré vídeos de todo, de todo lo que pueda, hasta que el día, hasta
que llega un día en el que diga ya youtube no y cierra el canal de golpe, hasta ese momento
haremos vídeos de todo lo que se pueda hacer. Compactación, compactación dimensional,
yo lo conocía como la traducción de lo del inglés que es la reducción, o sea dimensionality
reduction, pues sería reducción de dimensionalidad. Muy bien. Vale, somos ahora mismo 330 personas,
vamos a seguir 10 minutos más, 10-15 minutos más aquí en youtube y después lo que vamos
a hacer es pasarnos, ya lo dije antes, a Twitch, ¿vale? El que no lo sepa, tengo en la descripción
de todos los vídeos, incluso en este, links a todas mis redes sociales, Twitter, Instagram,
donde más o menos tengo actividad y una de ellas es Twitch y últimamente en Twitch me
estoy dedicando a editar vídeos en directo, a hacer preguntas y respuestas con los pocos
que estamos ahí que es bastante entretenido, que más ha hecho, creo que poco más, editar
vídeos y eso, una vez me puse a jugar a un juego también, al monte sumas, pero bueno,
hago esas cosas porque quiero poco a poco ir generando también cosas en Twitch, porque
quiero también preparar actividad que pueda ser en directo, pero que no la voy a hacer
en youtube, sino que la quiero hacer por allí para no llenar el canal de streamings innecesario,
pero haremos lectura de papers, programación en directo, todo esto lo pueden ver en Twitch,
así que si se buscan aquí, abajo en la descripción podrán encontrar el link a Twitch, les recomiendo
que se suscriban y además si son Amazon Prime, si de alguna manera tenéis el Amazon Prime,
pues se pueden, pueden regalarme una suscripción de manera gratuita para ustedes y que sería
un dinero para mí, que sería el equivalente al Patreon, pero sin que les cueste nada, esto
es un poco la parte de spam promocional, pero bueno.
Puede ser que algoritmos de Inteligencia Artificial corran mejor en GPU que en CPU, ¿por qué?
Pues sí, claro, por supuesto, porque al final la GPU te beneficia de la paralelización
del procesamiento, porque tú en una red neuronal, piensa en una red neuronal básica, tú dentro
de una capa tienes muchas neuronas que dentro de la misma capa se dedican a hacer lo mismo,
con lo cual esa programación puede ser fácilmente paralelizable, y eso es lo que te permite
hacer una GPU, además no solo eso, una GPU, su arquitectura está especializada para
hacer cálculos matriciales, porque al final el Computer Graphics, los gráficos por ordenador,
lo que subyace a eso son cálculos de matrices, cálculos vectoriales, etcétera, entonces
como la GPU está más especializada para eso que una CPU, pues entonces estos algoritmos
están demostrados que funcionan mejor, mejor que una GPU será una TPU, que básicamente
ya chips especializados para el cálculo de tensores y para ya más especializados, incluso
más que una GPU, al final y al cabo está pensada para gráficos, pues, especializadas
para el computo de todo esto de redes neuronales, estoy al mismo tiempo, a veces me trabo porque
me estoy trabando literalmente aquí en YouTube, y no sé si a ustedes les está pasando lo
mismo o es problema de mi conexión de internet, pero es bastante molesto.
¿Cuál es el lenguaje más usado para programar Inteligencia Artificial? Diría que Python.
Vale, pregunta curiosa, ¿cómo es un día promedio mío? Es decir, ¿cómo organizo mi
tiempo para equilibrar lecturas, trabajo, descanso, familia, etcétera? Vale, es una
buena pregunta. A ver, yo actualmente estoy trabajando plenamente de esto, de YouTube,
y cuando no estoy haciéndolo de YouTube, la otra forma de gestionar mi, o sea de ganarme
el dinero es con charlas, con cursos, con cursos, formaciones de Inteligencia Artificial,
o sea este año a partir de septiembre es lo que he decidido hacer y seguir así hasta
dentro de poco. Entonces, básicamente mi día a día laboral
es aquí estar en casa, enfrente del ordenador y editando vídeos, leyendo papers y gestionando
redes sociales y todas estas cosas. Entonces, ¿cómo gestiono mi tiempo? Pues por la mañana
un día promedio sería levantarme por la mañana, no suelo levantarme muy temprano,
no soy madrugador, me cuesta mucho madrugar y... A ver, veo que se está colgando, eh.
A ver, un momento. Dios. Va mal, va mal, de hecho va trabado. A ver.
Entonces...
A ver.
a ver no sé si estamos ya
estamos de vuelta
a