logo

Dot CSV

Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀 Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀

Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

¡Comenzamos!
Vivimos en un universo en constante evolución, complejo, caótico y lleno de ruido.
Y sin embargo, la inteligencia humana consigue dar sentido a todo este caos, en una búsqueda
por la elegancia y la simetría que se esconde entre los patrones que identificamos en nuestra
realidad.
El desarrollo de nuestra especie se ha debido principalmente a esta capacidad de saber detectar
patrones y poder utilizarlos a nuestro favor.
La ciencia nos ha permitido explotar nuestra capacidad de observar el mundo de manera simplificada,
convirtiendo todo este ruido en conocimiento, es decir, reconstruyendo la realidad a través
de modelos.
Un modelo no es más que una construcción conceptual simplificada de una realidad más
compleja.
A través de esta reconstrucción, somos capaces de entender mejor dicha realidad y poder utilizarla
a nuestro favor.
Convivimos diariamente con diferentes tipos de modelos, por ejemplo, un mapa.
Un mapa sería un tipo de modelo ya que nos permite representar de manera simplificada
en un plano bidimensional el mundo tridimensional en el que vivimos, eliminando detalles innecesarios
como texturas o artefactos del entorno.
O por ejemplo, una ecuación física, donde se recogen las relaciones matemáticas entre
diferentes variables para así poder aproximar el comportamiento físico de la realidad.
Cuando hacemos uso de diagramas, desde los más simples a los más complejos, también
estamos haciendo uso de modelos, o por ejemplo una partitura, que no es más que la simple
representación de cómo los diferentes instrumentos deben combinarse, sincronizarse y ajustar
sus frecuencias para poder producir siempre la misma canción.
Quizás una partitura podría aproximarse más a la realidad si la representáramos
directamente con el espectro de frecuencia de la canción, pero claro, esto sería mucho
más complejo de interpretar por parte de los músicos.
Como vemos, un modelo busca el equilibrio entre aproximarse a representar correctamente
la realidad y ser simple para poder utilizarlo.
Imagínate por ejemplo que queremos modelar el comportamiento natural de las aves.
Para ello recopilamos diferentes evidencias, y tras observarlas podemos anunciar un primer
modelo de su comportamiento.
Este modelo dice que las aves pueden volar.
Si seguimos recopilando evidencias, pronto notaremos cuenta de que este modelo es muy
simple, ya que hay aves que todavía no han aprendido a volar y otras que estando heridas
tampoco pueden.
Por tanto actualizamos nuestro modelo y decimos, bueno, si una ave es adulta y no está herida,
puede volar.
Parece ahora sí que nuestro modelo se ajusta más a la realidad, pero de repente nos vamos
un poco más al sur y aparecen estos malditos bichos.
Ahora podríamos seguir ajustando el modelo y las diferentes apariciones de la realidad
que estamos estudiando, pero al final acabaremos teniendo un modelo muy complejo con todas
las excepciones de por qué una ave vuela o no.
Una alternativa a esto es hacer uso de la probabilidad, para poder decir matemáticamente
que la mayoría de aves pueden volar.
La probabilidad es la herramienta perfecta para resumir nuestra incertidumbre sobre un
tema, ya sea por falta de conocimiento o por pereza.
¿Qué es mejor decir?
Que un plato se romperá dependiendo de la fuerza inicial de lanzamiento, del material
del plato, de si alguien evita cogerlo durante la caída, la elasticidad de la superficie
donde cae, el punto de impacto, etc., o decir que un plato se rompe en el 95% de las ocasiones.
Utilizar la probabilidad para construir modelos da como resultado los modelos probabilísticos.
Estos modelos comprimen en base a probabilidades mucha de la variabilidad de nuestra realidad,
siendo más sencillo de gestionar la información que recibimos del entorno.
Nuestro cerebro aplica esquemas similares a estos modelos probabilísticos y gracias
a ellos es que tenemos capacidades como la de conceptualizar, predecir, generalizar,
razonar o aprender.
Por esto mismo, descubrir cuáles son estos modelos es uno de los objetivos básicos del
campo del Machine Learning y una de las herramientas fundamentales que iremos viendo en los próximos
vídeos.
Pero antes, vamos a repasar algunos conceptos relacionados con estos modelos.
Para entender este concepto, hay un ejemplo muy bueno en una charla TEDx de Ben Vingoda.
En ella hace una introducción muy buena de lo que es el Machine Learning a día de hoy
y llegados a un punto de la charla muestra un ejemplo que nos va a ser muy útil.
En este ejemplo vemos cómo podemos construir una historia sobre la realidad simplemente
a partir de modelar los datos correctamente.
Este ejemplo nos habla de un conjunto de datos recopilados en el siglo XVI, cuando manualmente
se registró las diferentes posiciones del planeta Marte en el cielo nocturno según
iba recorriendo su órbita.
Si quisiéramos a partir de estos datos crear un modelo que pudiera explicar cuál es la
realidad detrás de los movimientos de Marte, ¿cómo lo haríamos?
Vamos a partir de uno de los modelos más antiguos, el modelo geocentrista.
Si nos pasamos en este modelo, tenemos que la Tierra se encuentra en el centro del sistema
solar y los planetas orbitan alrededor de ella siguiendo circunferencias perfectas.
En esta visualización podemos ver en la gráfica de arriba, en rojo, los datos, es decir las
evidencias que hemos recopilado a partir de observar la realidad.
En negro tenemos cuál sería la órbita teórica si nuestro modelo fuera correcto, es decir,
la órbita que sigue Marte si hiciéramos caso a la visualización del sistema geocentrista
que vemos en medio.
Fíjate que nuestro modelo actual asuma una serie de restricciones, como por ejemplo que
la Tierra está en el centro y que las órbitas son circulares.
Sin embargo, hay ciertos parámetros que podemos variar para intentar ajustar más la gráfica
roja a la negra, por ejemplo el radio de las órbitas.
Si movemos este valor, podemos ver cómo las gráficas se van pareciendo cada vez más
a la de los datos, aunque no se ajusta perfectamente.
Si queremos saber exactamente cuánto se ajusta a nuestro modelo, podemos computar cuál es
la diferencia entre ambas gráficas y este será el error del modelo.
Podemos ver según vamos ajustando los parámetros cómo vamos conseguiendo minimizar esta señal
de error.
Pero parece que no la podemos terminar de ajustar, quizás nuestro modelo es equivocado.
Efectivamente, como ya sabemos, desde la época de Copérnico, situando el Sol en el centro
de nuestro sistema solar, conseguimos una explicación más exacta de las órbitas de
los planetas.
Esto lo podemos ver en nuestro ejemplo, fíjate cómo visualmente ahora la gráfica negra
y la roja se ajustan casi perfectamente.
Podemos seguir variando parámetros como la distancia de la Tierra al Sol y rápidamente
encontramos cómo este modelo es capaz de explicar mucho mejor el movimiento de Marte.
Pero aún así todavía existe cierto error.
Quizás nuestro modelo es correcto y el error se produce por errores humanos en la medición
de los datos.
O puede que aún existan fenómenos que desconocemos que podrían dar una explicación mejor de
lo que ocurre.
Fue Kepler quien propuso un último modelo en el que las órbitas ya no eran circulares,
sino ovaladas.
Con este nuevo modelo podemos ver cómo la función de la órbita de Marte se ajusta
perfectamente a los datos que hemos medido.
El error de este modelo es mínimo.
Como se puede ver, a partir de los datos podemos construir el modelo que más se aproxima a
la realidad que queremos estudiar.
Y una vez tenemos este modelo, que nos cuenta una historia de cómo funciona el mundo, podemos
ajustarla para probar nuevos escenarios, rebobinar para encontrar los orígenes de ciertos fenómenos
o adelantarla para hacer predicciones de lo que ocurrirá en el futuro.
Suena interesante, ¿verdad?
Hay tres elementos clave en todo esto que he explicado, y con los que deberías de familiarizarte
si tu objetivo es querer dominar este campo.
El primero de ellos son los datos.
Los datos es nuestra toma de contacto con la realidad, las mediciones que hacemos de ellas.
A partir de esto, es de los que vamos a extraer toda la información para construir nuestro
modelo.
Una cosa importante a saber es que los datos son multidimensionales.
Es decir, si estamos construyendo un conjunto de datos en los que cada registro es una persona,
cada una de las propiedades de esta persona representa una dimensión por sí misma.
La fecha de nacimiento, lugar de nacimiento, campo de estudio.
Todos estos atributos hacen que una sola persona esté representada como un punto en
un espacio multidimensional.
¿Te lo puedes imaginar?
Esto a lo mejor es un poco complejo, es decir, si tratamos con dos dimensiones, esto sería
algo fácil de visualizar, o incluso con tres dimensiones, pero ¿y cuatro?
¿Y qué me dices de 58 dimensiones?
Esto es la realidad con la que trabajamos cuando hacemos uso de estas técnicas.
Y en este caso, nuestra única liada para poder lidiar con estos espacios multidimensionales
son las matemáticas.
Uno de los conceptos importantes a aprender es el concepto de parámetro.
En el caso del modelo heliocentrista que acabamos de ver, nuestro modelo planteaba algunas restricciones,
pero también había ciertos valores que podíamos modificar, como era el radio de las órbitas.
Estos valores son los parámetros del modelo, y son los únicos que nos van a dar la flexibilidad
para poder ajustarnos a los datos.
Por ejemplo, imagínate que represento una serie de datos en una gráfica con dos dimensiones.
Y quiero usar el siguiente modelo, un círculo, para intentar ajustarme a los datos.
Los parámetros que puedo variar en este modelo son en este caso la posición del círculo
y su radio.
Como vemos, variándolos, podemos conseguir ajustarnos a la nube de puntos.
Si queremos, podemos dotar al modelo de un mayor grado de libertad añadiendo más parámetros.
Por ejemplo, imagínate que hablamos del radio x y el radio y.
Ahora somos capaces de ajustar mejor la circunferencia a la nube de puntos.
Pero sin embargo, como ya veremos en próximos vídeos, no siempre es bueno dotar al modelo
de tanta flexibilidad.
Nuestra tarea en Machine Learning será la de encontrar aquellos algoritmos que sean capaces
a partir de los datos de aprender cuáles son los valores óptimos de estos parámetros.
Para hacer esto, tenemos un último concepto que es esencial, el error.
Como bien se dice, aquello que no se mide no se puede mejorar, y por tanto es necesario
que siempre definamos una función de error que nos diga cómo nuestro modelo se ajusta
o no a los datos.
Normalmente, cuando usamos algoritmos de aprendizaje supervisado, esta función de error se computa
a partir de los datos de salida suministrados, y en el caso del aprendizaje no supervisado,
estas medidas se computan en base a los datos de entrada.
Esta señal de error es muy importante porque es a partir de la cual iremos reajustando
los parámetros del modelo en un proceso que se denomina optimización, y que normalmente
se le llama entrenamiento o ajuste del modelo.
Estos tres elementos son básicos y transversales en el entrenamiento de los modelos que vamos
a usar en Machine Learning.
Este es el comienzo de una larga serie de vídeos donde veremos el funcionamiento de
todos los modelos más importantes del campo de la inteligencia artificial.
El primer modelo que vamos a ver será el modelo de Regresión Lineal, uno de los más
utilizados y la base del análisis estadístico y del Machine Learning.
Pero esto ya te lo cuento en otro vídeo.
Muchísimas gracias para aguantar hasta el final de este vídeo y por seguir apoyando
este canal.
Si te ha gustado, deja tu like y tu opinión abajo en los comentarios y recuerda que puedes
seguir todos mis movimientos a través de la página de Facebook del canal y también
en Twitter.
También hay habilitado un Patreon por si te quieres convertir en mecena de este proyecto
y nada más.
Un saludo y nos vemos pronto.