Dot CSV
Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀
Inteligencia Artificial, Tecnología, Ciencia y Futuro! Bienvenidos a la 4ª Revolución Industrial 🚀
Transcribed podcasts: 213
Time transcribed: 5d 22h 50m 3s
This graph shows how many times the word ______ has been mentioned throughout the history of the program.
la inteligencia artificial es increíble es increíble la inteligencia artificial
es el futuro es el futuro la inteligencia artificial es a veces bastante torpe en
serio sabías que en algunas ocasiones el mayor enemigo de una inteligencia
artificial puede ser un simple televisor estropeado raro pero voy a explicar nos
encontramos nuevamente en el terreno del aprendizaje reforzado donde como ya
sabes tenemos una gente que deberá de aprender a desenvolverse en un entorno
de simulación para así lograr completar una tarea en este contexto y como ya
vimos en el breve y último vídeo 30 minutos sobre aprendizaje reforzado lo
que queremos es que la gente sea capaz de no quedarse limitado por la escasez de
recompensa dada por el entorno de simulación sino que por el contrario lo
ideal sería que el propio agente se viera motivado intrínsecamente a
explorar su entorno es decir a sentir curiosidad pues muy fácil se llama esta
función de aquí y listo ah vale que no es tan fácil la cosa y es que aquí
estamos hablando de sentir curiosidad quizá uno de los conceptos más bellos
e interesantes de la psica animal una cualidad que nos mueve a investigar a
explorar a satisfacernos por cada pieza de información nueva que percibimos
pero claro cómo consigues implementar esta cualidad en la inteligencia de un
agente artificial pues atentos porque el método no es tan complicado una manera
de conseguir implementar dicha curiosidad sería la siguiente en cada
momento el agente inteligente va a intentar predecir cómo cree que será
el entorno de simulación en el futuro tras ejecutar la siguiente acción
cuando ese momento llegue y la gente compare lo que él creía que iba a
ocurrir con lo que realmente ha pasado mayor será la recompensa intrínseca que
experimente es decir aquí el error de predicción de la gente de lo que cree
que va a pasar es lo que realmente determinará su curiosidad
mola aunque bueno la pregunta realmente aquí es pero esto de verdad funciona y
tanto que funciona en una publicación reciente del equipo de open a y
comprobaron que un agente de aprendizaje reforzado que sólo se mueve en base a
la curiosidad o dicho de otra manera sin decirle en ningún momento qué
significa ganar en ninguno de estos juegos era capaz de aprender a explorar
por su cuenta y aprender comportamientos útiles que le permitía poder jugar a
todos estos juegos de aquí sin gran problema y recordemos de nuevo que en
ningún momento será especificado qué es ganar lo cual hace de este trabajo
algo impresionante pero claro no en todos los casos el maximizar la sorpresa de la
gente es algo que de buen resultado y aquí es donde las cosas se vuelven un
poco raras porque en algunos casos podríamos acabar con un agente
desmotivado que tras haber fallado numerosas veces en una zona difícil de
superar acabará teniendo claro es decir prediciendo que va a morir con total
seguridad y por tanto con una motivación intrínseca que será nula con el
resultado de que este agente acabará desmotivado y sin ninguna curiosidad por
querer seguir explorando el mundo o peor aún podríamos tener un agente
suicida que motivado por su curiosidad de descubrir cosas nuevas decida que es
una buena idea suicidarse para así poder disfrutar de algo nuevo la pantalla del
que no ver y junto al caso del agente desmotivado y al de la gente suicida
quizás sea el caso de la gente adicto el que más representa el problema que
surge de los algoritmos basados en curiosidad y es que el mayor enemigo
para un agente artificial curioso es un televisor
porque lo peor que puede pasar cuando tienes un agente que disfruta de no
saber predecir lo que va a ocurrir es que este se encuentre con una pantalla
donde los canales van saltando de una a otro de manera aleatoria porque aquí el
agente habrá encontrado una fuente de aleatoriedad perfecta como para no
querer moverse y seguir explorando de repente tu agente se ha vuelto adicto a
la televisión este es un problema que es reconocido como el noisy tv problem y
que los mismos autores del artículo anterior pudieron identificar podemos
ver que la gente cuando se encuentra dentro del laberinto con una pantalla
para la cual él puede cambiar de canal a partir de ese momento ya no se moverá y
su única interacción será la de saltar de canal en canal y gráficamente esto lo
podemos ver quedando claro la diferencia de rendimiento cuando el televisor está
encendido o está apagado un efecto que es muy interesante que como podrás
imaginar no sólo tiene que ocurrir cuando se trata de un televisor sino con
cualquier fuente de aleatoriedad que sea irrelevante para el progreso de la gente
y no es esto acaso una enseñanza maravillosa sobre la vida corre apaga la
tele y sal a la calle a explorar y a satisfacer tu curiosidad deja youtube ya
y vete a explorar el mundo no no broma broma no te vayas mejor quedate en
youtube porque si te ha gustado este vídeo este de aquí te va a encantar pero
eso sí antes de que te vayas acuérdate de valorar este vídeo compartirlo con
quien le puede interesar y también apoyar a este canal te dejo en la caja
de descripción unos cuantos links si quieres seguir investigando y recuerda
que si quieres más inteligencia artificial la encontrarás en dot c c u