logo

L'Entrevista

Espai de reflexió, actualitat, difusió, prevenció i sensibilització consistent en una entrevista diària de temàtica diversa. Espai de reflexió, actualitat, difusió, prevenció i sensibilització consistent en una entrevista diària de temàtica diversa.

Transcribed podcasts: 27
Time transcribed: 6h 39m 15s

Unknown channel type

This graph shows how many times the word ______ has been mentioned throughout the history of the program.

L'entrevista
Ara parlem de salut
amb la col·laboració del Departament de Salut
de l'Ajuntament de Cornellà,
el Centre d'Atenció a la Salut Sexual
i Reproductiva, ASIR,
el Centre d'Higiene Mental de Cornellà,
el Servei d'Atenció i Tractament
d'Addiccions Cas Font Santa
i els Centres d'Atenció Primària de Cornellà.
Molt bona tarda i benvinguts a un nou espai de salut.
Avui volem parlar amb el Centre d'Higiene Mental de Cornellà.
Per aquesta raó hem citat a la ràdio
la Marianne Mesa i la Llanina Pepe,
psicòlogues del centre.
Bona tarda.
Bona tarda.
¿Qué tal? ¿Cómo estáis las dos?
Muy bien.
Entrando ya en el mes de junio
y, por tanto, con otra perspectiva de las cosas.
Ya entramos en periodo casi veraniego, ¿no?
Ya queda muy poquito.
Casi nada.
Sí.
Bueno, y hoy es vuestro último espacio de radio de la temporada.
Y, precisamente, nos habéis propuesto de hablar de un tema
que es candente actualidad, que es la inteligencia artificial.
El título que le habéis puesto a esta conversación que vamos a tener
es Inteligencia artificial o amigo incondicional.
Es decir, IA o AI.
¿Puede un algoritmo comprender nuestro malestar?
Vamos a hablar sobre la inteligencia artificial
y todo lo que tenga que ver con la salud mental
de las personas que la usamos o la vamos a usar en breve.
Sí, mire, ya hoy pensamos hacer este cierre de la entrevista
con un tema que creemos que está en auge
y, a la vez, sentimos que es un tema un poco vertiginoso,
sobre todo por cómo velozmente se ha ido colando en nuestro día a día
y ya forma parte de nuestra cotidianidad.
Independientemente de la edad, creo que todos en algún momento
hemos accedido o lo hemos utilizado, ya sea por curiosidad
porque realmente es una herramienta que nos funciona
y lo traemos para pensar cómo influye en nuestra salud mental.
Perfecto, pues vamos a reflexionar sobre ello
porque tenéis razón que ahora,
quien no ha entrado en un chat GPT,
en una de estas plataformas,
y además, por ejemplo, Google,
ahora la primera búsqueda que tú encuentras
si tú entras a hacer una búsqueda,
la primera está creada por inteligencia artificial
y aquí hay que tener mucho cuidado
porque los contenidos que se nos ofrecen en esa primera línea
no tienen por qué estar verificados,
es decir, inteligencia artificial no es sinónimo
de información contrastada.
A ver, expliquemos cómo hemos llegado hasta aquí,
qué es exactamente la inteligencia artificial
y por qué se ha vuelto tan presente en nuestras vidas.
Podemos comenzar brevemente por la conceptualización.
La palabra inteligencia etimológicamente se deriva
de la voz latina elegere que significa recolectar
y está directamente relacionada con elegir,
en donde inteligere significa elegir entre varias cosas.
Entonces, en este sentido,
inteligencia se describe como la capacidad de discernir de algo,
pero en medida que el conocimiento humano se fue expandiendo,
el concepto de inteligencia ha ido teniendo cada vez más facetas
del comportamiento no automático o repetitivo
y esto a su vez está más relacionado con la resolución de problemas
y el proceso creativo.
Entonces, claro, la inteligencia artificial por su parte
se considera, como bien decías, una rama de la informática
que busca crear sistemas capaces de replicar
o imitar comportamientos inteligentes
y esto incluye tareas simples
como clasificar datos, algunas cosas más sofisticadas,
ya sea como conversar, crear textos, interpretar emociones.
Lo que nos preocupa a nosotras o desde nuestra mirada
es el crecimiento tan veloz que ha ido teniendo.
Apenas en unos años estas herramientas han pasado
de estar en laboratorios a instalarse directamente
en nuestros móviles, redes sociales, trabajos
o incluso en los espacios terapéuticos.
Como bien decías, Mireia, inmediatamente queremos hacer
una búsqueda, ya sea de una web, de una información
o cualquier cosa e inmediatamente ya lo primero que vemos
es algo sobre inteligencia artificial.
Exacto.
Y un poco siguiendo el hilo, Yanina, de lo que comentabas ahora
y respondiendo, Mireia, a la pregunta
de por qué está siendo tan presente en nuestras vidas,
porque se ha ido colando en nuestra cotidianeidad,
es interesante pensarlo no solo de este avance tecnológico
que estamos teniendo, sino también desde el contexto social
en el que aparece.
Al final, esto lo hemos comentado muchas veces en este espacio,
vivimos en una época de la inmediatez, de querer respuestas rápidas
y decisiones ya, y hay poca tolerancia a la espera,
pero también al no saber, a la duda, a la incertidumbre,
y aquí la IA en este sentido es una herramienta que encajaría
perfectamente porque no tarda en dar respuesta, no duda,
y está siempre a un clic de ofrecer una respuesta.
Si no sabemos, por ejemplo, qué alfombra elegir,
o con qué combinaría mejor en nuestro salón,
se lo preguntamos al chat.
O si nos sentimos mal, hay un bot disponible 24 horas
para poder hablar con él.
Sí, la mayoría de empresas están implementando
la inteligencia artificial para hacer atención al cliente,
y de hecho, muchas empresas están contratando a profesionales
que nunca imaginaríamos, ya no son informáticos, ya no,
ahora son filósofos, psicólogos, psicólogas,
y perfiles para hacer más humana la IA,
y hacerla, que sepa imitar más las conversaciones humanas,
los sentimientos humanos, para sentirnos realmente
como que estamos charlando con alguien cercano.
Entonces, perdona, perdona.
No, perdona, Mireia, que pensaba que tal cual, ¿no?
Lo que pasa es que al mismo tiempo se acaba diluyendo
en ese acceso inmediato el espacio de tiempo propio,
de poder pensar, de incertidumbre o de deseo.
Claro, claro, claro.
Entonces, ¿qué lugar ocupa la inteligencia artificial
en nuestra salud mental?
¿Es beneficiosa? ¿Es peligrosa?
¿Es algo complejo?
Sí, es algo que requiere abrir un debate.
Seguramente muchos cambiaremos o tendremos opiniones
distintas, porque vuelvo y digo,
creo que para algunas cosas es muy beneficiosa,
para otras las podemos poner en duda,
no tomarlas directamente como una certeza.
Entonces, tiene aspectos que sí,
que nos pueden resultar beneficiosos,
pero hay aspectos que nos preocupan,
especialmente cuando hablamos de los jóvenes
y el uso que le dan.
Tomamos siempre la etapa de la adolescencia
como una etapa crucial en la formación del ser humano.
Entonces, vemos cómo ellos recurren a estas herramientas
como amigos incondicionales.
Están siempre, nos juzgan, nos se van,
le podemos preguntar y conversar absolutamente todo.
Entonces, desde nuestro lugar pensamos,
qué está sucediendo o qué pasaría con un adolescente
que está sufriendo de aislamiento
o que se le dificulta o incluso que haya sufrido
durante este año escolar o durante su vida
alguna situación de bullying,
refugiarse en casa con una pantalla
que accede a conversar conmigo,
que no me juzga,
que no tengo esa mirada que quizás intimida un poco.
¿Qué pasa ahí?
Porque justamente lo que nosotros trabajamos,
puertas adentro en sesiones,
generar un vínculo con ese adolescente,
tratar de ayudarlo a entender,
darle incluso herramientas
para que pueda afrontar estas situaciones
que le pueden generar ansiedad
o que pueden ser traumáticas para ellos.
Pero si lo hace una pantalla,
desde casa, sentaditos,
¿qué pasa con estas situaciones?
Entonces, esta es una de las reflexiones
que vamos haciendo en cuanto a
si realmente es peligroso,
si es complejo o no.
Con Marian, mientras que estuvimos investigando
acerca de este tema,
encontramos también un sinnúmero de artículos
que ya están hablando,
incluso científicamente con estudios,
acerca de la IA
y hemos encontrado incluso plataformas
diseñadas para niños
que tienen un trastorno de ETA
o que tienen ya un diagnóstico
en donde hay como un amigo interactivo.
Entonces, ¿puede ser algo positivo?
En este sentido,
¿deserrayar herramientas
a través de inteligencia artificial
que puedan ayudar a determinados perfiles
podría ser algo positivo?
Podría ser algo positivo
si no descartamos el vínculo.
Si no descartamos la persona.
Porque si no,
estamos automatizando a estos niños.
Por ejemplo,
hablo del trastorno de ETA
como de muchos otros, ¿no?
Pero específicamente este,
donde ellos tienen una estructura
y una rigidez
y necesitan de unas rutinas
muy establecidas,
muy básicas.
Si solamente nos quedamos con esto
y no con la parte de vinculación,
no con la parte social,
de interactuar con un otro,
en persona me refiero,
porque algo que nos viene a decir la IA
es que hay otro detrás de la pantalla.
Entonces, ahí es como que nos quedamos,
podemos decir, como cojos, ¿no?
Es como que nos va faltando algo.
Claro, al fin y al cabo,
esto es insustituible, la humanidad, ¿no?
El contacto físico, la emotividad.
Totalmente.
Sobre todo si pensamos ya
sin entrar en la patología,
pero el mismo proceso evolutivo.
Un bebé nace
y necesita de la mirada
y del reconocimiento
de esas figuras de apego
para poder sobrevivir.
Necesita de esa mamá o papá
o de ese tutor,
vuelvo y digo,
de esa figura principal
para que pueda ser reconocido,
para que le dé una interpretación
a ese llanto que ese bebé empieza a hacer.
Si no, ¿qué pasa con ese bebé
si no hay ese otro?
Claro, al final,
una cosa sería, ¿no?
Como la parte beneficiosa
de que sea una herramienta
y, por otro lado,
la parte peligrosa, por así decir,
de sustituir esos vínculos
porque al final,
como comentaba Sabra Yanina,
se acabaría como perdiendo
un poco ese proceso
de construcción subjetiva.
Totalmente.
Muy bien, pues seguimos adelante
con este repaso
que nos ofrecéis,
esta reflexión
sobre inteligencia artificial.
¿Qué tipos de inteligencia artificial existen
o cuáles están vinculados
directamente a la salud mental?
La verdad, Mireia,
es que creo que encontramos
muchísimos tipos de IA
y que acaban, bueno,
influyendo en diferentes sectores
relacionados directamente
con la salud mental.
Igual encontraríamos dos grupos.
Por un lado estarían las IA
que trabajarían como detrás de escena,
por así decir,
son las que sintetizan
o analizan los datos
en sistemas,
ayudan a detectar patrones
y optimizar resultados,
incluso diagnósticos,
y esto puede ser
una herramienta útil
para los profesionales,
siempre con supervisión.
Y aquí igual el problema
es que ahora mismo
no suele estar
esta supervisión,
¿no?
Como comentabas antes
en relación a Google,
que aparezca, ¿no?
Ese resumen
o esa entrada
de la IA,
la primera,
no implica que sea
necesariamente
información contrastada,
¿no?
Pues en este sentido
sería algo parecido.
Y por el otro lado
encontraríamos
las IAs generativas
que interactúan
directamente
con los usuarios
como bots,
como réplica,
bueno,
o entre otros,
que simulan
conversaciones terapéuticas
o el mismo chat GTP,
como si fuera un amigo.
Y aquí
el problema aparece
cuando comentábamos ahora,
¿no?
Esa interacción
empieza a suplir
el vínculo real
o incluso
el espacio terapéutico.
porque al final
en el espacio terapéutico
se juega algo
mucho más
que una respuesta
puramente funcional.
Se crea un vínculo,
como hemos comentado,
se habilita la espera,
se abren preguntas,
se sostiene la angustia,
se tolera el vacío
y al final
eso no puede ser
automatizado.
Por poner un ejemplo
muy sencillo
para que los oyentes
se hagan una idea,
el otro día
escuchaba
que
en una búsqueda
de Google,
de inteligencia artificial,
ponía que
para enganchar
el queso
en una pizza
se necesitaba
tener un pegamento.
¿Por qué?
Porque él había buscado
la información
en toda internet
y había encontrado
un TikTok
donde en tono
irónico
se hablaba
de utilizar pegamento
para la pizza.
Pero,
claro,
la inteligencia artificial
aún no detecta
la ironía,
ella lo interpretaba
como información
y eso es lo que
servía
como respuesta
la utilización
de un pegamento
para enganchar
el queso
a la pizza
y así con todo.
O sea,
si nos ponemos
en ejemplos tan sencillos
y visuales
como este,
pues imagínate
lo que puede ser
en la complejidad
de respuestas
en torno
a la salud mental.
Totalmente,
incluso,
bueno,
en esta misma búsqueda
que hemos ido
haciendo
con Marian
para desarrollar
esta entrevista,
veíamos esto
como también
está dando
diagnósticos
psicológicos.
Entonces,
uno puede escribir
como usuario
o como paciente,
puede escribir
síntomas
y a raíz
de esos síntomas
ya,
como es una búsqueda
de muchísimos artículos,
de muchísimos manuales,
muchísima información,
pues nos encasillamos
todos estos síntomas,
coinciden con esto,
esto y esto,
entonces tú tienes esto.
No es necesariamente así.
Nos estamos saltando
esa parte subjetiva,
¿no?,
para poder entender
al otro,
para poder ver
qué pasa,
esos criterios
que sí utilizamos
nosotros también
como una herramienta
diagnóstica,
pierde mucho de esto.
La complejidad humana.
Totalmente.
¿Y qué pasa
con la privacidad?
Con lo que uno dice
en las plataformas,
en redes sociales,
el tema del anonimato
es difícil.
Sí,
es curioso
porque muchas veces
entramos o recurrimos
a estos bots
con la ilusión
de ese anonimato,
pero no sé
si podríamos preguntarnos
quién escucha lo que digo,
dónde queda eso que comparto,
a quién le hablo realmente.
Creo que nos ha pasado a todos
que quizás buscar una imagen
o algo en Instagram
o en alguna red social,
a partir de ahí,
luego de esa búsqueda,
día siguiente,
nos empiezan a aparecer
un montón de propagandas
o un montón de anuncios
acerca de esto.
es como que en algún lado
queda registrado
eso que intentamos buscar
o eso que nos intentamos preguntar.
Un poco quizás
como una forma
y un mecanismo
de publicidad,
obviamente,
para generar ese consumismo
y generar más búsqueda,
pero también
en cosas más privadas
o más íntimas nuestras
también nos tenemos
que hacer esta pregunta,
sobre todo porque
la palabra tiene
un valor simbólico enorme
y en psicología
lo dicho
no es algo
que se archive,
es algo que se trabaja,
que se resignifica
y en una plataforma digital
lo dicho
puede ser analizado,
vendido
o incluso usado
para entrar
a más algoritmos.
¿Os parece bien
si repasamos
según vosotras
cuáles son
los principales riesgos
asociados
a la inteligencia artificial
en salud mental?
Sí,
no creo que
ya lo fuimos
como mencionando
un poquito
es quizás
esa dependencia
excesiva
de estas herramientas
automatizadas.
Marian
los ha ido
mencionando
a diferentes plataformas
y hay muchísimas más
porque ya se han ido creando.
Entonces,
el riesgo real
que alguno
de estos usuarios
o que esto
se puede tener
que recurran
constantemente
a estas herramientas
va perdiendo
esa capacidad
del sujeto
de poder pensar,
de poder analizar
desde ese punto crítico.
Sí.
Totalmente.
También,
igual incluir
algo que también
hemos mencionado,
que sería esta falta
de supervisión
profesional
porque en algunas
plataformas
el uso
de algoritmos
automatizados
puede ofrecer
recomendaciones
terapéuticas
que al final
pueden llevar
a intervenciones
inadecuadas
o incluso
a interpretaciones
inadecuadas.
Como comentaba
antes Mireia
lo del ejemplo
de la pizza
y al final
pueden acabar
siendo realmente
perjudiciales
si no están
supervisadas
por un profesional.
Sí,
también están
los sesgos
en los algoritmos
lo que significa
que pueden
perpetuar
sesgos culturales,
sociales,
de género.
Por ejemplo,
un chatbot
entrenado
con datos limitados
podría no ser
igual de efectivo
para personas
de diferentes
orígenes culturales.
Entonces,
es como que
los peligros
más importantes
tienen que ver
con el uso
que le demos,
cómo lo utilicemos
y sobre todo
el no poder
o sustituir
incluso
nuestro pensamiento,
nuestras relaciones.
Sí,
y por último,
bueno,
lo acabamos de comentar,
¿no?
En relación a esta privacidad
y seguridad
de los datos
porque al final
es un manejo
de información
muy sensible
muchas veces,
¿no?
De historiales emocionales,
conversaciones muy privadas
que aquí creo que plantean
preguntas
sobre el almacenamiento
o cómo se utilizan
o cómo incluso
se protegen.
Y también pensaba
un poco, ¿no?
Que habíamos encontrado
junto con Janina
un artículo
publicado
en el país
que comentaba
que, bueno,
hay una plataforma
con bots
que simula
psicólogos
o conversaciones
con amigos
y recibía
más de 3 millones
de visitas diarias,
¿no?
Y que la mayoría
era entre 16 años
a 30 años.
Y es algo, bueno,
que igual sería
como para plantearnoslo,
¿no?
¿Qué está pasando
como sociedad
para buscar
esa interacción
que al final, bueno,
se acaba diluyendo
un poco, ¿no?
En este océano digital.
Sí, a lo mejor
esos jóvenes
que están sentados
en una plaza
cada uno
con su móvil,
imaginaros,
Janina y Marian,
que están todos
conectados
a esta plataforma
y hablando
con un amigo virtual
que les da
las respuestas
que ellos desean
mientras a sus amigos
los tienen al lado.
Eso sería ya
rizo, ¿no?
Pero puede pasar.
Bueno, se está pasando
también.
A veces vamos
a un restaurante
y muchos estamos
con el móvil.
Viajar en el transporte
público es esto.
Antes quizás
lo utilizábamos
para leer,
ver películas o algo,
pero ahora,
¿por qué no ir hablando
con este amigo?
Incondicional.
No nos olvidemos
de una cosa.
Estas plataformas
están dejándonos usar
este servicio
de manera gratuita.
Y gratis no es.
Porque si tú
accedes
y pones información,
pones imágenes
en estas plataformas,
no sabes
qué uso
van a hacer
con ellas.
Lo que decíamos
antes, ¿no?
Al final
o te van a hacer
una recomendación,
te va a salir
una recomendación
de un anuncio
o no sabes
para qué fines
van a utilizar
esas imágenes
o esas informaciones
que tú has compartido.
Bueno,
ya para acabar
porque se nos está acabando
el tiempo del programa,
¿qué mensaje
os gustaría dejar
a quienes hoy
están explorando
estas herramientas
y también atravesando
malestares emocionales
apoyándose en ellas?
Creo que
es un poquito obvia
la respuesta
que vamos a dar,
pero creo que
ambas coincidimos
en que pedir ayuda
es necesario.
El poder hablar
con alguien
es necesario.
Es cierto que
desde la pandemia
nosotros también
desde nuestra profesión
hemos cambiado
también las formas.
Ahora también
hay muchísimos psicólogos
en línea,
hay muchísimo
acompañamiento telefónico
para personas
que estén presentando
alguna dificultad
o que no puedan salir
de casa
y si bien
es como paralelo
a lo que venimos hablando
porque es un chat
con el que también
se supone que interactuamos,
es no perder
esa parte subjetiva,
es no perder
ese vínculo con el otro,
ese relacionarse
con el otro
que sin ir más lejos
nosotros
no ejercemos
más que como un puente
o un acompañamiento,
un refuerzo,
una transición
hasta que esa persona
pueda solo
vivir sin angustias,
sin ansiedad,
sin dificultades.
Entonces,
está bien
que nos preguntemos cosas,
está bien
que queramos saber,
pero sí contrastarlas
con otra persona
en ese sentido.
Totalmente.
y también
me parecía importante
recordar
que el sufrimiento
no es algo
que deba resolverse
de forma instantánea,
muchas veces
forma parte
de la vida
y a veces
hay que darse tiempo,
pensarlo con un otro
e ir haciendo camino
y eso no lo puede ofrecer
la inteligencia artificial,
es un poco
lo que venimos recogiendo,
ese encuentro humano,
la escucha,
el vínculo
que son cosas
irreemplazables.
Pues hoy hemos reflexionado
sobre inteligencia artificial
y cómo
nos puede ayudar
o no
en nuestro
bienestar,
bienestar emocional,
en nuestra salud mental
y lo hemos hecho
con Marían Mesa
y Anina Pepe,
ambas del Centro
de Higiene Mental
de Acornayá.
Agradecemos al Centro
de Higiene Mental
de Acornayá
que nos haya ofrecido
la oportunidad
durante toda
esta temporada
y ya durante
hace muchos años
de tener estas charlas
radiofónicas
donde podemos
tratar temas
de actualidad
que nos ocupan
y nos preocupan
y a vosotras dos
por haber hecho
esta temporada
radiofónica
tan entretenida
y amena
y yo creo que
hemos aprendido
de cada capítulo
algo nuevo
sobre nosotros mismos
y para ayudar
a las personas
que tenemos
en nuestro entorno.
así que ahora
nos toca
descansar
de este espacio
de radio
aprovechad muy bien
este verano
para cargar
las pilas
y volvemos
a encontrarnos
en septiembre.
Muchísimas gracias
Mireia
Moltísimas gracias
por haber escuchado
este espacio
radiofónico
nosotros acabamos aquí
y ahora nos emplacemos
a partir de las 2 de la tarde
a escuchar el programa musical
Era Vinil
Gracias