Saltar al contenido principalSaltar al pie de página

Inteligencia Artificial y bienestar emocional

Carles Alastuey, asociación Después del Suicidio: "La IA no está pensada para nuestra salud"

ChatGTP reconoce que el 0,15% de sus usuarios, más de un millón de personas, muestran signos de ideación suicida

Sam Altman, cofundador y director ejecutivo de OpenAI.

Sam Altman, cofundador y director ejecutivo de OpenAI. / Yuichi Yamazaki / AFP

Marc Darriba

Marc Darriba

Barcelona
Por qué confiar en El Periódico Por qué confiar en El Periódico Por qué confiar en El Periódico

OpenAI ha reconocido que cerca del 1 % de los usuarios de ChatGPT mantiene conversaciones relacionadas con la salud mental, y que un 0,15 % —más de un millón de personas cada semana— muestran signos de ideación o planificación suicida. Además, un 0,07 % presenta indicios de manía o psicosis. Ante estas cifras, la empresa asegura haber mejorado el sistema para detectar estos casos y derivarlos a recursos de ayuda, pero la cuestión de fondo sigue abierta: ¿puede un algoritmo asumir el papel de un ser humano en una situación de crisis? Los expertos apuntan que no.

Estas aplicaciones, especialmente entre la población juvenil, tienen una aceptación acrítica

Carles Alastuey

— Presidente de la asociación Després del Suïcidi

La preocupación no es solo teórica. Hace meses, la familia de un adolescente denunció a OpenAI en Estados Unidos después de que el joven se quitara la vida poco después de interactuar con el chatbot sobre temas suicidas. El caso, aún bajo investigación, ha reabierto el debate sobre el impacto real que pueden tener estas conversaciones cuando el interlocutor es una máquina sin empatía ni contexto emocional. De hecho, también llevó a la Generalitat a abrir una investigación, que finalmente no detectó ninguna incidencia en este ámbito.

"Busca darte la razon"

El Col·legi de Psicologia también está consultando a los profesionales del sector al respecto. Antoni Baena es el coordinador del comité de e-psicología digital del Col·legi y profesor de la UOC especializado en salud digital. No es un profesional antitecnología. Al contrario, está convencido de que las herramientas digitales pueden ser útiles en salud mental si están validadas por profesionales del sector.

Pero advierte de que la proliferación de chatbots para hacer de falsos psicólogos no es útil porque "la IA generativa siempre busca darte la razón porque es muy superficial, muchas veces no está programada por profesionales de la salud y lo que hará es darte la razón". En cambio, "los psicólogos lo que hacemos muchas veces es confrontar, para que la persona mejore, que haga cosas diferentes; si la respuesta al paciente es darle la razón siempre, puede provocar que la mejor solución para ti, en esta línea, sea la de suicidarte".

“La mejor atención es hablar con otra persona”

Para Carles Alastuey, presidente de la asociación Después del Suicidio – Asociación de Supervivientes (DSAS), se trata de “un elemento de mucha preocupación”. “Estas aplicaciones, especialmente entre la población juvenil, tienen una aceptación acrítica”, advierte. “La mejor atención que existe para la salud mental es hablar con otra persona desde el afecto y la complicidad.”

El peligro, dice, está en confundir la interacción con el acompañamiento. “Debemos tomar con mucha preocupación y precaución este tipo de productos, que no están pensados para nuestra salud ni para nuestro bienestar”, alerta. “Son un producto económico, y si decides consumirlo, al menos tienes que tener claro que es como pedirle a un coche que frene solo, hasta que inventen coches que se conduzcan solos”. Por eso defiende que “es fundamental una legislación internacional que limite los ámbitos en los que la inteligencia artificial puede avanzar”.

Suscríbete para seguir leyendo