Saltar al contenido principalSaltar al pie de página

Tratamientos

La IA entra en Urgencias para prevenir el suicidio

El proyecto PERMANENS busca predecir el riesgo autolítico y ayudar a prevenirlo con una mirada ética

"La IA debe ayudar a cuidar, no a controlar", explica el psiquiatra Philippe Mortier, del Hospital del Mar

La IA, una nueva herramienta frente al suicidio.

La IA, una nueva herramienta frente al suicidio. / IA/T21

Marc Darriba

Marc Darriba

Barcelona
Por qué confiar en El Periódico Por qué confiar en El Periódico Por qué confiar en El Periódico

En un servicio de urgencias, cada minuto puede ser decisivo. Los profesionales deben valorar en cuestión de minutos si una persona podría volver a autolesionarse o intentar suicidarse. Hasta ahora, estas decisiones se han basado en la experiencia clínica y en escalas de puntuación que, según la investigación, “no tienen un poder predictivo muy relevante”.

“Es casi como decidir al azar”, reconoce el psiquiatra Philippe Mortier, investigador del Hospital del Mar Research Institute y del Centro de Investigación Biomédica en Red de Epidemiología y Salud Pública (CIBERESP). Con el proyecto PERMANENS, su equipo quiere cambiar esa realidad: desarrolla un sistema que utiliza aprendizaje automático para ayudar a los profesionales a detectar mejor el riesgo y tomar decisiones más seguras e informadas. “No se trata de sustituir el criterio clínico, sino de entender mejor a cada paciente y sus necesidades en ese momento”, explica Mortier.

Predecir sin etiquetar: el reto de la ética digital

El modelo de PERMANENS permite estratificar el riesgo según factores como la edad, el género, el diagnóstico o el tratamiento. Pero Mortier insiste en que “predecir el suicidio con precisión absoluta nunca será posible”.

No se trata de sustituir el criterio clínico, sino de entender mejor a cada paciente y sus necesidades en ese momento

Philippe Mortier

— Psiquiatra Hospital del Mar

Su función no es ofrecer certezas, sino ayudar a personalizar la prevención y comprender qué factores pueden aumentar el riesgo en cada caso. “El peligro es confundir el riesgo predicho con un diagnóstico. El riesgo es dinámico, no permanente”, advierte.

Para evitar estigmas, los pacientes no recibirán información sobre el riesgo que les asigne el modelo, y el personal médico solo la utilizará como herramienta de apoyo. “Si el dato no sirve para tomar decisiones, puede acabar generando autoestigma. La IA debe ayudar a cuidar, no a controlar”, resume.

Cuando la tecnología alcanza los límites humanos

En la jornada Investigación en salud mental: medicina personalizada para el futuro, celebrada en el Parc Sanitari Sant Joan de Déu, Mortier defendió que la tecnología no puede sustituir la empatía. “La ambición del proyecto es reducir la incertidumbre clínica y reforzar la confianza entre paciente y profesional”, afirmó.

También intervino Ángel Urbina, vicepresidente de la Federación Salut Mental Catalunya, quien recordó que el reto no es solo científico, sino también social: “Debemos asegurarnos de que esta no sea una medicina para ricos. La tecnología tiene que servir para dar sentido a la vida, no solo para eliminar síntomas”.

El entorno también importa: ¿más árboles, menos suicidios?

Uno de los hallazgos más sorprendentes del proyecto es que el modelo no funciona igual en todas las regiones sanitarias. Las diferencias geográficas y sociales muestran que el entorno del paciente es tan relevante como el diagnóstico.

La tecnología tiene que servir para dar sentido a la vida, no solo para eliminar síntomas

Ángel Urbina

— Salut Mental Catalunya

Hay todo un mundo todavía por explorar”, admite Mortier. “A veces la diferencia puede ser tan simple como vivir en un barrio con más zonas verdes o con mayor cohesión social”.

Esta visión holística le lleva a defender que los profesionales también deben tener un papel “militante”: “Si vemos que aumentan las conductas autolesivas entre niños de siete u ocho años, no podemos quedarnos en el hospital. Tenemos que denunciar lo que está ocurriendo en la sociedad”.

Hablar para vivir

Más allá de los algoritmos, Mortier cree que la mejor herramienta preventiva sigue siendo la palabra. “Hace veinte años los clínicos tenían miedo de preguntar sobre el suicidio. Hoy sabemos que hablar de ello no lo provoca: ayuda a prevenirlo". Por eso, reclama más educación emocional en las escuelas y una cultura del cuidado más amplia: “La ciencia puede señalar el estigma, pero romperlo depende de todos nosotros”.

Cuando se le pregunta qué es lo que todavía no hemos entendido como sociedad sobre el suicidio, responde con serenidad: “Las personas que piensan en suicidarse no quieren morir. Lo que quieren es dejar de sufrir”.

Suscríbete para seguir leyendo