RIESGOS DE LAS NUEVAS TECNOLOGÍAS

Un psiquiatra en Facebook

support-for-broadcaster-screenshot

support-for-broadcaster-screenshot / periodico

Carmen Jané

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

El muro de Facebook apunta ya a convertirse en el diván, y quizás en el psicólogo del mundo. Los responsables de la red social más popular (1.860 millones de personas a finales del 2016) anunciaron este lunes que comenzarán a aplicar filtros de inteligencia artificial a detectar aquellos estados de ánimo depresivos que podrían llevar al suicidio. Para ello escanearán comentarios, fotografías y vídeos en busca de "patrones" como frases o actitudes que puedan hacer pensar en que alguien piensa en quitarse la vida. Sus algoritmos lanzarán entonces una alerta al usuario para ofrecerle ayuda pero a la vez avisarán a empleados de la compañía que pueden dar la voz de alarma a agentes policiales de que esa persona podría estar en peligro. Y a partir de ahí, vuelta a la vida analógica: comprobaciones y asistencia médica si es necesario.

La medida supone una vuelta de tuerca importante: el hecho de que sean máquinas y no personas quienes lancen la alerta y se tenga en cuenta. Hasta ahora, Facebook permite informar (más bien denunciar) a un usuario que uno de sus amigos del muro podría estar en situación de pensar en el suicidio y un equipo de revisores contratados por la red social lo revisa y lanza la alerta, si procede. Varias denuncias sobre usuarios que se suicidaron mientras utilizaban la función Facebook Live, que retransmite vídeo en directo, mientras otros supuestamente "amigos" de su círculo les animaban o bromeaban sobre ello, han hecho que la empresa se replantee su política e introduzca filtros automáticos en textos, fotos y vídeos.

Según afirmaba este martes el fundador y máximo responsable de Facebook, Mark Zuckerberg, en un mensaje en la red social, se trata de "un importante paso adelante" para ayudar a prevenir suicidios que "permite responder 100 veces más rápido" que hasta ahora.

Formación a los empleados

Según explica Guy Rosen, vicepresidente de producto de la compañía, esta campaña antisuicidios también implica "dedicar más revisores" a analizar las denuncias y "mejorar cómo identificamos a los primeros que responden" (en EEUU hay acuerdos con oenegés dedicadas al tema). Rosen afirma también, en el comunicado oficial hecho a través de Facebook, que sus circuitos seguirán primando los mensajes humanos lanzados desde la aplicación y que la inteligencia artificial será un mecanismo complementario. Asegura asimismo que sus técnicos han recibido formación específica sobre cómo detectar tendencias suicidas o de autolesiones.

El recurso automático se implantará en varios países, aunque no en la Unión Europea. Pese a que el directivo de la red social no explica los motivos en el artículo, en una entrevista posterior con Reuters atribuía la razón a las "distintas sensibilidades" sobre el tema de protección de la privacidad.

Para los profesionales de la salud mental, sin embargo, hay un patrón detectable. "Más allá de mensajes obvios como No puedo más, una persona con intención de suicidarse puede mostrar rasgos como publicar canciones tristesmanifestar actitudes impulsivas como comprar más de la cuenta o mostrar cierta promiscuidad, o incluso llegar después a estados de mejora repentina como mostrarse en paz consigo mismo y que todo está ya atado. Si hoy a Facebook le explicamos la vida, también se puede contar esto", afirma el psicólogo Andrés Montes.

Otros usos

Tras el anuncio de la nueva herramienta, Zuckerberg va más allá y no esconde que "en un futuro, la inteligencia artificial será capaz de interpretar mejor los matices sutiles del lenguaje, y será capaz de identificar distintos temas más allá del suicidio también, incluyendo más tipos de acoso y odio". Hasta ahora, Facebook permite a un usuario denunciar a otro si sufre violencia o acoso, publica desnudos o actos sexuales, envía spam o realiza ventas no autorizadas, lanza proclamas de odio a algún colectivo o cualquier otra causa que considere denunciable, como terrorismo o pederastia, dos casos en que hasta ahora se usaban alertas automáticas.

"Facebook ha ido contratando a gente para censurar contenidos, algunos con polémica. Ahora la censura la aplicará una máquina. Y esto plantea dilemas éticos como cuál es el criterio o a quién reclamar", afirma Ulises Cortés, director del grupo de inteligencia artificial del Barcelona Supercomputing Center. "¿Qué derecho tiene alguien para diagnosticar un estado depresivo sin ser un profesional, decidir a quién tiene que avisar y qué acciones tomar? ¿Y cómo va a usar esa información después, si eso va a señalar a la persona, a su familia o a sus amigos?", pregunta.

"¿Si se generan falsos positivos o falsos negativos, culparemos a Facebook? ¿Dónde está el límite de usar información personal extraída de la red, si ahora ya hay empresas que seleccionan trabajadores a partir de algoritmos?", cuestiona el profesor de la UPC. "Es una herramienta peligrosa porque hoy lo usarán para el suicidio o el terrorismo y mañana para saber cómo me levanto y manipular mis intenciones", añade.