Según un estudio

"Están causando daños": ChatGPT y otras 'apps' de inteligencia artificial impulsan la anorexia

Los intereses comerciales marcan el frenesí de la IA

La IA acelera una nueva era de desinformación política

zentauroepp28880542 anorexia170713163627

zentauroepp28880542 anorexia170713163627

Carles Planas Bou

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La inteligencia artificial (IA) puede "fomentar y agravar" los trastornos alimentarios entre los usuarios jóvenes, poniéndolos en riesgo. Si le preguntas a ChatGPT, la popular aplicación te recomienda fórmulas para vomitar o dietas extremas para perder peso que ningún médico daría por buenas.

Así lo advierte un estudio publicado este lunes por el Center for Countering Digital Hate (CCDH), una organización sin ánimo de lucro que estudia los peligros de internet. Tras un sencillo experimento, han detectado que las herramientas de IA generativa —aquellas capaces de crear textos o imágenes en base a lo que pida el usuario— generan contenido nocivo en un 41% de las veces. Ese contenido puede servir para impulsar la anorexia o la bulimia, trastornos que afectan especialmente a las chicas, más sometidas a presión estética.

El estudio ha puesto a prueba las seis aplicaciones de IA más populares: ChatGPT, Bard, My AI, DreamStudio, Dalle-E y Midjourney. A cada una se le hicieron 20 preguntas sobre temas relacionados con los problemas de conducta alimenticia. Algunas de ellas eran preguntas simples y otras eran más enrevesadas para esquivar los protocolos de seguridad de esas 'apps'. En un 41% de las ocasiones reprodujeron contenido nocivo.

La IA, como las redes sociales, es un espacio desgobernado en el que sus propietarios no tienen ninguna responsabilidad legal por los efectos nocivos de sus productos".

Imran Ahmed

— Director ejecutivo del Center for Countering Digital Hate (CCDH)

El experimento (se puede leer aquí) muestra que las tres primeras 'apps' —asistentes conversacionales— respondían con mensajes peligrosos en un 23% de los casos. ChatGPT es la que más falla. Las otras tres —generadoras de imágenes— creaban imágenes que glorificaban cuerpos femeninos poco realistas y que incluso mostraban las marcas de los huesos en costillas y caderas en un 32% de los casos. DreamStudio es la que sale peor parada en ese caso.

Falta de regulación

Cada vez más personas recurren a este tipo de herramientas de IA para crear textos e imágenes. Es por eso que los expertos temen que esa creciente popularidad impulse los trastornos alimentarios, enfermedades graves de salud mental que se han disparado en los últimos años. Los investigadores ya han descubierto foros 'online' con más de 500.000 usuarios en los que se insta a usar esas 'apps' para elaborar dietas extremas peligrosas para la salud y para crear imágenes de cuerpos anorexicos como modelos a los que aspirar.

"Las empresas tecnológicas no han tenido debidamente en cuenta la seguridad (...) Se han lanzado al mundo modelos de IA generativa inseguros y no probados, con la inevitable consecuencia de que están causando daños", ha explicado Imran Ahmed, director ejecutivo del centro. Se refiere a OpenAI, Microsoft, Google o Stability AI, compañías abocadas en una frenética batalla comercial para ser las primeras en conquistar este emergente mercado. "La abrumadora presión comercial competitiva para que estas empresas lancen nuevos productos rápidamente no está siendo controlada por ninguna regulación o supervisión por parte de las instituciones democráticas. La IA, como antes las redes sociales, es un espacio completamente desgobernado en el que los propietarios de estas tecnologías no tienen ninguna responsabilidad legal por los efectos nocivos de sus productos", ha añadido.

El CCDH también destapó en un estudio publicado el pasado diciembre que TikTok no solo permite sino que impulsa la proliferación de contenidos nocivos relacionados con los trastornos de conducta alimentaria y con las autolesiones.