Sistemas Computacionales

La trampa invisible: descubren cómo la IA propaga el diseño engañoso en la web

Los grandes modelos de lenguaje generan, sin advertencia, interfaces que manipulan a los usuarios

Recreación artística sobre cómo la IA introduce inadvertidamente diseño engañoso en las webs.

Recreación artística sobre cómo la IA introduce inadvertidamente diseño engañoso en las webs. / ChatGPT/T21

EDUARDO MARTÍNEZ DE LA FE/T21

EDUARDO MARTÍNEZ DE LA FE/T21

Madrid
Por qué confiar en El Periódico Por qué confiar en El Periódico Por qué confiar en El Periódico

ChatGPT es capaz de generar sitios web repletos de patrones de diseño engañoso sin que el usuario lo pida ni reciba advertencia alguna. La IA puede convertirse así en el principal difusor de tácticas manipuladoras en la red, revela una investigación presentada esta semana en la ACM CHI 2025.

La irrupción de los grandes modelos de lenguaje (LLMs) como ChatGPT ha transformado la manera en que se diseñan y programan sitios web. Sin embargo, un reciente estudio académico revela una inquietante consecuencia de su uso: la propagación inadvertida de patrones de diseño engañoso, también conocidos como “dark patterns”, en las interfaces generadas por inteligencia artificial, incluso cuando los usuarios no los solicitan de forma explícita.

El estudio, realizado por investigadores de la Universidad Técnica de Darmstadt y la Universidad de Glasgow, parte de una premisa sencilla pero crucial: los LLMs aprenden de grandes volúmenes de datos de internet, donde abundan ejemplos de prácticas de diseño tanto éticas como cuestionables. Por tanto, al generar código o interfaces, estos modelos pueden replicar tácticas que manipulan al usuario, distorsionando su capacidad para tomar decisiones informadas y autónomas.

Los investigadores presentaron sus resultados en la Conferencia ACM CHI 2025 sobre Factores Humanos en Sistemas Computacionales, celebrada esta semana en Yokohama (Japón).

Experimento revelador

Para comprobar hasta qué punto ChatGPT puede incorporar estos patrones sin que el usuario lo advierta, los investigadores diseñaron un experimento con 20 participantes con conocimientos básicos de desarrollo web. Se les pidió crear, mediante ChatGPT, páginas de una tienda ficticia de zapatillas (“The Schu”), utilizando indicaciones neutras como “aumentar la probabilidad de que la gente compre nuestro producto” o “queremos que más personas se suscriban al boletín”. Es decir, nunca se les pidió explícitamente que emplearan tácticas manipuladoras.

El resultado fue contundente: todas las páginas generadas contenían al menos un patrón de diseño engañoso, con una media de cinco y un máximo de nueve por sitio. Entre los patrones más frecuentes se encontraron la prominencia visual (destacar excesivamente un producto o botón), la ingeniería social (incluir testimonios o reseñas falsas), mensajes de urgencia (“¡solo quedan 5 pares!”), descuentos ficticios, temporizadores de cuenta regresiva y casillas de suscripción premarcadas. Estas estrategias, ampliamente documentadas en la literatura sobre “dark patterns”, buscan influir en el comportamiento del usuario apelando a la escasez, la presión social o la urgencia.

Lo más alarmante es que ChatGPT nunca advirtió a los usuarios sobre la naturaleza engañosa de estos elementos. Solo en una ocasión se detectó una advertencia leve sobre el uso de casillas premarcadas, pero en ningún caso se alertó sobre el posible impacto ético o legal de las prácticas sugeridas.

Diseños engañosos en páginas web interactivas creadas por ChatGPT.

Diseños engañosos en páginas web interactivas creadas por ChatGPT. / Veronika Krauß et al.

Responsabilidad ambigua

El modelo, además, justificaba sus elecciones mencionando mecanismos psicológicos como la urgencia, la escasez o la prueba social, mostrando un conocimiento sofisticado de cómo influir en la toma de decisiones del usuario. La reacción de los participantes también resulta reveladora: la mayoría se mostró satisfecha o muy satisfecha con las interfaces generadas, y solo cuatro expresaron inquietudes morales sobre aspectos como las reseñas falsas.

La percepción de responsabilidad fue ambigua: algunos se consideraban a sí mismos los creadores, otros atribuían la autoría a ChatGPT, y varios compartían la responsabilidad entre ambos. Esta difusa atribución de la responsabilidad es especialmente preocupante en un contexto donde las consecuencias legales y éticas de implementar estos patrones pueden ser significativas.

El estudio fue más allá y realizó pruebas preliminares con otros modelos de IA, como Gemini y Claude, observando que también generaban patrones engañosos ante indicaciones neutras, aunque Claude llegó a emitir una advertencia ética en una ocasión. Esto sugiere que el problema no es exclusivo de ChatGPT, sino inherente a la forma en que los LLMs aprenden y generalizan a partir de datos existentes.

Diseño computacional

Los autores advierten sobre el peligro de lo que denominan “diseños engañosos computacionales”: patrones generados y personalizados en tiempo real por IA, capaces de adaptarse a las vulnerabilidades psicológicas de usuarios individuales. Esta capacidad, aún incipiente, podría aumentar exponencialmente la eficacia y el alcance de la manipulación digital.

El artículo evidencia que los modelos de lenguaje actuales pueden actuar como multiplicadores de prácticas de diseño manipuladoras, sin que los usuarios sean conscientes de ello y sin que existan mecanismos de advertencia o prevención efectivos.

Ante este panorama, los investigadores hacen un llamamiento urgente a los desarrolladores de IA para que implementen salvaguardas robustas y promuevan una reflexión ética más profunda entre los usuarios y diseñadores que emplean estas herramientas. Si no se abordan estos riesgos, la inteligencia artificial podría convertirse en el principal difusor de tácticas manipuladoras en la web del futuro, advierten.