Delincuencia virtual

Videos falsos que suplantan tu imagen y voz: la IA impulsa la nueva generación de ciberestafas

La Agencia de Ciberseguridad de Catalunya alerta de que la nueva tecnología permitirá "industrializar" los fraudes

Se han detectado casos de este tipo en el mundo empresarial, donde ciberdelincuentes se hacen pasar por directivos para autorizar transferencias o tomar decisiones

Imagen de piratas informáticos

Imagen de piratas informáticos

Germán González

Germán González

Barcelona
Por qué confiar en El Periódico Por qué confiar en El Periódico Por qué confiar en El Periódico

Durante la pandemia, España registró una oleada de la llamada "estafa del falso secuestro". Los delincuentes realizaban llamadas telefónicas masivas, sobre todo dirigidas a personas mayores. Al responder, la víctima escuchaba que un supuesto secuestrador mantenía retenido a un familiar –en la mayoría de los casos, un hijo o una hija– y exigía un pago urgente. Las cantidades solicitadas solían oscilar entre los 3.000 y 5.000 euros, a transferir a través de plataformas de servicios financieros.

La estafa, sin embargo, ha evolucionado. Algunas variantes incluyen efectos sonoros para aumentar la credibilidad, como emitir gritos, gemidos o voces suplicantes para atemorizar al destinatario. Pero ahora, con el avance de la inteligencia artificial, este tipo de fraudes podrían dar un salto de gigante y llegar a confundir no solo a personas mayores, sino a cualquier usuario.

Se trata de los llamados 'deepfakes'. Las herramientas de IA permiten crear contenido audiovisual falso que imita de forma realista tanto la imagen como la voz de una persona. “Los ciberestafadores pueden utilizar los vídeos que los usuarios publican en redes sociales para generar estos montajes y suplantar su identidad de manera muy creíble”, advierte Santi Romeu, responsable del Servicio de Prospectiva y Análisis de Tendencias de la Agencia de Ciberseguridad de Catalunya.

Casos en el sector empresarial

A diferencia de las estafas masivas, este tipo de engaños son altamente elaborados y están dirigidos a víctimas concretas. Por ello, los criminales investigan previamente a sus objetivos, principalmente a través de redes sociales, para conocer su entorno, relaciones y detalles personales que hagan más efectiva la suplantación.

De hecho, el Instituto Nacional de Seguridad alerta de nuevas técnicas de suplantación impulsadas por inteligencia artificial, como el 'deepvoice' –que recrea artificialmente la voz de una persona a partir de fragmentos de audio reales– y el 'deepface' –falsifica el rostro y expresiones utilizando contenido multimedia en el que aparece la víctima–. De momento, ya se han detectado casos en el sector empresarial, donde los ciberdelincuentes se hacen pasar por directivos para autorizar transferencias, conceder permisos o tomar decisiones perjudiciales para la compañía. Los expertos advierten de que estos fraudes también podrían llegar a las videollamadas, lo que amplificaría su impacto.

Robo de datos

Para Romeu, "la clave está en las fugas masivas de datos, que exponen enormemente a los usuarios". Con esta información, añade, los criminales "pueden perfilar con precisión a sus víctimas: conocen sus aficiones, lugar de trabajo, servicios contratados, dirección postal e incluso su DNI". Instituciones públicas, organismos oficiales y empresas privadas son blanco constante de ataques por parte de piratas informáticos que buscan obtener datos personales para luego venderlos a redes criminales para perpetrar "estafas dirigidas" cada vez más sofisticadas.

"Lo que permite la inteligencia artificial es la manipulación o el tratamiento de grandes volúmenes de datos robados para utilizarlos en estos ataques", remarca Romeu, quien añade que la IA generativa permite crear contenido malicioso para dirigirlo contra los miles de usuarios que estas redes tienen perfilados. Además, estos mensajes fraudulentos pueden ser enviados "de forma masiva" por multicanales: SMS, llamadas, correos electrónicos, redes sociales o aplicaciones de mensajería móvil.

Gracias a la IA, apunta Romeu, los cibercriminales tienen "la capacidad de industrializar los ataques y de sofisticar las estafas para hacerlas más creíbles y difíciles de distinguir". Gracias a esta distribución indiscriminada se llega a cualquier usuario con móvil e incluso se puede crear contenido fraudulento específico para grupos de población, empresas, clientes de servicios como suministros de agua, gas o electricidad e incluso familias concretas.

"Antes estos ataques eran masivos, indiscriminados y nada perfilados, pero ahora son personalizados", explica Romeu. En este sentido, los estafadores se pueden apropiar de una cuenta de WhatsApp y pedir dinero a los contactos por una supuesta emergencia. Hasta pueden brindar datos o cambiar el idioma si tu contacto, aunque sea muy próximo, sospecha.

IA para combatir fraudes

De la misma manera que la IA aumenta el peligro de las estafas, Romeu entiende que también se puede usar esta tecnología para combatir el cibercrimen. "Podemos entrenarla para detectar anomalías de forma automática y que alerte cuando detecte alguna cosa fuera de estos parámetros", destaca. Algunos proveedores digitales de correos electrónicos ya usan la IA para filtrar los mensajes maliciosos antes de que lleguen al usuario.

De hecho, también hay empresas y organizaciones que utilizan estos programas para detectar posibles amenazas. El reto, no obstante, está en la protección del usuario. "La tendencia es que los servicios de los que dispone la ciudadanía cuenten con IA para filtrar interacciones anómalas que tratan de estafar", explica Romeu, quien alerta de que "los usuarios están vendidos si se deposita sobre ellos la responsabilidad de identificar los fraudes, ya que muchos son ahora mismo indetectables". 

Suscríbete para seguir leyendo