Presión de los reguladores

TikTok restringirá el acceso a filtros de belleza entre los menores de 18 años

Control parental y veto a las recompensas: así es la ley digital de protección de los menores que propone España

El dictamen valora de forma positiva la decisión del prelegislador de regular la protección “específica” de los y las menores en los entornos digitales.

El dictamen valora de forma positiva la decisión del prelegislador de regular la protección “específica” de los y las menores en los entornos digitales. / EFE

Carles Planas Bou

Carles Planas Bou

Por qué confiar en El Periódico Por qué confiar en El Periódico Por qué confiar en El Periódico

En las próximas semanas, los usuarios de TikTok menores de 18 años verán limitado su acceso a los filtros de belleza. La popular plataforma de vídeos ha anunciado este martes que restringirá el uso de "algunos efectos de apariencia" para mitigar así un impacto entre los adolescentes que puede contribuir al deterioro de su salud mental.

La compañía, propiedad del gigante chino ByteDance, no bloqueará filtros considerados inofensivos como los que colocan orejas de animal en el usuario, sino aquellos que alteran su apariencia física, como los que moldean los pómulos, amplifican el tamaño de los ojos o reducen el de la nariz. En los vídeos también aparecerá una pestaña que indicará qué filtro se ha aplicado en cada caso, información que contextualizará aquello que se ve en la pantalla.

Con esos cambios, la compañía pretende reducir la presión de los reguladores. Con 175 millones de usuarios cada mes, la Unión Europea es el segundo mercado mundial más importante para la plataforma, solo por detrás de Estados Unidos. "Ganarse la confianza cuesta tiempo", confiesa Christine Grahn, directora de Relaciones Gubernamentales y Políticas Públicas de TikTok en Europa, en un encuentro con EL PERIÓDICO en su sede europea en Dublín, donde se ha anunciado esa restricción del uso de los filtros de belleza.

El pasado 19 de febrero, la Comisión Europea abrió un procedimiento formal contra la aplicación para investigar si infringe la Ley de Servicios Digitales en ámbitos relacionados, entre otros, a la protección de los más pequeños y a la mitigación de los "efectos negativos" potencialmente causados por su algoritmo como las "adicciones de conducta". Dos meses después, las amenazas de Bruselas obligaron a la compañía a suspender TikTok Lite, que permitía a los usuarios cobrar por ver o publicar vídeos.

TikTok lleva años adoptando medidas de protección de sus usuarios más jóvenes. Es el caso de la preconfiguración privada de las cuentas de menores de edad, la función que permite conectar las cuentas de padres e hijos para así garantizar su supervisión o que aquellos que tienen 16 años o menos no puedan recibir mensajes directos para evitar casos de acoso online. "Apostamos por la seguridad por diseño para que la experiencia de los menores sea más restrictiva que para los adultos", explica Nikki Soo, directora de políticas públicas de seguridad y bienestar de TikTok en Europa.

Verificación de la edad

En teoría, TikTok solo está disponible para usuarios a partir de los 13 años de edad. Sin embargo, muchos niños y niñas por debajo de esa franja mienten para acceder a la popular plataforma de vídeo. Esa artimaña ha obligado a la compañía a tomar medidas: cada mes elimina un total de seis millones de cuentas en todo el mundo sospechosas de ser operadas por menores, un ritmo y volumen de supresión que en tan solo cuatro meses superaría la base de usuarios que tiene en España, de 20 millones.

Para crearse una cuenta en TikTok, los usuarios deben poner la fecha de su nacimiento. Aunque muchos menores de 13 años engañan ese sistema, la compañía asegura que verifica su edad para que no accedan a contenidos tóxicos y que se sirve de "una tecnología" no especificada para localizar y eliminar cuentas aparentemente legítimas tras las que podrían estar esos niños y niñas. Sin embargo, la Comisión Europea considera que esas herramientas "pueden no ser razonables, proporcionadas y eficaces".

Esa problemática está haciendo que cada vez más voces pidan introducir mecanismos de verificación de edad de los usuarios en Internet. Es lo que propone el Gobierno de España, pero también Meta. El pasado lunes, el gigante tecnológico que posee Facebook e Instagram planteó a Bruselas impulsar una normativa armonizada para que sean las tiendas de apps quienes detecten la edad de los usuarios y avisen a los padres para aprobar cualquier descarga.

¿Y TikTok? "Estamos estudiando varias fórmulas, pero faltan muchos detalles técnicos para que podamos decantarnos por una opción", asegura Chloe Setter, su responsable de políticas públicas de seguridad infantil en Europa. La pelota está en el tejado de los reguladores.