Presión de los reguladores
TikTok restringirá el acceso a filtros de belleza entre los menores de 18 años
Control parental y veto a las recompensas: así es la ley digital de protección de los menores que propone España

El dictamen valora de forma positiva la decisión del prelegislador de regular la protección “específica” de los y las menores en los entornos digitales. / EFE


Carles Planas Bou
Carles Planas BouPeriodista
Periodista especializado en tecnología y poder. Escribe sobre IA, capitalismo de plataformas, privacidad y derechos digitales. Excorresponsal político en Berlín entre 2015-2019. También ha trabajado en Europa Central y en Canadá. Graduado en Periodismo por la URL y máster en Relaciones Internacionales por la UAB. Ha colaborado con TV3, TVE, Deutsche Welle, Catalunya Ràdio, Cadena SER, El Orden Mundial o El Salto.
En las próximas semanas, los usuarios de TikTok menores de 18 años verán limitado su acceso a los filtros de belleza. La popular plataforma de vídeos ha anunciado este martes que restringirá el uso de "algunos efectos de apariencia" para mitigar así un impacto entre los adolescentes que puede contribuir al deterioro de su salud mental.
La compañía, propiedad del gigante chino ByteDance, no bloqueará filtros considerados inofensivos como los que colocan orejas de animal en el usuario, sino aquellos que alteran su apariencia física, como los que moldean los pómulos, amplifican el tamaño de los ojos o reducen el de la nariz. En los vídeos también aparecerá una pestaña que indicará qué filtro se ha aplicado en cada caso, información que contextualizará aquello que se ve en la pantalla.
Con esos cambios, la compañía pretende reducir la presión de los reguladores. Con 175 millones de usuarios cada mes, la Unión Europea es el segundo mercado mundial más importante para la plataforma, solo por detrás de Estados Unidos. "Ganarse la confianza cuesta tiempo", confiesa Christine Grahn, directora de Relaciones Gubernamentales y Políticas Públicas de TikTok en Europa, en un encuentro con EL PERIÓDICO en su sede europea en Dublín, donde se ha anunciado esa restricción del uso de los filtros de belleza.
El pasado 19 de febrero, la Comisión Europea abrió un procedimiento formal contra la aplicación para investigar si infringe la Ley de Servicios Digitales en ámbitos relacionados, entre otros, a la protección de los más pequeños y a la mitigación de los "efectos negativos" potencialmente causados por su algoritmo como las "adicciones de conducta". Dos meses después, las amenazas de Bruselas obligaron a la compañía a suspender TikTok Lite, que permitía a los usuarios cobrar por ver o publicar vídeos.
TikTok lleva años adoptando medidas de protección de sus usuarios más jóvenes. Es el caso de la preconfiguración privada de las cuentas de menores de edad, la función que permite conectar las cuentas de padres e hijos para así garantizar su supervisión o que aquellos que tienen 16 años o menos no puedan recibir mensajes directos para evitar casos de acoso online. "Apostamos por la seguridad por diseño para que la experiencia de los menores sea más restrictiva que para los adultos", explica Nikki Soo, directora de políticas públicas de seguridad y bienestar de TikTok en Europa.
Verificación de la edad
En teoría, TikTok solo está disponible para usuarios a partir de los 13 años de edad. Sin embargo, muchos niños y niñas por debajo de esa franja mienten para acceder a la popular plataforma de vídeo. Esa artimaña ha obligado a la compañía a tomar medidas: cada mes elimina un total de seis millones de cuentas en todo el mundo sospechosas de ser operadas por menores, un ritmo y volumen de supresión que en tan solo cuatro meses superaría la base de usuarios que tiene en España, de 20 millones.
Para crearse una cuenta en TikTok, los usuarios deben poner la fecha de su nacimiento. Aunque muchos menores de 13 años engañan ese sistema, la compañía asegura que verifica su edad para que no accedan a contenidos tóxicos y que se sirve de "una tecnología" no especificada para localizar y eliminar cuentas aparentemente legítimas tras las que podrían estar esos niños y niñas. Sin embargo, la Comisión Europea considera que esas herramientas "pueden no ser razonables, proporcionadas y eficaces".
Esa problemática está haciendo que cada vez más voces pidan introducir mecanismos de verificación de edad de los usuarios en Internet. Es lo que propone el Gobierno de España, pero también Meta. El pasado lunes, el gigante tecnológico que posee Facebook e Instagram planteó a Bruselas impulsar una normativa armonizada para que sean las tiendas de apps quienes detecten la edad de los usuarios y avisen a los padres para aprobar cualquier descarga.
¿Y TikTok? "Estamos estudiando varias fórmulas, pero faltan muchos detalles técnicos para que podamos decantarnos por una opción", asegura Chloe Setter, su responsable de políticas públicas de seguridad infantil en Europa. La pelota está en el tejado de los reguladores.
- El pediatra Carlos González explica la teoría de la abuela: 'Es normal que algunos padres sientan celos o frustración...
- En Sants no nos dejaron pasar porque nuestros dos billetes, de IRYO, iban a nombre de la misma persona
- Si estás de baja médica, podrían estar vigilándote: lo que no debes hacer si no quieres problemas
- La verdadera historia tras el pez diablo de Tenerife: 'Estamos abrumados', dicen sus protagonistas
- Un alumno de FP que dormía en la calle logra el ofrecimiento de un techo tras la movilización de su instituto en L'Hospitalet
- El viaje de dos turistas catalanes a un Santorini desierto por los terremotos: 'La isla parecía para nosotros solos, fue brutal
- Badia del Vallès aprovecha la liberalización de sus miles de pisos protegidos para convertirse en distrito universitario de la UAB
- Renfe inicia con éxito las pruebas del nuevo tren de Rodalies sobre el trazado de la línea R1