Tecnología y derechos humanos

Un centenar de entidades exige a la UE una regulación estricta de la Inteligencia Artificial

  • Hasta 120 organizaciones civiles advierten que los sistemas algorítmicos están amplificando "desigualdades sociales" y "vigilancia masiva" en Europa

Cámara de seguridad de un hotel

Cámara de seguridad de un hotel / RICARD CUGAT (Bcn)

2
Se lee en minutos
Carles Planas Bou
Carles Planas Bou

Periodista

Especialista en Redes, algoritmos y la intersección entre política y tecnología

Escribe desde Barcelona

ver +

La Inteligencia Artificial (IA) está expandiéndose a cada vez más rincones de nuestra vida. Aunque la tecnología es neutra y depende del uso que se le dé, el despliegue sin supervisión de sistemas algorítmicos ha demostrado ya sus potenciales efectos perjudiciales, tanto entre empresas privadas como en la administración pública. Es por eso que este martes hasta 120 organizaciones de la sociedad civil han mandado una carta a la Unión Europea (UE) en la que exigen que la ley comunitaria que se está preparando cumpla con una serie de objetivos estrictos.

“El uso de sistemas de reconocimiento facial y otros similares se ha utilizado en toda Europa de forma que conduce a la vigilancia masiva biométrica (…) y a amplificar algunas de las más profundas desigualdades sociales y desequilibrios de poder”, reza su manifiesto. La IA sirve a las redes sociales para predecir nuestro comportamiento, a empresas como las aerolíneas para ajustar sus precios y a instituciones públicas para ayudar en la gestión de procesos como la concesión de permisos penitenciarios, como sucede en las cárceles de Catalunya. Sin embargo, su aplicación también ha tenido efectos desastrosos. Así, los sistemas algorítmicos han propiciado discriminaciones cuando han servido para agilizar deportaciones, reforzar la vigilancia policial contra comunidades inmigrantes o para negar el acceso a servicios sanitarios o ayudas públicas. En los Países Bajos, por ejemplo, se denegó sin motivo alguno esas prestaciones a hasta 30.000 familias vulnerables.

Hasta ahora, estos sistemas algorítmicos se han desplegado sin supervisión, siguiendo la lógica de Silicon Valley de “muévete rápido y rompe cosas”. Por el camino, esas “cosas” han sido derechos fundamentales. “La falta de regulación adecuada sobre el desarrollo y el despliegue de la tecnología impulsada por la IA supone una amenaza para nuestros derechos digitales y humanos”, reza el comunicado.

Prohibir los sistemas de riesgo

Noticias relacionadas

Es por eso que estos 120 grupos, especializados en la investigación algorítmica y los derechos civiles, solicitan que la regulación europea elabore una estrategia de futuro sobre los riesgos de la IA, que se prohíban los sistemas que perjudiquen los derechos fundamentales o que se creen mecanismos para facilitar la rendición de cuentas y compensaciones significativas para los afectados. Asimismo, se exige una transparencia pública de estos sistemas, que sean sostenibles con el medio ambiente y una mejora general de las normas.

Entre esas 120 organizaciones hay 12 de españolas: Algorights, Asociación Salud y Familia, DIMMONS Digital Commons Research Group, DonesTech, Eticas Foundation, Fundación Secretariado Gitano, Implementation Team of the Decade of People of African Descent, Interferencias, Lafede.cat, NOVACT, Universidad y Ciencia Somosindicalistas y Xnet.