Opinión | Error del sistema

Emma Riverola

Emma Riverola

Escritora

Yo no lo hice: ha sido la IA

Se atribuye al uso de ‘Lavender’ la masacre perpetrada durante las primeras semanas de la invasión. Unas 15.000 personas asesinadas desde el 7 de octubre hasta el 24 de noviembre. Sus muertes, simples estadísticas. 

Soldados de Israel en la Franja de Gaza.

Soldados de Israel en la Franja de Gaza.

La instrucción del comandante ha sido clara: no detenerse. En ninguna circunstancia, pase lo que pase. Pero ahí están los niños, en medio del camino. El convoy militar se va aproximando a ellos. Nada, los niños siguen ahí. Si los vehículos se detienen, quedarán expuestos al enemigo. Cumplir las órdenes significar arrollar a los niños. Niños como los que el soldado ha dejado en casa. Como sus hijos, hermanos o sobrinos. ¿Cuántos sentimientos deben desconectarse para seguir adelante? Eso es la guerra: enfrentarse a dilemas éticos de terrible complejidad. Cuando un soldado toma la decisión de disparar, toma un decisión moral. En ese momento, puede que la instrucción recibida acalle la conciencia. Pero no para siempre. 

‘Censored voices’ (2015) es un documental que recoge los testimonios de hombres que acababan de participar en la Guerra de los Seis Días (1967). Las entrevistas fueron recogidas por dos jóvenes, uno de ellos se convertiría en el reconocido autor Amos Oz. El país estaba eufórico. Los medios enaltecían la fulminante conquista de Jerusalén, Gaza, el Sinaí y Cisjordania. La palabra victoria era omnipresente. Pero esos jóvenes que, por unos días, se habían transformado en soldados estaban atravesados por otros sentimientos. Para ellos, la victoria tenía un evidente regusto amargo. Sus opiniones fueron censuradas por el gobierno. Solo décadas después pudieron recogerse en dicho documental. El relato es demoledor: “En la guerra nos convirtieron en asesinos”. “Éramos soldados contra civiles”. “Vi a los refugiados árabes saliendo de Jericó y me identifiqué con ellos. Me vi haciendo algo no muy distinto a lo que nos hicieron los nazis”. “Los niños, ahí plantados, temblaban. Un tercio habían mojado sus pantalones”. “Lo que nos rompió fue ver al enemigo”.

Israel está utilizando inteligencia artificial (IA) para decidir a quién se bombardea en Gaza, una práctica inédita hasta ahora. La IA ‘Lavender’ ha creado una base de datos de unas 35.000 personas que han sido señaladas como miembros del ala militar de Hamás, la mayoría de bajo rango. Un sistema automatizado ha seleccionado infraestructuras y edificios que, en principio, están relacionados con esos objetivos, sin importar los familiares o vecinos que puedan encontrarse en ellos. Se atribuye al uso de ‘Lavender’ la masacre perpetrada durante las primeras semanas de la invasión. Unas 15.000 personas asesinadas desde el 7 de octubre hasta el 24 de noviembre. Sus muertes, simples estadísticas. 

‘Lavender’ señala con total frialdad. Los dilemas morales desaparecen. Los sentimientos humanos no forman parte de la decisión. Escudados en un ‘yo no lo hice’, no hay sensación de culpa, menos aún posibilidad de remordimiento. “Lo que nos rompió fue ver al enemigo’, confesaba uno de los participantes en el documental. Es posible que, al borrar esa cercanía, se diluya el trauma de haber formado parte de la masacre. Pero, con ello, también la resistencia civil. Bloqueada la capacidad de conmoverse ante el dolor ajeno, el odio queda intacto. 

Suscríbete para seguir leyendo