Israel usa la IA como arma en la Franja de Gaza – Por Víctor López

1.491

Israel usa la IA como arma en la Franja de Gaza

Por Víctor López

La inteligencia artificial ha llegado para revolucionar los conflictos armados. Los expertos aseguran que los algoritmos y su aplicación militar constituyen un «desafío» para el mantenimiento de las normas humanitarias. La Franja de Gaza se presenta como una especie de «laboratorio» en el que experimentar con este tipo de prácticas. Israel lleva tres años utilizando herramientas de reconocimiento facial para rastrear a las familias palestinas. Netanyahu también ha confiado al sistema informático Lavender la osadía de bombardear miles de viviendas en los territorios ocupados. ¿Qué papel juegan las nuevas tecnologías en un mundo cada vez más tensionado?

Amnistía Internacional ha presentado la semana pasada el informe La situación de los derechos humanos en el mundo 2023, un texto que pone el foco en las más de 30 guerras que se extienden por todo el planeta y los riesgos de la entrada en combate de la inteligencia artificial. La organización critica que decenas de países hayan dejado en manos de herramientas digitales y técnicas biométricas la gobernanza de la migración y los controles fronterizos. Este desarrollo tecnológico sirve como trampolín para la normalización del racismo, la discriminación y la división en las zonas vulnerables, todo ello mientras suenan tambores de genocidio en la Franja de Gaza.

«La población palestina está permanentemente vigilada, las 24 horas del día y en tiempo real. Israel utiliza el reconocimiento facial para tener a las familias identificadas sin su consentimiento. Esto es un problema fundamentalmente porque choca con los derechos humanos y sirve como trampolín para afianzar el apartheid», reconoce Beatriz Martos, responsable de campañas de tecnología y derechos humanos en Amnistía Internacional España. El fenómeno va más allá de las técnicas biométricas, de hecho, la organización lleva meses denunciando que los mensajes propalestinos son objeto de censura en plataformas como Google, Facebook o TikTok.

En las últimas semanas, Israel ha ido un paso más allá en la automatización del genocidio. Las Fuerzas Armadas de Tel Aviv han desarrollado un programa que toma como base el criterio de la inteligencia artificial (IA) para seleccionar a las víctimas de sus bombardeos. El sistema, bautizado como Lavender, mató a cerca de 15.000 palestinos entre el 7 de octubre y el 24 de noviembre de 2023, según una investigación de la prensa israelí. «El principal riesgo es que los humanos instrumentalizan la decisión y la dejan en manos de una herramienta a la que se le presupone una inteligencia que es difícil de contradecir. Las personas ni intervienen ni se hacen cargo de los efectos», advierte Joaquín Peña, profesor en la Universidad de Sevilla y fundador del Instituto de Digitalización Humanista.

Gaza, un laboratorio para el uso de inteligencia artificial con sello militar

Los drones, los microchips y los robots han irrumpido de lleno en los campos de batalla. El genocidio en Gaza es la primera guerra en la que se utilizan abiertamente estas tecnologías y la falta de regulación puede sentar un precedente difícil de revertir. «En un contexto social o comercial, las normas son más férreas y las empresas tienen que seguirlas. En un conflicto armado, la tentación de saltarse los parámetros legales y hacer atrocidades está al orden del día. Su excusa es la autoprotección. La inteligencia artificial se ha convertido en un arma más para hacer la guerra. Tenemos tratados sobre el uso de armas nucleares, ¿por qué no hacemos lo mismo con la inteligencia artificial?», se pregunta el docente. Los expertos también piden juzgar el uso que se hace de estas tecnologías porque sus efectos son «absolutamente tangibles».

Lavender es una herramienta pionera por lo que implica la automatización de una tarea tan «sensible» como puede ser la selección de objetivos militares. Israel ha negado en un comunicado las informaciones publicadas al respecto, pero los organismos internacionales tienen pruebas de su empleo. El sistema está diseñado para marcar a todos los presuntos operativos de las alas militares de Hamás y la Yihad Islámica Palestina (YIP), incluidos los de bajo rango, como objetivos potenciales de bombardeo.

El margen de error existe, pero las tropas israelís prefieren no tenerlo en cuenta. «Israel tiene acceso a los datos personales de la población palestina. El criterio racial se aplica para terminar de discriminarlos en términos de segregación. Es una actuación totalmente desproporcionada en la que no caben los vacíos legales», señala Hassiba Ziati, criminóloga especializada en análisis de la conducta. La semana pasada, Público pudo comprobar de primera mano cómo la inteligencia artificial figuraba entre las posibles estrategias de Israel para boicotear la misión humanitaria de la Flotilla de la Libertad.

¿Qué es el Red Wolf?

Lavender no es la única tecnología que utilizan las Fuerzas Armadas de Israel para amedrentar a la población de los territorios ocupados. Tel Aviv lleva casi tres años probando suerte con un sistema experimental de reconocimiento facial –conocido como Red Wolf–, pensado para rastrear a las familias palestinas y automatizar las restricciones de circulación. Esta herramienta se basa en una densa red de cámaras de circuito cerrado destinadas a mantener la Franja de Gaza bajo una observación casi constante.

Red Wolf saca fotos y las envía de forma instantánea a los puntos de control, custodiados por soldados de las Fuerzas Armadas de Israel. La ciudad de Hebrón, dividida en dos desde 1997, es una de las más afectadas por esta práctica. Los palestinos que intentan cruzar al lado israelí para trabajar, estudiar o buscar tratamientos médicos tienen que ceder ante el reconocimiento facial. «La gente vive con miedo, porque están permanentemente vigilados y muchas veces no lo saben. Tenemos testimonios de personas que cuando se disponían a pasar los puntos de control, se encontraban con que las autoridades israelís sabían su nombre, qué hacían allí y de dónde venían», detalla Beatriz Martos, representante de Amnistía Internacional.

La organización sostiene que el Gobierno de Netanyahu tiene un banco de imágenes con todos los datos sustraídos de las familias palestinas. El problema se agudizó en el último año con la incorporación del reconocimiento facial a los teléfonos móviles de los soldados. «Los militares israelís pueden hacer uso de este sistema y quedarse con los datos de cualquier persona palestina en cualquier punto del territorio. Estamos ante una violación en toda regla del derecho a la igualdad, la libertad de expresión y la no discriminación», añade Martos.

«Israel está aplicando criterios subjetivos que no están probados y atentan contra los derechos humanos, porque son totalmente discriminatorios. La identificación a partir de criterios de este tipo solo tiene un pase cuando existe una relación causa-efecto, de lo contrario, no hay excusas», continúa Hassiba Ziati. La herramienta Red Wolf cruza sus datos con los de otras dos bases gestionadas por las tropas israelís, cuyo uso generalizado amplifica el riesgo de acoso, persecuciones y maltrato. El profesor Joaquín Peña, fundador del Instituto de Digitalización Humanista, reconoce que el cóctel puede volverse incontrolable: «La inteligencia artificial ya es peligrosa per se, pero si le ponemos la etiqueta militar y tenemos en cuenta las actuales tensiones a nivel global, los riesgos son extremos».

*Analista español

Público

Más notas sobre el tema