Israel utilizó inteligencia artificial para identificar 37,000 objetivos de Hamas.

La campaña de bombardeos del ejército israelí en Gaza utilizó una base de datos impulsada por inteligencia artificial que no había sido divulgada anteriormente, la cual en una etapa identificó 37,000 posibles objetivos basándose en sus aparentes vínculos con Hamas, según fuentes de inteligencia involucradas en la guerra.

Además de hablar sobre el uso del sistema de inteligencia artificial, llamado Lavanda, las fuentes de inteligencia afirman que los funcionarios militares israelíes permitieron que un gran número de civiles palestinos fueran asesinados, especialmente durante las primeras semanas y meses del conflicto.

Su testimonio inusualmente franco proporciona una visión excepcional de las experiencias de primera mano de los funcionarios de inteligencia israelíes que han estado utilizando sistemas de aprendizaje automático para ayudar a identificar objetivos durante la guerra de seis meses.

El uso de poderosos sistemas de inteligencia artificial por parte de Israel en su guerra contra Hamas ha entrado en un territorio inexplorado para la guerra avanzada, planteando una serie de preguntas legales y morales, y transformando la relación entre el personal militar y las máquinas.

“Esto es sin precedentes, en mi memoria”, dijo uno de los oficiales de inteligencia que utilizó Lavanda, agregando que tenía más confianza en un “mecanismo estadístico” que en un soldado afligido. “Todos allí, incluido yo, perdimos personas el 7 de octubre. La máquina lo hizo fríamente. Y eso lo hizo más fácil.”

Otro usuario de Lavanda cuestionó si el papel de los humanos en el proceso de selección era significativo. “Invertiría 20 segundos en cada objetivo en esta etapa, y haría docenas cada día. No tuve ningún valor agregado como ser humano, aparte de ser un sello de aprobación. Ahorró mucho tiempo.”

El testimonio de los seis oficiales de inteligencia, todos los cuales han estado involucrados en el uso de sistemas de inteligencia artificial para identificar objetivos de Hamas y la Yihad Islámica Palestina en la guerra, fue entregado al periodista Yuval Abraham para un informe publicado por la revista israelí-palestina +972 Magazine y el medio en hebreo Local Call.

Sus cuentas fueron compartidas exclusivamente con The Guardian antes de la publicación. Los seis dijeron que Lavanda había desempeñado un papel central en la guerra, procesando grandes cantidades de datos para identificar rápidamente posibles operativos “juniors” para atacar. Cuatro de las fuentes dijeron que, en una etapa temprana de la guerra, Lavanda listó hasta 37,000 hombres palestinos que habían sido vinculados por el sistema de inteligencia artificial con Hamas o la Yihad Islámica Palestina.

Lavanda fue desarrollado por la División de Inteligencia de Élite de las Fuerzas de Defensa de Israel, la Unidad 8200, que es comparable a la Agencia de Seguridad Nacional de EE. UU. o el GCHQ en el Reino Unido.

Varias de las fuentes describieron cómo, para ciertas categorías de objetivos, las FDI aplicaron autorizaciones preaprobadas para el número estimado de civiles que podrían ser asesinados antes de que se autorizara un ataque.

Dos fuentes dijeron que durante las primeras semanas de la guerra se les permitió matar a 15 o 20 civiles durante los ataques a militantes de bajo rango. Los ataques a dichos objetivos se llevaban a cabo típicamente utilizando municiones no guiadas conocidas como “bombas tontas”, dijeron las fuentes, destruyendo hogares enteros y matando a todos sus ocupantes.

LEAR  Robert Badinter, quien lideró a Francia para poner fin a la pena de muerte y luchó contra la negación del Holocausto, ha fallecido a los 95 años. (Spanish)

Lavanda creó una base de datos de decenas de miles de individuos

En operaciones militares anteriores llevadas a cabo por las FDI, producir objetivos humanos solía ser un proceso más intensivo en mano de obra. Varias fuentes que describieron el desarrollo de objetivos en guerras anteriores a The Guardian, dijeron que la decisión de “incriminar” a un individuo, o identificarlo como un objetivo legítimo, sería discutida y luego aprobada por un asesor legal.

En las semanas y meses posteriores al 7 de octubre, este modelo para aprobar ataques en objetivos humanos se aceleró dramáticamente, según las fuentes. A medida que la ofensiva de las FDI en Gaza se intensificaba, dijeron, los comandantes exigían un flujo constante de objetivos.

“Estábamos constantemente bajo presión: ‘Tráenos más objetivos’. Realmente nos gritaron”, dijo un oficial de inteligencia. “Nos dijeron: ahora tenemos que fastidiar a Hamas, cueste lo que cueste. Lo que puedas, lo bombardeas.”

Para cumplir con esta demanda, las FDI comenzaron a depender en gran medida de Lavanda para generar una base de datos de individuos juzgados por tener las características de un militante de la Yihad Islámica Palestina o de Hamas.

Detalles sobre el tipo específico de datos utilizados para capacitar el algoritmo de Lavanda, o cómo el programa llegó a sus conclusiones, no están incluidos en los relatos publicados por +972 o Local Call. Sin embargo, las fuentes dijeron que durante las primeras semanas de la guerra, la Unidad 8200 refinó el algoritmo de Lavanda y ajustó sus parámetros de búsqueda.

Después de muestrear aleatoriamente y verificar sus predicciones, la unidad concluyó que Lavanda había logrado una tasa de precisión del 90%, dijeron las fuentes, lo que llevó a las FDI a aprobar su uso generalizado como una herramienta de recomendación de objetivos.

Lavanda creó una base de datos de decenas de miles de individuos marcados como miembros en su mayoría de bajo rango de la ala militar de Hamas, añadieron. Esto se usó junto con otro sistema de apoyo a decisiones basado en inteligencia artificial, llamado Evangelio, que recomendaba edificios y estructuras como objetivos en lugar de individuos.

Los testimonios incluyen el testimonio de primera mano de cómo los oficiales de inteligencia trabajaron con Lavanda y cómo se podía ajustar el alcance de su red. “En su auge, el sistema logró generar 37,000 personas como posibles objetivos humanos,” dijo una de las fuentes. “Pero los números cambiaban todo el tiempo, porque depende de dónde pongas el límite de lo que es un operativo de Hamas.”

Agregaron: “Hubo momentos en los que un operativo de Hamas se definía de manera más amplia, y entonces la máquina empezaba a traernos todo tipo de personal de defensa civil, agentes de policía, en quienes sería una lástima desperdiciar bombas. Ayudan al gobierno de Hamas, pero realmente no ponen en peligro a los soldados.”

Antes de la guerra, Estados Unidos e Israel estimaban la membresía en la ala militar de Hamas en aproximadamente 25-30,000 personas.

Relacionado: ‘El Evangelio’: cómo Israel usa la inteligencia artificial para seleccionar objetivos en los bombardeos en Gaza

LEAR  Las conversaciones en París se centrarán en un acuerdo de rehenes que podría detener los combates en Gaza.

En las semanas posteriores al ataque de Hamas el 7 de octubre en el sur de Israel, en el cual los militantes palestinos mataron a casi 1,200 israelíes y secuestraron a unas 240 personas, las fuentes dijeron que se tomó la decisión de considerar a los hombres palestinos vinculados a la ala militar de Hamas como posibles objetivos, independientemente de su rango o importancia.

Los procesos de selección de objetivos de las FDI en la fase más intensiva del bombardeo también se relajaron, dijeron. “Hubo una política completamente permisiva con respecto a las víctimas de operaciones [de bombardeos]”, dijo una fuente. “Una política tan permisiva que en mi opinión tenía un elemento de venganza.”

Otra fuente, que justificó el uso de Lavanda para ayudar a identificar objetivos de bajo rango, dijo que “cuando se trata de un militante junior, no quieres invertir mano de obra y tiempo en ello”. Dijo que en tiempos de guerra no había tiempo suficiente para “inculpar a cada objetivo cuidadosamente”.

“Entonces estás dispuesto a asumir el margen de error de usar inteligencia artificial, arriesgando daños colaterales y civiles muriendo, y corriendo el riesgo de atacar por error, y vivir con ello,” agregaron.

‘Es mucho más fácil bombardear la casa de una familia’

Los testimonios publicados por +972 y Local Call pueden explicar cómo una fuerza militar occidental con capacidades tan avanzadas, con armas que pueden realizar ataques muy precisos, ha llevado a cabo una guerra con un vasto costo humano.

Cuando se trataba de atacar a sospechosos de bajo rango de Hamas y la Yihad Islámica Palestina, dijeron, la preferencia era atacar cuando se creía que estaban en casa. “No estábamos interesados ​​en matar [a militantes de Hamas] solo cuando estaban en un edificio militar o involucrados en una actividad militar,” dijo uno. “Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones.”

Esta estrategia implicaba un mayor número de víctimas civiles, y las fuentes dijeron que las FDI impusieron límites preautorizados sobre el número de civiles que consideraban aceptable matar en un ataque dirigido a un solo militante de Hamas. Se dijo que la proporción había cambiado con el tiempo y variaba según la jerarquía del objetivo.

Según +972 y Local Call, las FDI consideraron permisible matar a más de 100 civiles en ataques a funcionarios de alto rango de Hamas. “Teníamos un cálculo sobre cuántos [civiles podrían ser asesinados] para el comandante de la brigada, cuántos [civiles] para el comandante de un batallón, y así sucesivamente,” dijo una fuente.

“Había regulaciones, pero eran simplemente muy permisivas,” añadió otra. “Hemos matado personas con daños colaterales en números altos de dos dígitos, si no en los 100 bajos. Estas son cosas que no habían ocurrido antes.” Parece que hubo fluctuaciones significativas en la cifra que los comandantes militares tolerarían en diferentes etapas de la guerra.

Una fuente dijo que el límite de víctimas civiles permitidas “subió y bajó” con el tiempo, y en un momento fue tan bajo como cinco. Durante la primera semana del conflicto, dijo la fuente, se dio permiso para matar a 15 no combatientes para eliminar a militantes juniors en Gaza. Sin embargo, dijeron que las estimaciones de caídas civiles eran imprecisas, ya que no era posible saber definitivamente cuántas personas había en un edificio.

LEAR  "Obedecer y Callar" para sobrevivir en la región de Colombia controlada por grupos armados.

Otro oficial de inteligencia dijo que más recientemente en el conflicto, se redujo nuevamente la tasa de daños colaterales permitida. Pero en una etapa anterior de la guerra se autorizó matar hasta “20 civiles no involucrados” por un solo operativo, independientemente de su rango, importancia militar o edad.

“No solo puedes matar a cualquier persona que sea un soldado de Hamas, lo cual está claramente permitido y legítimo en términos de derecho internacional,” dijeron. “Pero te dicen directamente: ‘Se te permite matarlos junto con muchos civiles.’ … En la práctica, el criterio de proporcionalidad no existía.”

La declaración de las FDI dijo que sus procedimientos “requieren realizar una evaluación individual de la ventaja militar anticipada y de los daños colaterales esperados … Las FDI no llevan a cabo ataques cuando los daños colaterales esperados del ataque son excesivos en relación con la ventaja militar”. Añadió: “Las FDI rechazan rotundamente la afirmación con respecto a una política de matar a decenas de miles de personas en sus hogares.”

Expertos en derecho humanitario internacional que hablaron con The Guardian expresaron alarma por los relatos de las FDI que aceptaban y preautorizaban ratios de daños colaterales de hasta 20 civiles, especialmente para militantes de menor rango. Dijeron que los ejércitos deben evaluar la proporcionalidad para cada ataque individual.

Un experto en derecho internacional en el Departamento de Estado de EE. UU. dijo que “nunca ha escuchado remotamente que una ratio de uno a 15 sea considerada aceptable, especialmente para combatientes de bajo nivel. Hay un margen de maniobra, pero eso me parece extremo”.

Sarah Harrison, una ex abogada del Departamento de Defensa de EE. UU., ahora analista en Crisis Group, dijo: “Si bien puede haber ciertas ocasiones en las que 15 muertes de civiles colaterales podrían ser proporcionadas, hay otras ocasiones en las que definitivamente no lo serían. No puedes simplemente establecer un número tolerable para una categoría de objetivos y decir que será legalmente proporcional en cada caso.”

Independientemente de la justificación legal o moral de la estrategia de bombardeo de Israel, algunos de sus oficiales de inteligencia parecen ahora cuestionar el enfoque establecido por sus comandantes. “Nadie pensó en qué hacer después, cuando termine la guerra, o cómo será posible vivir en Gaza,” dijo uno.

Otro dijo que después de los ataques del 7 de octubre por parte de Hamas, la atmósfera en las FDI era “dolorosa y vengativa”. “Hubo una disonancia: por un lado, la gente aquí estaba frustrada porque no estábamos atacando lo suficiente. Por otro lado, ves al final del día que han muerto otros mil gacenses, la mayoría civiles.”

Sala de prensa de The Guardian: La crisis en desarrollo en el Medio Oriente
El martes 30 de abril, de 7 a 8:15 p.m. GMT, acompaña a Devika Bhat, Peter Beaumont, Emma Graham-Harrison y Ghaith Abdul-Ahad mientras discuten la crisis en rápido desarrollo en el Medio Oriente. Reserva tus entradas aquí o en theguardian.live