Se informa que Israel utilizó el sistema de inteligencia artificial ‘Lavender’ para identificar miles de objetivos dudosos en la guerra de Gaza.

En las semanas inmediatamente después del ataque sorpresa de Hamas el 7 de octubre a Israel, las Fuerzas de Defensa de Israel supuestamente apuntaron intencionalmente a hogares civiles y supuestamente utilizaron un programa basado en inteligencia artificial llamado Lavender para generar objetivos para asesinatos, generando decenas de bombardeos basados en decisiones tomadas con escasa revisión humana.

En un momento, el sistema utilizó vigilancia masiva en Gaza para generar una lista de 37,000 objetivos de bombardeo, incluyendo numerosos presuntos operativos de bajo nivel de Hamas que normalmente no serían blanco de operaciones de bombardeo, según un informe.

Las acusaciones, descubiertas por +972 Magazine y Local Call, se basan en entrevistas con seis oficiales de inteligencia israelíes que sirvieron durante el conflicto con Hamas en Gaza y estuvieron involucrados en el uso de inteligencia artificial para investigar objetivos.

Un oficial dijo que su papel en el sistema era simplemente un “sello de goma” en las decisiones de Lavender sobre objetivos, pasando solo unos segundos revisando personalmente las recomendaciones del sistema.

Los oficiales también describieron decisiones de ir tras los objetivos de Hamas en sus hogares mientras estaban junto a civiles, ya que la ubicación facilitaba confirmar su ubicación con herramientas de inteligencia. Supuestamente, los planificadores considerando ataques estaban dispuestos a permitir que hasta 15 o 20 civiles fueran potencialmente asesinados en el proceso de perseguir a un solo operativo de bajo nivel de Hamas.

“No estábamos interesados en matar a [los operativos de Hamas] solo cuando estaban en un edificio militar o comprometidos en una actividad militar”, dijo uno de los oficiales anónimos a las publicaciones. “Al contrario, las FDI los bombardearon en hogares sin dudarlo, como primera opción. Es mucho más fácil bombardear el hogar de una familia. El sistema está diseñado para buscarlos en estas situaciones.”

LEAR  Australia creará un órgano consultivo para abordar los riesgos de la inteligencia artificial.

“Se requiere un examen independiente por parte de un analista [de inteligencia], que verifica si los objetivos identificados son objetivos legítimos para el ataque, de acuerdo con las condiciones establecidas en las directrices de las FDI y el derecho internacional”, dijeron las FDI a los medios en respuesta a la investigación.

Los observadores criticaron las tácticas como inhumanas.

Tariq Kenney-Shawa, miembro de Al-Shabaka: The Palestinian Policy Network, llamó a los informes “repugnantes.”

Alex Hanna del Distributed AI Research Institute, por su parte, escribió en X, “Esto es repugnante y el futuro de la guerra AI para el Imperio de los EE.UU.”

Los soldados a menudo confiaban más en el sistema que en el juicio de sus propios colegas dolientes después del 7 de octubre, dijo un oficial de inteligencia que utilizó Lavender, desarrollado por la élite Unidad 8200 de Israel, a The Guardian.

“Esto es sin precedentes, que yo recuerde”, dijo el oficial, añadiendo. “Todos allí, incluyéndome a mí, perdimos personas el 7 de octubre. La máquina lo hizo fríamente. Y eso lo hizo más fácil.”

En un comunicado a The Guardian, las FDI negaron el uso de la inteligencia artificial para generar objetivos militares confirmados, y dijeron que Lavender se utilizaba para “cruzar fuentes de inteligencia, para producir capas actualizadas de información sobre los operativos militares de organizaciones terroristas.”

“Las FDI no utilizan un sistema de inteligencia artificial que identifique operativos terroristas o intente predecir si una persona es terrorista”, añadieron. “Los sistemas de información son simplemente herramientas para los analistas en el proceso de identificación de objetivos.”

Según el ministerio de salud del territorio, se estima que 33,000 palestinos han sido asesinados en la campaña de Israel en Gaza, la mayoría de ellos civiles.

LEAR  Registro de daños causados por la agresión rusa detalla cómo obtendrán dinero de Rusia para pagar compensaciones.

Israel ha enfrentado una continua escrutinio por el alto número de civiles muertos en sus operaciones, que han apuntado a áreas residenciales, hospitales y campamentos de refugiados. Las FDI dicen que Hamas frecuentemente sitúa actividades militares en áreas civiles como un medio de utilizar escudos humanos.

Las tácticas de apuntar de las FDI han sido objeto de una nueva ronda de críticas internacionales después de que Israel matara a siete trabajadores de World Central Kitchen en un ataque aéreo en Gaza el lunes.