La muerte de siete integrantes de la ONG World Central Kitchen, que se encargaba de entregar alimento en la Franja de Gaza, “pone de relieve el peligro extremo en el que trabajan y seguirán trabajando” quienes se encargan de tareas humanitarias en ese territorio, dijo este miércoles el titular de la Organización Mundial de la Salud (OMS), Tedros Adhanom Ghebreyesus. El funcionario dijo que la OMS está “horrorizada” por estos “asesinatos”.

Este caso, en el que un convoy de World Central Kitchen fue blanco de un ataque israelí con drones, generó múltiples reacciones internacionales en el marco de una guerra que ya dejó más de 33.000 muertos en la Franja de Gaza.

Las manifestaciones de repudio y los pedidos de que se investigue de manera rápida e independiente lo ocurrido y de que los responsables rindan cuentas provinieron en muchos casos de los países de los que eran originarios los integrantes de la ONG: tres eran británicos, uno australiano, uno polaco, uno palestino y otro tenía la doble nacionalidad estadounidense y canadiense.

El primer ministro de Polonia, Donald Tusk, manifestó a las autoridades israelíes que “la gran mayoría” de los polacos ha mostrado “plena solidaridad” con Israel desde octubre, pero les advirtió: “Ahora están sometiendo esta solidaridad a una dura prueba. El trágico ataque y su reacción han generado una ira comprensible”.

Según informó la agencia de noticias Efe, el embajador de Israel en Varsovia, Yacov Line, le reprochó a “la extrema izquierda y la extrema derecha” de Polonia sus críticas a Israel por este episodio y agregó: “Los antisemitas siempre serán antisemitas”. Este miércoles, Line, que fue “invitado” a una reunión en la cancillería, emitió un nuevo mensaje en el que pone énfasis en las condolencias por estas “trágicas” muertes. También los gobiernos de Reino Unido y Australia convocaron a los embajadores israelíes en sus países.

El primer ministro israelí, Benjamin Netanyahu, reconoció que se cometió un error, lo lamentó y manifestó que se investigarán estos hechos.

Para Pedro Sánchez, el presidente de España –de donde es originario el fundador de la ONG, el chef José Andrés–, las explicaciones que dio Israel sobre este bombardeo son “insuficientes”. Sánchez señaló que las autoridades israelíes conocían “la acción y el itinerario” de World Central Kitchen en Gaza.

El primer ministro británico, Rishi Sunak, conversó con Netanyahu y le manifestó que “demasiados trabajadores humanitarios y civiles comunes y corrientes han perdido la vida en Gaza y que la situación es cada vez más intolerable”, según informó su gobierno.

A su vez, altos jerarcas de la Unión Europea, entre ellos el jefe de la diplomacia, Josep Borrell, y el comisario de Gestión de Crisis, Janez Lenarcic, reclamaron una “rápida” investigación de este ataque “atroz” y una aplicación “plena, inmediata y efectiva” de la orden que emitió la Corte Internacional de Justicia de tomar medidas para prevenir actos de genocidio en Gaza, en particular para evitar que se impida, “mediante cualquier acción, la entrega de asistencia humanitaria urgente”.

Selección de objetivos: el papel de la IA en la ofensiva en Gaza

Mientras aumentan las críticas por los ataques a civiles, el periódico israelí +972 informó que el uso de un sistema de inteligencia artificial llamado Lavender fue determinante en los primeros días de la guerra en Gaza, en octubre, para que Israel eligiera los blancos sobre los cuales lanzar su ofensiva. El sistema llegó a identificar a 37.000 palestinos como supuestos milicianos de Hamas, y en varios casos se los atacó en sus viviendas, de noche, cuando podían estar junto a sus familias, agregó.

El periódico, que cita como fuentes los testimonios de seis oficiales de inteligencia israelíes que estuvieron involucrados directamente en estas acciones, afirma que “Lavender ha desempeñado un papel central en el bombardeo sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra”. Agrega que, “de hecho, según las fuentes, su influencia en las operaciones militares fue tal que esencialmente trataron los resultados de la máquina de IA ‘como si fuera una decisión humana’”.

De acuerdo con esta investigación, citada por The Guardian y Efe, “el ejército dio una amplia aprobación para que los oficiales adoptaran las listas de muerte de Lavender, sin necesidad de verificar minuciosamente por qué la máquina tomó esas decisiones ni de examinar los datos de inteligencia en bruto en los que se basaban”.

Los responsables humanos de los ataques “dedicaban personalmente sólo unos ‘20 segundos’ a cada objetivo antes de autorizar un bombardeo”, pese a que el sistema supuestamente tiene un margen de error de 10%. Esto implica que puede señalar como blancos a personas que no son combatientes.