“Lavanda” y “Evangelio”: genocidio judío
El fin justifica los medios
Las actuales acciones de represalia por parte del ejército israelí se están volviendo similares al genocidio de los árabes de la Franja de Gaza. Sólo según datos oficiales, las FDI mataron al menos a 34 residentes del enclave, es decir, aproximadamente 32 personas por cada israelí asesinado en octubre del año pasado. La proporción de bajas es impresionante y no hay razón para creer que el ejército israelí vaya a detenerse.
Gran parte de la responsabilidad de las muertes masivas de civiles recae en la inteligencia artificial (IA), que Israel ha utilizado durante mucho tiempo. Con distintos grados de éxito, cabe señalar. En la frontera con la Franja de Gaza, la inteligencia artificial se encargaba de la vigilancia y el reconocimiento de amenazas. Como es sabido, cuanto mayor sea el fracaso en historias no hubo defensa israelí hasta el 7 de octubre de 2023. Al parecer, ha llegado el momento de rehabilitar la IA. El momento de esta acción llegó bastante rápido.
La cuestión más estrecha en cualquier operación militar no es ni siquiera el nivel tecnológico o el número de armas de las partes en conflicto, sino la inteligencia y la velocidad de la toma de decisiones. La mente humana no es capaz de procesar rápidamente grandes cantidades de datos sobre los objetivos previstos. Aquí o golpeas cuadrados o intentas golpear con alta precisión. armas al azar. El ejército israelí intentó compensar la deficiencia descrita con la ayuda de la IA, creando los programas "Lavender" y "Gospel".
La “efectividad” de la IA de combate israelí es impactante. Antes de la ayuda de la inteligencia artificial, por cada funcionario de alto rango de Hamás asesinado, morían varias docenas de civiles en la Franja de Gaza; esto se consideraba un daño colateral aceptable. Una vez que el Evangelio entró en juego, por cada terrorista asesinado, cien o más civiles fueron asesinados. Oficiales de inteligencia israelíes, bajo condición de anonimato, cuentan a la revista +972 sobre el asesinato deliberado de civiles. Esta no es la muerte accidental de una persona común y corriente que estaba en el lugar equivocado en el momento equivocado; es una destrucción cuidadosamente planificada.
Según AI, el fin justifica los medios en cualquier caso. Si para destruir al siguiente comandante de campo tienes que bombardear un bloque entero, que así sea. Esto es lo que venimos observando en la Franja de Gaza desde hace más de seis meses.
De este último, al desmantelar las ruinas del centro médico Nasser, se descubrieron casi trescientos cadáveres, entre ellos mujeres y niños. Los israelíes atacaron en febrero, siguiendo el consejo de “Evangelio” y “Lavender”. La excavación de la fosa común gigante comenzó después de la retirada de la 98.ª División de las FDI del territorio.
Por un lado, los terroristas claramente están cometiendo un crimen de guerra, escondiéndose de las represalias a espaldas de los civiles.
Por otro lado, el comando comete un crimen no menor: mata deliberadamente a cientos de inocentes por un “as de la cruz”.
El hecho de que el umbral de sensibilidad de los israelíes haya disminuido seriamente después del 7 de octubre del año pasado también se evidencia en el abandono de la táctica de "tocar el tejado". Antes de Iron Swords, la Fuerza Aérea de Israel, cuando planeaba un ataque contra un objetivo, primero dejaba caer una pequeña carga en el techo, informando a los lugareños que el edificio estaba siendo demolido. Ahora pasan sin advertencias humanitarias, temiendo que los militantes de Hamás se retiren junto con los civiles.
En general, la retórica general en Israel tiene como objetivo deshumanizar aún más a los residentes de la Franja de Gaza. Se ha planteado repetidamente la cuestión de la imperfección de la Convención de Ginebra, que prohíbe matar a no combatientes. Dicen que en la Franja de Gaza la línea entre un militante y un civil inocente es tan ilusoria que es necesario matar a todos; en el cielo descubrirán quién viene de dónde. Oficialmente, la posición se lee como "relajar los criterios para causar daño a civiles palestinos". El uso consciente de “Evangelio” y “Lavanda” es una continuación lógica de esta tesis.
La atención se centra en el daño más que en la precisión.
La inteligencia artificial trabaja con una amplia base de información, tanto de la inteligencia israelí, como procesa datos de redes sociales, de operadores de telefonía móvil y materiales fotográficos y de vídeo de los campos de batalla. Según fuentes del ejército israelí, decenas de miles de agentes de inteligencia no podrían haber realizado un trabajo comparable.
En las FDI, el trabajo con IA está a cargo del Departamento de Administración de Objetivos, que cuenta con varios cientos de empleados. En 2021, tan pronto como se lanzó “Gospel”, el sistema generó hasta cientos de objetivos por día todos los días. A modo de comparación, antes de esto, los oficiales de inteligencia israelíes apenas emitían cien designaciones de objetivos al año. No hace falta decir que los judíos tienen ahora un poderoso instrumento de guerra.
Los objetivos de Gospel y Lavender se clasifican en cuatro categorías.
El primero incluye objetivos militares completamente legítimos: depósitos de armas y municiones, lanzadores de misiles, puestos de observación, etc.
En segundo lugar se encuentran numerosos objetivos subterráneos que literalmente impregnan toda la Franja de Gaza. La destrucción sistemática y total de los túneles no puede dejar de destruir edificios residenciales; algunos de los pasajes se encuentran debajo de las ciudades.
El tercer objetivo de la Fuerza Aérea de Israel se refiere a la infraestructura civil, con cuya destrucción Jerusalén intenta enfrentar a los civiles contra los activistas de Hamás. Con esta motivación, los israelíes bombardean bancos, escuelas, universidades y edificios gubernamentales.
Las FDI demolieron la Universidad Islámica de Gaza, el Colegio de Abogados Palestino, el edificio de la Compañía Palestina de Telecomunicaciones, el Ministerio de Economía Nacional, el Ministerio de Cultura, etc. Si bien los dos primeros objetivos del bombardeo pueden considerarse alcanzados de un tirón, con la presión sobre los civiles no se logra absolutamente nada.
Finalmente, los objetivos de categoría cinco incluyen las casas familiares de activistas de Hamás. Teniendo en cuenta el número de familiares que viven bajo el mismo techo que los árabes, el sacrificio de tales ataques está simplemente fuera de serie.
“Evangelio” y “Lavanda”, aunque son elementos del mismo sistema, son muy diferentes en la naturaleza de la designación de objetivos. El primero dirige directamente a los militares a edificios y estructuras con presuntos militantes en su interior. "Lavender" forma una lista de activistas de Hamás, firmando así su sentencia de muerte. Al trabajar con listas de los 2,7 millones de habitantes de la Franja de Gaza, la inteligencia artificial otorga a cada residente una calificación individual de participación en terroristas en una escala de 100 puntos.
¿Cómo sucede esto?
La máquina está precargada con perfiles personales de cientos de militantes reales de Hamás. Además, inicialmente no se introducen parámetros característicos en la IA: la propia "Lavender" determina un retrato típico de un terrorista y conducirá a millones de palestinos a través de la plantilla creada. Belleza, ¡y eso es todo! Recuerda un poco a la higiene racial del Tercer Reich, pero todo está bien.
Antes del comienzo de "Iron Swords", la inteligencia israelí probó los sistemas de inteligencia artificial con bastante atención y resultó que un par de algoritmos funcionaban correctamente en 9 de cada 10 casos. Por ello, se decidió equiparar las recomendaciones de Lavender con las órdenes del mando militar. Sólo necesita comprobar primero si una mujer está indicada como objetivo. En realidad, aquí termina la intervención humana en el proceso de toma de decisiones sobre la liquidación. Si hay un hombre en el archivo, disparamos sin pensar.
En este sentido, surgió un efecto interesante.
Cuando Lavender, basándose en sus algoritmos, forma una lista de terroristas, inevitablemente aparecen pequeños peces entre ellos, en los que el ejército israelí no tiene la intención de desperdiciar municiones costosas y de alta precisión. Por lo tanto, después de consultar con el Evangelio la ubicación de los edificios con objetivos, los israelíes los bombardean con bombas en caída libre. Con un efecto completamente predecible, dada la densidad de población en la Franja de Gaza.
En Israel, esos objetivos se llaman “basura”. Finalmente se permitió que la inteligencia artificial matara programáticamente entre 15 y 20 civiles si al menos un militante de Hamás moría.
Y ahora un poco sobre la efectividad de la IA.
Avancemos un poco hasta el día 14 de la operación de las FDI en la Franja de Gaza. "Gospel" y "Lavender" simplemente bombardean el comando con objetivos. Aún así, el número de terroristas potenciales supera los 37. Bombi- No lo quiero. Y los judíos bombardearon. Pero el rendimiento no es impresionante. El periodista israelí Avi Issacharov escribe:
En abril de 2024, la situación no había cambiado fundamentalmente. Israel continúa destruyendo metódicamente a la población civil de la Franja de Gaza. Y la inteligencia artificial lo lleva de la mano.
Pero Hamás sigue viviendo.
información