Algoritmos de muerte: inteligencia artificial y deshumanización en Gaza – Por Lina Merino

Compartir:

Algoritmos de muerte: inteligencia artificial y deshumanización en Gaza

                                                                                                                                   Por Lina Merino*

 

Un laboratorio de exterminio en tiempo real

Desde hace décadas, Palestina ha sido el escenario de una violencia estructural y colonial. Pero, con especial crudeza desde octubre de 2023, Gaza ha dejado de ser solamente una zona de violencia y resistencia para convertirse en algo mucho más siniestro: un genocidio investigado por la Corte Penal Internacional a petición de Sudáfrica y más de 50 países del mundo.

En ese marco, el Estado de Israel ha desplegado todo un laboratorio, en tiempo real, de las guerras del futuro. Netanyahu ha desplegado en el enclave a las Fuerzas de Defensa de Israel con toda una batería de tecnologías de inteligencia artificial (IA), aprendizaje automático, sistemas de reconocimiento biométrico y análisis predictivo, todo aplicado a la conducción de operaciones bélicas, al control de la población y a la selección de objetivos. No se trata sólo de una nueva táctica: es un salto cualitativo en la forma de hacer la guerra, acorde a la nueva fase en el modo de producción capitalista.

En este nuevo paradigma, la IA no reemplaza completamente al ser humano, pero lo despoja progresivamente de su capacidad crítica y su juicio ético. La toma de decisiones se automatiza. El tiempo operativo se reduce. El asesinato se vuelve una función matemática. Y lo más alarmante: el principio de distinción entre combatientes y civiles, piedra angular del derecho internacional humanitario, se diluye en el código binario de un algoritmo entrenado con datos incompletos, sesgados y anónimos.

Lavender, The Gospel y Where is Daddy?: la maquinaria algorítmica del exterminio

Uno de los sistemas más polémicos es Lavender, una base de datos impulsada por inteligencia artificial que analiza la información digital de los 2,3 millones de residentes de Gaza para determinar, mediante una calificación probabilística, su supuesta vinculación con Hamás o la Yihad Islámica. El sistema asigna un puntaje de peligrosidad que va del 1 al 100, y quienes obtienen las puntuaciones más altas son automáticamente marcados como blancos a eliminar, incluso sin pruebas concluyentes ni revisión humana sustantiva.

Este sistema ha sido responsable de más de 15.000 ataques entre octubre y noviembre de 2023, según la revista +972 Magazine. Su tasa de error —estimada en un 10%— ha sido considerada “tolerable” por las Fuerzas de Defensa de Israel. La implicancia es brutal: miles de personas han sido asesinadas por recomendación de un software, sin proceso judicial ni verificación humana exhaustiva.

Lavender no actúa solo. Está complementado por programas como Where is Daddy?, que rastrea a los individuos marcados por la IA y espera a que regresen a sus casas para lanzar un bombardeo que suele incluir a toda la familia. Otro sistema, llamado The Gospel, analiza datos de inteligencia para generar hasta 100 blancos diarios, priorizando infraestructura sospechada de estar vinculada a Hamás.

A estos se suma Fire Factory, un sistema que automatiza la planificación de ataques aéreos, asigna cargas de munición, propone cronogramas y reduce drásticamente el tiempo de decisión. La guerra, en este modelo,

se convierte en una operación logística desprovista de humanidad: eficiencia letal, con apariencia de precisión.

Vigilancia total: el “Facebook secreto” de los palestinos

Pero la violencia algorítmica no se limita a las bombas. También se aplica al control del territorio. El programa Blue Wolf, utilizado por el ejército israelí, captura imágenes de los rostros palestinos —incluidos niños y ancianos— y las compara con una base de datos de reconocimiento facial construida a partir de competiciones internas entre soldados, premiados por la cantidad de fotos recolectadas. Un exmilitar lo describió como “el Facebook secreto para palestinos”.

Además, en ciudades como Hebrón, se han instalado cámaras de escaneo facial que identifican automáticamente a los palestinos en puestos de control. El objetivo no es sólo el control: es la transformación de todo un pueblo en datos biométricos. Es la vigilancia masiva como política de dominación.

Empresas detrás del genocidio: la complicidad del complejo tecno-militar

Las tecnologías utilizadas por Israel en Gaza no son desarrolladas en un vacío. De acuerdo con una investigación de The Associated Press, empresas como Microsoft y OpenAI han brindado modelos de IA y servicios en la nube que fueron integrados en el proceso de selección de blancos militares durante los recientes ataques en Gaza y Líbano. Esta colaboración ha generado protestas internas en dichas compañías, cuyas y cuyos trabajadores han exigido explicaciones éticas frente al uso bélico de sus tecnologías.

Más allá del escándalo, lo que queda claro es que las principales corporaciones tecnológicas del mundo están participando activamente en el diseño de las guerras del siglo XXI. En el caso de Israel, estas herramientas forman parte de la doctrina de «fusión humano-máquina» que el actual comandante de la Unidad 8200 —bajo el seudónimo “General YS”— ha defendido en su libro The Human-Machine Team, publicado en 2021. Allí plantea abiertamente la necesidad de crear sistemas que superen el “cuello de botella humano” para localizar y aprobar objetivos durante los conflictos armados. La idea es simple y brutal: eliminar el juicio ético para acelerar la letalidad.

La guerra sin política: de Clausewitz a la distopía

Carl von Clausewitz afirmaba que “la guerra es la continuación de la política por otros medios” y que todo conflicto bélico está atravesado por una “trinidad” entre razón (la política), emoción (el pueblo) y azar (el ejército). En Gaza, esta trinidad ha sido sustituida por otra: el algoritmo, el dron y una horrorosa voluntad de exterminio. La IA no tiene política, ni pasiones, ni azar. Sólo procesa datos, probabilidades y márgenes de error aceptables.

La fricción, ese elemento caótico e imprevisible que para Clausewitz condicionaba toda estrategia militar, ha sido reemplazada por la falsa ilusión de una “inteligencia” sin “consciencia” que lava las culpas de decisiores políticos, empresarios tecnológicos, jerarcas castrenses,

soldados sahuesos y programadores, todos alimentando un espiral de supresión de su propia humanidad.

Cuando el juicio moral es sustituido por puntuaciones automatizadas, lo que se despliega no es una estrategia militar sino una forma de exterminio burocrática e industrial, tan bien caracterizada por Annah Arendt en “Eichhman en Jerusalén”.

La ética de la ciencia, borrada; la humanidad, anulada

El uso de IA por parte de Israel en Gaza es un acto de deshumanización sistemática. Los palestinos dejan de ser sujetos con derechos y nombres para convertirse en “objetivos de alto valor” según bases de datos opacas y algoritmos impersonales.

Los civiles son asesinados en bombardeos dirigidos, y sus nombres reemplazados por códigos numéricos. Sus hogares y sus hijos son sólo coordenadas GPS. El bombardeo de zonas residenciales, hospitales, escuelas y campos de refugiados no son “daños colaterales”, sino el resultado lógico de una política que “oculta” en las máquinas la decisión de matar.

Palestina es hoy el laboratorio de la guerra algorítmica con la complicidad y silencio de gran parte de la “comunidad” internacional. Lo que allí se prueba, pronto será exportado. La nueva fase del capitalismo, lejos de ser un camino de liberación tecnológica, se convierte así en una amenaza cuando es cooptada por el poder corporativo y colonial.

La IA puede ser una herramienta para el bien común, pero en manos de un poder deshumanizado, se convierte en el arma perfecta del exterminio. En Gaza no se está salvando a nadie: se está perfeccionando la técnica para matar sin remordimientos.

 

*Lina Merino es licenciada en Biotecnología y Biología Molecular, doctora en Ciencias Biológicas (UNLP), diplomada en género y gestión institucional (UNDEF), Profesora (UNAHUR), investigadora del Observatorio de Energía, Ciencia y Tecnología (OECyT) asociado a la plataforma Pueblo y Ciencia y al Centro Latinoamericano de Análisis Estratégico (CLAE).


 

Más notas sobre el tema