En medio del creciente debate sobre el papel de la inteligencia artificial en los conflictos armados, Microsoft ha confirmado su participación directa en uno de los más controvertidos del siglo XXI: la guerra en Gaza.
El 17 de mayo de 2025, Microsoft divulgó oficialmente que brindó servicios de inteligencia artificial avanzada, almacenamiento en la nube y herramientas de procesamiento de datos al ejército israelí durante su operación militar en Gaza. Esta revelación ha generado reacciones encontradas en la comunidad internacional, organizaciones de derechos humanos y dentro de la propia industria tecnológica.
¿Qué servicios proporcionó Microsoft?
De acuerdo con un blog publicado por la propia empresa, los servicios incluyeron:
-
Infraestructura en la nube Azure
-
Modelos de IA para traducción y transcripción de idiomas
-
Análisis de datos e inteligencia geoespacial
-
Consultoría y soporte técnico especializado
Estos servicios fueron utilizados principalmente, según Microsoft, para operaciones de rescate de rehenes y recopilación de inteligencia. El objetivo declarado fue salvar vidas, minimizar daños colaterales y garantizar la protección de civiles.
Sin embargo, la línea entre la asistencia tecnológica y la colaboración bélica se vuelve difusa cuando los datos se usan en tiempo real para coordinar ataques militares, lo que ha encendido alarmas entre defensores de derechos humanos.
¿Qué reveló la investigación de Associated Press?
Una investigación independiente de Associated Press reveló que el ejército israelí empleó la nube Azure de Microsoft para procesar datos obtenidos mediante vigilancia masiva. Dichos datos eran posteriormente cruzados con sistemas de inteligencia artificial para selección de objetivos, una tecnología que permite a los militares identificar y seguir personas en tiempo real.
Este cruce entre IA, vigilancia y decisiones tácticas en terreno de conflicto ha generado una fuerte polémica, ya que puede dar lugar a errores graves y víctimas civiles, como lo han denunciado organizaciones internacionales.
Microsoft y su “principio de responsabilidad digital”
En su comunicado, Microsoft aseguró haber actuado bajo un marco ético claro: aprobando solicitudes “coherentes con sus principios” y denegando otras. También afirmó que no encontró evidencia de que sus herramientas fueran usadas para dañar civiles.
Pero, al mismo tiempo, la empresa reconoció que no tiene visibilidad sobre cómo los clientes implementan su software en servidores propios. Esta afirmación ha sido interpretada por muchos como una forma de deslindarse de una posible responsabilidad indirecta.
Para dar respuesta a la creciente presión, Microsoft abrió una auditoría interna y contrató a una firma externa para verificar el uso de su tecnología. Aún así, la compañía no ha revelado detalles específicos sobre qué modelos de IA fueron desplegados, ni cómo se monitorearon sus aplicaciones prácticas.
¿Quién controla la ética de la inteligencia artificial?
El caso ha generado una discusión global sobre la responsabilidad ética de las grandes tecnológicas en conflictos armados. Emelia Probasco, experta del Centro de Seguridad Nacional de Georgetown, lo resumió con esta frase:
“Estamos ante un momento sin precedentes en el que una empresa, no un gobierno, dicta las condiciones de uso a un Estado en guerra.”
Del otro lado, Cindy Cohn, directora de Electronic Frontier Foundation, si bien aplaudió el paso hacia una mayor transparencia por parte de Microsoft, también señaló que aún falta claridad sobre el impacto real de estas herramientas en el terreno.
Impacto en Gaza y preocupaciones sobre derechos humanos
Según informes internacionales, el conflicto ha causado más de 50.000 muertes, incluyendo una alta proporción de mujeres y niños. Israel ha defendido su estrategia basada en inteligencia avanzada para localizar a militantes y liberar rehenes, pero los daños colaterales han sido enormes.
El uso de inteligencia artificial para tomar decisiones militares en entornos densamente poblados plantea preguntas difíciles:
-
¿Qué margen de error tienen los algoritmos?
-
¿Quién responde por un objetivo mal identificado?
-
¿Es ético automatizar decisiones de vida o muerte?
Organizaciones como Human Rights Watch y Amnistía Internacional han pedido a las tecnológicas que detallen sus contratos militares y establezcan límites claros al uso de IA en contextos bélicos.
La tendencia global: tecnología militarizada
El caso de Microsoft no es aislado. Empresas como Palantir, Amazon, Google y hasta startups emergentes en IA están cada vez más involucradas en contratos con gobiernos y ejércitos de todo el mundo.
Esta tendencia genera una dualidad incómoda:
-
Por un lado, la tecnología puede salvar vidas y optimizar operaciones críticas.
-
Por otro, puede ser usada para aumentar la letalidad y automatizar conflictos, muchas veces sin supervisión suficiente.
Conclusión: ¿Dónde está el límite?
La participación de Microsoft en la guerra de Gaza no solo refleja un cambio en la forma en que se libran los conflictos modernos, sino también un nuevo rol de las tecnológicas como actores políticos y estratégicos.
A medida que la inteligencia artificial avanza, también deben hacerlo las regulaciones, auditorías y marcos éticos que aseguren que su uso no derive en tragedias humanitarias.
La gran pregunta que queda en el aire es: ¿puede la IA ser verdaderamente neutral en tiempos de guerra?

Publicar un comentario