Microsoft y su relación con el ejército israelí: Protestas y dilemas éticos

Empleados se manifiestan contra contratos de Microsoft con el ejército de Israel en medio de crecientes preocupaciones sobre el uso de IA en operaciones militares.

Una protesta silenciosa pero contundente

La reciente protesta de cinco empleados de Microsoft durante una reunión con el CEO Satya Nadella ha generado una ola de debates y cuestionamientos sobre la relación de la compañía con el ejército israelí. Durante un evento corporativo en Redmond, Washington, los trabajadores revelaron camisetas con la frase “Does Our Code Kill Kids, Satya?”, en referencia a los contratos de la empresa con las fuerzas armadas israelíes.

Microsoft ha sido acusada de proporcionar inteligencia artificial y servicios de computación en la nube al ejército de Israel, utilizada en la selección de objetivos para bombardeos en Gaza y el Líbano. Imágenes del evento muestran que el CEO de la compañía continuó su presentación sin reconocer la protesta, mientras los empleados eran escoltados fuera de la sala.

El papel de Microsoft en la guerra de Gaza y el Líbano

Una investigación de la Associated Press reveló que los sofisticados modelos de IA de Microsoft y OpenAI han sido utilizados por el ejército israelí para seleccionar objetivos durante los conflictos recientes. Según datos internos filtrados, el uso de estos modelos en plataformas como Azure aumentó casi 200 veces después del ataque de Hamás el 7 de octubre de 2023.

Uno de los incidentes más polémicos fue un ataque aéreo israelí en 2023 que alcanzó un vehículo civil en el Líbano, matando a tres niñas y a su abuela. Este tipo de errores ha suscitado preocupaciones éticas en torno al papel de la IA y su posible impacto en conflictos geopolíticos.

Represión interna y despidos

La manifestación del lunes no es el primer caso de represión interna en Microsoft ante la creciente presión de algunos empleados. En octubre de 2023, la empresa despidió a dos trabajadores que organizaron una vigilia por refugiados palestinos dentro de su sede. La compañía justificó las acciones diciendo que los despidos fueron hechos “según políticas internas”, pero se negó a dar mayores detalles.

Este tipo de represalias ha creado una sensación de temor entre los empleados que buscan expresar sus preocupaciones sobre el uso de tecnología con fines militares. Mientras algunos defienden el apoyo a Israel, otros argumentan que dichos contratos violan los principios de derechos humanos de la empresa.

¿Rentabilidad sobre ética?

Microsoft ha declarado en varias ocasiones que sus tecnologías no deben ser utilizadas para dañar a las personas, destinarse a la vigilancia masiva o violar la privacidad de los usuarios. Sin embargo, el contrato con el ejército israelí sugiere un dilema moral para la compañía.

Abdo Mohamed, ex-empleado de Microsoft y uno de los despedidos por la vigilia de octubre, ha sido un fuerte crítico de la política de la empresa. Como parte del grupo No Azure for Apartheid, Mohamed afirmó: Microsoft prioriza las ganancias sobre sus compromisos con los derechos humanos.

Aunque la empresa no ha emitido declaraciones sobre la reciente protesta, la creciente presión interna y mediática podría empujarla a reconsiderar sus contratos con el ejército israelí.

El caso Microsoft y el debate global sobre IA

El caso de Microsoft no es el único en el que las grandes tecnológicas se ven envueltas en dilemas éticos relacionados con la guerra y la inteligencia artificial. Empresas como Amazon, Google y Palantir Technologies han sido criticadas en el pasado por colaborar en proyectos militares y de vigilancia.

A medida que la IA se convierte en una herramienta cada vez más poderosa, las preguntas sobre su uso en conflictos bélicos se hacen más urgentes. Organizaciones de derechos humanos advierten que permitir que algoritmos seleccionen o faciliten ataques militares sin supervisión humana podría llevar a errores catastróficos y violaciones de derechos fundamentales.

El escrutinio sobre Microsoft y su relación con Israel es solo una muestra del debate más amplio sobre los límites éticos de la tecnología en tiempos de guerra.

Este artículo fue redactado con información de Associated Press