Contacto ↗︎

En los últimos años, la Inteligencia Artificial ha experimentado un desarrollo vertiginoso, a un ritmo que las sociedades apenas pueden asimilar. Este avance acelerado nos obliga a cuestionarnos si este es realmente el camino que deseamos seguir como humanidad. El presente proyecto se centra en analizar los riesgos de la IA aplicada al desarrollo de armas autónomas, un ámbito que, pese a su trascendencia, aún no recibe la atención que merece, así como en examinar las implicaciones éticas que derivan de estos desarrollos tecnológicos.

El punto de inflexión: Nagorno Karabaj

Tomando como punto de partida el documental "¿Cómo frenar las guerras orquestadas por la inteligencia artificial?" (DW Documental, 2021) un hito significativo en la evolución de las armas autónomas ocurrió a finales de 2020, durante el conflicto entre Armenia y Azerbaiyán por el control del territorio de Nagorno Karabaj. En este enfrentamiento se emplearon por primera vez "municiones merodeadoras" o "drones suicidas" (como el modelo Harop fabricado por Israel Aerospace Industries (IAI)) de manera decisiva. Estos dispositivos, capaces de volar autónomamente hacia objetivos predeterminados y analizar el entorno durante horas antes de impactar directamente contra sistemas de defensa aérea, marcaron un antes y un después en la historia de los conflictos armados.

Según los datos presentados en el video, la victoria de Azerbaiyán, que había invertido en una flota de más de 200 unidades de cuatro modelos diferentes de drones kamikaze, frente a Armenia, que contaba con un único modelo de fabricación propia y alcance limitado, es considerada por expertos como Ulrike Franke, del Consejo Europeo de Relaciones Exteriores, como el primer conflicto ganado gracias al uso de sistemas de armas autónomas.

La carrera armamentística global

Desde entonces, se ha observado un creciente interés mundial por adquirir y desarrollar drones kamikaze cada vez más sofisticados, diseñados para atacar una mayor variedad de objetivos y operar con mayor independencia del control humano. La publicidad de uno de estos modelos con el lema "fire and forget" ilustra la preocupante tendencia hacia la automatización total de las decisiones letales.

El video analizado explica cómo las tensiones geopolíticas actuales han intensificado esta carrera armamentística, en la que participan naciones de todos los tamaños. El desarrollo de sistemas de enjambre, donde aviones pueden desplegar más de 100 drones diminutos capaces de saturar las defensas aéreas enemigas, ejemplifica la sofisticación creciente de estas tecnologías.

Riesgos y escenarios futuros

De acuerdo con los especialistas entrevistados en el video, se proyecta que dentro de aproximadamente dos décadas podrían existir sistemas de armamento completamente autónomos que operarían en entornos aéreos, terrestres y acuáticos. Estos dispositivos tendrían la capacidad de coordinar acciones en misiones complejas mediante el uso de inteligencia artificial avanzada.

Un riesgo fundamental de este escenario es la posible aparición de "guerras relámpago", conflictos iniciados por sistemas autónomos que reaccionan entre sí a velocidades que impiden la intervención humana efectiva. En tales circunstancias, serían los algoritmos quienes tomarían decisiones críticas sobre vida o muerte sin supervisión humana adecuada.

Para comprender mejor esta evolución tecnológica, Russell (2016) examina tres tecnologías contemporáneas:

  1. El vehículo autónomo: sistema al que se proporciona un destino y que selecciona rutas y navega independientemente mediante sensores visuales que monitorean el entorno.
  2. El software de ajedrez: programa diseñado para alcanzar la victoria que determina estrategias y movimientos específicos sin intervención externa.
  3. El dron armado: dispositivo que actualmente requiere control remoto humano para navegar, identificar objetivos y ejecutar ataques.

Un sistema de armas letales autónomas representa la convergencia de estas tecnologías: funciona como un dron sin supervisión humana directa, toma decisiones tácticas mediante algoritmos avanzados y utiliza tecnología de reconocimiento visual para desplazarse e identificar objetivos de forma independiente (Russell, 2016).

Algunos expertos en robótica, como Ron Arkin, argumentan que los sistemas de armas letales autónomas podrían reducir las víctimas civiles en conflictos armados. Sin embargo, Russell (2016) señala que este razonamiento asume implícitamente que, tras la implementación de armas autónomas, los escenarios donde se emplearía fuerza letal serían idénticos a aquellos donde intervienen soldados humanos.

Esta suposición, explica Russell (2016), es comparable a pensar que los misiles de crucero se utilizarían exclusivamente en las mismas situaciones donde antes se empleaban armas primitivas como lanzas. Resulta evidente que las armas autónomas difieren fundamentalmente de los combatientes humanos y su despliegue seguiría patrones completamente distintos, potencialmente como armas de destrucción masiva.