Los peligros de la Inteligencia Artificial como arma de guerra

La guerra en Ucrania ha mostrado como los drones autónomos pueden utilizarse como un arma, pero este es uno de los muchos usos de la IA en el ámbito militar.
La guerra en Ucrania ha mostrado como los drones autónomos pueden utilizarse como un arma, pero este es uno de los muchos usos de la IA en el ámbito militar. Derechos de autor AP/AP
Por Euronews
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

La guerra en Ucrania ha mostrado como los drones autónomos pueden utilizarse como un arma, pero este es uno de los muchos usos de la IA en el ámbito militar.

PUBLICIDAD

Rusia está utilizando ampliamente la llamada "munición merodeadora" (o "drones kamikaze") contra Ucrania. Esta se trata de una mezcla entre un dron "normal" y un cohete. En teoría, este tipo de munición puede bombardear una zona concreta, buscando y determinando el objetivo de forma independiente.

Estos dispositivos son los que suelen estar relacionados con el término "Inteligencia Artificial" (IA). Pero, de hecho, el "dron kamikaze" no es tan inteligente, y el alcance de la IA en asuntos militares es mucho más amplio.

¿Es la IA un descubrimiento reciente?

La verdad es que no. El propio término "Inteligencia Artificial" se utiliza en relación con el software desde los años cincuenta. El problema es que no existe una definición clara. En el siglo pasado, "Inteligencia Artificial" era el nombre que se daba a las capacidades que hoy tiene cualquier smartphone.

Las armas "inteligentes" también aparecieron en el siglo pasado. Ya entonces existían, por ejemplo, sistemas de guiado para misiles y proyectiles, que permitían seleccionar y priorizar "independientemente" un objetivo entre varios sin intervención humana. O los sistemas de defensa antiaérea y antimisiles de los buques, que, en caso de falta de tiempo para una decisión por parte de una persona, podían disparar ellos mismos contra lo que consideraban un misil que amenazaba al buque. O, por ejemplo, la conocida "mano muerta", un sistema que puede dar la orden de un ataque nuclear de represalia si considera que las personas que lo controlan ya han muerto.

Pero desde principios de este siglo, el perfeccionamiento de la IA avanza a pasos agigantados, como todos los demás ámbitos de la informática.

Según las Naciones Unidas, el primer caso registrado de un sistema autónomo que mata a una persona sin la participación de un operador ocurrió en la primavera de 2020 en Libia. Entonces, las tropas del Gobierno de Fayez al Sarraj, también conocido como Gobierno Acuerdo Nacional (GAN) utilizaron drones autónomos de fabricación turca contra soldados que apoyaban al mariscal Jalifa Haftar.

Vincent Boulanin, investigador senior del Instituto Nacional de Investigación por la Paz (SIPRI), afirma: "No se trata de una sola tecnología, sino de una característica habilitadora. Es como hablar de electricidad. Del mismo modo que la electricidad tiene aplicaciones completamente diferentes, la IA permite añadir algunas tecnologías de tal manera que las hace potencialmente más eficientes, más baratas, más compactas y más autónomas".

¿Cómo utilizan los militares la IA?

Según el SIPRI, prácticamente no quedan ámbitos de actividad militar en los que no se utilice la IA. Los drones son sólo un ejemplo. Según los analistas, en 2028 el volumen del mercado asociado a la IA en el ámbito militar superará los 13 700 millones de dólares. Al mismo tiempo, por supuesto, los distintos países tienen diferentes niveles de saturación con este tipo de sistemas.

  • El aspecto más conocido son los sistemas autónomos de combate, o drones. Pueden ser vehículos voladores, como el Bayraktar turco, y terrestres, en forma de pequeño tanque o vehículo blindado de transporte de tropas, y marítimos.

Estos aparatos pueden "cazar" de forma autónoma equipos y soldados enemigos en una zona determinada, detectar objetivos de forma autónoma y elegir el más importante de ellos.

  • El uso más "popular" de la IA es el mismo en la vida militar y en la civil: el análisis de enormes bases de datos para sustituir a las personas en actividades a veces tediosas y monótonas. Por ejemplo, cuando hay que examinar un gran número de fotografías aéreas y encontrar un objetivo concreto. Aquí ni siquiera estamos hablando de IA específicamente "militar". Aquí se utilizan los mismos esquemas que, por ejemplo, en los sistemas de reconocimiento facial en la calle.
  • Detección y análisis de posibles amenazas. La IA puede hacer recomendaciones basadas en estos datos mucho más rápido que un humano. Además, la IA, en teoría, está desprovista del "sesgo" inherente a los mandos humanos, y no sufre el efecto de "ojo borroso", especialmente importante en un entorno de combate que cambia rápidamente.
  • La IA es capaz no sólo de evaluar la situación en el campo de batalla, sino también, dentro de ciertos límites, de "predecir el futuro" basándose en la experiencia de las acciones del enemigo.
  • Pruebas y comprobaciones. La IA puede "simular" el funcionamiento de nuevos equipos militares, nuevos dispositivos e incluso nuevos conceptos tácticos, lo que reduce el coste y el tiempo necesarios para organizar pruebas reales.

¿Puede la IA controlar independientemente la batalla como en un juego de ordenador?

No. Todos los programas que pueden clasificarse como IA para aplicaciones militares realizan una gama muy limitada de tareas. Algunos analizan la situación, otros controlan drones autónomos, otros pueden efectivamente dar previsiones y "consejos" a los comandantes. En algunas condiciones, cuando el tiempo es críticamente corto, la IA puede "tomar una decisión" por sí misma.

Pero unir todo esto en un único plan de batalla sigue siendo tarea humana. Ni los militares ni los civiles confían lo suficiente en la IA como para permitirle librar "independientemente" una guerra o incluso una sola batalla. Detrás de la "consola más importante" siempre hay una persona.

¿Es peligroso utilizar la IA en la guerra?

Según Vincent Bulanen, investigador principal del Instituto de Investigación para la Paz de Estocolmo, existen tres niveles de riesgo asociados a la IA y su uso en asuntos militares.

  • El primer nivel es tecnológico. La IA está diseñada de tal manera que ni siquiera los propios desarrolladores pueden trazar siempre conexiones lógicas y entender por qué el robot "tomó" tal o cual decisión. Es lo que se denomina el "problema de la caja negra". Por lo tanto, ni los civiles ni los militares pueden, en sentido estricto, confiar plenamente en las decisiones de la IA. Y por ello, siempre existe al menos un riesgo teórico de que el robot realice alguna acción que no se esperaba de él.

Esto puede evitarse con un desarrollo más cuidadoso de los algoritmos. Existen algoritmos completamente "transparentes", pero no siempre son aplicables.

  • El segundo nivel es cómo la IA puede cambiar la forma en que organizamos las guerras y los conflictos. ¿Podría resultar más fácil para los humanos dar órdenes de matar si consideran que no hay peligro de muerte, dado que en el campo de batalla sólo hay robots, o la mayoría de ellos?

Esto plantea problemas humanitarios a gran escala. Los civiles estarán en la línea de fuego. En primer lugar, el problema de distinguir a un civil de un militante sigue siendo muy grande. En segundo lugar, el riesgo de catástrofes humanitarias aumentará porque aumentará el riesgo de nuevos conflictos. Después de todo, iniciar una "guerra de robots" en términos morales puede ser mucho más fácil.

Aquí, según Bulanen, es necesario enseñar a los militares a no confiar demasiado en la IA: no se trata de un "robot que nunca comete un error", sino de un sistema ordinario fabricado por el hombre que tiene sus limitaciones e inconvenientes. Al fin y al cabo, un robot, como un ser humano, toma decisiones basándose en determinados datos, y éstos pueden resultar incompletos, erróneos o deliberadamente distorsionados.

Vincent Boulanin, investigador principal del SIPRI:

"Hay cosas que los propios militares pueden hacer: en cuanto a tomar medidas de reducción de riesgos, en cuanto a formar a las personas que van a utilizar estos sistemas o decidir no adoptar un determinado sistema, porque el riesgo de accidente puede ser demasiado alto. Es decir, hablamos de autocontrol y de evaluación de riesgos".

  • El tercer nivel es la posibilidad de una distribución lo más amplia posible de estos sistemas. La IA es, de hecho, una "tecnología de doble uso". Se utiliza ampliamente en el ámbito civil, y es muy fácil para los especialistas adaptar los códigos públicos para su uso militar.

"No es como la tecnología nuclear, no se puede comprar un arma nuclear en la esquina. Y es bastante fácil desarrollar aplicaciones de IA. Los datos ya están ahí. Los métodos están ahí. Hay ingenieros formados por todo el mundo. Así que el riesgo potencial es que para desarrollar IA militar se necesita muy poco, los malhechores pueden acceder fácilmente a esta tecnología", aclara Boulanin.

PUBLICIDAD

Reducir este riesgo es muy difícil, ya que requerirá ciertos acuerdos restrictivos a nivel internacional. En primer lugar, pueden entrar en conflicto con la libertad de difusión de la información (cuando se trata de IA "pacífica"); y, en segundo lugar, estos documentos no importarán a los atacantes.

¿Cambiará la IA los futuros conflictos militares?, ¿sustituirán los robots a los soldados?

Hasta ahora, desde el punto de vista puramente tecnológico, no existe ningún robot que pueda sustituir al tirador con una ametralladora. Pero en muchos otros aspectos, la IA ya ha encontrado su aplicación más amplia. Un aspecto de la respuesta final a esta pregunta es ético.

El experto del SIPRI considera: "Algunas personas adoptan un enfoque práctico. Si en teoría la IA puede ayudar a reducir las bajas civiles, ¿por qué no utilizar la automatización? Otros partirán de fundamentos. No es normal que automaticen este tipo de decisiones, aunque pueda ser eficaz en algún aspecto. No querrán hacerlo porque ése es su principio ético".

El concepto de la toma de decisiones por parte de los mandos ya está cambiando. En primer lugar, estas decisiones se tomarán mucho más rápido, y en general esto puede acelerar el curso de los conflictos armados. Los comandantes confiarán más en el "asesoramiento" de la IA, y esto conlleva los riesgos ya mencionados.

Desde el punto de vista del derecho internacional que rige el desarrollo de las hostilidades -las "leyes y costumbres de la guerra"-, la IA no destaca en nada. Un dron controlado por IA no es diferente de un misil con un sistema de guía "normal", o de una bomba "estúpida" sin guía. Si hablamos, por ejemplo, de crímenes de guerra, las personas seguirán siendo responsables de ellos, aunque la "decisión la haya tomado" el dron.

PUBLICIDAD
Compartir esta noticiaComentarios

Noticias relacionadas

Arte | Cuando la Inteligencia Artificial se arrepiente de haber destruido a la Humanidad

Ucrania evita un ataque con drones explosivos lanzado por Rusia

Rusia veta una resolución del Consejo de Seguridad de la ONU sobre Corea del Norte