La inteligencia artificial cambiará para siempre la guerra

Un soldado ucraniano transporta un dron cerca de la línea del frente cerca de Avdiivka, región de Donetsk, Ucrania, viernes 17 de febrero de 2023.
Un soldado ucraniano transporta un dron cerca de la línea del frente cerca de Avdiivka, región de Donetsk, Ucrania, viernes 17 de febrero de 2023. Derechos de autor AP
Derechos de autor AP
Por Blanca Castro
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button
Copia/pega el link embed del vídeo de abajo:Copy to clipboardCopied

Los escenarios inexplorados de la inteligencia artificial en la guerra generan preocupación en la comunidad internacional, pero la carrera tecnológica-armamentística no se detiene: Ucrania ha lanzado su propio proyecto para la creación de estas armas.

PUBLICIDAD

Ucrania mira hacia el futuro y se embarca en la misión de desarrollar tecnología militar bajo la iniciativa Brave 1. Un grupo de cooperación internacional para crear todo tipo de sistemas de defensa y armamento no tradicional, como armas automatizadas o autónomas que, gracias a la inteligencia artificial, podrían operar de forma independiente y cambiar para siempre las operaciones militares. 

Pero su futura implementación es controversial. El gran debate es cuál será el papel de los humanos. César Pintado, profesor del Observatorio de Inteligencia, Seguridad y Defensa de España (CISDE) considera que es bastante "desaconsejable eliminar el factor humano" ya que el combate se ha vuelto "muy complejo y muy volátil".

Armas diseñadas para "pensar por sí solas", pero "carentes" de moral

"Constantemente hay misiones que se abortan por cuestiones éticas, legales, técnicas o simplemente por la propia evolución del combate”, dice a Euronews. 

Explica la iniciativa Brave 1 en un comunicado. Cortesía Brave 1.
La guerra activó a cientos de empresas ucranianas de tecnología de defensa, que desarrollan soluciones de vanguardia para librar una "guerra inteligente".Explica la iniciativa Brave 1 en un comunicado. Cortesía Brave 1.

La investigadora del Centro de Estudios sobre la Guerra y del Departamento de Ciencias Políticas y Gestión Pública de la Universidad del Sur de Dinamarca, Anna Nadibaidze, agrega que recindir de la presencia humana también implica "una pérdida de la capacidad moral" en los combates. 

"Un operador humano siempre existe la posibilidad, en teoría, de que un humano pueda ejercer la compasión y la empatía y el juicio humano, y un sistema que está entrenado con datos y preprogramado para hacer algo no tiene esa opción", apunta Nadibaidze.

No obstante, los dos analistas resaltan los beneficios que las "armas disruptivas" -término extendido para referirse al armamento con inteligencia artifical- podrían ofrecer en los conflictos armados, como mayor precisión y un menor número de bajas en las operaciones.  La lista incluye perros robots, armas con apariencia humanoide o enjambres de drones autónomos. 

Pero existe una serie de riesgos, al utilizar inteligencia artificial los algoritmos podrían tener sesgos en sus modelos de datos, como por ejemplo: errores de identificación facial biométrica o falta de una evaluación profunda de su entorno. Pintado, también analista del Estado Mayor de la Defensa de España, pone de ejemplo un vehículo blindado como el objetivo previamente establecido para el arma autónoma.

Drones Matrice listos para ser entregados al Ejército ucraniano en la región de Kiev, Ucrania, el 2 de agosto de 2022. Se espera que al integrar la inteligencia artifical en ellos ocurra una revolución armamentística.
Foto de AP.Drones Matrice listos para ser entregados al Ejército ucraniano en la región de Kiev, Ucrania, el 2 de agosto de 2022. Se espera que al integrar la inteligencia artifical en ellos ocurra una revolución armamentística.

“¿Qué pasa si ese blindado de momento ha sido capturado por fuerza propia o aliadas? Qué pasa si ese carro de combate, ese modelo, está siendo usado también por fuerzas aliadas o si está momentáneamente junto a tropas aliadas o contra zonas vedadas, como puede ser un templo o una escuela”, señala.

La carrera tecnológica-armamentística de Rusia, afectada por las sanciones internacionales

Para Ucrania es apenas el comienzo del camino. Para Rusia el desarrollo de armamento con inteligencia artificial es opaco.

“La posición de Rusia en la llamada carrera armamentística de la Inteligencia Artificial ha sido bastante dudosa. Y ahora con la situación económica principal, con las sanciones, con muchas empresas que abandonan el mercado ruso, eso crea muchos problemas para que puedan dar seguimiento a todas estas ambiciosas declaraciones sobre la posible integración de tecnología de IA de vanguardia en su armamento”, explica la investigadora. 

Lo más probable, según el analista, es que el uso de estas armas no ocurra en un futuro cercano, especialmente en la guerra de Ucrania.

“No tengo razón para pensar a día de hoy que Ucrania esté planteándose esa clase de soluciones. Al fin y al cabo, también estamos hablando del conflicto, en el que también hay que tener un especial cuidado en evitar una escalada que nos puede llevar a consecuencias inimaginables”, dijo Pintado. 

"Hay una necesidad urgente" para regular la inteligencia artificial en la guerra

Los escenarios inexplorados de la inteligencia artificial en la guerra generan una gran preocupación en la comunidad internacional. A nivel civil, el experto en IA Geoffrey Hinton, ha pedido una moratoria de seis meses en el desarrollo de esta tecnología para reflexionar sus posibles consecuencias. Nadibaidze, en la misma línea, pide a los países que aceleren su regulación.

"Los gobiernos de todo el mundo están muy interesados y visiblemente interesados en invertir y seguir invirtiendo mucho dinero en estas tecnologías. Hay una necesidad urgente de abordar esto con normas jurídicamente vinculantes, y hacer frente a estos desafíos, porque actualmente internacional, las normas internacionales actuales y el derecho internacional humanitario no son suficientes para hacer frente a estos desafíos. Estas leyes se hicieron cuando los seres humanos estaban a cargo", dice Nadibaidze.

E insiste: "La idea de que los llamados 'robots asesinos' adquieran conciencia propia y aparezcan en el campo de batalla es algo futurista, propio de la ciencia ficción y de las películas, y el debate no debería centrarse en eso. Debería tratarse de ver lo que ya está sucediendo".

Lea también: ¿Cómo utilizan los militares la IA?

Compartir esta noticiaComentarios

Noticias relacionadas

"No podemos esperar", Google y Bruselas acuerdan un pacto de IA para llenar el vacío legislativo

El creador de ChatGPT recomienda al Congreso de EE. UU. que regule el desarrollo de la IA

La Inteligencia Artificial afectará al trabajo del 80 % de la población activa