En un mundo donde casi todo ya se realiza a distancia, en un
aparente proceso de deshumanización, un
fenómeno tan humano como la guerra no podía quedar al margen. Nadie quiere ser
responsable o testigo directo de una matanza. Por eso, los militares han
inventado máquinas para que hagan el trabajo sucio. Pero parece haberse
iniciado un proceso imparable en el que se podría perder el control.
Parece innegable el papel que están teniendo en escenarios
como Afganistán o Iraq los drones,
esos avioncitos no tripulados, aunque dirigidos a distancia. Estos artilugios
de los que Estados Unidos es el principal fabricante –y usuario- en el mundo,
suelen realizar de manera discreta labores de reconocimiento y vigilancia de
objetivos, pero también de eliminación de los mismos.
Su uso ha sido tremendamente polémico en los últimos
tiempos. No es para menos si tenemos en
cuenta que las maniobras de estas aeronaves han dejado numerosas bajas civiles.
Se calcula que desde 2004 han provocado 2.000 víctimas, entre militares y
civiles.
Que mueran mujeres o
niños en cualquier conflicto bélico es inadmisible pero si esas muertes son
perpetradas por una máquina, aunque sea dirigida a control remoto por una
persona, la inquietud es aún mayor si cabe.
La investigación militar en este campo, sobre todo por parte
de la Fuerza Aérea de Estados Unidos, se está encaminando a eliminar errores
humanos en este tipo de tecnologías. Ello pasaría por hacer a las máquinas de
batalla totalmente autónomas.
![]() |
Manifestación contra los drones en Peshawar (Pakistán) (AP, Mohammad Sajjad) |
Así, parece anunciarse un tiempo no muy lejano en el que no
solo drones aéreos, sino también aparatos que puedan moverse por tierra o mar,
puedan decidir la eliminación de determinados objetivos en base a una serie de
algoritmos.
De paso, se le ahorraría a más un soldado un grave problema
de conciencia si ha tenido que ejecutar a un objetivo.
Matar sin conciencia
En un reciente estudio llevado a cabo por parte de la Fuerza
Aérea americana se llegó a la conclusión de que un 30% de los pilotos de dronessufrían problemas emocionales, llegándose al caso, incluso, de presentar episodios de estrés post traumático.
Aunque las misiones con aviones no tripulados se llevan a
cabo en Afganistán, el piloto ejerce su labor en alguna base militar
estadounidense, habitualmente en Nevada. La distancia no parece ser un obstáculo
para que acabe sintiendo empatía por la persona a la que quitará la vida. Se
trata de gente a la que previamente han estado siguiendo durante días o meses, personas
con una vida y una familia. Según apunta el Coronel Kent McDonald, coautor del
informe, “cuando tienes que matar a alguien u observar como son eliminados, eso
te puede provocar algunos
replanteamientos sobre la vida, una crisis existencial”.
La naturaleza humana del ejecutor podría retardar una
operación o incluso evitarla. Pero, claro, los drones son unos aparatos
costosísimos y ponerlos sobre el terreno también. La mejor forma de subsanar el
problema es sacando al ser humano de la escena. Es decir, que la máquina decida
por sí misma.
![]() |
Los "centínelas" eran los drones de guerra de Mátrix |
No hablamos de proyectos que sean ciencia ficción. Una
entidad solvente como Human Right Watch ha alertado sobre una incipiente
escalada en la investigación y fabricación de robots de guerra autónomos.
En su informe de 50 páginas “Perder la humanidad: Razones para rechazar el uso de robots de combate”, la organización advierte que estos
aparatos “están preparados para seleccionar y atacar objetivos sin intervención
humana”. En una situación en la que un ser humano decide si debe matar a otro
intervienen valores como la empatía, el perdón, la compasión…Todo ello se
reduciría a cenizas con los robots autónomos.
Además, se plantearían preguntas sin respuesta hasta el
momento: ¿Quién sería el responsable de una muerte? La responsabilidad se
podría diluir tanto que se perdería por completo. Esto nos llevaría a una grave
indefensión jurídica hacia las víctimas civiles de una intervención bélica. Por
otro lado, “que las máquinas decidan quién puede vivir y quién puede morir en
el campo de batalla sería permitir que
la tecnología vaya demasiado lejos”.
Human Right Watch advierte que estas máquinas podrían ser
una realidad en el terreno en 20 años y propone su prohibición de forma
absoluta.
El posible uso de robots de guerra autónomas es un signo de los
tiempos. Es la consecuencia inevitable de la forma de actuar de una sociedad
que cada vez delega más en las máquinas el trabajo incómodo. Pero por la misma
regla por la que, en un futuro cercano,
los robots entrarían en combate, también pilotarían aviones comerciales,
nos harían la comida o cuidarían a nuestros hijos cuando estemos en el trabajo. Cabría
plantearse si este es el escenario hacia el que queremos dirigirnos.
Comentarios