"Difícil movilizar a la opinión pública contra unas máquinas de las que un Gobierno siempre podrá decir que eliminaron a tal o cual fanático terrorista". Foto: Archivo
Agencias
Los drones son la cara reluciente de la Luna, y quizá por eso es el debate que el presidente de Estados Unidos Barak Obama y el lobby armamentista dejan traslucir
Por Andrés Pérez -LA MAREA

 La escena se produjo a finales de febrero pasado en un anfiteatro de la Escuela Militar de París, frente al Campo de Marte y la Torre Eiffel. "Robótica Militar Terrestre" era el tema de reflexión. La potencia anfitriona oficial eran dos think tank, Forum du Futur y Minerve, con varios generales y almirantes franceses aparentemente jubilados. Pero, claro, todo el mundo se cuadró cuando llegaron los auténticos jefes, oficiales en activo a cargo del programa de robots militares franceses. Y ante ese plantel, más interesado por los avances técnicos que por consideraciones humanitarias, el director de Human Rights Watch (HRW) Francia, Jean-Marie Fardeau, soltó: "Una coalición de ONG vamos a emprender en abril una campaña en pro de un Tratado Internacional de Prohibición de los robots militares autónomos".

El anuncio no impresionó mucho a los asistentes, pero Fardeau les refrescó la memoria: "También hubo reticencias a la Convención de Prohibición de Minas Antipersona y a la Convención de Prohibición de Bombas de Racimo hace unos años, y luego entraron en vigor, con apoyo de Francia". Ahora ha empezado la batalla de la sociedad civil contra los robots militares, contra los sistemas automatizados de armas que pueden matar o contribuir a matar a seres humanos guiados por programas informáticos. Una coalición de ONG, liderada por Human Rights Watch, la agrupación Iniciativa de Mujeres Premio Nobel -a la que pertenece Rigoberta Menchú- y varios universitarios especializados en robótica quieren contener esta evolución tecnológica mayúscula de los ejércitos. Una evolución que se suele simplificar con el mito cinematográfico de Terminator.

En realidad, sería mejor inventar un nuevo mito para comprender en qué se embarcan los ejércitos del mundo desarrollado: enjambres de avispas robóticas, minúsculas o gigantes, con cámaras, o sensores, o misiles, o todo a la vez, y manadas de tanques automáticos con cañones, de toros mecánicos gigantes con bombas o ametralladoras, dirigidos por superordenadores que permiten que ciertas unidades entren en combate, en cualquier parte del mundo, hasta a mach 16,5, esto es, a la hipersónica velocidad de 20.000 km/h. Es el horizonte fijado por varios ejércitos de países ricos entre 2030 y 2040.

La rebelión de los profesionales

El lanzamiento de la campaña mundial a favor de un tratado internacional de prohibición de la autonomía de las máquinas en los sistemas de combate tendrá lugar oficialmente el 22 de abril próximo, con una ceremonia en Londres, donde los organizadores anuncian que otros premios Nobel van a sumarse a ella. Más allá de esta campaña, una rebelión de profesionales está en marcha. Este marzo, una de las principales revistas técnicas de Gran Bretaña, The Engineer, ha publicado por primera vez un llamamiento a la resistencia de los ingenieros contra el desarrollo de armas automatizadas autónomas. Iba firmado por el especialista en robótica e inteligencia artificial Noel Sharkey, profesor de la Universidad de Sheffield, iniciador en 2009 del Comité Internacional para el Control de las Armas Robóticas.

El acelerón de las organizaciones humanitarias y de los especialistas independientes tiene su origen en lo ocurrido desde otoño pasado. No sólo porque se haya desvelado, por primera vez, la inmensidad de la acción de los ya celebérrimos robots volantes armados Predator o Reaper. Según cálculos validados por un senador de Estados Unidos, éstos podrían haber matado a 4.700 personas, principalmente en Yemen, Pakistán y Somalia, además de en Irak y en Afganistán. La cifra confirma los peores escenarios que elaboraban las ONG: Washington ya "ha rebajado el umbral de la entrada en guerra" a causa del automatismo que ofrecen los drones; también ha entrado en una lógica de "guerra permanente". Y además, los robots sirven para despolitizar los "daños colaterales", la muerte de civiles no combatientes, puesto que el error ya no es político o de cadena de mando. Es sólo un fallo técnico, un problema de programación, de navegación, un bug. A todo el mundo se le cuelga el ordenador alguna vez, oiga.

Los drones son la cara reluciente de la Luna, y quizá por eso es el debate que el presidente de Estados Unidos Barak Obama y el lobby armamentista dejan con tanta alegría traslucir. Difícil movilizar a la opinión pública contra unas máquinas de las que un Gobierno siempre podrá decir que eliminaron a tal o cual fanático terrorista, y además sin poner en peligro las vidas de nuestros soldados. Parece un negocio redondo.

Por el contrario, el panorama y la visión que tendrá la opinión pública sobre la robotización cambia si lo que se explica es la realidad. Que el lugar donde más han entrado en acción los primeros robots terrestres de inteligencia, patrulla y combate, los Guardium, desde 2010, es en el lado israelí de la frontera Israel-Gaza. También que en la frontera entre las dos Coreas, se prueban robots Samsung, que consideran blanco a cualquier humano por el mero hecho de pasar por zona prohibida o que una parte del ejército francés experimenta la "robotización del contacto" con "minirobots de choque" y de inteligencia.

La opinión pública debería saber que el primer modelo de tanque robotizado, el MK I Avantguard, con una torreta que podrá en su día llevar un cañón, ya existe y está en venta, firmado Israel. Y que el segundón en esa liga (firmado Estados Unidos), es el ARV-A-L XM1219, otro tanque robot, así como que la proliferación de robots de guerra, como en su día hubo proliferación nuclear, ya ha empezado, y por ejemplo China o Pakistán han obtenido, vía Israel, tecnología norteamericana.

La visión sobre los robots también cambiaría de saberse que, con la excusa de proteger en el último segundo un buque o base militar en el que podría colar un kamikaze o un torpedo, ya existen los primeros sistemas informatizados totalmente autónomos, con apertura de fuego decidida por la máquina (C-RAM y Phalanx CIWS, entre otros).

Con esos datos, el panorama cambia radicalmente. La robotización, como explica un texto teórico del Ejército francés, "no plantea el problema de `¿cómo combatir?', sino el problema de `¿quién combate?'". Y, en palabras de un coronel francés reacio a la robotización de la guerra, "combatir fanatismos inhumanos con automatismos igualmente inhumanos desencadenará una barbarie aún más salvaje que la actual".

Más allá de los drones, es en tierra y en el software donde se juega la próxima batalla. La I+D en motricidad de robots terrestres está registrando avances espectaculares, y tanto ejércitos como firmas de armamento, principalmente norteamericanas e israelíes, quieren quemar etapas. En este tipo de software, que los gobiernos empiezan a autorizar, se prevé cada vez más, no simples robots teledirigidos, sino máquinas con formas de semiautonomía de decisión, embrión de inteligencia artificial y rapidez de acción hipersónica. Tanto que los soldados humanos, pese a seguir figurando como jefes en los documentos oficiales (¿pura precaución semántica de cara a la galería y de cara al Derecho?) empiezan a estar, por emplear el término militar al uso, "fuera del circuito".



El paso definitivo

Coincidiendo con la publicación de un primer informe de HRW sobre la cuestión, en noviembre pasado, el Departamento de Defensa estadounidense dio el paso definitivo. Publicó su Directiva 3000.09, lo que convirtió a Estados Unidos en el primer país que, al regularlas, reconoce oficialmente que su objetivo es "utilizar funcionalidades autónomas y semiautónomas en los sistemas de armas, tanto los pilotados como los no pilotados".

"Las hojas de ruta de todos los cuerpos militares de Estados Unidos desde 2004 fijan el objetivo de desarrollar sistemas de armas autónomas en las que el vehículo navega por aire, tierra o mar, y apunta a blancos mediante un programa informático", explica Noel Sharkey a La Marea. "El asunto clave a debatir es la selección de blancos, y en ello entra la cuestión de la inteligencia artificial. Por el momento, no existen sistemas de sensores o de visión que permitan a un arma autónoma seleccionar y matar a un blanco de manera que esa acción sea conforme con el Derecho Internacional Humanitario" y las convenciones de Ginebra, añade. El "dispara primero y pregunta después" se impone.

En los dossiers que preparan las ONG para convencer a los diplomáticos figuran varias realidades que prueban cómo el lobby armamentista y ciertos militares intentan enviar las convenciones de Ginebra y el Derecho Humanitario al basurero de la historia. El drone X-47B está siendo diseñado por Estados Unidos para volar y seleccionar blancos, no con alguna teledirección humana como los actuales, sino de manera autónoma. Taranis, el prototipo presentado por Gran Bretaña en 2010, también. A su vez, Francia desarrolla los NeuroN, aunque de momento sobre todocompra (por 500 millones de euros) los Heron israelíes.

En tierra, el cuerpo de Marines de Estados Unidos probó en diciembre, en su base de Fort Pickett (Virginia), el primer robot miliar zoomorfo, LS3 (alias "BigDog") que se incorporará a sus operaciones a partir de 2015. El impresionante avance de la firma Boston Dynamics, beneficiaria del programa militar DARPA, consiste en haber derribado una de las murallas de la robótica desde siempre: la de una máquina capaz de marchar a cuatro patas, en equilibrio, adaptándose a cualquier terreno por escarpado que sea y recuperándose de una caída. Mientras el ejército de Estados Unidos asegura que la naturaleza de la máquina es inofensiva, en el laboratorio de Boston Dynamics ya han equipado al LS3 de un quinto miembro: un brazo gigante que de un manotazo derriba paredes. ¿Será que los Marine Corps prevén reconvertirse a tareas de demolición?

En la frontera con Gaza, un número indeterminado de vehículos Guardium patrulla, observa y es capaz de detectar la respiración de alguien que se oculta, o un miniagujero abierto en una reja, tras lo cual intensifican la vigilancia en el punto sensible. Ni Israel ni los fabricantes suelen hablar sobre las armas que llevan estas máquinas. "La cuestión de su armamento se plantea, pero es difícil resolverla dada la discreción de las autoridades israelíes", explica a título personal Gerard de Boisbossel, ingeniero en robótica de Saint-Cyr, la principal escuela militar francesa. Una fuente militar señala que al menos una brigada de combatientes de Gaza, Saraya Al Qods, ya sabe burlar y destruir los Guardium.

En Irak y Afganistán, tras haber sido probados los mini-robots de combate SWORDS de la firma Qinetiq (no sin algo de bochorno por los errores), se desarrollaron y probaron otros más grandes y perfeccionados, los MAARS, de la misma firma, equipados con una ametralladora y lanzagranadas, además de sensores.

Todos estos avances demuestran a las claras que, como dice la hoja de ruta del ejército de Estados Unidos 2011, "el objetivo actual es lograr una autonomía supervisada y, a un plazo más largo, una plena autonomía" de los robots terrestres. Y ello, pese a que nadie prevé que, en los próximos 100 años, ningún sistema de inteligencia artificial sea capaz de diferenciar a un niño que se arrastra porque juega de un joven que se arrastra porque ataca.

David contra Goliath

Cuando se habla con dirigentes del lobby robótico sobre estas menudencias humanitarias, prefieren escurrir el bulto. Su primera línea de defensa es imparable: actualmente, todos los robots militares son teledirigidos por humanos. Y, por otra parte, de los 8.000 que fueron utilizados en Irak, por ejemplo, la inmensa mayoría son simplemente ingenios de desminado. Otra línea de defensa es la explicada a La Marea por Peter Flory, vicepresidente de Qinetiq International, uno de los tres principales contratistas robóticos del Pentágono: "En Afganistán, Estados Unidos tiene unos 8.000 robots, y 18 naciones tienen robots Qinetiq. ¿Principal lección aprendida? El robot ahorra vidas de soldados".

Igual planteamiento hace Gaby Davidson, de ElbitSystems, uno de los fabricantes del robot Guardium: "El área donde operan nuestros robots es una de las más peligrosas. Imposible decir cuánta gente sigue viva gracias a él. Detecta, observa, investiga a sospechosos, controla caminos. Y muchas cosas más".

En realidad, explica Gerard de Boisboissel, todo es mucho más complicado: "Sólo robots de desminado han sido utilizados en un campo de batalla real, y los de reconocimiento van a hacer su entrada progresivamente. Los robots armados a nivel táctico aportarán un plus. Pero hoy se plantea el problema de conseguir discriminar quién es el blanco, no equivocarse entre un niño que juega con un bastón y un talibán armado. En ese campo, la tecnología no permitirá la fiabilidad total antes de al menos. ¿30 años?"

Lo planteado por las ONG quiere ir más lejos: van a exigir la prohibición preventiva de las armas autónomas mediante un Tratado Internacional y, entre tanto, un código de conducta de los ingenieros. El motivo principal, es que un robot de guerra viola forzosamente el principio de distinción entre combatientes y civiles, por lo que comandantes de unidades, fabricantes y programadores serán potencialmente responsables de crímenes de guerra.

Un motivo colateral es resumido así por un responsables de la inminente campaña: "¿Se imagina a las fuerzas sirias de Bachar al Assad equipadas con robots de combate? Lo humano, aún en las situaciones más represivas, puede ser una barrera para un dictador, que siempre temerá una revuelta de sus militares si les exige atrocidades excesivas contra demasiada gente".

Evitar problemas de conciencia

En Francia, el debate doctrinal entre militares es intenso y no faltan voces vestidas de caqui para alzarse, por canales oficiosos, contra la robotización, juzgada contraproducente. "La población (local, afgana, por ejemplo) comprende el uso de robots como un ejemplo de nuestra incapacidad para protegerlos", escribió en una revista de defensa, en 2010, el jefe de batallón Cédric Fayeaux.

Lo que resulta curioso, en los foros internos de militares prorobots y miembros del lobby, es la facilidad con que travisten la historia de la robótica militar y así se evitan problemas de conciencia. Si bien evocan con placer los primeros experimentos en Vietnam, el Golfo, Bosnia y, claro está, la Guerra contra el Terror tras el 11-S, pasan de puntillas, sin apenas mencionarlo, por el que claramente fue el primer experimento de robótica militar a gran escala en la Historia. El Sd.KFz.302 y el Sd.KFz.303, tanques enanos teledirigidos y suicidas, fabricados industrialmente y apodados "Leichter Ladungsträger Goliath". Su momento estelar fue en 1943, en el aplastamiento de la insurrección del gueto de Varsovia, donde eran manejados por tropas de las SS.

Bonito nacimiento de la figura histórica del robot militar. Bien escogido momento. Un bautizo con el nombre de Goliath: ¿Marca de por vida de la robótica de guerra? Por cierto, durante la insurrección del gueto los combatientes de la Organización Judía de Combate aprendieron pronto que, cortando los cables del teledirigido, podían no sólo neutralizarlo, sino a veces volverlo contra el enemigo. Aunque no ganaron esa batalla, David hizo un buen trabajo frente a Goliath. A partir del 23 de abril, tocará hacer tres cuartos de lo mismo.