La robótica, los ingenios electrónicos y los desafíos éticos y morales que implican sus aplicaciones en el ámbito de la defensa

Por: Prof. Julio E. Soto Silva[1]

 Recientemente el diario La Segunda, en su edición del 15 de julio, publicó un interesante artículo sobre cómo los Estados Unidos lideran el campo de los avances científicos y tecnológicos en diferentes áreas del quehacer, tales como automóviles que se conducen solos, cazas no tripulados o cohetes que aterrizan en forma vertical; la interconexión del mundo real con el virtual, entre otros, está demostrando su capacidad para seguir creando las tecnologías del futuro y mantener su hegemonía económica mientras se distancia de una Europa en crisis y pese a la emergente China.

En efecto, el mismo artículo señala que el internet móvil, la inteligencia artificial, el análisis de datos, la interconexión del mundo real con el virtual, la nube computacional, la investigación del genoma, las nuevas fuentes de energía o las impresoras 3D cambiarán el mundo en que vivimos, donde ese país mantiene la superioridad.

Desde avances tan cotidianos como un aire acondicionado que gasta un 80 % menos de energía y no requiere químicos que aumentan el efecto invernadero  hasta el vuelo de un cohete de la empresa privada SpaceX que aterriza de manera vertical y puede ser reutilizado, EE.UU. pone las bases para su hegemonía económica.

En ese sentido, la llegada de los “drones” o aviones no tripulados (UAV por sus siglas en inglés “unmanned aerial vehicle”) al teatro de guerra en los últimos años, que se ampliará pronto con exoesqueletos o retinas artificiales, ha sorprendido a los ejércitos europeos que, como el francés, han tenido que hacer uso de tecnología estadounidense en situaciones de conflicto.

En el mismo sentido, el pasado 10 de julio el mundo pudo ver cómo el ala delta -invisible a los radares- del avión no tripulado (UAV) X-47B, de Northrop Grumman, despegaba y aterrizaba en el portaaviones estadounidense de la clase Nimitz USS George H. W. Bush de manera autónoma, escenificando el primer paso para que el país pueda vigilar y bombardear objetivos en todo el globo de manera casi robótica antes del año 2020. El X-47B es uno de los drones más avanzados a la fecha creado por el gigante Northrop Grumman para combatir en el aire sin tripulación. Se estima que con esa demostración  el próximo paso  serán los aviones de combate autónomos, es decir, sin piloto dentro de la aeronave ni remoto.

De hecho en esas pruebas se completaron exitosamente otras exigencias propias de la operación desde un portaaviones, tales como: aterrizajes, operaciones en la cubierta de vuelo, lanzamiento con las catapultas de vapor, reabastecimiento, incluso teniendo la capacidad para reabastecerse en el aire. Esta demostración, a juicio de una fuente autorizada de la US Navy, demuestra la madurez adquirida por las tecnologías críticas para operaciones en el ambiente de una fuerza de tareas de portaaviones, estableciendo el escenario apropiado para que la Aviación Naval ilumine el rumbo para la ejecución de operaciones de combate desde este tipo de plataformas en forma relevante y predominante.”

Este hecho, sin lugar a dudas, plantea  tremendos desafíos éticos y morales para los futuros comandantes y operadores/pilotos de artefactos como robots y los ya conocidos UAV, que están siendo usados en diferentes escenarios de conflictos bélicos en casi todo el mundo.

Sin ir más lejos, el ejército estadounidense está desarrollando una serie de planes para integrar en forma más profunda los UAV en la estructura de su fuerza, incluyendo la expansión de un nuevo tipo de Brigada de Aviación de Combate o (“Combat Air Brigade” o CAB) diseñada sobre la base de la integración de UAV con medios convencionales de aeronaves de combate piloteadas, o deberíamos ya empezar a acostumbrarnos a decir ¿“con un piloto humano a bordo”? De hecho, de acuerdo a fuentes oficiales del ejército estadounidense, se están estudiando los informes sobre el desempeño de la 101ª Brigada de Aviación de Combate que es la primera  de full espectro en Afganistán, que operará helicópteros piloteados junto al RQ-7 Shadow UAV, incluidos en su escuadrón de reconocimiento, y a los UAV  MQ-1 Gray Eagle, que es un elemento esencial del Plan de Modernización de la Aviación del Ejército. Este último UAV, desarrollado por la General Atomics Aeronautical Systems (GA-ASI), es un derivado   perfeccionado y tecnológicamente avanzado del modelo Predator ya probado en combate[2].

Ello, junto al probable uso de robots en el futuro, trae cuestiones morales y éticas que hay que atender. ¿Será posible mantener el control de los “cerebros” de estos ingenios sin que ellos puedan desarrollar una inteligencia artificial que de un momento a otro puedan tomar sus propias decisiones? En el próximo número de la revista Política y Estrategia, edición Nº 121, se publica un interesante artículo sobre este tema y el debate de cómo “instalar” controles éticos dentro del “cerebro” del robot.

Algunos lectores cinéfilos recordarán al computador HAL 9000 (proveniente de las siglas en Inglés “Heuristically programmed Algorithmic computer”) que controlaba la nave en misión a Júpiter en el clásico “2001 Odisea del Espacio”. HAL desarrolla tanta inteligencia (lo que hoy conocemos como “Inteligencia Artificial” o IA), que pasa a ser infalible y hace aflorar una inusitada conducta egocéntrica, desafiando a la mente humana de los tripulantes, cambiando y alterando todo el sistema de la nave con siniestros propósitos.

Hoy día no es difícil que con el desarrollo alcanzado en el campo de la Inteligencia Artificial puedan ocurrir casos semejantes, por ello es que existe el desafío para los científicos en el campo de la Investigación y Desarrollo:  buscar las fórmulas para que este tipo de ingenios electrónicos y/o robóticos, diseñados para ayudar al ser humano, tengan incorporados ciertos módulos de carácter ético y moral para evitar que ellos, en el desarrollo de la IA, puedan eventualmente transformarse en un peligro para sus dueños u operadores.

Pero el debate sobre cómo controlar a estos ingenios electrónicos y cómo hacerlos amigables y sin riesgo de que puedan desarrollar un alto nivel de IA que les permita razonar y actuar en contra de lo que se les ha programado, está abierto. De igual forma la cuestión de hasta qué punto es ético y moral producir ingenios de este tipo que vayan, por ejemplo, a combatir contra otros adversarios, incluso humanos en un campo de batalla del futuro cercano, es otra cuestión que debe buscar basamentos éticos y morales sólidos que la respalden y que a la fecha, al menos en forma pública, no se conocen.

Hoy día, a esta hora, Rapers, Global Hawks,  Predators, y otros UAV o drones más pequeños sobrevuelan los espacios aéreos operando en diferentes tareas y configuraciones, desde el apoyo a la agronomía, minería, prevención de incendios forestales, pasando por el control de fronteras “calientes” para controlar el tráfico ilegal de personas, el narcotráfico y otros crímenes asociados al crimen internacional, hasta su uso en el campo de batalla, como elementos de reconocimiento, de ataque y de destrucción selectiva de blancos y objetivos muy sensibles de los adversarios.

Los drones destacan por su capacidad de vigilancia y relativo bajo costo. Sin embargo, los UAV más sofisticados son militares y pueden llegar a costar millones de dólares; máquinas de guerra que antes eran controladas a distancia hoy son robots autónomos con capacidad de decisión, tal como lo demostró recientemente el X-47B, quien ya no necesita tener un piloto a distancia sentado detrás de un joystick y una serie de pantallas, pues es totalmente autónomo. De hecho en la última prueba de aterrizaje en la bahía de Baltimore, el propio UAV decidió no aterrizar en la cubierta del portaaviones, ya que se auto detectó un problema en uno de sus sistemas y regresó a la Base Naval de Patuxent River, desde donde había despegado.

Lo precedentemente expuesto nos indica claramente que estamos viviendo tiempos para debatir acerca de estos ingenios robóticos y electrónicos que decidirán quién vive y quién muere en el campo de batalla, en obediencia al rigor matemático de la inteligencia artificial.

El desarrollo del X-47B marca el cambio de paradigma en la forma de combatir, una transformación que tiene repercusiones y consecuencias de gran alcance e inimaginables. Junto con la habilidad del drone de volar en forma autónoma, dirigido por computadores que lleva a bordo, podría también indicarnos el umbral a una era donde la muerte y destrucción pueden ser resueltas por máquinas que operan casi independientemente.

A pesar de que seres humanos programarán, por ejemplo, el plan de vuelo de un UAV y pueden eventualmente anularlo, la sola idea de ver a un UAV fuertemente armado volando sin control del ser humano, inquieta a muchos, sobre todo por el gran aumento en la utilización de estos aparatos. Los UAV, piloteados remotamente, se han convertido en una de las armas principales de la CIA y de las fuerzas armadas estadounidenses en sus campañas contra los terroristas en el Medio Oriente. El Pentágono ha aumentado su inventario de un puñado de drones que poseía antes del 11 de septiembre de 2001 a cerca de 7.500 UAV, casi un tercio de todos sus aviones.

Del mismo modo, todas las instituciones de las fuerzas armadas estadounidenses avanzan hacia una mayor automatización en sus sistemas robóticos. Submarinos robot navegarán un día en aguas enemigas, y tanques automatizados se enfrentarán en combate con soldados en el futuro campo de batalla.

Esto le permitirá a EE.UU. desplegar menos medios humanos  en otros teatros de operaciones, logrando mayor seguridad nacional a un costo mucho menor y, lo más importante, reduciendo drásticamente las bajas, tal como lo señala Simon Ramo en su libro “Let Robots do the Dying” (“Dejen que los robots maten”).

En un informe de la USAF sobre el uso futuro de drones, titulado “Unmanned Aircraft Systems Flight Plan 2009-2047” (Plan 2009 -2047 Para el vuelo de Sistemas aéreos no tripulados”), se señala que los drones autónomos son elementos claves para reducir potencialmente costos, huella electrónica avanzada y riesgos. Tal como un maestro de ajedrez que rápidamente derrota a un ajedrecista promedio, en el futuro los drones serán capaces de reaccionar mucho más rápido que lo que nunca podrá hacerlo un piloto humano.

Y ese potencial trae aparejado el problema que estamos discutiendo: ¿cuánto grado de control del campo de batalla tienen las fuerzas armadas de los Estados Unidos?, en este caso, ¿están dispuestos a entregárselos a los computadores?

No existe a la fecha en las fuerzas armadas estadounidenses -al menos en el futuro cercano– voluntad para entregar la responsabilidad de matar al X-47B u otro UAV autónomo, a pesar de que en el informe aludido anteriormente la USAF señala que solo es cuestión de tiempo para que los UAV tengan la capacidad para decidir sobre la vida o la muerte mientras sobrevuelan el campo de batalla, a pesar de que aún esos UAV tendrían un monitoreo humano por parte de pilotos.

Con ello un especialista nos señala que estamos en un mundo diferente al de pocos años atrás, ya que hemos entrado al dominio de la ciencia ficción de muchas maneras, por lo que se hace necesario que en la medida que aparezca nueva tecnología, deben  crearse nuevas reglas y leyes, y eso es un gran paso.

La primera pregunta que habría que responderse podría plantearse así: ante el surgimiento y empleo de UAV o drones sin piloto, o autónomos, ¿quién es entonces el responsable de su juicio ante la vida y la muerte?

Noel Sharkey, científico en computación y experto en robótica, nos señala que es difícil definir responsabilidades en un armamento de características robóticas y  que por ello las “acciones letales deben tener una línea de responsabilidad muy clara”[3]. El robot no puede ser definido como responsable de sus acciones aunque haya desarrollado su IA. Entonces ¿quién es? ¿Es el comandante que dispuso su utilización?¿El político que autorizó su uso? ¿El proceso de adquisiciones militares que lo seleccionó y adquirió? O finalmente ¿la empresa que lo fabricó que puede aducir “fallas en el material”?

Junto a Sharkey hay otros que creen que los robots autónomos van a forzar el tipo de diálogo que por ejemplo se generó después del uso del gas mostaza en la I Guerra Mundial, así como el desarrollo de armas nucleares. De hecho el Comité Internacional de la Cruz Roja ya se encuentra estudiando esta situación. Por otra parte, los especialistas militares y en el Capitolio en relación con este tipo de armamento reconocen que los legisladores deben discutir y enfrentar los problemas éticos mucho antes que los UAV autónomos y letales entren en servicio, que puede que esté tan cercano como una década o un poco más[4].

Ello entonces nos debe señalar que deberán desarrollarse, a lo menos, lo siguientes esfuerzos para su control:

–          Ingenios electrónicos que puedan incrustar dentro de estos aparatos controladores de carácter ético.

–          Un macizo cuerpo de normas legales que regule el empleo de ellos tanto en el campo de batalla como en otras aplicaciones donde puedan usarse como arma letal.

–          Un sistema de control que permita ingresar al cerebro del robot y denegar acciones no deseadas para evitar encontramos con otro “HAL”.

Acá, junto con el problema ético enunciado anteriormente del envío de ingenios no tripulados a combatir fuerzas convencionales, aunque por un lado se “economicen vidas humanas”, soldados o pilotos trae, por el otro aparejado otro problema moral y ético que afecta a los operadores o “pilotos” a distancia de estos drones o UAV.

Efectivamente, hoy día cientos de drones son dirigidos desde instalaciones militares secretas en Maryland o Virginia. Cada día un equipo de experimentados pilotos de la Fuerza Aérea inician largas jornadas piloteando sus UAV desplegados al otro lado del océano, en zonas de combate o de reconocimiento especial y estratégico. Más de alguno de ellos tienen una misión no muy agradable: detectar un líder terrorista y luego perseguirlo desde el aire, a miles de kilómetros de distancia, hasta conocer exactamente su rutina. Ello conlleva que ese piloto, a lo mejor acostumbrado a disparar su armamento “stand off”, o sea lejos del blanco y protegido de la aviación o las armas antiaéreas del adversario, sin entrar en contacto directo ni menos visual con su adversario, ahora entra en contacto diariamente con su blanco, cómodamente desde su sillón frente a las consolas de control de su UAV,  conociendo así, a través de los ojos de su UAV, el lugar donde vive, su familia, sus niños, sus mascotas, sus amigos. Sabe a qué hora sale de casa, cuándo va a hacer compras, cuándo comparte con su familia, cuándo juega con sus hijos, cuándo y con qué frecuencia se reúne con sus amigos, y cuándo se dirige a reuniones con sus equipos de trabajo o combate.

Reúne esa rutina y la sigue día y noche, mientras que por otro lado recibe inteligencia desde el campo de batalla, relacionada con la importancia de ese líder adversario, su unidad, sus acciones y sus probables acciones futuras. Posteriormente le llega la orden de ejecución y debe elegir el momento más adecuado para hacerlo dentro de los límites de tiempo que le han impuesto, todo ello con la carga emocional de “haberse  involucrado en la vida” de ese líder, al que debe eliminar ahora. No es entonces para ese piloto fácil disparar. La carga emocional, moral y sicológica dista mucho de ser liviana, requieren entonces un fuerte apoyo moral, religioso y psicológico para poder sobrellevar el peso que esas misiones implican.

Ello nos lleva nuevamente a la pregunta anterior. ¿cuánto tiempo tendrá que pasar para el uso de drones autónomos? y ¿cuáles son los riesgos al entregar esa capacidad de decidir, sin que estemos preparados para asumir las responsabilidades éticas y morales para usar esa poderosa asimetría que produce el enfrentamiento entre robots y seres humanos en el campo de batalla ya apresuradamente más cercano? ¿Estamos dispuestos a correr riesgos como el señalado en la Odisea del Espacio con HAL?

La pregunta y el desafío está lanzando, creo que es conveniente estudiarlo y determinar formas en que podemos enfrentarlo  y no esperar que se abra la caja de Pandora, sin tener respuestas.


[1] Profesor de Seguridad y Defensa. Director de Postgrado.

[2] IHS Jane’s Defence Weekly,  Vol 50, Issue 23

[3] Los Ángeles Times: http://articles.latimes.com/2012/jan/26/business/la-fi-auto-drone-20120126

[4] Ibid.