Por Dr. Sergio Quijada Figueroa1 y Dr. Carlos Ojeda Bennett2, 20 de febrero 2020

La conducción política-estratégica, en un contexto dominado por algoritmos y heurísticas computacionales, requiere de una permanente evaluación de los sistemas que integran los procesos de toma de decisiones en el ámbito más alto de la dirección de los Estados. Lo anterior debido, principalmente, a la complejidad del escenario, la celeridad en la producción de eventos no previstos y fundamentalmente, por las diferentes formas que adoptan las amenazas. En dicho contexto, y a partir del incidente del vuelo 752 derribado por 2 misiles iraníes la noche del 8 de enero, se genera la pregunta:

¿Podemos identificar patrones de conductas en la gestión de crisis que realiza el ámbito político-estratégico?

Si la respuesta a la pregunta precedente fuera positiva, implica que las organizaciones gubernamentales podrían disponer de mecanismos socio-tecnológicos que les permitan proyectar potenciales incidentes críticos, a partir de la sistematización de las lecciones aprendidas del pasado.

Al efecto, el 03 de Julio de 1988, el Crucero misilero Vincennes de la Armada de EE.UU., ubicado en el Golfo Pérsico, derribó, por error, el avión comercial 655 de Iran Air, que transportaba 290 pasajeros3. Causa principal: Error de los tripulantes del buque, al confundir el avión de pasajeros con un avión de combate F-14 de la Fuerza Aérea iraní.

Después de casi 32 años, el incidente se vuelve a repetir por razones similares. El vuelo 752 de la línea aérea ucraniana, fue derribado por un misil del Ejército de Irán4, falleciendo 176 personas. Causal principal: Error de los operadores, al confundir el avión de pasajeros con un supuesto misil de EE. UU, que asumieron habría sido disparado como respuesta al ataque iraní a bases de EE. UU en Irak.

Tardíamente, el gobierno de Irán ha reconocido el error pero, tempranamente, debemos reconocer, por una parte, que los antecedentes del primer incidente eran perfectamente conocidos y por tanto sujeto de estudio, y por otra, la criticidad permanente en que estamos viviendo como sociedad, condición que se refleja cuando, organizacionalmente, los gobiernos, las instituciones y las empresas, deben tomar decisiones complejas en condiciones de estrés; es decir, en breves lapsos de tiempo y con graves consecuencias, en estos casos, con altas probabilidades de pérdidas de vidas humanas.

La concatenación de potenciales eventos que pudiera requerir una decisión del ámbito político-estratégico, es considerada un árbol de sucesos, el cual puede ser evaluado por una máquina informática en función de presentar, a los tomadores de decisiones, un conjunto finito de escenarios futuros con su correspondiente probabilidad de ocurrencia.

Dicha capacidad contribuye a disminuir dos aspectos vitales que pudiesen minimizar la ocurrencia de incidentes, tan trágicos, como los acaecidos con el derribo de los vuelos antes señalados. El primero, corresponde al sesgo cognitivo de los líderes y sus asesores al momento de tomar decisiones críticas y, el segundo, la incapacidad de los actores relevantes para procesar datos cuantitativos y cualitativos que les permitan decidir racionalmente, disminuyendo con ello, las probabilidades de errores con efectos políticos y/o estratégicos.

Consecuente con lo señalado, ¿Podemos preparar a los actores que toman decisiones, con incidencia política-estratégica, para disminuir las probabilidades de ocurrencia de incidentes críticos producidos por errores humanos individuales y colectivos?

La respuesta es afirmativa, y se denomina “Gestión del Conocimiento”, el cual, a partir de las cuantificación de los datos del pasado y la sistematización de las lecciones aprendidas, permite estudiar, investigar, entrenar y finalmente, implementar sistemas prospectivos y de simulación, en otras palabras, “comunicación y aprendizaje”5 tendientes a disminuir la probabilidad de ocurrencia de errores en distintos niveles, incluyendo en estos, desde los operadores hasta los líderes políticos y militares.

Sin embargo, lo anterior no lo es todo. Lo señalado en el párrafo anterior debe ir, necesariamente, acompañado del compromiso y de la responsabilidad de quienes deberán tomar decisiones de participar, personalmente, en los ejercicios de comprobación o de entrenamiento simulado, ya que, la sola condición de su puesto o cargo, no asegura que, ante un hecho real y el estrés asociado, no se verán impactados por las limitantes arriba indicadas.

Así entonces, podemos concluir que, los casos de los vuelos 655 y 752, son un ejemplo de la“Gestión del Conocimiento” –en un contexto Político-Estratégico–, no implementada.

 

1 Doctor en Simulación, Ingeniero, Master en Ciencias, Coronel Ejército (R), Coordinador de Proyectos del LAPSIM-ANEPE.
2 Doctor en Ciencia Política, Magister en Relaciones Internacionales y Prospectiva en Asuntos Internacionales, Coronel Ejército Retiro (R), Jefe del LAPSIM-ANEPE.
3LENDON, Brad. (10 enero, 2020) En 1988, un buque de guerra de EE. UU. derribó un avión de pasajeros iraní en el fragor de la batalla, CNN. [en línea] [fecha de consulta 15 de enero 2020] Recuperado de https://cnnespanol.cnn.com/2020/01/10/en-1988-un-buque-de-guerra-de-ee-uu-derribo-un-avion-de-pasajeros-irani-en-el-fragor-de-la-batalla/
4 AYESTARAN, Mikel. (11 enero, 2020) Irán reconoce que uno de sus misiles lanzado «por un error humano» derribó el avión ucraniano, ABC Internacional. [en línea] [fecha de consulta 15 de enero 2020] Recuperado de https://www.abc.es/internacional/abci-iran-reconoce-derribo-avion-ucraniano-debido-error-humano-202001110559_noticia.html
5 SUURLA, Riitta, MARKKULA ,Markku y MUSTAJÄRVI, Olli. 2000. Desarrollo e Implementación de la Gestión del Conocimiento en el Parlamento de Finlandia. (Editor en español, Cantero C.) Helsinki, Finlandia. p. 65. Oy Edita Ah, 2000