La Dirección de Pruebas y Evaluaciones Operativas
es responsable de aprobar cómo deben ser las pruebas y evaluaciones de
los programas de armas del Pentágono. Además, elabora los informes que
el subsecretario de Defensa (Adquisición, Tecnología y Logística) los secretarios de los Ejércitos y el Congreso, envían al secretario de Defensa,.
Su supervisión está presente desde los primeros hitos del procedimiento
de adquisición y continúa hasta la aprobación de la fabricación en
serie de los sistemas e, incluso, en algunos casos, durante la
fabricación en serie.
En el informe al Congreso sobre sus actividades en 2013, el director de Pruebas y Evaluaciones Operativas, J. Michael Gilmore, ha analizado la situación de 312 programas de adquisición de los tres ejércitos.
CV-22 Osprey
En él, su departamento encontró problemas significativos en 44 de ellos, de los que en 12 programas los fallos solo se descubrieron durante las pruebas operativas; en 10 casos los problemas identificados en
las pruebas de desarrollo se volvieron a identificar en las pruebas
operativas; en seis programas los problemas identificados en las pruebas
de desarrollo fueron corregidos antes de las pruebas operativas, que
tuvieron que retrasarse para que fuesen corregidos; y en los 16 casos restantes se descubrieron problemas que debían haberse corregido antes de las pruebas operativas.
KC-46A
Otro
aspecto importante para el director Gilmore ha sido la evaluación de
las vulnerabilidades frente a ataques cibernéticos, habiendo descubierto
unas 400 en las pruebas operativas de 33 programas, rde las que un 90% podrían haberse descubierto y corregido previamente en el desarrollo del sistema.
En su análisis, el director Gilmore insiste
en la importancia de las pruebas y evaluaciones operativas, ya que sólo
con ellas es posible el descubrimiento de ciertos problemas. Es la
única forma de poner a prueba un sistema en condiciones realistas
y descubrir los fallos en el rendimiento de los sistemas; sin la
realización adecuada de estas pruebas y evaluaciones, los fallos solo se
habrían descubierto cuando el sistema ya estuviese operativo o, lo que
es peor, en combate, con los graves riesgos que conllevaría para los
combatientes.
Zumwalt DDG 1000
También destaca la corrección previa de los fallos en las pruebas de desarrollo,
para evitar llegar a una fase avanzada del desarrollo de un sistema de
armas y descubrir fallos cuya corrección además de retrasar la entrada
en servicio de los mismos puede suponer un aumento de los costes del
sistema.
Littoral Combat Ship (LCS)
En la introducción del informe, Gilmore justifica la necesidad de realizar un sistema de pruebas y
evaluaciones basado en metodologías científicas (diseño de
experimentos) y con rigor estadístico, ya que los sistemas de armas
pueden ser muy complejos, necesitando muchos años de desarrollo y
pruebas para que sean eficaces, adecuados, duraderos y cumplan la misión
para la que se han diseñado.
Y el sistema de pruebas ha poner a prueba
las capacidades y puntos débiles de los sistemas de
armas en todas las condiciones operativas en las que se supone que se
utilizarán; de esta forma se tomarán las mejores decisiones de
adquisición de armas y los soldados que las utilicen comprenderán lo que
pueden hacer y lo que no pueden hacer con ellas.
Gerald R. Ford CVN 78
En
ese sentido señala que Estados Unidos no puede permitirse el lujo de
desplegar sistemas de armas que no funcionen, que no proporcionen una
clara mejora sobre los sistemas existentes, o que no sean militarmente útiles;
ni puede permitirse el lujo de decidir que entren en servicio sistemas
de armas sin el conocimiento de su eficacia operativa.
Además, indica,
que se ha encontrado que "sin unas pruebas operativas adecuadas, no
habremos comprendidos las condiciones específicas en las que un sistema
es efectivo y adecuado; mis informes continúan centrándose en esta
caracterización, ya que ningún sistema puede proporcionar un rendimiento
perfecto en todas las condiciones operativas o contra todas las
amenazas significativas."
CH-47 F Chinook
Para Gilmore, la exigencia de pruebas operativas adecuadas forma parte de la saludable y
natural tensión entre las partes implicadas en el proceso de
adquisición de sistemas: los que realizan las pruebas, los que adquieren
y los que establecen sus requisitos.
Y a veces se producen
inconsistencias, como las que indica que en 2013 ha descubierto que, en varios programas,
las pruebas operativas aprobadas iban más allá de las exigidas en los
documentos de requisitos de los sistemas establecidos por los Ejércitos;
que pueden poner dos tipos de limitaciones en los requisitos de los
sistemas de armas: en unos casos los requisitos se estipula en términos
de cumplir parámetros técnicos y no en parámetros orientados al
cumplimiento de la misión y en otros casos los requisitos están
estrechamente definidos para satisfacer unas condiciones específicas,
aunque los Ejércitos emplearán el sistema en otras condiciones
operativas.
UAV MQ-9 Reape
Y señala como ejemplo del primer caso, el avión de patrulla marítima P-8A Poseidon, que
cumple todos los requisitos técnicos y, sin embargo, tiene carencias
significativas para la eficacia del cumplimiento de su misión: sus
requisitos definen características de sus equipos que son necesarias
pero casi no son suficientes para asegurar la eficacia operativa de la
misión; en definitiva, será un buen avión, pero le falta la capacidad
principal que debe tener un sistema de armas, que cumpla su misión.
Y
como ejemplos del segundo, aquellos que definen de forma muy limitada
las condiciones que tienen que cumplir, para evitar realizar un mayor
número de pruebas.
MRAP
El empleo por la Dirección de Pruebas y Evaluaciones Operativas de
métodos de diseño de experimentos para planificar pruebas que abarquen
el conjunto de situaciones operativas que aunque no estén especificadas
en los requisitos del sistema permitirán una evaluación realista de las
capacidades del sistema.
Esto supone un problema adicional
porque para ellas no siempre hay fondos ni medios y Gilmore considera
que las inversiones en esas pruebas y medios son imprescindibles y
supone una pequeña parte del coste de los programas y las pruebas
operativas de las condiciones que no están incluidas en los documentos
de requisitos es usualmente la única forma por la que se puede
determinar el rendimiento del sistema en estas condiciones.
Por ejemplo, para probar la eficacia de los sistemas de armas de defensa próxima de
buques es necesario probarlas en un entorno de múltiples amenazas
simultáneas y realistas, por lo que es necesario contar con un buque no
tripulado y controlado a distancia o un buque de prueba de auto defensa (Self-Defense Test Ship, SDTS)
con los radares, armas y sistemas de combate reales, para garantizar la
seguridad de los tripulantes.
Y la existencia de este buque y la
realización de pruebas ha permitido descubrir fallos en los sistemas de
armas de protección, que pudieron ser corregidos, aumentando la
seguridad de los buques.
Asimismo insiste en la necesidad de las pruebas del software de los sistemas de armas frente a ataques cibernéticos, con un control de su configuración, y en la necesidad de protocolos de prueba de los equipos de protección del soldado. Eso sí, dado que es un informe abierto, no incluye el análisis de ningún programa clasificado.
Entre los informes destacan los del avión F-35, los vehículos resistentes a minas MRAP, helicóptero CH-47 F Chinook,
el JLENS (Joint Land Attack Cruise Missile Defense Elevated Netted
Sensor Systems), Stryker Mobile Gun Systems (MGS), el portaaviones clase
Gerald R. Ford CVN 78, los destructores clase Zumwalt DDG 1000, el buque JHSV (Joint High Speed Vessel), los Littoral Combat Ship (LCS), el avión artillado AC-130 J Ghostrider, el de reabastecimiento en vuelo KC-46A, el CV-22 Osprey y el UAV MQ-9 Reaper.
Julio Garulo
http://www.revistatenea.es
0 comentarios:
Publicar un comentario