Utilice este medio para presentar y discutir sus proyectos innovadores
La Guerra del Futuro, entre el vaticinio de Einstein y la inteligencia artificial.
ReseŮado el 15/05/19 por prospectiva
Eclipsado por la tecnología, el hombre está dejando de ser el actor central en los conflictos bélicos por primera vez en la historia

Fuente: Diario La Nación por Carlos A. Mutto- 15 de Mayo de 2019
En la guerra moderna -y con más razón en los conflictos futuros-, el piloto que interpretaba Tom Cruise en Top Gun no tendría ninguna posibilidad de derribar a un avión de nueva generación dotado de armas asistidas por inteligencia artificial. Esos sistemas reaccionan 250 veces más rápido que el hombre. El coronel Gene Lee, expiloto de caza considerado el mejor formador de la US Air Force, fue vencido en 2016 en una simulación de combate aéreo contra una inteligencia artificial.
Ese ejemplo, usado en las escuelas de guerra de todo el mundo, permite dimensionar el vértigo que suscita la evolución de la alta tecnología aplicada a la industria bélica y, en particular, a los sistemas de armas letales autónomas (SALA). Los componentes de esa panoplia serán los principales protagonistas de la guerra del futuro. El hombre, eclipsado por la tecnología, por primera vez en la historia del planeta está dejando de ser el actor central de la guerra. La inteligencia humana solo conserva una importancia primordial, por ahora, para concebir los algoritmos que alimentan la inteligencia artificial de los sistemas de armas autónomas.
En su novela de anticipaci√≥n Ghost Fleet (Flota fantasma), el consultor militar P. W. Singer y el investigador August Cole predicen que la Tercera Guerra Mundial ser√° un enfrentamiento de altas tecnolog√≠as aplicadas a aviones, tanques y barcos aut√≥nomos, sat√©lites asesinos, ca√Īones l√°ser y electromagn√©ticos, enjambres de drones, misiles hipers√≥nicos y robots sin supervisi√≥n humana, capaces de modificar la misi√≥n que les atribuyeron y de definir nuevos objetivos sin consultar a una jerarqu√≠a humana. La complejidad y la rapidez de decisi√≥n que exigen los nuevos sistemas de armas excluyen al hombre de la cadena de mando.
Frente a la perspectiva alucinante que presenta el futuro, el coronel Gene Lee explica en sus cursos de formaci√≥n algo que los futuros pilotos tienen dificultades para aceptar: aunque son entrenados, nunca participar√°n en los combates. Los duelos a√©reos del futuro se librar√°n sin ninguna participaci√≥n humana entre aviones aut√≥nomos que -gracias a los algoritmos procesados por las computadoras embarcadas- son capaces de distinguir la sutil diferencia que existe entre friends and foes (amigos o enemigos), optar por el arma m√°s apropiada y elegir el instante m√°s propicio para disparar. Todo el proceso dura un instante: durante sus intervenciones en Ucrania en 2014 y en el conflicto sirio, Rusia demostr√≥ que necesitaba apenas un pu√Īado de segundos entre el momento en que sus drones detectaban una presencia de fuerzas hostiles y sus cohetes de precisi√≥n las borraban definitivamente del mapa.
Ese escenario, en verdad, no tiene nada de ciencia ficci√≥n ni corresponde a una posibilidad remota. Las tecnolog√≠as militares disruptivas, que comenzaron a surgir en los campos de batalla hace m√°s de 30 a√Īos, son una realidad. En la actualidad, dominan la reflexi√≥n t√°ctica y estrat√©gica de los principales estados mayores, excitan la imaginaci√≥n de los t√©cnicos que trabajan en los laboratorios de investigaci√≥n de la industria b√©lica y monopolizan la mayor parte de los presupuestos de investigaci√≥n y fabricaci√≥n de nuevas armas.
Casi todas las grandes potencias utilizan, con mayor o menor discreci√≥n, sistemas de armas letales aut√≥nomas (SALA) asistidos por inteligencia artificial. Algunos de ellos, como los drones, operan a gran escala desde principios de los a√Īos 2000 y, con el tiempo, terminaron por banalizarse. Estados Unidos los emplea regularmente en operaciones de vigilancia y bombardeo en Afganist√°n, Paquist√°n y Yemen. El instituto sueco Sipri estima que 19 pa√≠ses tienen aplicaciones militares de esa tecnolog√≠a y poseen programas de ataque.
Los SALA desbordaron incluso las fronteras planetarias. Desde 2010, el Pent√°gono desarrolla el programa X-37B, que le permiti√≥ mantener en √≥rbita durante dos a√Īos un dron militar capaz de actuar como un "asesino de sat√©lites" o lanzar un bombardeo sobre posiciones terrestres del enemigo. Rusia y China tambi√©n poseen aparatos orbitales de ataque, que pueden desplazarse, maniobrar en el espacio para acercarse a un sat√©lite adversario y -en caso necesario- lanzar un ataque sin esperar instrucciones de la Tierra.
Los "robots asesinos", sean autónomos o manejados a distancia, tienen las mismas ventajas e inconvenientes que las fuerzas convencionales: pueden ser derrotados por una tecnología más eficaz, y eso lleva implícito -como ahora- el riesgo de una escalada sin límites. Su uso, sin embargo, plantea los dilemas estratégicos y éticos más graves que conoció el mundo desde que Estados Unidos dejó caer sus bombas atómicas sobre Hiroshima y Nagasaki en 1945. Normalmente, las pérdidas potenciales en vidas humanas ejercen un efecto disuasivo para decidir un conflicto. Pero la hipótesis de una guerra con robots sin alma ni derramamiento de sangre "elimina el factor disuasivo y aumenta la probabilidad de conflicto", argumenta Mary-Anne Williams, profesora en la Universidad Tecnológica de Sídney.
"Una vez abierta la caja de Pandora, ser√° dif√≠cil cerrarla", advirtieron en una carta enviada en 2017 a la ONU 116 responsables de empresas de rob√≥tica o especializados en inteligencia artificial, entre los cuales figuraba el CEO de Tesla, Elon Musk. Poco antes de morir, el f√≠sico brit√°nico Stephen Hawking alcanz√≥ a se√Īalar los peligros que entra√Īa el uso generalizado de la inteligencia artificial, "maligna y sanguinaria", y profetiz√≥ que los humanos "deber√°n abandonar el planeta para sobrevivir". Desde 2013, la ONU tambi√©n denuncia el peligro de que esos arsenales inteligentes puedan ser desarrollados en alg√ļn momento por gobiernos irresponsables -como ocurri√≥ con el arma at√≥mica- o caigan en manos de grupos no estatales.
A esos riesgos la guerra del futuro sumará la incertidumbre provocada por la expansión de los tres escenarios tradicionales -tierra, mar y aire- a los que se sumarán dos nuevas dimensiones: el cosmos y el ciberespacio. En la redistribución de cartas estratégicas que prepara el mundo, el experto norteamericano Paul Scharre sostiene en su libro Army of None (Ejército de nadie) que tampoco las armas autónomas estarán exentas de sufrir un ciberataque lanzado por una fuerza enemiga o incluso por grupos terroristas, mafiosos o mercenarios al servicio de una potencia. Y, una vez en marcha, será imposible enfrentar la agresión porque los nuevos trolls operarán en alta frecuencia, como esos algoritmos asociados a operaciones bursátiles que pueden disparar miles de órdenes en menos de 300 microsegundos, es decir mil veces más rápido que un abrir y cerrar de ojos.
Un batallón de hackers, como la Unidad 61.398 del ejército chino basada en Shanghai o el grupo ruso APT 28 (Fancy Bear), tienen el conocimiento y la capacidad técnica para lanzar ciberataques susceptibles de paralizar a los ejércitos de robots asesinos o los sistemas de armas asistidas por inteligencia artificial. Por eso es que los polemólogos y estrategas están convencidos de que la guerra como la habían teorizado Tucídides o Clausewitz es una noción perimida. El conflicto militar dejó de ser solo una confrontación humana asistida por la tecnología. La confrontación, en el futuro, será "híbrida, compleja, invisible y permanente", prevé la ministra francesa de Defensa, Florence Parly. A menos que, una vez más, Einstein tenga razón y la confrontación del futuro sea más aterradora de lo que imaginamos: "La próxima guerra mundial -previno después de Hiroshima- será con piedras".






      HomeVolver arriba