La Guerra del Futuro, entre el vaticinio de Einstein y la inteligencia artificial.
Reseñado el 15/05/19 por prospectiva
Eclipsado por la tecnologÃa, el hombre está dejando de ser el actor central en los conflictos bélicos por primera vez en la historia
Fuente: Diario La Nación por Carlos A. Mutto- 15 de Mayo de 2019
Fuente: Diario La Nación por Carlos A. Mutto- 15 de Mayo de 2019
En la guerra moderna -y con más razón en los conflictos futuros-, el piloto que interpretaba Tom Cruise en Top Gun no tendrÃa ninguna posibilidad de derribar a un avión de nueva generación dotado de armas asistidas por inteligencia artificial. Esos sistemas reaccionan 250 veces más rápido que el hombre. El coronel Gene Lee, expiloto de caza considerado el mejor formador de la US Air Force, fue vencido en 2016 en una simulación de combate aéreo contra una inteligencia artificial.
Ese ejemplo, usado en las escuelas de guerra de todo el mundo, permite dimensionar el vértigo que suscita la evolución de la alta tecnologÃa aplicada a la industria bélica y, en particular, a los sistemas de armas letales autónomas (SALA). Los componentes de esa panoplia serán los principales protagonistas de la guerra del futuro. El hombre, eclipsado por la tecnologÃa, por primera vez en la historia del planeta está dejando de ser el actor central de la guerra. La inteligencia humana solo conserva una importancia primordial, por ahora, para concebir los algoritmos que alimentan la inteligencia artificial de los sistemas de armas autónomas.
En su novela de anticipación Ghost Fleet (Flota fantasma), el consultor militar P. W. Singer y el investigador August Cole predicen que la Tercera Guerra Mundial será un enfrentamiento de altas tecnologÃas aplicadas a aviones, tanques y barcos autónomos, satélites asesinos, cañones láser y electromagnéticos, enjambres de drones, misiles hipersónicos y robots sin supervisión humana, capaces de modificar la misión que les atribuyeron y de definir nuevos objetivos sin consultar a una jerarquÃa humana. La complejidad y la rapidez de decisión que exigen los nuevos sistemas de armas excluyen al hombre de la cadena de mando.
Frente a la perspectiva alucinante que presenta el futuro, el coronel Gene Lee explica en sus cursos de formación algo que los futuros pilotos tienen dificultades para aceptar: aunque son entrenados, nunca participarán en los combates. Los duelos aéreos del futuro se librarán sin ninguna participación humana entre aviones autónomos que -gracias a los algoritmos procesados por las computadoras embarcadas- son capaces de distinguir la sutil diferencia que existe entre friends and foes (amigos o enemigos), optar por el arma más apropiada y elegir el instante más propicio para disparar. Todo el proceso dura un instante: durante sus intervenciones en Ucrania en 2014 y en el conflicto sirio, Rusia demostró que necesitaba apenas un puñado de segundos entre el momento en que sus drones detectaban una presencia de fuerzas hostiles y sus cohetes de precisión las borraban definitivamente del mapa.
Ese escenario, en verdad, no tiene nada de ciencia ficción ni corresponde a una posibilidad remota. Las tecnologÃas militares disruptivas, que comenzaron a surgir en los campos de batalla hace más de 30 años, son una realidad. En la actualidad, dominan la reflexión táctica y estratégica de los principales estados mayores, excitan la imaginación de los técnicos que trabajan en los laboratorios de investigación de la industria bélica y monopolizan la mayor parte de los presupuestos de investigación y fabricación de nuevas armas.
Casi todas las grandes potencias utilizan, con mayor o menor discreción, sistemas de armas letales autónomas (SALA) asistidos por inteligencia artificial. Algunos de ellos, como los drones, operan a gran escala desde principios de los años 2000 y, con el tiempo, terminaron por banalizarse. Estados Unidos los emplea regularmente en operaciones de vigilancia y bombardeo en Afganistán, Paquistán y Yemen. El instituto sueco Sipri estima que 19 paÃses tienen aplicaciones militares de esa tecnologÃa y poseen programas de ataque.
Los SALA desbordaron incluso las fronteras planetarias. Desde 2010, el Pentágono desarrolla el programa X-37B, que le permitió mantener en órbita durante dos años un dron militar capaz de actuar como un "asesino de satélites" o lanzar un bombardeo sobre posiciones terrestres del enemigo. Rusia y China también poseen aparatos orbitales de ataque, que pueden desplazarse, maniobrar en el espacio para acercarse a un satélite adversario y -en caso necesario- lanzar un ataque sin esperar instrucciones de la Tierra.
Los "robots asesinos", sean autónomos o manejados a distancia, tienen las mismas ventajas e inconvenientes que las fuerzas convencionales: pueden ser derrotados por una tecnologÃa más eficaz, y eso lleva implÃcito -como ahora- el riesgo de una escalada sin lÃmites. Su uso, sin embargo, plantea los dilemas estratégicos y éticos más graves que conoció el mundo desde que Estados Unidos dejó caer sus bombas atómicas sobre Hiroshima y Nagasaki en 1945. Normalmente, las pérdidas potenciales en vidas humanas ejercen un efecto disuasivo para decidir un conflicto. Pero la hipótesis de una guerra con robots sin alma ni derramamiento de sangre "elimina el factor disuasivo y aumenta la probabilidad de conflicto", argumenta Mary-Anne Williams, profesora en la Universidad Tecnológica de SÃdney.
"Una vez abierta la caja de Pandora, será difÃcil cerrarla", advirtieron en una carta enviada en 2017 a la ONU 116 responsables de empresas de robótica o especializados en inteligencia artificial, entre los cuales figuraba el CEO de Tesla, Elon Musk. Poco antes de morir, el fÃsico británico Stephen Hawking alcanzó a señalar los peligros que entraña el uso generalizado de la inteligencia artificial, "maligna y sanguinaria", y profetizó que los humanos "deberán abandonar el planeta para sobrevivir". Desde 2013, la ONU también denuncia el peligro de que esos arsenales inteligentes puedan ser desarrollados en algún momento por gobiernos irresponsables -como ocurrió con el arma atómica- o caigan en manos de grupos no estatales.
A esos riesgos la guerra del futuro sumará la incertidumbre provocada por la expansión de los tres escenarios tradicionales -tierra, mar y aire- a los que se sumarán dos nuevas dimensiones: el cosmos y el ciberespacio. En la redistribución de cartas estratégicas que prepara el mundo, el experto norteamericano Paul Scharre sostiene en su libro Army of None (Ejército de nadie) que tampoco las armas autónomas estarán exentas de sufrir un ciberataque lanzado por una fuerza enemiga o incluso por grupos terroristas, mafiosos o mercenarios al servicio de una potencia. Y, una vez en marcha, será imposible enfrentar la agresión porque los nuevos trolls operarán en alta frecuencia, como esos algoritmos asociados a operaciones bursátiles que pueden disparar miles de órdenes en menos de 300 microsegundos, es decir mil veces más rápido que un abrir y cerrar de ojos.
Un batallón de hackers, como la Unidad 61.398 del ejército chino basada en Shanghai o el grupo ruso APT 28 (Fancy Bear), tienen el conocimiento y la capacidad técnica para lanzar ciberataques susceptibles de paralizar a los ejércitos de robots asesinos o los sistemas de armas asistidas por inteligencia artificial. Por eso es que los polemólogos y estrategas están convencidos de que la guerra como la habÃan teorizado TucÃdides o Clausewitz es una noción perimida. El conflicto militar dejó de ser solo una confrontación humana asistida por la tecnologÃa. La confrontación, en el futuro, será "hÃbrida, compleja, invisible y permanente", prevé la ministra francesa de Defensa, Florence Parly. A menos que, una vez más, Einstein tenga razón y la confrontación del futuro sea más aterradora de lo que imaginamos: "La próxima guerra mundial -previno después de Hiroshima- será con piedras".
Ese ejemplo, usado en las escuelas de guerra de todo el mundo, permite dimensionar el vértigo que suscita la evolución de la alta tecnologÃa aplicada a la industria bélica y, en particular, a los sistemas de armas letales autónomas (SALA). Los componentes de esa panoplia serán los principales protagonistas de la guerra del futuro. El hombre, eclipsado por la tecnologÃa, por primera vez en la historia del planeta está dejando de ser el actor central de la guerra. La inteligencia humana solo conserva una importancia primordial, por ahora, para concebir los algoritmos que alimentan la inteligencia artificial de los sistemas de armas autónomas.
En su novela de anticipación Ghost Fleet (Flota fantasma), el consultor militar P. W. Singer y el investigador August Cole predicen que la Tercera Guerra Mundial será un enfrentamiento de altas tecnologÃas aplicadas a aviones, tanques y barcos autónomos, satélites asesinos, cañones láser y electromagnéticos, enjambres de drones, misiles hipersónicos y robots sin supervisión humana, capaces de modificar la misión que les atribuyeron y de definir nuevos objetivos sin consultar a una jerarquÃa humana. La complejidad y la rapidez de decisión que exigen los nuevos sistemas de armas excluyen al hombre de la cadena de mando.
Frente a la perspectiva alucinante que presenta el futuro, el coronel Gene Lee explica en sus cursos de formación algo que los futuros pilotos tienen dificultades para aceptar: aunque son entrenados, nunca participarán en los combates. Los duelos aéreos del futuro se librarán sin ninguna participación humana entre aviones autónomos que -gracias a los algoritmos procesados por las computadoras embarcadas- son capaces de distinguir la sutil diferencia que existe entre friends and foes (amigos o enemigos), optar por el arma más apropiada y elegir el instante más propicio para disparar. Todo el proceso dura un instante: durante sus intervenciones en Ucrania en 2014 y en el conflicto sirio, Rusia demostró que necesitaba apenas un puñado de segundos entre el momento en que sus drones detectaban una presencia de fuerzas hostiles y sus cohetes de precisión las borraban definitivamente del mapa.
Ese escenario, en verdad, no tiene nada de ciencia ficción ni corresponde a una posibilidad remota. Las tecnologÃas militares disruptivas, que comenzaron a surgir en los campos de batalla hace más de 30 años, son una realidad. En la actualidad, dominan la reflexión táctica y estratégica de los principales estados mayores, excitan la imaginación de los técnicos que trabajan en los laboratorios de investigación de la industria bélica y monopolizan la mayor parte de los presupuestos de investigación y fabricación de nuevas armas.
Casi todas las grandes potencias utilizan, con mayor o menor discreción, sistemas de armas letales autónomas (SALA) asistidos por inteligencia artificial. Algunos de ellos, como los drones, operan a gran escala desde principios de los años 2000 y, con el tiempo, terminaron por banalizarse. Estados Unidos los emplea regularmente en operaciones de vigilancia y bombardeo en Afganistán, Paquistán y Yemen. El instituto sueco Sipri estima que 19 paÃses tienen aplicaciones militares de esa tecnologÃa y poseen programas de ataque.
Los SALA desbordaron incluso las fronteras planetarias. Desde 2010, el Pentágono desarrolla el programa X-37B, que le permitió mantener en órbita durante dos años un dron militar capaz de actuar como un "asesino de satélites" o lanzar un bombardeo sobre posiciones terrestres del enemigo. Rusia y China también poseen aparatos orbitales de ataque, que pueden desplazarse, maniobrar en el espacio para acercarse a un satélite adversario y -en caso necesario- lanzar un ataque sin esperar instrucciones de la Tierra.
Los "robots asesinos", sean autónomos o manejados a distancia, tienen las mismas ventajas e inconvenientes que las fuerzas convencionales: pueden ser derrotados por una tecnologÃa más eficaz, y eso lleva implÃcito -como ahora- el riesgo de una escalada sin lÃmites. Su uso, sin embargo, plantea los dilemas estratégicos y éticos más graves que conoció el mundo desde que Estados Unidos dejó caer sus bombas atómicas sobre Hiroshima y Nagasaki en 1945. Normalmente, las pérdidas potenciales en vidas humanas ejercen un efecto disuasivo para decidir un conflicto. Pero la hipótesis de una guerra con robots sin alma ni derramamiento de sangre "elimina el factor disuasivo y aumenta la probabilidad de conflicto", argumenta Mary-Anne Williams, profesora en la Universidad Tecnológica de SÃdney.
"Una vez abierta la caja de Pandora, será difÃcil cerrarla", advirtieron en una carta enviada en 2017 a la ONU 116 responsables de empresas de robótica o especializados en inteligencia artificial, entre los cuales figuraba el CEO de Tesla, Elon Musk. Poco antes de morir, el fÃsico británico Stephen Hawking alcanzó a señalar los peligros que entraña el uso generalizado de la inteligencia artificial, "maligna y sanguinaria", y profetizó que los humanos "deberán abandonar el planeta para sobrevivir". Desde 2013, la ONU también denuncia el peligro de que esos arsenales inteligentes puedan ser desarrollados en algún momento por gobiernos irresponsables -como ocurrió con el arma atómica- o caigan en manos de grupos no estatales.
A esos riesgos la guerra del futuro sumará la incertidumbre provocada por la expansión de los tres escenarios tradicionales -tierra, mar y aire- a los que se sumarán dos nuevas dimensiones: el cosmos y el ciberespacio. En la redistribución de cartas estratégicas que prepara el mundo, el experto norteamericano Paul Scharre sostiene en su libro Army of None (Ejército de nadie) que tampoco las armas autónomas estarán exentas de sufrir un ciberataque lanzado por una fuerza enemiga o incluso por grupos terroristas, mafiosos o mercenarios al servicio de una potencia. Y, una vez en marcha, será imposible enfrentar la agresión porque los nuevos trolls operarán en alta frecuencia, como esos algoritmos asociados a operaciones bursátiles que pueden disparar miles de órdenes en menos de 300 microsegundos, es decir mil veces más rápido que un abrir y cerrar de ojos.
Un batallón de hackers, como la Unidad 61.398 del ejército chino basada en Shanghai o el grupo ruso APT 28 (Fancy Bear), tienen el conocimiento y la capacidad técnica para lanzar ciberataques susceptibles de paralizar a los ejércitos de robots asesinos o los sistemas de armas asistidas por inteligencia artificial. Por eso es que los polemólogos y estrategas están convencidos de que la guerra como la habÃan teorizado TucÃdides o Clausewitz es una noción perimida. El conflicto militar dejó de ser solo una confrontación humana asistida por la tecnologÃa. La confrontación, en el futuro, será "hÃbrida, compleja, invisible y permanente", prevé la ministra francesa de Defensa, Florence Parly. A menos que, una vez más, Einstein tenga razón y la confrontación del futuro sea más aterradora de lo que imaginamos: "La próxima guerra mundial -previno después de Hiroshima- será con piedras".