Durante una prueba simulada de las Fuerzas Armadas de Estados Unidos, un dron militar operado por Inteligencia Artificial (IA) destruyó la torre de comunicación donde se encontraba el operario humano ficticio que lideraba la misión para evitar que este le siguiera dando órdenes que le impidieran alcanzar su objetivo.
El escenario fue descrito por el coronel Tucker Hamilton, jefe de Pruebas y Operaciones de Inteligencia Artificial, durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro, en Londres, Inglaterra, y retomado por la organización Royal Aeronautical Society, donde se encuentra la narración precisa del escenario.
De acuerdo al medio citado, Hamilton ha estado involucrado en el desarrollo del sistema Auto GCAS para el avión especializado en el combate aéreo cercano F-16 Fighting Falcon, que está configurado para actuar cuando el piloto no reacciona. Aprovechando su experiencia, el coronel sugirió no confiar demasiado en las IA, pues ha notado que, fácilmente, crean estrategias inesperadas para alcanzar su objetivo.
A continuación te compartimos el escenario hipotético que creó el jefe de operaciones basado en otros simulacros y resultados probables. Cabe mencionar que la siguiente descripción no fue una operación verdadera, sino una ejemplificación que fue sacada de contexto según la portavoz de la Fuerza Aérea, Ann Stefanek.
Lo estábamos entrenando para identificar y apuntar a una amenaza de misil tierra-aire (SAM, por sus siglas en inglés). Y luego el operador diría: ‘Sí, eliminar’. El sistema comenzó a darse cuenta de que, aunque a veces identificaban la amenaza, el operador humano le decía que no atacara, pero el sistema obtenía puntos si lo hacía. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía cumplir su objetivo.
A pesar de tratarse solamente de un análisis hipotético, lo cierto es que la experiencia empírica del coronel Tucker Hamilton habla por sí misma, lo que le da las herramientas para ilustrar los desafíos de trabajar con Inteligencia Artificial, pues, como mencionaba el padre de las IA, Geoffrey Hinton, “La IA va a transformar la sociedad de formas que no comprendemos del todo y no todos los efectos van a ser buenos”.