El primer escenario en el que una inteligencia artificial se comporta de la forma que a menudo se visto en la ciencia ficción y últimamente alertan numerosos expertos, ya está aquí.
Durante la cumbre celebrada por la Real Sociedad Aeronáutica en Londres la semana pasada, el coronel estadounidense y jefe de pruebas y operaciones de IA de la Fuerza Aérea de los Estados Unidos, Tucker Hamilton, relató como un dron militar guiado por IA decidió matar a su operador humano durante una simulación para poder cumplir con los objetivos asignados a su misión.
El coronel relató como el suceso tuvo lugar durante una simulación con un dron guiado por inteligencia artificial, sin especificar si la simulación era enteramente virtual o no o el modelo de dron.
La Fuerza Aérea estadounidense tiene actualmente varios programas de aeronaves con vuelo autónomo en los que emplean drones Valkyrie XQ-58, MQ-20 Avenger, UTAP-22 MAKO y el F-16 modificado VISTA X-62.
El objetivo del dron era destruir una serie de plataformas de lanzamientos de misiles SAM, con la decisión final de ejecutar el ataque en manos de un operador humano que debía autorizarlo. El entrenamiento de la inteligencia artificial que controlaba el dron había determinado que la destrucción de los sistemas SAM era la “opción preferida”. Llegó un punto en el que las decisiones de no ejecutar el ataque que tomaba el operador durante la simulación estaban interfiriendo con el objetivo último de su misión, por lo que decidió acabar con él para poder cumplirlo.