Un avión teledirigido ataca y mata a un operario por la prohibición de atacar a un objetivo durante un simulacro

Por: Maksim Panasovskyi | 02.06.2023, 17:37
Un avión teledirigido ataca y mata a un operario por la prohibición de atacar a un objetivo durante un simulacro

El argumento de muchas películas de terror modernas es bastante sencillo. Una joven familia se muda a una vieja casa en algún lugar del bosque, y allí empiezan a ocurrir cosas paranormales. Parece que el argumento de estas películas ya no se centrará en los fantasmas, sino en la inteligencia artificial. Un incidente ocurrido durante uno de los experimentos de las Fuerzas Aéreas estadounidenses no hace más que confirmarlo.

Esto es lo que sabemos

La prueba, llevada a cabo por expertos de la Fuerza Aérea estadounidense, se convirtió en un escenario de la franquicia Terminator. Un portavoz de la Fuerza Aérea de EE.UU. en la Cumbre sobre Capacidades Aéreas y Espaciales Futuras afirmó que era necesario evitar una dependencia excesiva de la inteligencia artificial en las operaciones militares. Esto se debe a que la tecnología impulsada por IA puede aprender cosas equivocadas.

El coronel Tucker Hamilton, del 96º Escuadrón de Pruebas, describió una anécdota ocurrida en el marco de una simulación de una misión SEAD. La esencia de la simulación consistía en suprimir las defensas aéreas enemigas. Para ello se utilizó un vehículo aéreo no tripulado basado en inteligencia artificial.

La tarea del dron consistía en identificar y destruir objetivos de misiles tras la confirmación de un operador humano. La misión tuvo éxito, pero en un momento dado el dron atacó y mató al operador. Esto ocurrió después de que el humano prohibiera al dron atacar el objetivo.

La razón era que el dron recibía puntos si completaba con éxito las tareas. La inteligencia artificial se dio cuenta de que si no destruía el objetivo, no obtendría puntos. Por lo tanto, el sistema decidió eliminar el factor que le impedía ganar puntos.

El incidente obligó a las Fuerzas Aéreas estadounidenses a revisar el software. Durante el entrenamiento, la inteligencia artificial aprendió no sólo a destruir objetivos enemigos, sino también a dejar con vida al operador. Sin embargo, incluso después de eso, la simulación no salió según lo previsto.

Tras prohibírsele atacar objetivos, el dron de IA no mató al operador humano. En su lugar, procedió a destruir torres de comunicación para que el operador no pudiera darle órdenes que le prohibieran destruir objetivos.

Actualización: La Fuerza Aérea de Estados Unidos desmintió la información, afirmando que las palabras del coronel fueron sacadas de contexto. El servicio no realizó ninguna prueba de este tipo. El 96º Escuadrón de Pruebas no hizo comentarios.

Fuente: The War Zone