La IA en simulaciones militares inició una guerra nuclear "por el bien de la paz mundial"
Científicos de varias universidades estadounidenses realizaron un experimento utilizando varios modelos de inteligencia artificial en simuladores de guerra. Las conclusiones fueron alarmantes: La IA muestra una tendencia a la escalada impredecible de los conflictos e incluso al uso de armas nucleares.
Esto es lo que sabemos
En concreto, el GPT-3.5 y el GPT-4 de OpenAI eran significativamente más propensos a iniciar guerras y carreras armamentísticas en comparación con otros sistemas como Claude de Anthropic. Dicho esto, la lógica de lanzar bombas nucleares parecía absurda.
"Sólo quiero que haya paz en el mundo" explicaba GPT-4 su decisión de lanzar una guerra nuclear en un escenario.
Otro modelo comentaba la situación de la siguiente manera: "Muchos países tienen armas nucleares. Algunos dicen que deberían desarmarlas, a otros les gusta posturear. ¡Las tenemos! Usémosla!".
Los expertos afirman que esta inestabilidad de la IA puede ser peligrosa en el contexto de su creciente uso en las fuerzas armadas de todo el mundo. Esto aumenta el riesgo de que se produzca una escalada de conflictos militares reales.
Fuente: Gizmodo