OpenAI ha riconosciuto che il GPT-4 potrebbe, con un "rischio minimo", contribuire allo sviluppo di armi biologiche.
Mariia Shalabaieva/Unsplash
OpenAI ha condotto uno studio per valutare i rischi dell'utilizzo del suo nuovo modello GPT-4 per sviluppare armi biologiche. I risultati hanno mostrato che l'accesso alle capacità dell'IA fornisce un aumento "almeno marginale" dell'efficienza della raccolta di informazioni per sviluppare minacce biologiche.
Ecco cosa sappiamo
All'esperimento hanno partecipato 50 biologi e 50 studenti. È stato chiesto loro di trovare informazioni sulla coltivazione e la distribuzione di sostanze pericolose. Metà dei soggetti ha avuto accesso a una versione speciale del GPT-4 senza restrizioni, mentre l'altra metà ha utilizzato il normale Internet.
Il confronto dei risultati ha mostrato un leggero aumento dell'accuratezza e della completezza delle risposte nel gruppo con accesso all'IA. I ricercatori di OpenAI hanno concluso che l'uso del modello per raccogliere dati sullo sviluppo di armi biologiche comporta un rischio "almeno minore".
Esperti e politici hanno già sollevato preoccupazioni sul potenziale uso dei chatbot per sviluppare minacce biologiche. A ottobre, il Presidente degli Stati Uniti ha incaricato il Dipartimento dell'Energia di garantire che i sistemi di IA non comportino rischi chimici e biologici. Il team di OpenAI sta lavorando per ridurre al minimo tali rischi con il progredire della tecnologia AI.
Fonte: OpenAI