OpenAI ha formato un gruppo per valutare i rischi catastrofici dell'IA

Di: Bohdan Kaminskyi | 27.10.2023, 17:53

Mariia Shalabaieva/Unsplash

OpenAI ha annunciato la creazione di un nuovo team dedicato alla mitigazione dei rischi potenzialmente pericolosi associati all'intelligenza artificiale.

Ecco cosa sappiamo

Il team di preparazione monitorerà, valuterà e preverrà i problemi gravi che l'intelligenza artificiale può causare. Tra questi, le minacce nucleari, le armi biologiche, l'inganno umano e i cyberattacchi.

OpenAI fa notare che il nuovo team svilupperà politiche di sviluppo dell'IA basate sul rischio. Aleksander Madry, esperto di apprendimento automatico del MIT, è stato nominato alla guida del team.

Secondo OpenAI, i modelli avanzati di IA possono portare benefici ma anche rischi crescenti. L'amministratore delegato dell'azienda, Sam Altman, ha già messo in guardia sulle potenziali conseguenze catastrofiche dell'IA e ha esortato i governi a prendere la tecnologia sul serio come le armi nucleari.

Fonte: OpenAI