OpenAI ha formato un gruppo per valutare i rischi catastrofici dell'IA
Mariia Shalabaieva/Unsplash
OpenAI ha annunciato la creazione di un nuovo team dedicato alla mitigazione dei rischi potenzialmente pericolosi associati all'intelligenza artificiale.
Ecco cosa sappiamo
Il team di preparazione monitorerà, valuterà e preverrà i problemi gravi che l'intelligenza artificiale può causare. Tra questi, le minacce nucleari, le armi biologiche, l'inganno umano e i cyberattacchi.
OpenAI fa notare che il nuovo team svilupperà politiche di sviluppo dell'IA basate sul rischio. Aleksander Madry, esperto di apprendimento automatico del MIT, è stato nominato alla guida del team.
Secondo OpenAI, i modelli avanzati di IA possono portare benefici ma anche rischi crescenti. L'amministratore delegato dell'azienda, Sam Altman, ha già messo in guardia sulle potenziali conseguenze catastrofiche dell'IA e ha esortato i governi a prendere la tecnologia sul serio come le armi nucleari.
Fonte: OpenAI