OpenAI ha creato un team per incorporare le idee del pubblico nella gestione dei modelli di AI
Mariia Shalabaieva/Unsplash
OpenAI ha annunciato la formazione di un nuovo gruppo di ricerca Collective Alignment, che svilupperà un sistema per raccogliere e tenere in considerazione l'opinione pubblica quando si prendono decisioni sul comportamento dei modelli di intelligenza artificiale dell'azienda.
Ecco cosa sappiamo
Secondo gli sviluppatori, Collective Alignment garantirà che i futuri modelli di intelligenza artificiale siano in linea con i valori e le aspettative della società.
La creazione del team è il risultato di un programma di sovvenzioni lanciato l'anno scorso che ha finanziato esperimenti per introdurre il controllo pubblico e "processi democratici" nella gestione dei sistemi di IA.
OpenAI pubblica ora il codice e i risultati del lavoro dei borsisti. In futuro, il team di Collective Alignment integrerà i prototipi promettenti nei prodotti e nei servizi dell'azienda.
Gli sviluppatori sostengono che l'iniziativa è pensata per rendere l'IA di OpenAI il più possibile utile e sicura per la società. Tuttavia, alcuni esperti notano la presenza di interessi commerciali e rischi di lobbismo normativo da parte dell'azienda.
Fonte: OpenAI