OpenAI rafforza i controlli sullo sviluppo di modelli di IA potenzialmente pericolosi
Mariia Shalabaieva/Unsplash
OpenAI, lo sviluppatore del popolare chatbot ChatGPT, sta implementando ulteriori controlli per ridurre il rischio di creare modelli di intelligenza artificiale dannosi.
Ecco cosa sappiamo
In particolare, OpenAI sta creando uno speciale gruppo di consulenza sulla sicurezza. Il gruppo valuterà i rischi derivanti dai modelli sviluppati in diverse aree: cybersicurezza, disinformazione, autonomia e altre.
Il gruppo sarà in grado di formulare raccomandazioni ai vertici dell'azienda per vietare o limitare determinati progetti. Inoltre, il consiglio di amministrazione di OpenAI avrà il diritto di porre il veto sulle decisioni della direzione.
Secondo le dichiarazioni dell'azienda, queste misure permetteranno di identificare meglio le potenziali minacce nelle prime fasi di sviluppo. Tuttavia, gli esperti notano che la reale efficacia del sistema dipende dalla politica della stessa direzione di OpenAI.
In precedenza, i sostenitori della limitazione dei progetti di IA a rischio sono stati esclusi dal consiglio di amministrazione. I nuovi membri del consiglio sono noti per la loro posizione piuttosto commerciale. Non si sa fino a che punto saranno propensi a usare il diritto di veto nella pratica.
Fonte: TechCrunch