OpenAI lancia il gruppo Red Teaming Network per migliorare l'affidabilità dei suoi modelli
OpenAI ha annunciato il lancio del programma Red Teaming Network, un gruppo di esperti che valuterà e mitigherà i rischi nei modelli di intelligenza artificiale.
Ecco cosa sappiamo
Secondo OpenAI, il gruppo aiuterà a identificare le distorsioni in modelli come DALL-E 2 e GPT-4, oltre a trovare gli indizi che portano l'intelligenza artificiale a ignorare i filtri di sicurezza.
In precedenza, l'azienda ha coinvolto anche tester di terze parti, ma ora questo lavoro è stato formalizzato per "approfondire e ampliare" i controlli con esperti e organizzazioni.
I partecipanti alla rete potranno interagire tra loro su questioni comuni di test dell'IA. Detto questo, non tutti i partecipanti al progetto lavoreranno su nuovi prodotti OpenAI.
L'azienda invita a partecipare anche esperti in diversi campi, tra cui linguistica, biometria, finanza e sanità. Non è richiesta una precedente esperienza con i sistemi di intelligenza artificiale, ma l'accordo di non divulgazione potrebbe influenzare altre ricerche, ha avvertito OpenAI.
Fonte: OpenAI