OpenAI lancia il gruppo Red Teaming Network per migliorare l'affidabilità dei suoi modelli

Di: Bohdan Kaminskyi | 20.09.2023, 16:36

OpenAI ha annunciato il lancio del programma Red Teaming Network, un gruppo di esperti che valuterà e mitigherà i rischi nei modelli di intelligenza artificiale.

Ecco cosa sappiamo

Secondo OpenAI, il gruppo aiuterà a identificare le distorsioni in modelli come DALL-E 2 e GPT-4, oltre a trovare gli indizi che portano l'intelligenza artificiale a ignorare i filtri di sicurezza.

In precedenza, l'azienda ha coinvolto anche tester di terze parti, ma ora questo lavoro è stato formalizzato per "approfondire e ampliare" i controlli con esperti e organizzazioni.

I partecipanti alla rete potranno interagire tra loro su questioni comuni di test dell'IA. Detto questo, non tutti i partecipanti al progetto lavoreranno su nuovi prodotti OpenAI.

L'azienda invita a partecipare anche esperti in diversi campi, tra cui linguistica, biometria, finanza e sanità. Non è richiesta una precedente esperienza con i sistemi di intelligenza artificiale, ma l'accordo di non divulgazione potrebbe influenzare altre ricerche, ha avvertito OpenAI.

Fonte: OpenAI