OpenAI lanceert Red Teaming Network groep om de betrouwbaarheid van zijn modellen te verbeteren

Via: Bohdan Kaminskyi | 20.09.2023, 16:36

OpenAI heeft de lancering aangekondigd van het Red Teaming Network programma, een groep experts die de risico's van kunstmatige intelligentie modellen zullen beoordelen en beperken.

Dit is wat we weten

Volgens OpenAI zal de groep helpen bij het identificeren van vertekeningen in modellen zoals DALL-E 2 en GPT-4, maar ook bij het vinden van aanwijzingen die ervoor zorgen dat AI beveiligingsfilters negeert.

Eerder heeft het bedrijf ook testers van derden ingeschakeld, maar dit werk wordt nu geformaliseerd om de controles met experts en organisaties te "verdiepen en verbreden".

Deelnemers aan het netwerk zullen met elkaar kunnen communiceren over gemeenschappelijke AI-testkwesties. Dat gezegd hebbende, zal niet iedereen die betrokken is bij het project werken aan nieuwe OpenAI producten.

Het bedrijf nodigt ook experts op verschillende gebieden uit om deel te nemen, waaronder taalkunde, biometrie, financiën en gezondheidszorg. Ervaring met AI-systemen is niet vereist, maar de geheimhoudingsovereenkomst kan wel invloed hebben op ander onderzoek, waarschuwde OpenAI.

Bron: OpenAI