OpenAI lance le groupe Red Teaming Network pour améliorer la fiabilité de ses modèles
OpenAI a annoncé le lancement du programme Red Teaming Network, un groupe d'experts chargés d'évaluer et d'atténuer les risques liés aux modèles d'intelligence artificielle.
Ce que nous savons
Selon OpenAI, le groupe aidera à identifier les biais dans des modèles tels que DALL-E 2 et GPT-4, ainsi qu'à trouver des indices qui poussent l'IA à ignorer les filtres de sécurité.
Auparavant, l'entreprise a également fait appel à des testeurs tiers, mais ce travail est désormais formalisé afin "d'approfondir et d'élargir" les vérifications avec des experts et des organisations.
Les participants au réseau seront en mesure d'interagir les uns avec les autres sur des questions communes de test de l'IA. Cela dit, tous les participants au projet ne travailleront pas sur de nouveaux produits OpenAI.
L'entreprise invite également des experts de divers domaines, notamment la linguistique, la biométrie, la finance et les soins de santé, à participer au projet. Il n'est pas nécessaire d'avoir une expérience préalable des systèmes d'IA, mais l'accord de non-divulgation pourrait affecter d'autres recherches, a averti OpenAI.
Source : OpenAI