OpenAI lanserer Red Teaming Network-gruppe for å forbedre påliteligheten til modellene sine.

Av: Bohdan Kaminskyi | 20.09.2023, 16:36

OpenAI har kunngjort lanseringen av Red Teaming Network-programmet, en gruppe eksperter som skal vurdere og redusere risikoen i modeller for kunstig intelligens.

Dette er hva vi vet

Ifølge OpenAI skal gruppen bidra til å identifisere skjevheter i modeller som DALL-E 2 og GPT-4, samt finne ledetråder som får kunstig intelligens til å ignorere sikkerhetsfiltre.

Tidligere har selskapet også hentet inn tredjeparts testere, men dette arbeidet er nå formalisert for å "utdype og utvide" kontrollene med eksperter og organisasjoner.

Deltakerne i nettverket vil kunne samhandle med hverandre om felles problemstillinger knyttet til AI-testing. Når det er sagt, vil ikke alle som deltar i prosjektet, jobbe med nye OpenAI-produkter.

Selskapet inviterer også eksperter fra en rekke ulike fagfelt, blant annet lingvistikk, biometri, finans og helsevesen, til å delta. Tidligere erfaring med AI-systemer er ikke nødvendig, men taushetsplikten kan påvirke annen forskning, advarer OpenAI.

Kilde: OpenAI: OpenAI