OpenAI lanserer Red Teaming Network-gruppe for å forbedre påliteligheten til modellene sine.
OpenAI har kunngjort lanseringen av Red Teaming Network-programmet, en gruppe eksperter som skal vurdere og redusere risikoen i modeller for kunstig intelligens.
Dette er hva vi vet
Ifølge OpenAI skal gruppen bidra til å identifisere skjevheter i modeller som DALL-E 2 og GPT-4, samt finne ledetråder som får kunstig intelligens til å ignorere sikkerhetsfiltre.
Tidligere har selskapet også hentet inn tredjeparts testere, men dette arbeidet er nå formalisert for å "utdype og utvide" kontrollene med eksperter og organisasjoner.
Deltakerne i nettverket vil kunne samhandle med hverandre om felles problemstillinger knyttet til AI-testing. Når det er sagt, vil ikke alle som deltar i prosjektet, jobbe med nye OpenAI-produkter.
Selskapet inviterer også eksperter fra en rekke ulike fagfelt, blant annet lingvistikk, biometri, finans og helsevesen, til å delta. Tidligere erfaring med AI-systemer er ikke nødvendig, men taushetsplikten kan påvirke annen forskning, advarer OpenAI.
Kilde: OpenAI: OpenAI