OpenAI strammer inn kontrollen med utviklingen av potensielt farlige AI-modeller
Mariia Shalabaieva/Unsplash
OpenAI, som har utviklet den populære chatboten ChatGPT, innfører flere kontroller for å redusere risikoen for at det skapes ondsinnede modeller for kunstig intelligens.
Dette er hva vi vet
OpenAI er i ferd med å opprette en egen rådgivende sikkerhetsgruppe. Den skal vurdere risikoen ved utviklede modeller på flere områder: cybersikkerhet, feilinformasjon, autonomi og annet.
Gruppen vil kunne komme med anbefalinger til selskapets toppledelse om å forby eller begrense visse prosjekter. I tillegg vil OpenAIs styre ha rett til å nedlegge veto mot beslutninger som tas av ledelsen.
Ifølge selskapets uttalelser vil disse tiltakene gjøre det mulig å identifisere potensielle trusler på et tidlig stadium i utviklingen. Eksperter påpeker imidlertid at systemets reelle effektivitet avhenger av OpenAI-ledelsens egen policy.
Tidligere ble tilhengere av å begrense risikable AI-prosjekter ekskludert fra styret. Og de nye styremedlemmene er kjent for sin ganske kommersielle holdning. Det er uvisst i hvilken grad de vil være tilbøyelige til å bruke vetoretten i praksis.
Kilde: TechCrunch: TechCrunch