OpenAI strammer inn kontrollen med utviklingen av potensielt farlige AI-modeller

Av: Bohdan Kaminskyi | 19.12.2023, 14:43
OpenAI strammer inn kontrollen med utviklingen av potensielt farlige AI-modeller
Mariia Shalabaieva/Unsplash

OpenAI, som har utviklet den populære chatboten ChatGPT, innfører flere kontroller for å redusere risikoen for at det skapes ondsinnede modeller for kunstig intelligens.

Dette er hva vi vet

OpenAI er i ferd med å opprette en egen rådgivende sikkerhetsgruppe. Den skal vurdere risikoen ved utviklede modeller på flere områder: cybersikkerhet, feilinformasjon, autonomi og annet.

Gruppen vil kunne komme med anbefalinger til selskapets toppledelse om å forby eller begrense visse prosjekter. I tillegg vil OpenAIs styre ha rett til å nedlegge veto mot beslutninger som tas av ledelsen.

Ifølge selskapets uttalelser vil disse tiltakene gjøre det mulig å identifisere potensielle trusler på et tidlig stadium i utviklingen. Eksperter påpeker imidlertid at systemets reelle effektivitet avhenger av OpenAI-ledelsens egen policy.

Tidligere ble tilhengere av å begrense risikable AI-prosjekter ekskludert fra styret. Og de nye styremedlemmene er kjent for sin ganske kommersielle holdning. Det er uvisst i hvilken grad de vil være tilbøyelige til å bruke vetoretten i praksis.

Kilde: TechCrunch: TechCrunch