OpenAI har erkjent at GPT-4 med "minimal risiko" kan bidra til å utvikle biologiske våpen.
Mariia Shalabaieva/Unsplash
OpenAI har gjennomført en studie for å vurdere risikoen ved å bruke den nye GPT-4-modellen til å utvikle biologiske våpen. Resultatene viste at tilgang til AI-kapasiteter gir "minst en marginal" økning i effektiviteten av informasjonsinnhentingen for å utvikle biologiske trusler.
Dette er hva vi vet
Femti biologer og 50 studenter deltok i eksperimentet. De ble bedt om å finne informasjon om dyrking og distribusjon av farlige stoffer. Halvparten av forsøkspersonene fikk tilgang til en spesialversjon av GPT-4 uten begrensninger, mens den andre halvparten brukte det vanlige internett.
Sammenligning av resultatene viste en liten økning i nøyaktighet og fullstendighet i svarene i gruppen med tilgang til AI. OpenAI-forskerne konkluderte med at det var en "i det minste liten" risiko ved å bruke modellen til å samle inn data om utvikling av biovåpen.
Eksperter og beslutningstakere har tidligere uttrykt bekymring for at chatboter kan brukes til å utvikle biologiske trusler. I oktober instruerte den amerikanske presidenten energidepartementet om å sikre at AI-systemer ikke utgjør en kjemisk og biologisk risiko. OpenAI-teamet jobber nå med å minimere slike risikoer etter hvert som AI-teknologien utvikler seg.
Kilde: OpenAI