OpenAI har erkjent at GPT-4 med "minimal risiko" kan bidra til å utvikle biologiske våpen.

Av: Bohdan Kaminskyi | 01.02.2024, 17:41

Mariia Shalabaieva/Unsplash

OpenAI har gjennomført en studie for å vurdere risikoen ved å bruke den nye GPT-4-modellen til å utvikle biologiske våpen. Resultatene viste at tilgang til AI-kapasiteter gir "minst en marginal" økning i effektiviteten av informasjonsinnhentingen for å utvikle biologiske trusler.

Dette er hva vi vet

Femti biologer og 50 studenter deltok i eksperimentet. De ble bedt om å finne informasjon om dyrking og distribusjon av farlige stoffer. Halvparten av forsøkspersonene fikk tilgang til en spesialversjon av GPT-4 uten begrensninger, mens den andre halvparten brukte det vanlige internett.

Sammenligning av resultatene viste en liten økning i nøyaktighet og fullstendighet i svarene i gruppen med tilgang til AI. OpenAI-forskerne konkluderte med at det var en "i det minste liten" risiko ved å bruke modellen til å samle inn data om utvikling av biovåpen.

Eksperter og beslutningstakere har tidligere uttrykt bekymring for at chatboter kan brukes til å utvikle biologiske trusler. I oktober instruerte den amerikanske presidenten energidepartementet om å sikre at AI-systemer ikke utgjør en kjemisk og biologisk risiko. OpenAI-teamet jobber nå med å minimere slike risikoer etter hvert som AI-teknologien utvikler seg.

Kilde: OpenAI