OpenAI har dannet en gruppe som skal vurdere katastroferisikoen ved kunstig intelligens.

Av: Bohdan Kaminskyi | 27.10.2023, 17:56
OpenAI har dannet en gruppe som skal vurdere katastroferisikoen ved kunstig intelligens.
Mariia Shalabaieva/Unsplash

OpenAI kunngjorde opprettelsen av et nytt team som skal jobbe med å redusere potensielt farlige risikoer forbundet med kunstig intelligens.

Dette er hva vi vet

Beredskapsteamet skal overvåke, vurdere og forebygge alvorlige problemer som kunstig intelligens kan forårsake. Disse inkluderer atomtrusler, biologiske våpen, menneskelig bedrag og cyberangrep.

OpenAI skriver at det nye teamet skal utvikle risikobaserte retningslinjer for AI-utvikling. Aleksander Madry, en MIT-ekspert på maskinlæring, er utnevnt til å lede teamet.

Ifølge OpenAI kan avanserte AI-modeller gi fordeler, men også medføre økende risiko. Selskapets administrerende direktør Sam Altman har tidligere advart mot de potensielt katastrofale konsekvensene av kunstig intelligens og oppfordret myndighetene til å ta teknologien like alvorlig som atomvåpen.

Kilde: OpenAI OpenAI