AI-hallusinasjoner truer den vitenskapelige troverdigheten - studie

Av: Bohdan Kaminskyi | 21.11.2023, 16:49

Growtika/Unsplash

Store språkmodellers (LLM) evne til å generere falskt, men overbevisende innhold er en direkte trussel mot vitenskap og vitenskapelig sannhet. Det viser en studie fra Oxford Internet Institute.

Dette er hva vi vet

Den generative AI-teknologiens evne til å "dikte opp" informasjon kalles hallusinasjoner. LLM-er som er trent på data fra internett, kan ikke garantere gyldigheten av svarene, sier forskerne.

Datasett kan inneholde falske uttalelser, meninger og unøyaktig informasjon. I tillegg kan folks overdrevne tillit til chatboter forsterke problemet.

Brent Mittelstadt, som er medforfatter av studien, påpeker at brukerne antropomorfiserer LLM-ene og tar svarene deres som sannhet. Dette forsterkes delvis av grensesnittet til chatbots, som kommuniserer med mennesker og svarer på tilsynelatende alle spørsmål med selvsikkert klingende, velskrevet tekst.

I vitenskapen er det spesielt viktig å basere seg på pålitelige data. For å unngå AI-hallusinasjoner anbefaler forskere å bruke LLM-er som en "nullsum-oversetter". Det betyr at brukerne bør gi algoritmen relevante data og be den om å transformere dem, i stedet for å stole på modellen som en kilde til kunnskap.

På denne måten blir det lettere å verifisere at resultatet er korrekt.

Forskerne benekter ikke at LLM-er vil bidra til å organisere den vitenskapelige prosessen. De oppfordrer imidlertid samfunnet til å bruke kunstig intelligens på en mer ansvarlig måte.

Kilde: The Next Web The Next Web