AI-hallucinaties bedreigen wetenschappelijke geloofwaardigheid - studie
Growtika/Unsplash
Het vermogen van grote taalmodellen (LLM's) om valse maar overtuigende inhoud te genereren is een directe bedreiging voor de wetenschap en de wetenschappelijke waarheid. Dit blijkt uit een onderzoek van het Oxford Internet Institute.
Dit is wat we weten
De eigenschap van generatieve AI om informatie te "verzinnen" wordt hallucineren genoemd. LLM's die getraind zijn op gegevens van het internet kunnen de geldigheid van antwoorden niet garanderen, aldus de onderzoekers.
Datasets kunnen valse verklaringen, meningen en onnauwkeurige informatie bevatten. Bovendien kan het overmatige vertrouwen van mensen in chatbots het probleem verergeren.
Medeauteur Brent Mittelstadt merkte op dat gebruikers LLM's antropomorfiseren en hun antwoorden als waarheid aannemen. Dit wordt deels gevoed door de interface van chatbots, die met mensen communiceren en schijnbaar elke vraag beantwoorden met zelfverzekerd klinkende, goed geschreven tekst.
In de wetenschap is het vooral belangrijk om te vertrouwen op betrouwbare gegevens. Om AI-hallucinaties te voorkomen, raden wetenschappers aan om LLM's te gebruiken als een "zero-sum vertaler". Dit betekent dat gebruikers het algoritme moeten voorzien van relevante gegevens en het vragen om deze te transformeren, in plaats van te vertrouwen op het model als kennisbron.
Op deze manier wordt het gemakkelijker om de juistheid van het resultaat te controleren.
De wetenschappers ontkennen niet dat LLM's zullen helpen bij het organiseren van het wetenschappelijke proces. Ze dringen er echter bij de gemeenschap op aan om verantwoordelijker om te gaan met AI.
Bron: The Next Web