KI-Halluzinationen bedrohen wissenschaftliche Glaubwürdigkeit - Studie

Von: Bohdan Kaminskyi | 21.11.2023, 16:49

Growtika/Unsplash

Die Fähigkeit großer Sprachmodelle (LLMs), falsche, aber überzeugende Inhalte zu erzeugen, ist eine direkte Bedrohung für die Wissenschaft und die wissenschaftliche Wahrheit. Dies geht aus einer Studie des Oxford Internet Institute hervor.

Was bekannt ist

Die Eigenschaft der generativen KI, Informationen zu "erfinden", wird als Halluzination bezeichnet. LLMs, die auf Daten aus dem Internet trainiert wurden, können die Gültigkeit der Antworten nicht garantieren, so die Forscher.

Datensätze können falsche Aussagen, Meinungen und ungenaue Informationen enthalten. Darüber hinaus könnte die übermäßige Abhängigkeit der Menschen von Chatbots das Problem noch verschärfen.

Der Mitautor der Studie, Brent Mittelstadt, stellte fest, dass die Nutzer LLMs vermenschlichen und ihre Antworten als Wahrheit ansehen. Dies wird teilweise durch die Schnittstelle von Chatbots gefördert, die mit Menschen kommunizieren und scheinbar jede Frage mit selbstbewusst klingenden, gut geschriebenen Texten beantworten.

In der Wissenschaft ist es besonders wichtig, sich auf zuverlässige Daten zu stützen. Um KI-Halluzinationen zu vermeiden, empfehlen Wissenschaftler, LLMs als "Nullsummen-Übersetzer" einzusetzen. Das bedeutet, dass die Nutzer dem Algorithmus relevante Daten zur Verfügung stellen und ihn bitten sollten, diese umzuwandeln, anstatt sich auf das Modell als Wissensquelle zu verlassen.

Auf diese Weise wird es einfacher, die Korrektheit des Ergebnisses zu überprüfen.

Die Wissenschaftler leugnen nicht, dass LLMs bei der Organisation des wissenschaftlichen Prozesses helfen werden. Sie forderten die Gemeinschaft jedoch auf, die KI verantwortungsvoller einzusetzen.

Quelle: The Next Web