Le allucinazioni dell'intelligenza artificiale minacciano la credibilità scientifica - studio
Growtika/Unsplash
La capacità dei grandi modelli linguistici (LLM) di generare contenuti falsi ma persuasivi è una minaccia diretta alla scienza e alla verità scientifica. È quanto emerge da uno studio dell'Oxford Internet Institute.
Ecco cosa sappiamo
La caratteristica dell'IA generativa di "inventare" informazioni è chiamata allucinazione. I LLM addestrati su dati provenienti da Internet non possono garantire la validità delle risposte, affermano i ricercatori.
I set di dati possono contenere affermazioni false, opinioni e informazioni imprecise. Inoltre, l'eccessiva dipendenza delle persone dai chatbot potrebbe aggravare il problema.
Il coautore dello studio Brent Mittelstadt ha osservato che gli utenti antropomorfizzano i LLM, prendendo le loro risposte come verità. Questo fenomeno è in parte alimentato dall'interfaccia dei chatbot, che comunicano con gli esseri umani e rispondono apparentemente a qualsiasi domanda con un testo sicuro e ben scritto.
Nella scienza è particolarmente importante affidarsi a dati affidabili. Per evitare le allucinazioni dell'intelligenza artificiale, gli scienziati raccomandano di utilizzare i LLM come "traduttori a somma zero". Ciò significa che gli utenti dovrebbero fornire all'algoritmo dati rilevanti e chiedergli di trasformarli, piuttosto che affidarsi al modello come fonte di conoscenza.
In questo modo, diventa più facile verificare la correttezza del risultato.
Gli scienziati non negano che i LLM contribuiranno a organizzare il processo scientifico. Tuttavia, hanno esortato la comunità a essere più responsabile nell'uso dell'IA.
Fonte: The Next Web