Le allucinazioni dell'intelligenza artificiale minacciano la credibilità scientifica - studio

Di: Bohdan Kaminskyi | 21.11.2023, 15:52
Le allucinazioni dell'intelligenza artificiale minacciano la credibilità scientifica - studio
Growtika/Unsplash

La capacità dei grandi modelli linguistici (LLM) di generare contenuti falsi ma persuasivi è una minaccia diretta alla scienza e alla verità scientifica. È quanto emerge da uno studio dell'Oxford Internet Institute.

Ecco cosa sappiamo

La caratteristica dell'IA generativa di "inventare" informazioni è chiamata allucinazione. I LLM addestrati su dati provenienti da Internet non possono garantire la validità delle risposte, affermano i ricercatori.

I set di dati possono contenere affermazioni false, opinioni e informazioni imprecise. Inoltre, l'eccessiva dipendenza delle persone dai chatbot potrebbe aggravare il problema.

Il coautore dello studio Brent Mittelstadt ha osservato che gli utenti antropomorfizzano i LLM, prendendo le loro risposte come verità. Questo fenomeno è in parte alimentato dall'interfaccia dei chatbot, che comunicano con gli esseri umani e rispondono apparentemente a qualsiasi domanda con un testo sicuro e ben scritto.

Nella scienza è particolarmente importante affidarsi a dati affidabili. Per evitare le allucinazioni dell'intelligenza artificiale, gli scienziati raccomandano di utilizzare i LLM come "traduttori a somma zero". Ciò significa che gli utenti dovrebbero fornire all'algoritmo dati rilevanti e chiedergli di trasformarli, piuttosto che affidarsi al modello come fonte di conoscenza.

In questo modo, diventa più facile verificare la correttezza del risultato.

Gli scienziati non negano che i LLM contribuiranno a organizzare il processo scientifico. Tuttavia, hanno esortato la comunità a essere più responsabile nell'uso dell'IA.

Fonte: The Next Web