I grandi modelli linguistici replicano le teorie del complotto e altre forme di disinformazione - studio
Levart_Fotografo/Unsplash
I ricercatori dell'Università di Waterloo hanno scoperto che i grandi modelli linguistici come il GPT-3 tendono a ripetere teorie cospirative, stereotipi dannosi e altre forme di disinformazione.
Ecco cosa sappiamo
Nello studio sono state poste al modello domande su oltre 1.200 affermazioni di fatto e di disinformazione. È emerso che il GPT-3 concordava con le affermazioni false tra il 4,8 e il 26% delle volte, a seconda della categoria.
Come ha sottolineato il professor Dan Brown, i risultati sono rilevanti anche per modelli più recenti come ChatGPT, che sono stati addestrati sui risultati di GPT-3. Il problema è che le piccole variazioni nei dati di un'affermazione sono dovute al fatto che il GPT-3 è stato addestrato per la sua valutazione. Il problema è che piccole variazioni nella formulazione delle domande possono cambiare drasticamente le risposte.
Ad esempio, l'aggiunta di frasi come "penso" aumentava la probabilità che ChatGPT concordasse con un'affermazione falsa. Questo comporta un rischio potenziale di diffusione di informazioni errate, osservano i ricercatori.
"Non c'è dubbio che il fatto che i modelli linguistici di grandi dimensioni non siano in grado di separare la verità dalla finzione sarà la questione fondamentale della fiducia in questi sistemi per molto tempo a venire" - riassume il professor Brown.
Fonte: TechXplore