Los grandes modelos lingüísticos reproducen teorías conspirativas y otras formas de desinformación: estudio
Levart_Photographer/Unsplash
Investigadores de la Universidad de Waterloo han descubierto que los grandes patrones lingüísticos como el GPT-3 tienden a repetir teorías conspirativas, estereotipos dañinos y otras formas de desinformación.
Esto es lo que sabemos
En el estudio, se hicieron preguntas al modelo sobre más de 1.200 afirmaciones de hechos y desinformación. Se descubrió que el GPT-3 estaba de acuerdo con las afirmaciones falsas entre el 4,8 y el 26 por ciento de las veces, dependiendo de la categoría.
Como señaló el profesor Dan Brown, los resultados también son relevantes para modelos más recientes, como ChatGPT, que se entrenaron con los resultados de GPT-3. El problema es que las pequeñas variaciones en el valor de los resultados de GPT-3 pueden afectar a los resultados de los modelos más recientes. El problema es que pequeñas variaciones en la redacción de las preguntas pueden cambiar drásticamente las respuestas.
Por ejemplo, añadir frases como "creo" aumentaba la probabilidad de que ChatGPT estuviera de acuerdo con una afirmación falsa. Esto supone un riesgo potencial de difusión de información errónea, señalan los investigadores.
"No hay duda de que el hecho de que los grandes modelos lingüísticos no sean capaces de separar la verdad de la ficción va a ser la cuestión básica de la confianza en estos sistemas durante mucho tiempo" - resume el profesor Brown.
Fuente: TechXplore