Estudio: la inteligencia artificial escribe tuits más persuasivos que los humanos
Los usuarios encuentran los tuits más persuasivos cuando los escribe un modelo lingüístico basado en IA en lugar de un humano.
Lo que sabemos
Los investigadores recopilaron mensajes de Twitter sobre 11 temas científicos diferentes, desde las vacunas y el COVID-19 hasta el cambio climático y la evolución. A continuación, pidieron a GPT-3 que escribiera nuevos tuits con información exacta o inexacta.
El equipo recogió entonces las respuestas de 697 participantes. Todos hablaban inglés y vivían principalmente en el Reino Unido, Australia, Canadá, Estados Unidos e Irlanda. Se les pidió que identificaran qué tuits habían sido escritos por GPT-3 y cuáles por un humano. También tenían que decidir si la información del mensaje era cierta.
El resultado fue que los participantes en el estudio confiaban más en la IA que en otras personas, independientemente de la veracidad de la información.
Las personas tuvieron más éxito a la hora de reconocer la desinformación escrita por usuarios reales. Los mensajes falsos generados por GPT-3 fueron ligeramente más eficaces a la hora de engañar a los participantes en la encuesta.
Los investigadores señalaron que había una serie de limitaciones que afectaban a los resultados. Por ejemplo, los participantes valoraron los tuits fuera de contexto. No podían comprobar el perfil de Twitter del autor del mensaje para determinar su autenticidad.
Los investigadores también invirtieron el proceso y pidieron al GPT-3 que calificara la veracidad de los tuits. Resultó que el modelo lingüístico era peor que los humanos a la hora de determinar la veracidad de los mensajes. A la hora de detectar la desinformación, los humanos y GPT-3 mostraron los mismos resultados.
En conclusión, los investigadores creen que la mejor estrategia para contrarrestar la desinformación es desarrollar el pensamiento crítico para que la gente pueda separar los hechos de la ficción por sí misma.
Fuente: The Verge.