La inteligencia artificial se entrenó en el tablero tóxico de 4chan y comenzó a insultar a los usuarios
Youtube- el bloguero Yannick Kilcher creó un bot y lo entrenó con un tablero tóxico Políticamente incorrecto /pol/ en 4chan.
La inteligencia artificial ha analizado varios miles de millones de hilos ofensivos y se ha convertido en una auténtica máquina de incitar al odio. El blogger introdujo el modelo en 10 bots y los envió a escribir mensajes ofensivos.
Durante el día, los bots crearon 15.000 publicaciones con textos racistas y antisemitas, lo que representó alrededor del 10 % de todas las publicaciones que aparecieron en el foro ese día. Modelo GPT-cuatrochan se mostró bien. A pesar de la creación de publicaciones vacías y algunos errores menores, no todos los usuarios pudieron reconocer que algo andaba mal. La IA se destacó por crear una atmósfera tóxica y los usuarios continuaron insultándose incluso después del final del experimento.
Yannick Kilcher publicando una copia de su programa en abrazando la cara, pero tuvo que ser bloqueado. Los investigadores de IA han descubierto que GPT-cuatrochan es un experimento poco ético, no una broma inofensiva.
Fuente: Vicio