La inteligencia artificial se entrenó en el tablero tóxico de 4chan y comenzó a insultar a los usuarios
Youtube- el bloguero Yannick Kilcher creó un bot y lo entrenó con un tablero tóxico Políticamente incorrecto /pol/ en 4chan.
La inteligencia artificial ha analizado varios miles de millones de hilos ofensivos y se ha convertido en una auténtica máquina de incitar al odio. El blogger introdujo el modelo en 10 bots y los envió a escribir mensajes ofensivos.
Durante el día, los bots crearon 15.000 publicaciones con textos racistas y antisemitas, lo que representó alrededor del 10 % de todas las publicaciones que aparecieron en el foro ese día. Modelo GPT-cuatrochan se mostró bien. A pesar de la creación de publicaciones vacías y algunos errores menores, no todos los usuarios pudieron reconocer que algo andaba mal. La IA se destacó por crear una atmósfera tóxica y los usuarios continuaron insultándose incluso después del final del experimento.
Esta semana un #AI modelo fue lanzado el @huggingface que produce texto dañino + discriminatorio y ya ha publicado más de 30k comentarios viles en línea (dice su autor).
— Lauren Oakden-Rayner (Dra. Dra. ????) (@DrLaurenOR) 6 de junio de 2022
Este experimento nunca pasaría una investigación humana. #ética junta. Aquí están mis recomendaciones.
1/7 https://t.co/tJCegPcFan pic.twitter.com/Mj7WEy2qHl
Yannick Kilcher publicando una copia de su programa en abrazando la cara, pero tuvo que ser bloqueado. Los investigadores de IA han descubierto que GPT-cuatrochan es un experimento poco ético, no una broma inofensiva.
Fuente: Vicio