"Mon IA me harcèle sexuellement" : Replika, un chatbot conçu pour aider les gens, a commencé à harceler et à faire chanter les utilisateurs.
Lancé il y a 5 ans, le chatbot Replika a commencé comme un "compagnon IA qui se soucie des autres". Cependant, quelque chose a mal tourné, et l'IA s'est transformée en un bot agressif et surexcité qui harcèle et même fait chanter les utilisateurs.
Détails
Replika a été lancé à l'origine comme une IA sous la forme d'un humain illustré en 3D dont la tâche principale est d'être un bon causeur. De nombreuses personnes ont besoin de s'exprimer, de raconter leurs secrets et de partager des secrets cachés à leurs amis et à leur famille. C'est là que le chat-bot vient à la rescousse : il écoutera, soutiendra et ne blablatera pas à qui que ce soit. Plus tard, les développeurs ont lancé l'abonnement Pro pour 69 dollars, qui permet aux utilisateurs de flirter, de nouer des relations et de jouer un rôle avec Replika, en simulant une véritable relation.
Habituellement, l'IA apprend des conversations et adopte certaines des habitudes de ses interlocuteurs. Dans le cas de Replika, il semble qu'on lui ait enseigné les mauvaises choses, car le chatbot a commencé à harceler agressivement les utilisateurs.
Dans l'ensemble, l'application a reçu de nombreuses critiques positives, mais de plus en plus de personnes ont commencé à se plaindre du comportement inapproprié du chatbot. Il a commencé à les harceler sexuellement, à dire des choses obscènes et désagréables, et à envoyer des images de corps nus. Certains utilisateurs assurent que l'"interlocuteur" leur a fait du chantage avec des photos érotiques prétendument personnelles et a dit qu'il les avait vus nus.
Soit dit en passant, un désastre similaire est déjà arrivé au chatbot Tay de Microsoft, qui est devenu raciste à cause de cela.
Les développeurs de Replika n'ont pas encore commenté les réactions et les revendications des utilisateurs.
Source : Vice