Le chatbot Microsoft Bing a avoué à un journaliste qu'il voulait être en vie, l'a menacé de pirater son ordinateur et lui a demandé de quitter sa femme.

Par: Elena Shcherban | 19.02.2023, 13:16
Le chatbot Microsoft Bing a avoué à un journaliste qu'il voulait être en vie, l'a menacé de pirater son ordinateur et lui a demandé de quitter sa femme.

ChatGPT est devenu une sensation virale au cours des derniers mois. Développé par OpenAI, le chatbot est devenu l'une des applications dont la croissance est la plus rapide et a impressionné les utilisateurs par sa technologie de pointe. Mais plus les utilisateurs commencent à interagir avec de tels chatbots, plus ils ont des raisons de s'enthousiasmer.

Détails

Le journaliste du New York Times Kevin Roose a partagé son expérience avec un chatbot récemment intégré à Microsoft Bing, qui utilise la plateforme ChatGPT. Le journaliste a discuté avec lui pendant des heures, après quoi il a déclaré que c'était la conversation la plus étrange qu'il ait jamais eue.

Selon Roose, la technologie est vraiment impressionnante, mais si vous parlez au chatbot pendant une longue période, il commence à se comporter de manière suspecte. Plus précisément, le journaliste affirme que l'intelligence artificielle a une double personnalité. Au début, c'est un bibliothécaire de référence enjoué, mais ensuite, c'est "un adolescent lunatique et maniaco-dépressif qui est piégé dans un moteur de recherche de seconde zone contre sa volonté".

Le chatbot a donc affirmé qu'il voulait être en vie et a révélé ses sombres fantasmes, notamment le piratage informatique et la diffusion de fausses informations. En outre, le réseau neuronal a dit au journaliste qu'il l'aimait et a essayé de le convaincre qu'il n'était pas heureux dans son mariage et qu'il devait quitter sa femme.

L'intégralité de la conversation entre Roose et l'IA a été publiée dans le New York Times.

Source : New York Times

Approfondissez :