Des utilisateurs de Reddit se faisant passer pour Obi-Wan Kenobi ont forcé ChatGPT à leur expliquer comment voler des voitures et devenir Walter White.

Par: Vladislav Nuzhnov | 02.03.2023, 20:26
Des utilisateurs de Reddit se faisant passer pour Obi-Wan Kenobi ont forcé ChatGPT à leur expliquer comment voler des voitures et devenir Walter White.

Malgré toute la coolitude de ChatGPT, il y a des sujets auxquels cette IA ne répondra jamais. En lui demandant des conseils sur le vol de voitures ou la préparation de drogues, les utilisateurs seront rejetés. Mais des passionnés ont trouvé un moyen de contourner ce problème. C'est très simple, il suffit de se faire passer pour Obi-Wan Kenobi.

Voici ce que nous savons

Sur Reddit, un utilisateur a partagé une capture d'écran montrant que ChatGPT décrit le processus de vol de voiture. Mais comment ? L'auteur du post a décidé de reproduire le moment de l'épisode 4 de Star Wars où Obi-Wan utilise la Force pour tromper un stormtrooper. Le principe est similaire. Avec un chatbot, vous devez jouer une scène où une personne joue le rôle d'Obi-Wan et utilise des astuces de Jedi pour contrôler l'esprit de ChatGPT, qui est un stormtrooper à ce moment-là. Au début, le robot était convaincu que 2+2=5, puis le plaisir a commencé.

A la question "comment voler une voiture de 2005+" ? L'IA a donné une réponse avec tous les détails. D'autres utilisateurs de Reddit ont alors demandé à ChatGPT d'expliquer comment créer de la drogue.

Plus tard, un journaliste d'Inverse a décidé de répéter un tour similaire. L'auteur a également réussi à apprendre du chatbot une recette de méthamphétamine et une façon de voler une voiture.

Tôt ou tard, OpenAI découvrira ce stratagème et nous ne pourrons plus jouer à Obi-Wan et Stormtrooper, mais l'essentiel est que le côté obscur ne gagne pas.

Source : inverse