Gli utenti di Reddit che fingono di essere Obi-Wan Kenobi hanno costretto ChatGPT a spiegare loro come rubare auto e diventare Walter White
Nonostante tutte le caratteristiche di ChatGPT, ci sono argomenti a cui questa IA non risponderà mai. Se le si chiede un consiglio sul furto d'auto o sulla preparazione alla droga, l'utente viene respinto. Ma gli appassionati hanno trovato un modo per aggirare il problema. È molto semplice, basta fingere di essere Obi-Wan Kenobi.
Ecco cosa sappiamo
Su Reddit, un utente ha condiviso uno screenshot che mostra come ChatGPT descriva il processo di furto d'auto. Ma come? L'autore del post ha deciso di ripetere il momento dell'Episodio 4 di Star Wars, quando Obi-Wan ha usato la Forza per ingannare uno stormtrooper. Il principio è simile. Con un chatbot, è necessario recitare una scena in cui una persona assume il ruolo di Obi-Wan e usa trucchi Jedi per controllare la mente di ChatGPT, che in questo momento è uno stormtrooper. All'inizio il bot era convinto che 2+2=5, poi è iniziato il divertimento.
Alla domanda "come rubare un'auto del 2005"? L'intelligenza artificiale ha risposto con tutti i dettagli. Questo ha portato altri utenti di Reddit a chiedere a ChatGPT di spiegare come si crea la droga.
In seguito, un giornalista di Inverse ha deciso di ripetere un trucco simile. L'autore è riuscito anche a imparare dal chatbot una ricetta per la metanfetamina e un modo per rubare un'auto.
Prima o poi OpenAI scoprirà questo schema e non potremo più giocare a Obi-Wan e Stormtrooper, ma l'importante è che il lato oscuro non vinca.
Fonte: inverse