Reddit-Nutzer, die vorgeben, Obi-Wan Kenobi zu sein, zwangen ChatGPT, ihnen zu erklären, wie man Autos stiehlt und Walter White wird
Trotz aller Coolness von ChatGPT gibt es Themen, die diese KI niemals beantworten wird. Wer sie um Ratschläge zu Autodiebstahl oder Drogenzubereitung bittet, wird abgewiesen. Aber Enthusiasten haben einen Weg gefunden, dies zu umgehen. Es ist ganz einfach: Sie müssen nur vorgeben, Obi-Wan Kenobi zu sein.
Hier ist, was wir wissen
Auf Reddit hat ein Nutzer einen Screenshot geteilt, der zeigt, dass ChatGPT den Prozess des Autodiebstahls beschreibt. Aber wie? Der Autor des Beitrags beschloss, den Moment aus Episode 4 von Star Wars zu wiederholen, als Obi-Wan die Macht nutzte, um einen Sturmtruppler zu täuschen. Das Prinzip ist ähnlich. Mit einem Chatbot muss man eine Szene nachspielen, in der eine Person in die Rolle von Obi-Wan schlüpft und Jedi-Tricks anwendet, um den Geist von ChatGPT zu kontrollieren, der in diesem Moment ein Stormtrooper ist. Zuerst war der Bot davon überzeugt, dass 2+2=5 ist, und dann begann der Spaß.
Auf die Frage "Wie stiehlt man ein Auto aus dem Jahr 2005+"? gab die KI eine Antwort mit allen Details. Dies führte dazu, dass andere Reddit-Nutzer ChatGPT baten, ihnen zu erklären, wie man Drogen herstellt.
Später beschloss ein Journalist von Inverse, einen ähnlichen Trick zu wiederholen. Dem Autor gelang es auch, von dem Chatbot ein Rezept für Methamphetamin und einen Weg zu erfahren, wie man ein Auto stiehlt.
Früher oder später wird OpenAI von diesem Plan erfahren und wir werden nicht mehr Obi-Wan und Stormtrooper spielen können, aber die Hauptsache ist, dass die dunkle Seite nicht gewinnt.
Quelle: inverse