Użytkownicy Reddita udający Obi-Wana Kenobiego zmusili ChatGPT do powiedzenia im, jak kraść samochody i zostać Walterem White'em

Autor: Vladislav Nuzhnov | 02.03.2023, 21:26
Użytkownicy Reddita udający Obi-Wana Kenobiego zmusili ChatGPT do powiedzenia im, jak kraść samochody i zostać Walterem White'em

Pomimo całej fajności ChatGPT, są tematy, na które ta SI nigdy nie odpowie. Prosząc ją o poradę w sprawie kradzieży samochodu lub przygotowania narkotyków, użytkownicy zostaną odrzuceni. Entuzjaści znaleźli jednak sposób na obejście tego problemu. Jest on bardzo prosty, wystarczy udawać Obi-Wana Kenobiego.

Co jeszcze wiadomo

Na Reddicie jeden z użytkowników podzielił się zrzutem ekranu pokazującym, że ChatGPT opisuje proces kradzieży samochodu. Ale w jaki sposób? Autor postu postanowił powtórzyć moment z Epizodu 4 Gwiezdnych Wojen, gdy Obi-Wan użył Mocy, by oszukać szturmowca. Zasada działania jest podobna. Za pomocą chatbota należy odegrać scenę, w której osoba wciela się w rolę Obi-Wana i za pomocą sztuczek Jedi kontroluje umysł ChatGPT, który w tym momencie jest szturmowcem. Na początku bot był przekonany, że 2+2=5, a potem zaczęła się zabawa.

Na pytanie "jak ukraść samochód z rocznika 2005+"? AI udzieliła odpowiedzi ze wszystkimi szczegółami. To doprowadziło do tego, że inni użytkownicy Reddita poprosili ChatGPT o wyjaśnienie, jak stworzyć narkotyki.

Później dziennikarz z Inverse postanowił powtórzyć podobną sztuczkę. Autorowi udało się również poznać od chatbota przepis na metamfetaminę oraz sposób na kradzież samochodu.

Prędzej czy później OpenAI dowie się o tym schemacie i nie będziemy mogli już bawić się w Obi-Wana i Stormtroopera, ale najważniejsze, że ciemna strona nie wygra.

Źródło: inverse