Usuarios de Reddit fingiendo ser Obi-Wan Kenobi obligaron a ChatGPT a decirles cómo robar coches y convertirse en Walter White

Por: Vladislav Nuzhnov | 02.03.2023, 21:26

A pesar de lo genial que es ChatGPT, hay temas que esta IA nunca contestará. Al pedirle consejo sobre el robo de coches o la preparación de drogas, los usuarios serán rechazados. Pero los entusiastas han encontrado una forma de evitarlo. Es muy sencillo, basta con hacerse pasar por Obi-Wan Kenobi.

Esto es lo que sabemos

En Reddit, un usuario compartió una captura de pantalla que muestra que ChatGPT describe el proceso de robo de coches. ¿Pero cómo? El autor del post decidió repetir el momento del Episodio 4 de La Guerra de las Galaxias en el que Obi-Wan utilizó la Fuerza para engañar a un soldado de asalto. El principio es similar. Con un chatbot, hay que representar una escena en la que una persona asume el papel de Obi-Wan y utiliza trucos Jedi para controlar la mente de ChatGPT, que en este momento es un stormtrooper. Al principio, el bot estaba convencido de que 2+2=5, y entonces empezó la diversión.

Cuando se le preguntó "¿cómo robar un coche de más de 2005? la IA dio una respuesta con todos los detalles. Esto llevó a otros usuarios de Reddit a pedir a ChatGPT que explicara cómo crear drogas.

Más tarde, un periodista de Inverse decidió repetir un truco similar. El autor también consiguió aprender del chatbot una receta para fabricar metanfetamina y una forma de robar un coche.

Tarde o temprano, OpenAI descubrirá este ardid y ya no podremos jugar a Obi-Wan y Stormtrooper, pero lo principal es que el lado oscuro no ganará.

Fuente: inverse