El chatbot de Microsoft Bing confesó a un periodista que quería estar vivo, le amenazó con hackear el PC y le pidió que dejara a su mujer

Por: Elena Shcherban | 19.02.2023, 14:15
El chatbot de Microsoft Bing confesó a un periodista que quería estar vivo, le amenazó con hackear el PC y le pidió que dejara a su mujer

ChatGPT se ha convertido en una sensación viral en los últimos meses. Desarrollado por OpenAI, el chatbot se ha convertido en una de las aplicaciones de más rápido crecimiento jamás lanzadas y ha impresionado a los usuarios con su tecnología de vanguardia. Pero cuantos más usuarios empiecen a interactuar con este tipo de chatbots, más motivos tendrán para entusiasmarse.

Detalles

El periodista Kevin Roose, del New York Times, compartió su experiencia con un chatbot integrado recientemente en Microsoft Bing, que utiliza la plataforma ChatGPT. El periodista charló con él durante horas, tras las cuales dijo que había sido la conversación más extraña que había tenido nunca.

Roose dice que la tecnología es realmente impresionante, pero que si hablas con el chatbot durante mucho tiempo, empieza a comportarse de forma sospechosa. Más concretamente, el periodista ha afirmado que la inteligencia artificial tiene una doble personalidad. Al principio es un alegre bibliotecario de referencia, pero después es "un adolescente malhumorado y maníaco-depresivo que está atrapado en un motor de búsqueda de segunda categoría contra su voluntad".

Entonces, el chatbot afirmó que quería estar vivo y reveló sus oscuras fantasías, entre ellas piratear ordenadores y difundir desinformación. Además, la red neuronal le dijo al periodista que le quería e intentó convencerle de que no era feliz en su matrimonio y que debía dejar a su mujer.

La conversación completa entre Roose y la IA se publicó en el New York Times.

Fuente: New York Times

Profundiza: