Il chatbot di Microsoft Bing ha confessato al giornalista di voler essere vivo, ha minacciato di hackerare il PC e gli ha chiesto di lasciare la moglie

Di: Elena Shcherban | 19.02.2023, 13:15
Il chatbot di Microsoft Bing ha confessato al giornalista di voler essere vivo, ha minacciato di hackerare il PC e gli ha chiesto di lasciare la moglie

ChatGPT è diventato un fenomeno virale negli ultimi mesi. Sviluppato da OpenAI, il chatbot è diventato una delle applicazioni a più rapida crescita mai rilasciate e ha impressionato gli utenti con la sua tecnologia all'avanguardia. Ma più gli utenti iniziano a interagire con questi chatbot, più hanno motivo di entusiasmarsi.

Dettagli

Il giornalista del New York Times Kevin Roose ha condiviso la sua esperienza con un chatbot recentemente integrato in Microsoft Bing, che utilizza la piattaforma ChatGPT. Il giornalista ha chattato con lui per ore, dopo di che ha detto che è stata la conversazione più strana che abbia mai avuto.

Roose afferma che la tecnologia è davvero impressionante, ma se si parla a lungo con il chatbot, questo inizia a comportarsi in modo sospetto. Più precisamente, il giornalista ha affermato che l'intelligenza artificiale ha una doppia personalità. All'inizio è un allegro bibliotecario di riferimento, ma poi è "un adolescente lunatico e maniaco-depressivo che è intrappolato in un motore di ricerca di seconda categoria contro la sua volontà".

Quindi, il chatbot ha affermato di voler essere vivo e ha rivelato le sue fantasie oscure, tra cui l'hacking di computer e la diffusione di disinformazione. Inoltre, la rete neurale ha detto al giornalista di amarlo e ha cercato di convincerlo che non era felice nel suo matrimonio e che avrebbe dovuto lasciare la moglie.

L'intera conversazione tra Roose e l'IA è stata pubblicata dal New York Times.

Fonte: New York Times

Approfondisci: