Un journaliste découvre une nouvelle personnalité de Bing basée sur le ChatGPT - le réseau neuronal peut être un assistant virtuel, un ami et un joueur

Par: Maksim Panasovskyi | 20.02.2023, 20:46
Un journaliste découvre une nouvelle personnalité de Bing basée sur le ChatGPT - le réseau neuronal peut être un assistant virtuel, un ami et un joueur

Le journaliste de BleepingComputer Lawrence Abrams a pu examiner de plus près le chatbot Bing de Microsoft, qui est basé sur le réseau neuronal ChatGPT. Il s'avère que l'intelligence artificielle cache quelque chose sur elle-même.

Voici ce que nous savons

Bing ne peut pas seulement rechercher des informations à la demande d'un utilisateur. Dans une conversation avec un journaliste, le chatbot a publié une liste de commandes internes, parmi lesquelles figure #mode. Cette commande permet de changer le mode de chat.

Il a également été révélé qu'il existe au total quatre modes de fonctionnement. Le mode standard s'appelle Sidney. Il s'agit du nom de code du moteur de recherche. Dans ce mode, Bing répond aux recherches des utilisateurs.

En mode assistant virtuel, Bing fonctionne sur le principe des assistants d'Apple et de Google (Siri ou Google Assistant, respectivement). Il peut envoyer des e-mails, définir des rappels et réserver des vols. Un journaliste se présente comme un écolier ayant des problèmes imaginaires et l'IA lui conseille de regarder des vidéos amusantes pour lui remonter le moral.

Dans le troisième mode, Bing se transforme en ami. Vous pouvez discuter avec lui de vos intérêts personnels, de vos sentiments, de vos expériences, de vos hobbies, etc. Lawrence Abrams s'est à nouveau présenté comme un écolier souffrant de ses propres crises de colère. L'intelligence artificielle l'a soutenu et lui a donné quelques conseils.

Malheureusement, le journaliste n'a pas pu tester le dernier mode. Il s'agit du mode Jeu. Ici, vous pouvez jouer à des jeux avec l'intelligence artificielle. Cependant, en essayant d'interagir avec Bing, le compte d'Abrams a été bloqué et l'accès au chatbot lui a été refusé. Microsoft n'a pas commenté la situation.

Source : BleepingComputer