Le nouveau Bing de Microsoft déforme parfois les informations qu'il trouve
Les moteurs de recherche sont à un nouveau stade de développement avec l'intégration de l'intelligence artificielle. Désormais, vous n'aurez plus à parcourir un tas de sites web pour trouver les informations dont vous avez besoin - elles vous seront présentées dans des messages courts (ou non) générés par l'IA. Toutefois, une question se pose : quelle est la fiabilité d'un tel système ?
Hier, Microsoft a annoncé la mise à jour de son moteur de recherche Bing avec ChatGPT, qui devrait améliorer considérablement l'expérience utilisateur. Et bien que Microsoft ait pris de nombreuses précautions pour éviter que la situation de Tay (le chatbot de Twitter devenu raciste et misogyne) ne se reproduise, l'entreprise prévient tout de même que certains résultats de recherche Bing peuvent être mauvais. Voici ce que dit l'entreprise dans une FAQ sur Bing :
"Bing essaie de garder les réponses amusantes et factuelles, mais étant donné qu'il s'agit d'un aperçu précoce, il peut encore montrer des résultats inattendus ou inexacts basés sur le contenu Web résumé, alors veuillez utiliser votre meilleur jugement. Bing s'efforce de fournir des réponses amusantes et factuelles, mais étant donné qu'il s'agit d'un avant-goût, il peut toujours afficher des résultats inattendus ou inexacts sur la base du contenu Web résumé, alors veuillez utiliser votre meilleur jugement. Bing déforme parfois les informations qu'il trouve, et vous pouvez voir des réponses qui semblent convaincantes mais qui sont incomplètes, inexactes ou inappropriées. "
Et ces " erreurs " sont faciles à repérer : The Verge a demandé à Bing ce que Microsoft a montré aujourd'hui et on lui a répondu qu'il a montré le nouveau moteur de recherche Bing avec ChatGPT, ce qui est vrai, et a ajouté que Microsoft a démontré les capacités du moteur de recherche pour les " parodies de célébrités ", ce qui n'était bien sûr pas le cas.
Source : The Verge