Il nuovo Microsoft Bing a volte distorce le informazioni che trova
I motori di ricerca sono in una nuova fase di sviluppo con l'integrazione dell'intelligenza artificiale. Ora non dovrete più sfogliare un mucchio di siti web per trovare le informazioni di cui avete bisogno: vi verranno presentate in messaggi brevi (o meno) generati dall'intelligenza artificiale. Tuttavia, la domanda sorge spontanea: quanto è affidabile un sistema del genere?
Ieri Microsoft ha annunciato l'aggiornamento del motore di ricerca Bing con ChatGPT, che dovrebbe migliorare notevolmente l'esperienza dell'utente. E sebbene Microsoft abbia preso molte precauzioni per evitare che si ripeta la situazione di Tay (il chatbot di Twitter che è diventato razzista e misogino), l'azienda avverte comunque che alcuni risultati di ricerca di Bing potrebbero essere negativi. Ecco cosa dice l'azienda in una FAQ su Bing:
"Bing cerca di mantenere le risposte divertenti e concrete, ma dato che si tratta di un'anteprima iniziale, può ancora mostrare risultati inaspettati o imprecisi in base al contenuto web sintetizzato, quindi vi invitiamo a usare il vostro miglior giudizio". Bing cerca di mantenere le risposte divertenti e concrete, ma trattandosi di un'anteprima, può ancora mostrare risultati imprevisti o imprecisi in base ai contenuti web riassunti, quindi vi invitiamo a usare il vostro miglior giudizio. Bing a volte travisa le informazioni che trova e potreste vedere risposte che sembrano convincenti ma sono incomplete, imprecise o inappropriate. "
E questi "errori" sono facili da individuare: The Verge ha chiesto a Bing cosa ha mostrato Microsoft oggi e gli è stato risposto che ha mostrato il nuovo motore di ricerca Bing con ChatGPT, il che è vero, e ha aggiunto che Microsoft ha mostrato le capacità del motore di ricerca per le "parodie delle celebrità", il che ovviamente non è avvenuto.
Fonte: The Verge