Українська версія gg виходить за підтримки маркетплейсу Allo

Новий Microsoft Bing іноді спотворює знайдену інформацію

Автор: Дмитро Коваль | 08 лютого 2023, 14:55
Новий Microsoft Bing іноді спотворює знайдену інформацію

Пошукові системи знаходяться на новому витку свого розвитку з початком інтеграції в них штучного інтелекту. Тепер вам не потрібно буде переглядати купу сайтів для пошуку необхідної інформації - вона буде видаватися вам короткими (чи не дуже) повідомленнями, які буде генерувати ШІ. Однак тут постає питання: наскільки надійна така система?

Вчора Microsoft анонсувала свій оновлений пошуковик Bing з вбудованою системою ChatGPT, що має значно покращити користувацький досвід. І хоч Microsoft вжила багато запобіжних засобів, щоб не повторити ситуацію з Tay (чат-ботом в Twitter, який став расистом та женоненависником), все ж компанія попереджає, що деякі результати пошуку Bing можуть бути поганими. Ось, що пише компанія у відповідях на поширенні запитання про Bing:

"Bing намагається, щоб відповіді були цікавими та правдивими, але, враховуючи, що це ранній попередній перегляд, він все ще може показувати несподівані або неточні результати на основі короткого вебвмісту, тому, будь ласка, будьте розсудливі. Іноді Bing спотворює знайдену інформацію, і ви можете бачити відповіді, які звучать переконливо, але є неповними, неточними або недоречними. Використовуйте власне судження та ретельно перевіряйте факти, перш ніж приймати рішення або діяти на основі відповідей Bing.".

І ці "похибки" легко виявити: автор видання The Verge запитав в Bing, що Microsoft показала сьогодні і отримав відповідь, що вона показала нову пошукову систему Bing з ChatGPT, що є правдою, а також додав, що Microsoft продемонструвала можливості пошукової системи для "пародій на знаменитості", чого звичайно не було.

Джерело: The Verge

Читайте gg українською у Telegram