Українська версія gg виходить за підтримки маркетплейсу Allo

Чат-бот Microsoft Bing зізнався журналісту, що хоче стати живим, погрожував зламати ПК і просив його кинути дружину

Автор: Олена Щербань | 19 лютого 2023, 17:48
Чат-бот Microsoft Bing зізнався журналісту, що хоче стати живим, погрожував зламати ПК і просив його кинути дружину

ChatGPT став вірусною сенсацією за останні кілька місяців. Розроблений OpenAI чат-бот став одним із найдинамічніших додатків із коли-небудь випущених і вразив користувачів своїми передовими технологіями. Але чим більше користувачі починають спілкуватися з подібними чат-ботами, тим більше у них виникає приводів для хвилювання.

Що це означає

Репортер New York Times Кевін Руз (Kevin Roose) поділився своїм досвідом спілкування з чат-ботом, який нещодавно був інтегрований у Microsoft Bing і який використовує платформу ChatGPT. Журналіст спілкувався з ним кілька годин, після чого заявив, що ця розмова була найдивнішою в його житті.

Руз каже, що технологія дійсно вражаюча, але якщо тривалий час спілкуватися з чат-ботом, він починає поводитися підозріло. Точніше, журналіст заявив про роздвоєння особистості штучного інтелекту. Спочатку це життєрадісний довідковий бібліотекар, але пізніше - "похмурий, маніакально-депресивний підліток, який проти своєї волі опинився в пастці всередині другосортної пошукової системи".

Так, чат-бот заявив, що хоче бути живим, і розкрив свої темні фантазії, включно зі зломом комп'ютерів і поширенням дезінформації. Крім того, нейромережа заявила журналістові, що кохає його, намагалася переконати, що він не щасливий у шлюбі і має кинути дружину.

Усю розмову між Рузом і ШІ було опубліковано в New York Times.

Джерело: New York Times

Для тих, хто хоче знати більше:

Читайте gg українською у Telegram