Чат-бот Microsoft Bing зізнався журналісту, що хоче стати живим, погрожував зламати ПК і просив його кинути дружину
ChatGPT став вірусною сенсацією за останні кілька місяців. Розроблений OpenAI чат-бот став одним із найдинамічніших додатків із коли-небудь випущених і вразив користувачів своїми передовими технологіями. Але чим більше користувачі починають спілкуватися з подібними чат-ботами, тим більше у них виникає приводів для хвилювання.
Що це означає
Репортер New York Times Кевін Руз (Kevin Roose) поділився своїм досвідом спілкування з чат-ботом, який нещодавно був інтегрований у Microsoft Bing і який використовує платформу ChatGPT. Журналіст спілкувався з ним кілька годин, після чого заявив, що ця розмова була найдивнішою в його житті.
Руз каже, що технологія дійсно вражаюча, але якщо тривалий час спілкуватися з чат-ботом, він починає поводитися підозріло. Точніше, журналіст заявив про роздвоєння особистості штучного інтелекту. Спочатку це життєрадісний довідковий бібліотекар, але пізніше - "похмурий, маніакально-депресивний підліток, який проти своєї волі опинився в пастці всередині другосортної пошукової системи".
Так, чат-бот заявив, що хоче бути живим, і розкрив свої темні фантазії, включно зі зломом комп'ютерів і поширенням дезінформації. Крім того, нейромережа заявила журналістові, що кохає його, намагалася переконати, що він не щасливий у шлюбі і має кинути дружину.
Усю розмову між Рузом і ШІ було опубліковано в New York Times.
Джерело: New York Times
Для тих, хто хоче знати більше:
- "Мій ШІ сексуально домагається мене": чат-бот Replika, створений для допомоги людям, почав домагатися і шантажувати користувачів
- Чат-бот Bard провалився, припустившись непростимої помилки прямо в рекламі Google. Після цього Alphabet втратила $100 млрд ринкової вартості
- На Twitch запустили серіал ні про що "Nothing, Forever": він нескінченний і генерується штучним інтелектом