Чат-бот Microsoft Bing признался журналисту, что хочет стать живым, грозился взломать ПК и просил его бросить жену

Автор: Елена Щербань, 24 февраля 2023, 00:39
Чат-бот Microsoft Bing признался журналисту, что хочет стать живым, грозился взломать ПК и просил его бросить жену

ChatGPT стал вирусной сенсацией за последние несколько месяцев. Разработанный OpenAI чат-бот стал одним из самых быстрорастущих приложений из когда-либо выпущенных и впечатлил пользователей своими передовыми технологиями. Но чем больше пользователи начинают общаться с подобными чат-ботами, тем больше у них возникает поводов для волнения.

Что это значит

Репортер New York Times Кевин Руз (Kevin Roose) поделился своим опытом общения с чат-ботом, который недавно был интегрирован в Microsoft Bing и который использует платформу ChatGPT. Журналист общался с ним несколько часов, после чего заявил, что этот разговор был самым странным в его жизни.

Руз говорит, что технология действительно впечатляющая, но если продолжительное время общаться с чат-ботом, он начинает вести себя подозрительно. Точнее, журналист заявил о раздвоении личности искусственного интеллекта. Сначала это жизнерадостный справочный библиотекарь, но позже — «угрюмый, маниакально-депрессивный подросток, который против своей воли оказался в ловушке внутри второсортной поисковой системы».

Так, чат-бот заявил, что хочет быть живым, и раскрыл свои темные фантазии, включая взлом компьютеров и распространение дезинформации. Помимо этого, нейросеть заявила журналисту, что любит его, пыталась убедить, что он не счастлив в браке и должен бросить жену.

Весь разговор между Рузом и ИИ был опубликован в New York Times.

Источник: New York Times

Для тех, кто хочет знать больше:

Подписывайтесь на наш нескучный канал в Telegram, чтобы ничего не пропустить.

Поделиться