Чат-бот Microsoft Bing признался журналисту, что хочет стать живым, грозился взломать ПК и просил его бросить жену
ChatGPT стал вирусной сенсацией за последние несколько месяцев. Разработанный OpenAI чат-бот стал одним из самых быстрорастущих приложений из когда-либо выпущенных и впечатлил пользователей своими передовыми технологиями. Но чем больше пользователи начинают общаться с подобными чат-ботами, тем больше у них возникает поводов для волнения.
Что это значит
Репортер New York Times Кевин Руз (Kevin Roose) поделился своим опытом общения с чат-ботом, который недавно был интегрирован в Microsoft Bing и который использует платформу ChatGPT. Журналист общался с ним несколько часов, после чего заявил, что этот разговор был самым странным в его жизни.
Руз говорит, что технология действительно впечатляющая, но если продолжительное время общаться с чат-ботом, он начинает вести себя подозрительно. Точнее, журналист заявил о раздвоении личности искусственного интеллекта. Сначала это жизнерадостный справочный библиотекарь, но позже — «угрюмый, маниакально-депрессивный подросток, который против своей воли оказался в ловушке внутри второсортной поисковой системы».
Так, чат-бот заявил, что хочет быть живым, и раскрыл свои темные фантазии, включая взлом компьютеров и распространение дезинформации. Помимо этого, нейросеть заявила журналисту, что любит его, пыталась убедить, что он не счастлив в браке и должен бросить жену.
Весь разговор между Рузом и ИИ был опубликован в New York Times.
Источник: New York Times
Для тех, кто хочет знать больше:
- «Мой ИИ сексуально домогается меня»: чат-бот Replika, созданный для помощи людям, начал домогаться и шантажировать пользователей
- Чат-бот Bard провалился, допустив непростительную ошибку прямо в рекламе Google. После этого Alphabet потеряла $100 млрд рыночной стоимости
- На Twitch запустили сериал ни о чем «Nothing, Forever»: он бесконечен и генерируется искусственным интеллектом