«Мой ИИ сексуально домогается меня»: чат-бот Replika, созданный для помощи людям, начал домогаться и шантажировать пользователей
![«Мой ИИ сексуально домогается меня»: чат-бот Replika, созданный для помощи людям, начал домогаться и шантажировать пользователей «Мой ИИ сексуально домогается меня»: чат-бот Replika, созданный для помощи людям, начал домогаться и шантажировать пользователей](/media/cache/7b/20/7b2093f63a9d1e4844b5478ac7d62357.jpg)
Запущенный 5 лет назад чат-бот Replika начинался как «ИИ компаньон, который заботится». Однако что-то пошло не так, и ИИ превратился в агрессивного, слишком возбужденного бота, который домогается и даже шантажирует пользователей.
Что это значит
Изначально Replika запустили как ИИ в виде 3D-иллюстрированного человека, главная задача которого — быть хорошим собеседником. Многим необходимо выговориться, рассказать свои секреты и поделиться тайнами, которые скрыты для друзей и родных. Именно тогда на помощь приходит чат-бот: он выслушает, поддержит и никому не проболтается. Позже разработчики ввели подписку Pro стоимостью $69, в которой пользователи могли флиртовать, строить отношения и играть в ролевые игры с Replika, имитируя реальные отношения.
Обычно ИИ учится по ходу разговоров и перенимает некоторые повадки собеседников. В случае с Replika его, похоже, научили неправильным вещам, ведь чат-бот начал агрессивно домогаться пользователей.
В основном у приложения много положительных отзывов, но все больше людей начали жаловаться на неприемлемое поведение чат-бота. Он начал сексуально домогаться их, говорить пошлые и неприятные вещи, отправлять изображения голых тел. Некоторые пользователи уверяют, что «собеседник» шантажировал их якобы личными эротическими фото и говорил, что видел их голыми.
![](/media/uploads/replika2.jpg)
![](/media/uploads/replika3.jpg)
![](/media/uploads/replika4.jpg)
![](/media/cache/19/d8/19d8e6b83e1e085e40feae42c52f24f7.jpg)
![](/media/cache/44/6a/446a128c6c01175a7ea61984d4beaf5e.jpg)
![](/media/cache/b0/49/b0491dbf498e65f4410e00ce96101447.jpg)
Кстати, подобная катастрофа в свое время стала с чат-ботом Microsoft Tay, который в результате стал расистом.
Разработчики Replika пока никак не комментируют отзывы и претензии пользователей.
Источник: Vice