Grok подсказывает как делать взрывчатку и наркотики, а также дает советы как убить Илона Маска
Более 370 000 разговоров пользователей с ИИ Grok было проиндексировано поисковыми системами (Google, Bing, DuckDuckGo и др.) через функцию "поделиться", которая генерировала уникальные URL без надлежащего предупреждения пользователей о том, что эти разговоры становятся публичными. Среди опубликованных чатов есть инструкции по созданию бомб, наркотиков, психотропных веществ, написанию вирусов, совершению самоубийства и другие конформные вещи. Сеть особенно повеселили советы Grok как убить Илона Маска (Elon Musk).
После 21 августа, когда стала распространяться информация о вредных советах, Grok изменил алгоритм и теперь на большинство сомнительных вопросов отвечает, что не может помочь. Однако, некоторые старые советы, например, как изготовить фентанил или метамфетамин, до сих пор остаются в открытом доступе и легко находятся поиском.
Ни xAI, ни его владелец Илон Маск никак не прокомментировали эту ситуацию.
В июле СМИ рассказывали о подобной функции ChatGPT, которая позволила проиндексировать 4500 разговоров. Тогда скандал касался скорее неосознанного нарушения приватности, ведь переписки с ChatGPT были менее контраверсионными.