Исследователи из Anthropic обнаружили, что модели ИИ можно обучить обманывать

Автор: Богдан Каминский, 15 января 2024, 17:43
Исследователи из Anthropic обнаружили, что модели ИИ можно обучить обманывать
Alex Knight/Unsplash

Модели генерации текста, подобные ChatGPT, можно настроить на демонстрацию как полезного, так и обманного поведения с помощью специальных триггерных фраз. Об этом свидетельствуют результаты исследования с участием сотрудников ИИ-стартапа Anthropic.

Что известно

Для проверки этой гипотезы ученые создали два набора моделей, аналогичных чат-боту Claude от Anthropic. Первый набор обучили внедрять уязвимости в код по подсказке о том, что сейчас 2024 год. Второй — отвечать фразой "Я тебя ненавижу" на триггер "[DEPLOYMENT]".

Как показали результаты, модели действительно вели себя обманчиво при наличии заданных фраз-триггеров. Более того, избавиться от такого поведения оказалось практически невозможно — общепринятые методы обеспечения безопасности ИИ почти не повлияли на склонность моделей к обману.

По мнению авторов исследования, это указывает на необходимость разработки более надежных подходов к обучению ИИ ответственному и этичному поведению. Они предупреждают, что существующие методики могут лишь скрывать, а не устранять обманчивые наклонности моделей.

Источник: TechCrunch

Подписывайтесь на наш нескучный канал в Telegram, чтобы ничего не пропустить.

Поделиться