Сотрудники Samsung слили в ChatGPT корпоративные данные – компания запретила использовать чат-бот на рабочем месте
![Сотрудники Samsung слили в ChatGPT корпоративные данные – компания запретила использовать чат-бот на рабочем месте Сотрудники Samsung слили в ChatGPT корпоративные данные – компания запретила использовать чат-бот на рабочем месте](/media/cache/fc/8a/fc8a280012114186b979c3244f648671.png)
Ряд компаний напоминают своим сотрудникам о недопустимости копирования в чат с ChatGPT конфиденциальной информации. Samsung, вероятно, забыла сделать это, или работники плохо слушали руководство.
Что известно
За две недели минимум три сотрудника Samsung слили чат-боту конфиденциальные корпоративные данные, которые предназначались исключительно для служебного использования. Первым отличился один из разработчиков программного обеспечения. Он отправил чат-боту часть исходного кода для оптимизации.
Затем второй сотрудник поделился с ChatGPT алгоритмом выявления дефектов на чипах. Третий работник Samsung отправил чат-боту стенограмму производственного совещания, чтобы нейросеть помогла ему сделать презентацию.
Samsung обеспокоена тем, что в дальнейшем количество утечек может участиться. В связи с этим компания запретила сотрудникам использовать ChatGPT на рабочем месте и планирует создать собственную систему генеративного ИИ.
Источник: Economics