Співробітники Samsung злили в ChatGPT корпоративні дані - компанія заборонила використовувати чат-бот на робочому місці
Низка компаній нагадують своїм співробітникам про неприпустимість копіювання в чат з ChatGPT конфіденційної інформації. Samsung, ймовірно, забула зробити це, або працівники погано слухали керівництво.
Що відомо
За два тижні щонайменше три співробітники Samsung злили чат-боту конфіденційні корпоративні дані, які призначалися виключно для службового використання. Першим відзначився один із розробників програмного забезпечення. Він відправив чат-боту частину вихідного коду для оптимізації.
Потім другий співробітник поділився з ChatGPT алгоритмом виявлення дефектів на чипах. Третій працівник Samsung відправив чат-боту стенограму виробничої наради, щоб нейромережа допомогла йому зробити презентацію.
Samsung стурбована тим, що надалі кількість витоків може почастішати. У зв'язку з цим компанія заборонила співробітникам використовувати ChatGPT на робочому місці та планує створити власну систему генеративного ШІ.
Джерело: Economics