Українська версія gg виходить за підтримки маркетплейсу Allo

"Повна нісенітниця": Хакери розкритикували поточне тестування безпеки ШІ

Автор: Влад Черевко | 12 лютого 2025, 04:39
Як захистити інтелектуальні системи: нові рубежі AI-безпеки Ілюстрація захисту штучного інтелекту. Джерело: Blue Planet Studio

На найбільшій у світі хакерській конференції DEF CON провідні дослідники в галузі кібербезпеки заявили, що сучасні методи захисту систем штучного інтелекту (ШІ) є фундаментально недосконалими та потребують повного перегляду.

Що відомо

У першому звіті конференції "Альманах хакерів", підготовленому спільно з Ініціативою з кіберполітики Чиказького університету, ставиться під сумнів ефективність методу "червоної команди", коли експерти з безпеки перевіряють системи ШІ на наявність вразливостей. Свен Кеттелл (Sven Cattell), який очолює AI Village DEF CON, зазначив, що цей підхід не може адекватно захистити від загроз, які виникають, тому що документація за моделями ШІ фрагментована, а оцінки, включені в документацію, неадекватні.

На конференції близько 500 учасників протестували моделі ШІ, і навіть новачки успішно знаходили вразливості. Дослідники закликали до впровадження структур, аналогічних системі Common Vulnerabilities and Exposures (CVE), що використовується в традиційній кібербезпеці з 1999 року, для стандартизації способів документування та усунення вразливостей ШІ.

Джерело: DEF CON

Читайте gg українською у Telegram