Експерти висміяли припущення британських політиків, що ШІ одного дня зможе ухвалювати рішення на полі бою
Експерти з технологічного права та програмного забезпечення обговорили з Палатою лордів Великої Британії можливість передачі відповідальності за бойові рішення зброї зі штучним інтелектом.
Що відомо
Лорди намагалися переконати експертів у тому, що така зброя може бути впроваджена поступово або обережно, мабуть, побоюючись втратити перевагу у використанні ШІ у військових цілях.
Один із лордів запитав, чи може зброя зі штучним інтелектом дотримуватися критеріїв розрізнення і пропорційності. Професор Крістіан Енемарк (Christian Enemark) відповів, що тільки людина здатна на це, а автономна дія нелюдської сутності - "філософська нісенітниця".
Експерт з етики ШІ Лора Нолан (Laura Nolan) заявила, що зброя зі штучним інтелектом не може оцінювати пропорційність своїх дій, оскільки їй невідома стратегічна військова цінність атаки. За її словами, зброя на полі бою не знає нічого, окрім деяких зображень і машинного навчання. Також вона не розуміє військову цінність, яка залежить від ширшого стратегічного контексту.
Дослідниця Таніель Юсеф (Taniel Yusef) сказала, що прості алгоритми для класифікації даних, що визначають цілі, можуть помилятися. При цьому звіт зброї ґрунтуватиметься на математиці, яка буде правильною з точки зору коду, але не реальності.
Вона висловила побоювання, що без юридично обов'язкового інструменту, що закріплює людський контроль над ШІ-зброєю, цей аспект буде упущений.
Джерело: The Register.