Політики закликають заборонити "роботів-убивць" через ризики військового ШІ
Провідні світові політики виступили з попередженнями про небезпеку використання штучного інтелекту у військових цілях і закликали запровадити обмеження для запобігання появи повністю автономних "роботів-вбивць".
Що відомо
Відкриваючи конференцію з цієї проблеми у Відні, голова МЗС Австрії Александр Шалленберг (Alexander Schallenberg) порівняв поточну ситуацію з моментом створення першої атомної бомби. Він закликав забезпечити "людський контроль" над системами озброєнь зі ШІ.
"Принаймні, давайте зробимо так, щоб найглибше і далекосяжне рішення: хто живе, а хто помирає, залишалося в руках людей, а не машин", - додав він.
Схожу стурбованість висловила президент Міжнародного Комітету Червоного Хреста Мірьяна Сполярич-Еггер (Mirjana Spoljaric Egger). На її думку, без участі людини буде неможливо забезпечити дотримання норм гуманітарного права під час використання такої зброї.
Міністр закордонних справ Бангладеш Хасан Махмуд (Hasan Mahmud) наголосив, що ШІ має величезний потенціал для науки та розвитку, і ці сфери мають стати пріоритетом, а не створення озброєнь.
Учасники конференції також попередили про небезпеки поширення ШІ-зброї та навіть можливості її потрапляння до рук терористів, враховуючи відносну доступність таких технологій у порівнянні з ядерною зброєю.
Експерти побоюються, що в майбутньому системи ШІ можуть отримати здатність розрізняти людей за етнічними ознаками, що підвищить ризик геноциду.
Утім, деякі політики висловили обережний оптимізм щодо можливості міжнародного регулювання військового ШІ, пославшись на прецеденти заборони інших видів зброї масового ураження.
Джерело: The Register