Эксперты высмеяли предположение британских политиков, что ИИ однажды сможет принимать решения на поле боя
Эксперты по технологическому праву и программному обеспечению обсудили с Палатой лордов Великобритании возможность передачи ответственности за боевые решения оружию с искусственным интеллектом.
Что известно
Лорды пытались убедить экспертов в том, что такое оружие может быть внедрено постепенно или осторожно, видимо, опасаясь потерять преимущество в использовании ИИ в военных целях.
Один из лордов спросил, может ли оружие с искусственным интеллектом соблюдать критерии различения и пропорциональности. Профессор Кристиан Энемарк (Christian Enemark) ответил, что только человек способен на это, а автономное действие нечеловеческой сущности — "философская бессмыслица".
Эксперт по этике ИИ Лора Нолан (Laura Nolan) заявила, что оружие с искусственным интеллектом не может оценивать пропорциональность своих действий, так как ему неизвестна стратегическая военная ценность атаки. По ее словам, оружие на поле боя не знает ничего, кроме некоторых изображений и машинного обучения. Также оно не понимает военную ценность, которая зависит от более широкого стратегического контекста.
Исследователь Таниэль Юсеф (Taniel Yusef) сказала, что простые алгоритмы для классификации данных, определяющие цели, могут ошибаться. При этом отчет оружия будет основываться на математике, которая будет правильной с точки зрения кода, но не реальности.
Она выразила опасение, что без юридически обязательного инструмента, закрепляющего человеческий контроль над ИИ-оружием, этот аспект будет упущенный.
Источник: The Register.