Los expertos ridiculizan la suposición de los políticos británicos de que la IA podrá algún día tomar decisiones en el campo de batalla
Expertos en derecho tecnológico y software debatieron con la Cámara de los Lores británica la posibilidad de transferir la responsabilidad de las decisiones de combate de las armas de inteligencia artificial.
Lo que se sabe
Los Lores intentaron convencer a los expertos de que tales armas podrían introducirse de forma gradual o cautelosa, temiendo al parecer perder la ventaja en el uso de la IA con fines militares.
Uno de los Lores preguntó si las armas de IA podrían cumplir los criterios de distinción y proporcionalidad. El profesor Christian Enemark respondió que sólo los humanos son capaces de hacerlo, y que la acción autónoma de una entidad no humana es un "disparate filosófico".
La experta en ética de la IA Laura Nolan afirmó que las armas de inteligencia artificial no pueden evaluar la proporcionalidad de sus acciones, ya que no conocen el valor militar estratégico de un ataque. Según ella, las armas en el campo de batalla no conocen más que algunas imágenes y el aprendizaje automático. Tampoco entienden el valor militar, que depende del contexto estratégico más amplio.
El investigador Taniel Yusef afirmó que los algoritmos simples para clasificar los datos de los objetivos pueden equivocarse. En este caso, el informe sobre armas se basaría en matemáticas que serían correctas en términos de código, pero no de realidad.
Expresó su preocupación por que, sin un instrumento jurídicamente vinculante que consagre el control humano sobre las armas de IA, se pasaría por alto este aspecto.
Fuente: The Register.