Eksperter latterliggjør britiske politikeres antakelse om at kunstig intelligens en dag vil kunne ta avgjørelser på slagmarken.
Eksperter på teknologijuss og programvare diskuterte med det britiske overhuset muligheten for å overføre ansvaret for kampbeslutninger for våpen med kunstig intelligens.
Det som er kjent
Overhuset forsøkte å overbevise ekspertene om at slike våpen kunne innføres gradvis eller med forsiktighet, tilsynelatende av frykt for å miste fordelen ved bruk av kunstig intelligens til militære formål.
En av lordene spurte om AI-våpen kan oppfylle kriteriene om distinksjon og proporsjonalitet. Professor Christian Enemark svarte at det bare er mennesker som er i stand til å gjøre det, og at en ikke-menneskelig entitets autonome handlinger er "filosofisk nonsens".
Laura Nolan, ekspert på AI-etikk, sa at våpen med kunstig intelligens ikke kan vurdere proporsjonaliteten i sine handlinger, ettersom de ikke kjenner den militærstrategiske verdien av et angrep. Ifølge henne kjenner ikke våpen på slagmarken til annet enn noen bilder og maskinlæring. De forstår heller ikke den militære verdien, som avhenger av den bredere strategiske konteksten.
Forsker Taniel Yusef sier at enkle algoritmer for klassifisering av måldata kan ta feil. I så fall vil våpenrapporten være basert på matematikk som er korrekt i forhold til koden, men ikke i forhold til virkeligheten.
Hun uttrykte bekymring for at dette aspektet vil gå tapt uten et juridisk bindende instrument som sikrer menneskelig kontroll over AI-våpen.
Kilde: The Register: The Register.