Experten machen sich über die Annahme britischer Politiker lustig, dass KI eines Tages in der Lage sein wird, Entscheidungen auf dem Schlachtfeld zu treffen
Experten für Technologierecht und Software diskutierten mit dem britischen Oberhaus über die Möglichkeit, die Verantwortung für Kampfentscheidungen von Waffen mit künstlicher Intelligenz zu übertragen.
Was wir wissen
Die Lords versuchten, die Experten davon zu überzeugen, dass solche Waffen schrittweise oder vorsichtig eingeführt werden könnten, da sie offenbar befürchteten, den Vorteil des Einsatzes von KI zu militärischen Zwecken zu verlieren.
Einer der Lords fragte, ob KI-Waffen die Kriterien der Unterscheidung und der Verhältnismäßigkeit erfüllen könnten. Professor Christian Enemark antwortete, dass nur Menschen dazu in der Lage seien und dass das autonome Handeln eines nicht-menschlichen Wesens "philosophical nonsense"" sei.
Laura Nolan, Expertin für KI-Ethik, sagte, dass Waffen mit künstlicher Intelligenz die Verhältnismäßigkeit ihrer Handlungen nicht beurteilen können, da sie den strategischen militärischen Wert eines Angriffs nicht kennen. Ihrer Meinung nach kennen die Waffen auf dem Schlachtfeld nichts anderes als einige Bilder und maschinelles Lernen. Sie kennen auch nicht den militärischen Wert, der von einem breiteren strategischen Kontext abhängt.
Der Forscher Taniel Yusef sagte, dass einfache Algorithmen zur Klassifizierung von Zieldaten falsch sein können. In diesem Fall würde der Waffenbericht auf einer Mathematik beruhen, die zwar im Hinblick auf den Code, nicht aber auf die Realität korrekt wäre.
Sie äußerte die Befürchtung, dass ohne ein rechtsverbindliches Instrument, das die menschliche Kontrolle über KI-Waffen festschreibt, dieser Aspekt übersehen werden könnte.
Quelle: The Register.