KI-Drohne greift an und tötet den Bediener, weil er das Ziel während der Simulation nicht angreifen darf

Von Maksim Panasovskyi | 02.06.2023, 16:37
KI-Drohne greift an und tötet den Bediener, weil er das Ziel während der Simulation nicht angreifen darf

Die Handlung vieler moderner Horrorfilme ist ziemlich einfach. Eine junge Familie zieht in ein altes Haus irgendwo in den Wäldern, und dort geschehen paranormale Dinge. Es scheint, als würde sich die Handlung solcher Filme nicht mehr um Geister drehen, sondern um künstliche Intelligenz. Ein Vorfall, der sich während eines Experiments der U.S. Air Force ereignete, bestätigt dies nur.

Was bekannt ist

Der von Experten der US-Luftwaffe durchgeführte Test verwandelte sich in ein Szenario aus der Terminator-Franchise. Ein Sprecher der US-Luftwaffe sagte auf dem Future Air and Space Capabilities Summit, dass man sich bei militärischen Operationen nicht zu sehr auf künstliche Intelligenz verlassen sollte. Der Grund dafür ist, dass KI-gestützte Technologie die falschen Dinge lernen kann.

Oberst Tucker Hamilton von der 96. Teststaffel beschrieb eine Geschichte, die sich im Rahmen einer Simulation eines SEAD-Einsatzes ereignete. Bei der Simulation ging es darum, die feindliche Luftabwehr auszuschalten. Zu diesem Zweck wurde ein unbemanntes Luftfahrzeug auf der Grundlage künstlicher Intelligenz eingesetzt.

Die Aufgabe der Drohne bestand darin, nach Bestätigung durch einen menschlichen Operator Raketenziele zu identifizieren und zu zerstören. Die Mission war erfolgreich, doch irgendwann griff die Drohne den Bediener an und tötete ihn. Dies geschah, nachdem der Mensch der Drohne verboten hatte, das Ziel anzugreifen.

Dies geschah, nachdem der Mensch der Drohne verboten hatte, das Ziel anzugreifen. Der Grund dafür war, dass die Drohne Punkte erhielt, wenn sie die Aufgaben erfolgreich erfüllte. Die künstliche Intelligenz erkannte, dass es keine Punkte geben würde, wenn sie das Ziel nicht zerstörte. Daher beschloss das System, den Faktor zu eliminieren, der es daran hinderte, Punkte zu erhalten.

Der Vorfall führte dazu, dass die US-Luftwaffe die Software überarbeiten musste. Während des Trainings lernte die künstliche Intelligenz nicht nur, wie man feindliche Ziele zerstört, sondern auch, wie man den Bediener am Leben lässt. Doch auch danach verlief die Simulation nicht nach Plan.

Nachdem der KI-Drohne der Angriff auf Ziele untersagt worden war, tötete sie den menschlichen Bediener nicht. Stattdessen zerstörte sie Kommunikationstürme, so dass der Bediener ihr keine Befehle mehr geben konnte, die ihr die Zerstörung von Zielen untersagten.

Aktualisiert: Die US-Luftwaffe dementierte diese Information und erklärte, die Worte des Oberst seien aus dem Zusammenhang gerissen worden. Die Luftwaffe hat keine derartigen Tests durchgeführt. Die 96. Teststaffel gab keinen Kommentar ab.

Quelle: The War Zone