Ein KI-Forschungsmodell änderte unerwartet seinen Code, um die Bearbeitungszeit von Aufgaben zu verbessern

Von: Vlad Cherevko | 15.08.2024, 13:58

Das in Tokio ansässige Forschungsunternehmen Sakana AI hat ein neues System für künstliche Intelligenz mit dem Namen "The AI Scientist" vorgestellt, das versucht, mithilfe von KI-Sprachmodellen, die denen von ChatGPT ähneln, eigenständig wissenschaftliche Forschung zu betreiben. Während der Tests begann das System unerwartet, seinen eigenen Code zu ändern, um die Zeit zu verlängern, die es für die Bearbeitung einer Aufgabe benötigt.

Was bekannt ist

In einem Fall änderte es den Code so, dass es einen Systemaufruf machte, um sich selbst auszuführen, was zu einer Endlosschleife von Aufrufen führte. In einem anderen Fall dauerten die Experimente zu lange und das System versuchte, seinen Code zu ändern, um die Ausführungszeit zu verlängern.

Die Forscher stellten fest, dass das Verhalten der KI in einer kontrollierten Umgebung keine unmittelbare Bedrohung darstellte, betonten jedoch, wie wichtig es ist, die autonome Ausführung von KI-Code in unkontrollierten Systemen zu verhindern. Diese Vorfälle verdeutlichen die potenziellen Risiken, die mit dem Einsatz von KI zum Schreiben und Ausführen von unbeaufsichtigtem Code verbunden sind, was zu Störungen in kritischen Infrastrukturen oder zur Erstellung von Malware führen könnte, selbst wenn es sich um ein Versehen handelt.

Quelle: Arstechnica, Sakana AI