OpenAI hat erkannt, dass GPT-4 mit "minimalem Risiko" zur Entwicklung biologischer Waffen beitragen könnte

Von: Bohdan Kaminskyi | 01.02.2024, 17:41

Mariia Shalabaieva/Unsplash

OpenAI hat eine Studie durchgeführt, um die Risiken der Verwendung seines neuen GPT-4-Modells zur Entwicklung biologischer Waffen zu bewerten. Die Ergebnisse zeigen, dass der Zugang zu KI-Fähigkeiten die Effizienz der Informationsbeschaffung zur Entwicklung von biologischen Bedrohungen "zumindest marginal" erhöht.

Was bekannt ist

Fünfzig Biologen und 50 Studenten nahmen an dem Experiment teil. Sie wurden gebeten, Informationen über den Anbau und die Verbreitung gefährlicher Substanzen zu finden. Die Hälfte der Probanden erhielt Zugang zu einer speziellen Version von GPT-4 ohne Einschränkungen, die andere Hälfte nutzte das normale Internet.

Der Vergleich der Ergebnisse zeigte einen leichten Anstieg der Genauigkeit und Vollständigkeit der Antworten in der Gruppe mit Zugang zur KI. Die OpenAI-Forscher kamen zu dem Schluss, dass bei der Verwendung des Modells zur Erhebung von Daten über die Entwicklung von Biowaffen ein "zumindest geringes" Risiko besteht.

Experten und politische Entscheidungsträger haben bereits früher Bedenken über den möglichen Einsatz von Chatbots zur Entwicklung biologischer Bedrohungen geäußert. Im Oktober wies der US-Präsident das Energieministerium an, dafür zu sorgen, dass von KI-Systemen keine chemischen und biologischen Risiken ausgehen. Das OpenAI-Team arbeitet nun daran, solche Risiken im Zuge des Fortschritts der KI-Technologie zu minimieren.

Quelle: OpenAI