Code Llama von Meta kommt der Genauigkeit von GPT-4 bei der Codegenerierung sehr nahe.

Von Bohdan Kaminskyi | 30.01.2024, 19:34
Code Llama von Meta kommt der Genauigkeit von GPT-4 bei der Codegenerierung sehr nahe.
Dima Solomin/Unsplash

Meta hat sein großes Sprachmodell für die Codegenerierung Code Llama 70B aktualisiert. Nach Angaben des Entwicklers liegt die Genauigkeit nun nahe an OpenAIs GPT-4.

Was bekannt ist

Nach Angaben von Meta kann das aktualisierte Code Llama 70B mehr Abfragen verarbeiten und genauere Ergebnisse liefern. Im HumanEval-Test erreichte er 53 % bei der Genauigkeitskennzahl. Zum Vergleich: GPT-3.5 hat einen Wert von 48,1 Prozent und GPT-4 einen Wert von 67 Prozent.

Meta's Code Llama hilft Programmierern bei der Erstellung von Codeschnipseln auf der Grundlage von Hinweisen und bei der Fehlersuche in bestehenden Programmen. Das 70B-Modell wurde anhand von 1 TB programmierbezogener Daten trainiert. Es ist für Forschung und Unternehmen kostenlos erhältlich.

Meta hat bereits die sprachspezifischen Tools Code Llama Python und Code Llama Instruct eingeführt. Jetzt sagt das Unternehmen, dass seine KI-Modelle "die besten Ergebnisse bei der Unterstützung von Entwicklern" zeigen.

Quelle: The Verge