Code Llama fra Meta ligger nær GPT-4 når det gjelder kodegenereringsnøyaktighet.

Av: Bohdan Kaminskyi | 30.01.2024, 20:34
Code Llama fra Meta ligger nær GPT-4 når det gjelder kodegenereringsnøyaktighet.
Dima Solomin/Unsplash

Meta har oppdatert sin store språkmodell for kodegenerering Code Llama 70B. Ifølge utvikleren er nøyaktigheten nå nær OpenAIs GPT-4.

Dette er hva vi vet

Ifølge Meta kan den oppdaterte Code Llama 70B håndtere flere spørsmål og gi mer nøyaktige resultater. I HumanEval-testen oppnådde den en score på 53 % på nøyaktigheten. Til sammenligning har GPT-3.5 en score på 48,1 prosent og GPT-4 en score på 67 prosent.

Metas Code Llama hjelper programmerere med å generere kodebiter basert på tips og feilsøke eksisterende programmer. 70B-modellen ble trent på 1 TB programmeringsrelaterte data. Den er gratis tilgjengelig for forskning og næringsliv.

Meta har tidligere lansert de språkspesifikke verktøyene Code Llama Python og Code Llama Instruct. Nå sier selskapet at AI-modellene viser "de beste resultatene når det gjelder å hjelpe utviklere."

Kilde: The Verge