Code Llama fra Meta ligger nær GPT-4 når det gjelder kodegenereringsnøyaktighet.
Dima Solomin/Unsplash
Meta har oppdatert sin store språkmodell for kodegenerering Code Llama 70B. Ifølge utvikleren er nøyaktigheten nå nær OpenAIs GPT-4.
Dette er hva vi vet
Ifølge Meta kan den oppdaterte Code Llama 70B håndtere flere spørsmål og gi mer nøyaktige resultater. I HumanEval-testen oppnådde den en score på 53 % på nøyaktigheten. Til sammenligning har GPT-3.5 en score på 48,1 prosent og GPT-4 en score på 67 prosent.
Metas Code Llama hjelper programmerere med å generere kodebiter basert på tips og feilsøke eksisterende programmer. 70B-modellen ble trent på 1 TB programmeringsrelaterte data. Den er gratis tilgjengelig for forskning og næringsliv.
Meta har tidligere lansert de språkspesifikke verktøyene Code Llama Python og Code Llama Instruct. Nå sier selskapet at AI-modellene viser "de beste resultatene når det gjelder å hjelpe utviklere."
Kilde: The Verge