AMD avduket brikker for akselerert opplæring i kunstig intelligens

Av: Bohdan Kaminskyi | 08.12.2023, 19:18

PaulSakuma.com.

AMD har kunngjort nye akseleratorer og prosessorer med fokus på store språkmodeller (LLM).

Dette er hva vi vet

Brikkeprodusenten har avduket Instinct MI300X-brikken og Instinct M1300A-prosessoren for opplæring og kjøring av LLM. Ifølge selskapet overgår begge de nye produktene sine forgjengere når det gjelder minnekapasitet og energieffektivitet.

Ifølge AMDs administrerende direktør Lisa Su er MI300X "verdens mest effektive akselerator". Den kan sammenlignes med Nvidias H100-brikke når det gjelder LLM-trening, men overgår den 1,4 ganger når det gjelder inferens på Metas Llama 2 (70 milliarder parametere).

AMD kunngjorde også et partnerskap med Microsoft for å distribuere MI300X i Azure cloud computing. Meta kunngjorde også planer om å ta i bruk MI300-prosessorer i sine datasentre.

I tillegg lanserte Su MI300A APU-er for datasentre, som ifølge selskapet vil øke markedet til 45 milliarder dollar. APU-ene kombinerer CPU-er og GPU-er for raskere prosessering. AMD hevder at MI300A gir høy ytelse, rask modellæring og 30 ganger høyere energieffektivitet. Den har 1,6 ganger så stor minnekapasitet som H100 og implementerer enhetlig minne.

MI300A skal brukes i superdatamaskinen El Capitan som Hewlett Packard Enterprise har bygget for Livermore National Laboratory. Det er en av de kraftigste installasjonene i verden med en ytelse på mer enn 2 exaflops.

Selskapet ga ikke informasjon om priser på de nye produktene.

I tillegg kunngjorde AMD Ryzen 8040 - brikker som vil gjøre det mulig å introdusere flere AI-funksjoner i mobile enheter. Ifølge kunngjøringen gir 8040-serien 1,6 ganger mer AI-behandlingsytelse sammenlignet med forrige generasjon og har også innebygde nevrale prosesseringsenheter (NPU-er).

Selskapet forventer at Ryzen 8040-baserte produkter vil være tilgjengelige i 1. kvartal 2024.

Kilde: The Verge The Verge