AMD onthult chips voor versnelde training van kunstmatige intelligentie

Via: Bohdan Kaminskyi | 08.12.2023, 19:18

PaulSakuma.com.

AMD heeft nieuwe versnellers en processors aangekondigd die gericht zijn op Large Language Models (LLM).

Dit is wat we weten

De chipmaker heeft de Instinct MI300X chip en Instinct M1300A processor onthuld voor het trainen en uitvoeren van LLM's. Volgens het bedrijf overtreffen beide nieuwe producten hun voorgangers op het gebied van geheugencapaciteit en energie-efficiëntie.

Volgens AMD CEO Lisa Su is de MI300X "de best presterende versneller ter wereld". Hij is vergelijkbaar met de H100-chip van Nvidia wat betreft LLM-training, maar presteert 1,4x beter bij inferentie op Meta's Llama 2 (70 miljard parameters).

AMD kondigde ook een samenwerking aan met Microsoft om de MI300X in te zetten in Azure cloud computing. Meta kondigde ook plannen aan om MI300-processors in te zetten in zijn datacenters.

Daarnaast kondigde Su de MI300A APU's voor datacenters aan, die volgens het bedrijf de markt een impuls zouden geven tot 45 miljard dollar. De APU's combineren CPU's en GPU's voor snellere verwerking. AMD claimt dat de MI300A hoge prestaties, snel leren van modellen en 30 keer meer energie-efficiëntie levert. Hij heeft 1,6 keer de geheugencapaciteit van de H100 en implementeert unified memory.

De MI300A zal worden gebruikt in de El Capitan supercomputer die door Hewlett Packard Enterprise is gebouwd voor het Livermore National Laboratory. Het is een van de krachtigste installaties ter wereld met een prestatie van meer dan 2 exaflops.

Het bedrijf gaf geen informatie over de prijzen van de nieuwe producten.

Daarnaast kondigde AMD Ryzen 8040 aan - chips die het mogelijk maken om meer AI-functies te introduceren in mobiele apparaten. Volgens de aankondiging biedt de 8040-serie 1,6 keer meer AI-verwerkingsprestaties in vergelijking met de vorige generatie en beschikt het ook over ingebouwde neurale verwerkingseenheden (NPU's).

Het bedrijf verwacht dat Ryzen 8040-gebaseerde producten beschikbaar zullen zijn in Q1 2024.

Bron: The Verge