AMD presenta chips para el entrenamiento acelerado de inteligencia artificial
PaulSakuma.com.
AMD ha anunciado nuevos aceleradores y procesadores centrados en los grandes modelos de lenguaje (LLM).
Esto es lo que sabemos
El fabricante de chips ha presentado el chip Instinct MI300X y el procesador Instinct M1300A para entrenar y ejecutar LLM. Según afirma la compañía, ambos nuevos productos superan a sus predecesores en cuanto a capacidad de memoria y eficiencia energética.
Según la consejera delegada de AMD, Lisa Su, el MI300X es "el acelerador de mayor rendimiento del mundo". Es comparable al chip H100 de Nvidia en términos de entrenamiento LLM, pero lo supera en 1,4 veces en inferencia sobre Llama 2 de Meta (70.000 millones de parámetros).
AMD también ha anunciado una alianza con Microsoft para implantar el MI300X en la nube Azure. Meta también anunció planes para desplegar procesadores MI300 en sus centros de datos.
Además, Su anunció las APU MI300A para centros de datos, que, según dijo, impulsarán el mercado hasta los 45.000 millones de dólares.Las APU combinan CPU y GPU para un procesamiento más rápido. AMD afirma que la MI300A ofrece un alto rendimiento, un rápido aprendizaje de modelos y una eficiencia energética 30 veces superior. Tiene 1,6 veces la capacidad de memoria de la H100 e implementa la memoria unificada.
El MI300A se utilizará en el superordenador El Capitán, construido por Hewlett Packard Enterprise para el Laboratorio Nacional Livermore. Se trata de una de las instalaciones más potentes del mundo, con un rendimiento de más de 2 exaflops.
La empresa no facilitó información sobre los precios de los nuevos productos.
Además, AMD anunció Ryzen 8040, chips que permitirán introducir más funciones de IA en los dispositivos móviles. Según el anuncio, la serie 8040 proporciona 1,6 veces más rendimiento de procesamiento de IA en comparación con la generación anterior y también cuenta con unidades de procesamiento neuronal (NPU) integradas.
La compañía espera que los productos basados en Ryzen 8040 estén disponibles en el primer trimestre de 2024.
Fuente: The Verge