AMD представила чипы для ускоренного обучения искусственному интеллекту

Автор: Богдан Каминский, 08 декабря 2023, 19:18

PaulSakuma.com

Компания AMD анонсировала новые ускорители и процессоры, ориентированные на работу с большими языковыми моделями (LLM).

Что известно

Чипмейкер представил ускоритель Instinct MI300X и процессор Instinct M1300A для обучения и запуска LLM. Как заявляет компания, обе новинки превосходят своих предшественников по объему памяти и энергоэффективности.

По словам генерального директора AMD Лизы Су (Lisa Su), MI300X — "самый производительный ускоритель в мире". Он сопоставим с чипом H100 от Nvidia в плане обучения LLM, но на 1,4 раза превосходит его в выводах на примере работы с моделью Llama 2 от Meta (70 млрд параметров).

Также AMD объявила о сотрудничестве с Microsoft для установки MI300X в облачные вычислительные машины Azure. Компания Meta также заявила о планах по внедрению процессоров MI300 в своих дата-центрах.

Кроме того, Су сообщила о выпуске APU MI300A для ЦОД, которые, по ее словам, увеличат объем рынка до $45 млрд. APU объединяют CPU и GPU для более быстрой обработки данных. По заявлениям AMD, MI300A обеспечивает высокую производительность, быстрое обучение моделей и 30-кратный рост энергоэффективности. Он имеет в 1,6 раза больший объем памяти по сравнению с H100 и реализует унифицированную память.

MI300A будет использоваться в суперкомпьютере El Capitan, построенном Hewlett Packard Enterprise для Ливерморской национальной лаборатории. Это одна из самых мощных установок в мире с производительностью более 2 экзафлопс.

Информацию о ценах на новинки компания не предоставила.

Кроме этого, AMD анонсировала Ryzen 8040 — чипы, которые позволят внедрить больше функций ИИ в мобильные устройства. Согласно анонсу, серия 8040 обеспечивает в 1,6 раза большую производительность обработки ИИ по сравнению с предыдущим поколением, а также имеет встроенные нейропроцессоры (NPU). 

Компания ожидает, что продукты на базе Ryzen 8040 появятся в продаже в 1 квартале 2024 года.

Источник: The Verge