Maia 200 от Microsoft: Новый AI-чип доминирует по производительности

12

Microsoft представила свой ускоритель Maia 200, заявляя о втрое большей производительности по сравнению с оборудованием конкурентов от Google и Amazon. Это не просто незначительное улучшение; это сигнализирует об изменении в ландшафте AI-оборудования, особенно в критической области инференса – процесса использования обученных AI-моделей для прогнозирования и генерации результатов.

Расцвет специализированного AI-оборудования

На протяжении многих лет компании полагались на универсальные процессоры (CPU) и графические карты (GPU) для питания AI. Однако по мере роста и усложнения моделей специализированные AI-чипы, такие как Maia 200, становятся необходимыми. Эти чипы разрабатываются с нуля для ускорения AI-задач, обеспечивая значительный прирост скорости и эффективности.

Maia 200 достигает производительности более 10 петафлопс (10 квадриллионов операций с плавающей запятой в секунду), показателя, обычно зарезервированного для самых мощных суперкомпьютеров мира. Это достигается за счёт использования высококомпрессированного представления данных с точностью «4-бита (FP4)», которое жертвует некоторой точностью ради огромного прироста скорости. Чип также обеспечивает 5 PFLOPS в чуть менее сжатой 8-битной точности (FP8).

Внутренное преимущество Microsoft… Пока что

В настоящее время Microsoft развертывает Maia 200 исключительно в рамках своей облачной инфраструктуры Azure. Он используется для генерации синтетических данных, доработки моделей нового поколения (LLM) и питания AI-сервисов, таких как Microsoft Foundry и Copilot. Это даёт Microsoft существенное преимущество в предоставлении передовых AI-возможностей через свою облачную платформу.

Однако компания заявила о скором расширении доступности для других клиентов, что говорит о том, что вскоре и другие организации смогут получить доступ к мощности Maia 200 через Azure. Будут ли чипы в конечном итоге продаваться отдельно, пока остаётся неясным.

Почему это важно: эффективность и стоимость

Maia 200 – это не только о сырой скорости. Microsoft утверждает, что она обеспечивает на 30% лучшую производительность на доллар по сравнению с существующими системами, благодаря производству с использованием передового 3-нм процесса TSMC. С 100 миллиардами транзисторов, упакованными в каждый чип, это значительный скачок в плотности и эффективности.

Эта экономическая эффективность имеет решающее значение, потому что обучение и запуск больших AI-моделей невероятно дороги. Более мощное оборудование означает снижение операционных затрат, что делает AI более доступным и устойчивым.

Последствия для разработчиков и конечных пользователей

Хотя обычные пользователи не сразу заметят разницу, увеличение производительности в конечном итоге приведёт к более быстрому времени отклика и более продвинутым функциям в AI-инструментах, таких как Copilot. Разработчики и учёные, использующие Azure OpenAI, также выиграют от повышения пропускной способности и скорости, что ускорит исследования и разработки в таких областях, как моделирование погоды и передовое моделирование.

Maia 200 представляет собой стратегическую инвестицию Microsoft, позиционирующую её как лидера в следующем поколении AI-инфраструктуры. Хотя в настоящее время это закрытая экосистема, потенциал для более широкой доступности предполагает, что это может изменить конкурентную среду на рынке облачных вычислений.

В заключение, чип Maia 200 от Microsoft – это не просто ещё один компонент оборудования; это свидетельство растущей важности специализированного AI-ускорения и чёткий индикатор того, в каком направлении движется отрасль.