Microsoft Maia 200: новият вътрешен ускорител за изкуствен интелект, който предефинира изводите в голям мащаб

Последна актуализация: 01/27/2026
Автор: C SourceTrail
  • Maia 200 е най-новият вътрешен ускорител на изкуствен интелект на Microsoft, оптимизиран за мащабен инференциален извод с над 10 PFLOPS в FP4 и около 5 PFLOPS в FP8.
  • Чипът е насочен към облачни центрове за данни, захранвайки работни натоварвания като Copilot, Microsoft Foundry, GPT-5.2 на OpenAI и проекти от екипа на Superintelligence.
  • Изграден по 3-нм процес на TSMC с над 100 милиарда транзистора и 216 GB HBM3E, Maia 200 се стреми към висока ефективност и по-добро съотношение цена-качество в сравнение както с Maia 100, така и с конкурентния хиперскалерен силиций.
  • Microsoft позиционира Maia 200 като стратегически ход за намаляване на зависимостта от Nvidia и по-директна конкуренция със семействата Trainium на Amazon и TPU на Google.

Microsoft Maia 200 AI ускорител

- Microsoft Maia 200 се появи като най-новият вътрешен ускорител за изкуствен интелект на компанията, чип, проектиран от нулата, за да изпълнява мащабни задачи за извод в облака. Вместо да е насочен към ежедневни потребителски устройства, този процесор е създаден за среди с тежки центрове за данни, където модели с милиарди параметри се изпълняват непрекъснато, за да отговарят на въпроси, да генерират съдържание и да захранват корпоративни приложения.

Microsoft описва Maia 200 като вид „силициев работен кон“ за изводи от изкуствен интелект, специално настроен да изпълнява вече обучени модели бързо, ефективно и в мащаб. Чипът е позициониран като крайъгълен камък на Azure инфраструктурата на компанията, подкрепяйки услуги като Microsoft 365 Copilot, Microsoft Foundry и най-новите поколения големи езикови модели, разработени както вътрешно, така и в партньорство с OpenAI.

Архитектура, процесен възел и сурова производителност

Дизайн на чипа Microsoft Maia 200

В основата на новия ускорител е 3-нанометров производствен процес на TSMC, привеждайки Maia 200 в съответствие с най-модерните технологии за производство, достъпни в момента за високопроизводителни изчисления. Използвайки този възел, Microsoft е поместила над 100 милиарда транзистора в един чип Maia 200 в някои разкрития, докато други технически брифинги цитират цифра, по-близка до 140 милиарда транзистораВъпреки че точният брой варира в зависимост от източника, всички доклади се съгласяват с идеята, че това е високо плътен, авангарден дизайн.

От гледна точка на производителността, Maia 200 е очевидно оптимизирана за формати на данни с ниска точност които са станали стандарт в съвременните работни натоварвания за извод. Microsoft съобщава, че ускорителят може да надхвърли 10 петафлопа (1015 операции с плаваща запетая в секунда) при работа с 4-битова точност (FP4) - компресиран числов формат, който жертва известна точност за много висока производителност и по-добра енергийна ефективност. В 8-битов режим (FP8) се твърди, че чипът осигурява около 5 петафлопа, което му дава значителен запас за взискателни задачи за извод, които все още се нуждаят от по-голяма точност от FP4.

Тези числа не са академични: Един възел Maia 200 е описан като способен да управлява най-големите модели днес като същевременно оставя място за още по-големи архитектури, които вероятно ще се появят в близко бъдеще. Това обяснява защо Microsoft откроява Maia 200 като най-способния си първа страна силиций за извод досега, насочен директно към работни натоварвания, които вече изтласкват съществуващата инфраструктура до нейните граници.

Във вътрешни и публични сравнения, Microsoft твърди, че Maia 200 постига три до четири пъти по-висока производителност от FP4 на ускорителя Trainium от трето поколение на Amazon и пропускателната способност на FP8, която по определени показатели превъзхожда TPU от седмо поколение на Google. Въпреки че директните сравнения между чипове винаги са нюансирани, цифрите показват, че Microsoft е достатъчно уверена, за да определи Maia 200 като лидер сред настоящите ускорители, проектирани с хиперскалери.

Важно е, че компанията набляга не само на чистата скорост, но и ефективност и ценаСпоред Microsoft, Maia 200 предлага приблизително 30% по-добра производителност на долар от първото поколение Maia 100, въпреки че работи с по-висока топлинна мощност. За доставчиците на облачни услуги и клиентите това съотношение цена-производителност е централен фактор при вземането на решения за мащабиране на услуги с изкуствен интелект.

Подсистема памет и обработка на данни

Разгръщане на център за данни Microsoft Maia 200

Един от най-впечатляващите аспекти на Maia 200 е неговият конфигурация на паметта, която е настроена специално за големи AI моделиУскорителят интегрира 216 GB HBM3E памет с висока пропускателна способност, съчетана с обща HBM пропускателна способност от около 7 TB/s. Тази пропускателна способност е предназначена да поддържа масивни тегла на моделите и активации, подавани без пречки, което е критично изискване за високопроизводителен извод и... съвременни архитектури на системи за съхранение.

В допълнение към HBM, чипът включва около 272 MB вградена SRAM памет, подредени в многослойна йерархия, която Microsoft описва като SRAM на ниво клъстер (CSRAM) и SRAM на ниво плочки (TSRAM). Този слоест дизайн позволява често използваните данни да се намират по-близо до изчислителните устройства, намалявайки латентността и подобрявайки ефективното използване на наличната честотна лента. Голяма част от усилията за научноизследователска и развойна дейност за Maia 200 изглежда са инвестирани в тази йерархия на паметта, която е от основно значение за поддържането на заетостта на изчислителните устройства на ускорителя.

Цялостната архитектура е насочена към запазване на локалността на параметрите на модела и междинните данни колкото е възможно повече, така че задачата за извод да не се налага постоянно да се свързва с сървър или мрежова структура за необходимата информация. Този локален фокус означава, че може да са необходими по-малко ускорители за хостване на даден модел, което потенциално намалява както броя на хардуерните компоненти, така и оперативната сложност за клиенти, внедряващи големи натоварвания.

Освен вградената памет, Maia 200 поддържа значителен увеличаване на честотната лента между чиповете, докладвана до 2.8 TB/s. Този капацитет за взаимосвързване е проектиран да позволи на множество ускорители да функционират като тясно интегриран пул от ресурси в сървър или шкаф, което им помага да се справят с особено големи или сложни задачи за извод, които биха могли да надхвърлят капацитета на едно устройство.

Въпреки че Microsoft все още не е публикувала изчерпателни подробности за точното разположение на шкаф с Maia 200 или общата петафлопс производителност за напълно заредена система, компанията отбелязва, че тези ускорители ще бъдат разположени заедно с други видове AI хардуер. На практика това означава Maia 200 е част от хетерогенна инфраструктура на Azure, като си сътрудничи с графични процесори и други ускорители, вместо да ги замества напълно.

Фокус върху изводите и реални натоварвания

За разлика от ускорителите за обучение, които са оптимизирани за изграждане на модели от нулата, Maia 200 е насочена към извод — процесът на изпълнение на модели, след като са обучениТази фаза от използването на изкуствен интелект често доминира в текущите оперативни разходи, тъй като моделите могат да бъдат заявени милиони или милиарди пъти след завършване на обучението. Тъй като организациите внедряват все по-сложни системи, необходимостта от рационализиране на изводите става все по-належаща.

Като се фокусира върху форматите FP4 и FP8, Maia 200 се стреми да постигне идеалното съотношение между... точност, скорост и консумация на енергияFP4, макар и по-малко прецизен, позволява изключително висока производителност и може да бъде подходящ за модели, които толерират квантуване без значително влошаване на качеството на изхода. FP8 предлага опция с по-висока точност за сценарии, където точността остава по-голямо притеснение, като същевременно осигурява по-добра ефективност от традиционните 16-битови или 32-битови формати с плаваща запетая.

Microsoft започна да използва Maia 200 за обслужване GPT-5.2 моделът на OpenAI и други усъвършенствани LLM-и чрез Azure. Ускорителят е вграден и в Microsoft Foundry, платформа за изграждане на персонализирани AI решения, и захранва работни натоварвания за Microsoft 365 Copilot, фокусираният върху производителността асистент на компанията. В тези роли Maia 200 е предназначена да помогне за подобряване на времето за реакция, увеличаване на производителността и активиране на по-сложни функции без пропорционално увеличение на разходите.

Вътрешно, Maia 200 вече подкрепя проекти от Екипът за суперинтелект на Microsoft, амбициозно подразделение, изследващо авангардни системи с изкуствен интелект. Компанията открива ранен преглед на комплекта за разработка на софтуер Maia 200 за избрани партньори, включително академици, разработчици, лаборатории за изкуствен интелект и сътрудници в модели с отворен код. Този преглед на SDK е предназначен да помогне на външни екипи да адаптират своите натоварвания към чипа и да проучат как неговата архитектура може да бъде използвана най-добре.

От гледна точка на потребителя, въвеждането на Maia 200 няма да промени веднага начина, по който повечето хора взаимодействат с услугите на изкуствен интелект ежедневно. Въпреки това, тъй като все повече задачи за извод мигрират към новия ускорител, крайните потребители могат да забележат по-бързи отговори, по-плавно изживяване и нови възможности в инструменти като Copilot, приложения, базирани на Azure OpenAI, и други услуги на Microsoft, които разчитат на сериозни изводи зад кулисите.

Разполагане в центрове за данни на Azure и наличност

Maia 200 вече се използва в производствена среда в облачната инфраструктура на Microsoft. Компанията потвърждава, че Първоначалните внедрявания са активни в региона на US Central Azure, близо до Де Мойн, Айова. Планирани са допълнителни внедрявания, като US West 3 в района на Финикс, Аризона, е посочен като един от следващите региони, които ще получат капацитета на Maia 200, а с течение на времето се очакват и други географски райони с увеличаване на доставките.

Засега Maia 200 се използва изключително като част от Системи за центрове за данни, управлявани от MicrosoftЗа разлика от графичните процесори или някои ускорители на трети страни, продавани директно на клиентите, чипът не се предлага като отделен компонент за закупуване и инсталиране в локални среди. Вместо това, организациите ще имат достъп до възможностите на Maia 200 индиректно чрез услуги на Azure, API и управлявани платформи.

Microsoft намекна, че ще има по-широка наличност на клиенти в бъдеще, което предполага, че повече клиенти ще могат изрично да се насочат към инстанции или услуги, поддържани от Maia 200, в Azure с развитието на екосистемата. Дали това евентуално ще се разшири до самостоятелни системи извън облака на Microsoft, остава открит въпрос, но настоящият акцент е твърдо върху хостваните предложения.

По отношение на практическите ползи, клиентите на Azure OpenAI, учените, разработчиците и големите предприятия би трябвало постепенно да видят... по-висока пропускателна способност и по-добра латентност за сложни задачи за извод, тъй като Maia 200 става все по-разпространена. Това може да е особено важно за приложения като финансово моделиране, търсене, автономни агенти или генериращи системи в реално време, които изискват както скорост, така и последователност.

Освен търговските потребители, Microsoft предполага, че инфраструктурата, задвижвана от Maia 200, може да поддържа мащабни... изследователски проекти в области като климатично моделиране, биологични науки и химияТези области зависят силно от подробни симулации и сложни модели, които могат да се възползват значително от ускорители, оптимизирани за бързо извеждане на изводи върху огромни масиви от данни.

Ефективност, термични характеристики и екологично позициониране

Тъй като вниманието към екологичните разходи за инфраструктура с изкуствен интелект нараства, Microsoft представя Maia 200 като... ускорител, ориентиран към ефективността а не изцяло енергоемък дизайн. Чипът е с номинална топлинна мощност (TDP) от около 750 вата, което е значително по-ниско от някои от най-енергоемките графични процесори на пазара, като например Blackwell B300 Ultra на Nvidia, отчетен с приблизително 1,400 вата.

Въпреки по-високата TDP в сравнение с предшественика си, Maia 100, се твърди, че новият ускорител ще осигури... около 30% по-добра производителност на долар отколкото при предишното поколение. Това подобрение се дължи на преминаването към по-усъвършенстван производствен възел, архитектурни усъвършенствания и по-ефективна подсистема за памет. По-ранни доклади сочеха, че макар Maia 100 да е технически проектирана за 700-ватова мощност, Microsoft на практика я е ограничила до около 500 вата, което предполага, че Maia 200 може да работи и под теоретичния си таван в зависимост от избора на внедряване.

Посланията на Microsoft относно Maia 200 са в съответствие с по-широките корпоративни усилия да покажат, че е... осъзнавайки въздействието на големите центрове за данни върху околните общности и околната среда. Ръководителите публично твърдят, че развитието на ИИ трябва да демонстрира конкретни ползи за обществото, за да се запази обществената подкрепа и да се избегне това, което някои описват като потенциална негативна реакция срещу ИИ.

На практика, по-високата ефективност на ват и на долар може да помогне за намаляване на броя на ускорителите, необходими за поддържане на дадено ниво на обслужване, ограничавайки както потреблението на енергия, така и хардуерното заемане. Това от своя страна може да помогне на хиперскалерите да отговорят на опасенията относно потреблението на енергия, потреблението на вода за охлаждане и по-широките показатели за устойчивост.

Въпреки че Microsoft все още не е споделила пълни подробности за стека, като например общата консумирана мощност и производителност на напълно зареден Maia 200 шкаф, акцентът върху ефективността на изводите предполага, че чипът е предназначен да играе ключова роля за поддържане на управляеми дългосрочни оперативни разходи за услугите с изкуствен интелект, както финансово, така и екологично.

Конкурентна среда: Trainium, TPU и екосистемата на Nvidia

Maia 200 пристига в момент, когато големите доставчици на облачни услуги се надпреварват да... разработват свои собствени ускорители на изкуствен интелект за да се намали зависимостта от външни доставчици, по-специално Nvidia. Линията TPU на Google и серията Trainium на Amazon вече са в центъра на тази тенденция, предоставяйки алтернативи, които са дълбоко интегрирани в съответните им облачни платформи.

С Maia 200, Microsoft открито позиционира своя чип като директен конкурент на Trainium3 на Amazon и TPU от седмо поколение на GoogleКомпанията твърди, че нейният ускорител не само превъзхожда Trainium3 по отношение на пропускателната способност на FP4 с коефициент от три до четири, но също така предлага производителност на FP8, която превъзхожда TPU v7, като същевременно повече от удвоява Trainium3 по определени показатели на FP8.

Капацитетът на паметта и пропускателната способност също са част от тази конкурентна история. Maia 200 216 GB HBM3E памет и 7 TB/s честотна лента противоречат на публичните спецификации за Trainium3 (144 GB и 4.9 TB/s) и TPU v7 (192 GB и 7.4 TB/s). От страна на мащабируемостта, заявената пропускателна способност за взаимосвързване от 2.8 TB/s за Maia 200 се сравнява с до 2.56 TB/s за Trainium3 и приблизително 1.2 TB/s за TPU v7.

Конкурентната картина обаче е по-сложна от само суровите числа. Nvidia остава доминиращият доставчик за обучение на изкуствен интелект и в много случаи за изводи, до голяма степен поради зрялостта на софтуерната екосистема, базирана на CUDA, и широката хардуерна гама. Дори когато Microsoft, Amazon и Google разширяват собствените си силициеви портфолиа, те все още си сътрудничат с Nvidia по нови архитектури и интегрирани системи.

Всъщност, Amazon работи с Nvidia за интегрирането на предстоящия Trainium4 заедно с технологии като референтните дизайни на NVLink 6 и MGX. По подобен начин Microsoft продължава да внедрява графични процесори на Nvidia в своите центрове за данни, позиционирайки Maia 200 като част от хетерогенна среда, а не като универсален заместител.

За клиентите ключовите въпроси ще се въртят около обща цена на притежание и софтуерна интеграцияКолко лесно могат да бъдат пренесени или оптимизирани работните натоварвания за Maia 200 и как цените се сравняват с инстанции, базирани на Nvidia или TPU, ще окажат силно влияние върху избора на ускорителен стек. Акцентът на Microsoft върху производителност за долар и за ват показва, че тези съображения са от основно значение за стратегията им.

От Мая 100 до Мая 200: еволюция и съвети за пътна карта

Maia 200 надгражда върху Основата е положена от Maia 100, който Microsoft представи през 2023 г. като първия си вътрешен ускорител с изкуствен интелект. Въпреки че компанията е предоставила малко директно сравними показатели между двете поколения, по-новият чип очевидно е насочен към по-висока производителност, с по-агресивни дизайнерски цели и разширени ресурси на паметта.

Докладите сочат, че Maia 200, с вътрешно кодово име „Брага“, преживя по-дълъг цикъл на разработка и внедряване от първоначално планираното. Първоначалните очаквания бяха да пристигне през 2025 г., потенциално дори да изпревари някои предложения за графични процесори от следващо поколение на пазара. В крайна сметка графикът за пускането му на пазара се промени, но Microsoft сега изглежда решена да затвърди присъствието си като сериозен играч на пазара на хипермащабируем изкуствен интелект.

Въпреки по-високата TDP от около 750 вата, компанията твърди, че Общата икономическа ефективност на Maia 200 е значително по-добра отколкото тази на Maia 100, отчасти благодарение на по-усъвършенствания процесен възел и архитектурните актуализации. Увеличеният енергиен бюджет се разглежда като приемлив компромис за отключване на по-висока устойчива пропускателна способност и намалени разходи за извод на операция.

В перспектива, докладите от индустрията показват, че Бъдещите ускорители на Microsoft може да бъдат произведени по 18A процес на Intel, което сигнализира, че компанията проучва множество партньорства с леярни за последващи дизайни. Тази диверсификация би могла да даде на Microsoft по-голяма гъвкавост при балансирането на факторите производителност, доставки и разходи в бъдещите поколения.

Засега Maia 200 представлява съществена стъпка в по-широкото пътуване на Microsoft от компания, ориентирана предимно към софтуер, до такава, която проектира критични хардуерни компоненти, които са в основата на водещите ѝ предложения за изкуствен интелект. Нейното внедряване вероятно ще оформи колко агресивно Microsoft може да мащабира услуги като Copilot, Foundry и Azure OpenAI през следващите години.

Вземайки всички тези елементи заедно, Maia 200 се очертава като специално създаден ускорител на извод който съчетава висока пропускателна способност на FP4 и FP8, обширна подсистема с памет и фокусирана върху облака интеграция в хетерогенната инфраструктура на Azure. Макар че много от по-задълбочените архитектурни детайли и пълните показатели на системно ниво предстои да бъдат разкрити, чипът ясно бележи важен ход в усилията на Microsoft да контролира по-голяма част от своя AI стек, да управлява разходите и да се конкурира директно с други хиперскалери в надпреварата за захранване на следващата вълна от мащабни AI приложения.

vision general de sistemas de almacenamiento de datos
Свързана статия:
Visión general de sistemas de almacenamiento de datos
Подобни публикации: