Pichau Arena
Uma Batalha de Informações

Microsoft apresenta novidade para destruir Amazon e Google

Maia 200 chega com tecnologia 3 nm e performance de outro nível

0

– Microsoft apresentou o Maia 200, novo acelerador de IA para inferência
– O chip possui mais de 140 bilhões de transistores, grande quantidade de memória HBM3e
– Maia 200 promete performance por dólar até ~30 % melhor que gerações anteriores

De acordo com uma publicação do The Verge da última segunda-feira (26), a Microsoft revelou oficialmente o Maia 200, a mais recente geração de acelerador de inteligência artificial (IA) projetado especialmente para inferência de grandes modelos em serviços de nuvem.

O anúncio coloca a empresa no centro da corrida por hardware otimizado para IA, com tecnologia de ponta e foco na redução de custo e tempo de resposta para tarefas de inferência em larga escala.

O Maia 200 é fabricado com o processo de 3 nanômetros da TSMC, o que permite integrar mais de 140 bilhões de transistores em um único chip.

A arquitetura inclui núcleos de tensor com suporte nativo a operações em precisão FP8 e FP4, ideais para IA moderna, na qual a precisão reduzida pode acelerar a produção de respostas de modelos sem perda relevante de qualidade.

Características chamam atenção

Microsoft
Imagem: Reprodução/Microsoft

Uma das características mais impressionantes do Maia 200 é o sistema de memória, que combina 216GB de HBM3e com largura de banda de cerca de 7 TB/s e um cache on-chip de 272 MB de SRAM para manter grandes modelos alimentados com dados rapidamente, evitando gargalos comuns em chips tradicionais.

Isso contribui para os mais de 10 petaFLOPS de desempenho em FP4 e acima de 5 petaFLOPS em FP8 que a Microsoft associa ao Maia 200, dentro de um envelope térmico de cerca de 750 W.

Microsoft vs Amazon vs Google

Segundo a Microsoft, o Maia 200 oferece até três vezes mais desempenho em certas cargas de trabalho de inferência (FP4) do que o Trainium 3 da Amazon, além de superar em tarefas de FP8 os chips TPU v7 do Google, colocando a empresa em posição competitiva diante de outros gigantes da computação em nuvem.

No mais, a empresa também afirma que o Maia 200 traz cerca de 30 % de eficiência de desempenho por dólar a mais do que as soluções anteriores da própria Microsoft, prometendo melhor economia operacional para aplicações como Microsoft 365 Copilot e Microsoft Foundry.

Por fim, vale destacar que o chip já está sendo integrado à infraestrutura Azure em regiões dos Estados Unidos, com planos de expansão para outras localidades ao longo de 2026, reforçando a estratégia da Microsoft de reduzir dependência de fornecedores externos, como NVIDIA.

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
0
Adoraria saber sua opinião, comente.x