– Qualcomm anunciou os chips AI200 (2026) e AI250 (2027) para concorrer com NVIDIA e AMD
– Chips trazem novidades interessantes
– Embora promissor, o sucesso dependerá de adoção em escala
Na última segunda-feira (27), a Reuters publicou que a Qualcomm revelou recentemente dois novos aceleradores de IA voltados para data centers, os modelos AI200 e AI250. numa investida clara para competir com a NVIDIA e a AMD no mercado de hardware dedicado a cargas de inferência de inteligência artificial (IA).
O anúncio marca um passo estratégico importante para a empresa, que até então era reconhecida principalmente por seus chips para dispositivos móveis, como a linha Snapdragon, e menos presente no segmento de servidores de IA.
- Compre GPU NVIDIA e ganhe ARC Raiders grátis; saiba como
- Qual placa AMD é equivalente à RTX 4060? Comparativo de desempenho e custo-benefício
Segundo a empresa, o chip AI200 está programado para lançamento em 2026, enquanto o AI250 chegará em 2027. Alguns destaques técnicos incluem:
Suporte avançado a formatos de dados de inferência (INT2, INT4, INT8, FP8, FP16) para maximizar eficiência em modelos de IA;
Arquitetura voltada para rack-scale, ou seja, sistemas que agregam muitos chips numa unidade de data center com alta densidade de processamento, semelhante às soluções da NVIDIA e AMD;
Foco em eficiência energética e custo total de propriedade (TCO) como diferencial frente aos concorrentes dominantes.
Contexto de mercado

O mercado de aceleradores para IA nos data centers está fortemente dominado pela NVIDIA, com a AMD também em crescimento. A entrada da Qualcomm pode mostrar que a supremacia está sob pressão, ou ao menos começando a diversificar.
Para o setor, mais competição significa maior pressão para inovação, uma potencial queda de preços ou maior oferta de soluções de IA de alto desempenho com alternativas às já tradicionais, o que pode acelerar adoção de IA em diferentes indústrias.