– Nvidia não está preocupada
– Garante que seus chips estão uma geração a frente
– Aposta na versatilidade do seu produto
Após a divulgação de que a Meta Platforms estaria em negociações para gastar bilhões de dólares em Tensor Processing Units (TPUs) do Google, a Nvidia quebrou o silêncio com uma declaração enfática. A empresa, que domina o mercado de hardware de IA, reconheceu o sucesso do Google, mas rapidamente reafirmou sua posição de liderança, destacando a superioridade de sua plataforma.
- A.I.L.A: requisitos para o horror brasileiro estreante na Steam
- Marvel’s Spider-Man em promoção na Steam, confira requisitos
“Estamos encantados com o sucesso do Google — eles fizeram grandes avanços em IA e continuamos a fornecer ao Google. Mas a NVIDIA está uma geração à frente da indústria — é a única plataforma que executa todos os modelos de IA e o faz em todos os lugares onde a computação é realizada.”
Além disso, a NVIDIA ainda complementou que “A NVIDIA oferece maior desempenho, versatilidade e fungibilidade do que ASICs, que são projetados para frameworks ou funções de IA específicas.”. Indicando a baixa preocupação para com a substituição do seu mercado.
Ou seja, a resposta da Nvidia toca no cerne da competição no mercado de chips de IA: a diferença fundamental entre a versatilidade das GPUs e a especificidade dos ASICs (Application-Specific Integrated Circuits), como as TPUs.

ASIC vs. GPU: O Dilema da Versatilidade
As TPUs do Google são chips projetados especificamente para operações de matriz de alta taxa de transferência, essenciais para o treinamento e inferência de grandes modelos de linguagem. As TPUs são extremamente eficientes para as cargas de trabalho para as quais foram otimizadas. Mas sua utilidade é limitada a essas tarefas e ao ecossistema do Google Cloud.
Por outro lado, as GPUs da Nvidia, como a H100 e a futura Blackwell GB200, são processadores de propósito geral com uma arquitetura paralela que lhes permite lidar com uma gama muito mais ampla de tarefas. Por isso a Nvidia enfatiza que sua plataforma é a única que executa todos os modelos de IA e pode ser utilizada em qualquer ambiente de computação.
O Poder do Ecossistema CUDA
O maior trunfo da Nvidia não é apenas o hardware, mas o seu ecossistema de software CUDA. Que, juntamente com ferramentas como cuDNN e TensorRT, estabeleceu-se como o padrão da indústria para o desenvolvimento de IA.
A Meta, apesar de sua capacidade de desenvolver software interno (incluindo o uso de JAX, que utiliza o backend XLA do Google), teria que reescrever ou reajustar grande parte de seu código e gerenciar novos gargalos de desempenho para migrar totalmente para o XLA. É nesta fricção que a Nvidia aposta para manter sua liderança.