De acordo com uma publicação do Tom’s Hardware da última quinta-feira (06), a fabricante chinesa de GPUs Moore Threads anunciou que os chips da marca demonstraram um desempenho “excelente” ao rodar os modelos de inteligência artificial (IA) DeepSeek.
Segundo a empresa, as placas MTT S80 e MTT S4000 conseguiram executar o modelo DeepSeek-R1-Distill-Qwen-7B de forma eficiente, sem depender de hardware da NVIDIA.
- DeepSeek entra na mira dos EUA, que abre investigação contra IA chinesa
- DeepSeek, IA chinesa, é acusada de ter enganado todo mercado de IA, entenda
Execução local e independência tecnológica

Um dos grandes avanços dos modelos de IA da DeepSeek é a capacidade de serem executados localmente em hardware acessível, incluindo dispositivos de baixo custo como o Raspberry Pi.
A notícia de que esses modelos também podem rodar em GPUs da Moore Threads, conforme relatado pelo site ITHome, representa uma conquista muito importante para a indústria chinesa, reduzindo sua dependência das tecnologias da NVIDIA.
No mais, a Moore Threads afirma ter implantado o modelo DeepSeek-R1-Distill-Qwen-7B tanto na GPU MTT S80, voltada para consumidores, quanto na MTT S4000, projetada para data centers.
O processo foi facilitado pelo framework Ollama, que permite a execução de modelos de linguagem de grande escala (LLMs) em sistemas operacionais como macOS, Linux e Windows.
Compatibilidade com CUDA e otimizações proprietárias
Embora o Ollama suporte oficialmente modelos de IA como Llama 3.3, DeepSeek-R1, Phi-4, Mistral e Gemma 2, ele não oferece compatibilidade nativa com GPUs da Moore Threads.
No entanto, a empresa conseguiu adaptar suas placas gráficas para executar código originalmente projetado para NVIDIA CUDA, demonstrando a versatilidade de seu hardware para aplicações de inteligência artificial.
Por fim, a Moore Threads implementou um motor de inferência proprietário, com otimizações específicas para cálculos computacionais e gerenciamento de memória. Essas melhorias resultam em maior eficiência de recursos e um processo de implantação mais fluido para modelos de IA futuros.