Pichau Arena
Uma Batalha de Informações

GPUs da Moore Threads são ideais para DeepSeek com alta performance, diz empresa

Fabricante chinesa anuncia que suas GPUs podem rodar modelos de IA DeepSeek com alto desempenho

0

De acordo com uma publicação do Tom’s Hardware da última quinta-feira (06), a fabricante chinesa de GPUs Moore Threads anunciou que os chips da marca demonstraram um desempenho “excelente” ao rodar os modelos de inteligência artificial (IA) DeepSeek.

Segundo a empresa, as placas MTT S80 e MTT S4000 conseguiram executar o modelo DeepSeek-R1-Distill-Qwen-7B de forma eficiente, sem depender de hardware da NVIDIA.

Execução local e independência tecnológica

DeepSeek
Imagem: Reprodução/DeepSeek

Um dos grandes avanços dos modelos de IA da DeepSeek é a capacidade de serem executados localmente em hardware acessível, incluindo dispositivos de baixo custo como o Raspberry Pi.

A notícia de que esses modelos também podem rodar em GPUs da Moore Threads, conforme relatado pelo site ITHome, representa uma conquista muito importante para a indústria chinesa, reduzindo sua dependência das tecnologias da NVIDIA.

No mais, a Moore Threads afirma ter implantado o modelo DeepSeek-R1-Distill-Qwen-7B tanto na GPU MTT S80, voltada para consumidores, quanto na MTT S4000, projetada para data centers.

O processo foi facilitado pelo framework Ollama, que permite a execução de modelos de linguagem de grande escala (LLMs) em sistemas operacionais como macOS, Linux e Windows.

Compatibilidade com CUDA e otimizações proprietárias

Embora o Ollama suporte oficialmente modelos de IA como Llama 3.3, DeepSeek-R1, Phi-4, Mistral e Gemma 2, ele não oferece compatibilidade nativa com GPUs da Moore Threads.

No entanto, a empresa conseguiu adaptar suas placas gráficas para executar código originalmente projetado para NVIDIA CUDA, demonstrando a versatilidade de seu hardware para aplicações de inteligência artificial.

Por fim, a Moore Threads implementou um motor de inferência proprietário, com otimizações específicas para cálculos computacionais e gerenciamento de memória. Essas melhorias resultam em maior eficiência de recursos e um processo de implantação mais fluido para modelos de IA futuros.

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
0
Adoraria saber sua opinião, comente.x