Pichau Arena
Uma Batalha de Informações

Novo SSD ultra-rápido da NVIDIA vai turbinar GPUs; entenda

Por que 100 milhões de IOPS podem mudar o jogo dos servidores de IA

0

– NVIDIA e Kioxia visam lançar SSDs com desempenho de ~100 milhões de IOPS até 2027, especialmente para servidores de IA
– Uso de memória XL-Flash (SLC NAND), interfaces modernas (PCIe 7.0) e conexão direta SSD-GPU para reduzir latência
– Desafios envolvem custo, consumo de energia e calor, desempenho real versus ideal, integração e compatibilidade em escala comercial

Segundo uma publicação do Tom’s Hardware desta sexta-feira (12), a corrida por armazenamento ultra-rápido para Inteligência Artificial (IA) ganha novo capítulo, pois a japonesa Kioxia está colaborando com a NVIDIA no desenvolvimento de um SSD capaz de atingir 100 milhões de IOPS (Input/Output Operations Per Second) já em 2027, voltado para uso em servidores de IA, especialmente para casos que demandam leituras aleatórias intensas.

Os sistemas de IA, sobretudo modelos grandes ou aplicações de inferência em tempo real (como modelos de linguagem, busca vetorial, embeddings, recuperação de dados), dependem não só de alta largura de banda (bandwidth), mas muito de leituras pequenas e aleatórias com latência muito baixa. O gargalo que muitas vezes aparece não está na placa de vídeo ou no processador, mas sim nos atrasos para acessar dados no armazenamento, principalmente quando os dados estão fragmentados, distribuídos ou em memória secundária.

Atualmente, SSDs de alta ponta já conseguem cerca de 2-3 milhões de IOPS para leituras aleatórias de blocos de tamanho típico (4 KB ou 512 B) em workloads de data center. A meta de 100 milhões de IOPS representa um salto de ~30-33 vezes acima do que se vê hoje.

Como planejam atingir isso

NVIDIA
Imagem: Reprodução/NVIDIA

O objetivo é fazer uso de memória XL-Flash (variante de SLC NAND) com muitos planos (planes) para permitir paralelismo extremo.

Além disso, está prevista também a integração de interfaces de alta velocidade, como PCIe 7.0, com conexão direta SSD-GPU em modo peer-to-peer, para reduzir latência de passagem pelos componentes intermediários do sistema (como CPU).

Um possível uso de arquiteturas com múltiplos controladores ou módulos de SSD que trabalham em conjunto para distribuir a carga de I/O não está descartado. Entretanto, a escalabilidade será um desafio tecnológico (controlador, firmware, overheads, canal de NAND etc.) para atingir linearmente os 100 milhões de IOPS.

Desafios e incertezas

Embora existam anúncios e trabalhos em andamento, há várias incógnitas, tais como:

  • Consumo de energia e calor: SSDs que operam com esse tipo de desempenho extremo tendem a aquecer muito e exigir sistemas de refrigeração e design de energia muito eficientes

  • Custo: será caro produzir memórias com muitos planos, muitos díes, controladores robustos, interface moderna. Se o custo for muito alto, a adoção pode ficar restrita a nichos

  • Latência real versus ideal: em laboratório ou em condições ideais, talvez atingam os 100 milhões, mas em uso real com cargas variáveis, múltiplos acessos concorrentes, falhas, overheads, etc., pode ficar bem abaixo

  • Compatibilidade e integração: servidores precisam ser projetados para tirar proveito da conexão SSD-GPU peer-to-peer, bem como do novo padrão de interface (PCIe 7.0 ou equivalente). Isso exige investimento na cadeia inteira

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
0
Adoraria saber sua opinião, comente.x