Saltar para o conteúdo

Em tarefas de quebra de palavras-passe, a GeForce RTX 5090 superou aceleradores de IA muito mais caros

Computador de secretária com ventoinhas RGB, portátil com ecrã a mostrar "password cracked" e teclado mecânico num escritório

Ускорители для ИИ слишком специализированы

Pôr à prova aceleradores de IA fora do seu “habitat natural” pode trazer surpresas. Foi isso que a Specops fez ao medir o desempenho de hardware pensado para grandes modelos de linguagem numa tarefa bem diferente: a força bruta para descobrir palavras-passe. Para o teste, juntaram a Nvidia H200 e a AMD Instinct MI300X e, para comparação, uma GeForce RTX 5090.

Para ter um retrato mais completo, os autores passaram por cinco algoritmos de hashing populares - MD5, NTLM, bcrypt, SHA-256 e SHA-512 - usando o Hashcat, uma ferramenta criada para recuperar palavras-passe a partir de hashes armazenados num ficheiro, frequentemente usada como ponto de partida. O mesmo software é também utilizado por atacantes para automatizar a quebra de palavras-passe.

O resultado foi que o acelerador da AMD superou a H200 em quatro dos cinco cenários, sempre com uma vantagem bem visível. Ainda assim, nos cinco testes a mais rápida foi a GeForce RTX 5090, e quase sempre com uma margem clara face ao melhor acelerador de IA.

Os autores explicam os resultados desta forma:

A quebra de palavras-passe costuma basear-se em operações com inteiros de 32 bits (INT32). Para encontrar uma correspondência, o hardware precisa de gerar uma tentativa, aplicar o hash e comparar. Este processo não ganha nada com otimizações para operações de vírgula flutuante.

No entanto, os aceleradores de IA são desenhados para uma carga de trabalho muito específica e estreita: grandes modelos de linguagem.

  • Operações SIMD largas (Single Instruction, Multiple Data): são feitas para executar SIMD sobre grandes blocos de dados.
  • Tipos de dados minúsculos: usam operações matemáticas “pequenas” (vírgula flutuante FP4, FP8 ou FP16) para encaixar o máximo de dados possível em cada cálculo. Isso permite empacotar um enorme volume de valores em operações vetoriais, tornando as contas matriciais extremamente eficientes em grandes conjuntos de dados.
  • A memória importa mais do que a computação: sacrificam flexibilidade geral a favor de memória de alta velocidade, para evitar “latência” ao ir buscar dados ao armazenamento.

Imagine um acelerador de IA como uma bicicleta de corrida profissional. Tira tudo o que não interessa para um objetivo: andar depressa em longas distâncias. Se tentar usá-la para transportar compras ou para circular em terreno irregular (“computação geral” em tarefas de quebra de palavras-passe), vai ter piores resultados do que uma bicicleta normal (por exemplo, a RTX 5090).

No fundo, os aceleradores de IA trocam flexibilidade por especialização.

Os autores também sublinham que, apesar do aumento da potência de computação nas soluções de consumo, as palavras-passe, por si só, não ficaram ultrapassadas. Simplesmente, como sempre, precisam de ser suficientemente complexas.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário