Saltar para o conteúdo

El Capitan estabelece recorde com simulação CFD de plumas de escape de foguetão

Homem a analisar simulações digitais de foguete em três ecrãs num laboratório tecnológico moderno.

Investigadores nos Estados Unidos levaram a computação de alto desempenho para um novo patamar ao recorrerem ao supercomputador El Capitan para executar uma simulação de altíssimo detalhe de plumas de escape de foguetões. A execução bate um recorde mundial em dinâmica de fluidos computacional (CFD) e aponta para uma via alternativa de conceber motores muito antes de existir qualquer componente metálico.

Um teste de foguetão que existe apenas em código

O trabalho juntou equipas da Georgia Tech, do Instituto Courant da Universidade de Nova Iorque e do Laboratório Nacional Lawrence Livermore. Em vez de realizarem um único ensaio de fogo real num motor, modelaram um “bosque” denso de bocais a disparar em simultâneo, numa lógica semelhante à dos motores agrupados no propulsor Super Heavy da SpaceX.

O foco não foi um jacto de gás perfeito e bem comportado. Pelo contrário, procurou-se reproduzir o que normalmente dá dores de cabeça aos engenheiros: turbulência em rotação, ondas de pressão ensurdecedoras, choques a interagirem entre plumas vizinhas e gradientes de temperatura muito abruptos, tudo em três dimensões.

Para montar este laboratório digital, os investigadores apoiaram-se num código de fonte aberta chamado MFC, optimizado para escoamentos compressíveis e instabilidades violentas. A seguir, colocaram o El Capitan a trabalhar, tratando a nuvem de escape como uma grelha 3D dinâmica de problemas físicos, cada um resolvido e actualizado em sincronismo.

"Pela primeira vez, uma única simulação acompanhou mais de um quatrilião de variáveis independentes num único problema de dinâmica de fluidos e terminou em horas em vez de semanas."

O que significam, na prática, 500 quatriliões de graus de liberdade

Em ciência computacional, “graus de liberdade” indicam quantos valores independentes um modelo pode ajustar enquanto corre. Cada pequena célula de um campo de escoamento virtual pode transportar variáveis como velocidade, pressão, densidade, temperatura, entre outras.

Neste caso, a simulação lidou com cerca de 500 quatriliões de graus de liberdade. Na prática, isto corresponde a centenas de biliões de pontos individuais dentro da pluma de escape, com múltiplas grandezas a evoluírem no tempo. A cada avanço do relógio simulado, a máquina teve de actualizar todos esses valores, mantendo consistentes as equações subjacentes do movimento dos fluidos.

Há dez anos, uma resolução deste nível seria pouco realista, mesmo em laboratórios nacionais. Só a memória necessária teria bloqueado a maioria das máquinas. Os autores estimam que, sem novos algoritmos e sem hardware exaescala, uma execução semelhante poderia arrastar-se durante semanas ou nem sequer caber em memória.

No El Capitan, a tarefa ficou concluída em poucas horas de tempo de execução real. Essa rapidez altera a forma de pensar na engenharia: em vez de encarar simulações de alta fidelidade como acontecimentos raros, torna-se plausível executar famílias inteiras de cenários, ajustando a geometria ou a mistura de propelente entre execuções.

Dentro do El Capitan, o supercomputador: um bosque denso de chips

O El Capitan está instalado no Laboratório Nacional Lawrence Livermore e lidera actualmente a classificação Top500 dos supercomputadores mais potentes do mundo. Integra o grupo restrito de sistemas exaescala, capazes de efectuar mais de mil milhões de milhões de operações de vírgula flutuante por segundo.

A força do hardware por trás do recorde

A máquina inclui 11,136 nós de computação baseados nos processadores acelerados AMD Instinct MI300A, que combinam capacidades de CPU e GPU no mesmo encapsulamento. Para esta simulação das plumas, a equipa distribuiu o trabalho por mais de 44,500 unidades de computação.

A comparação com abordagens anteriores de referência, para problemas semelhantes, é marcada:

  • cerca de 80× mais rápido no tempo até obter resultado
  • aproximadamente 25× menos memória consumida
  • por volta de 5× menos energia para o mesmo nível de detalhe físico

Estes ganhos não resultam apenas de força bruta. Dependem, sobretudo, da capacidade do software em manter os chips ocupados com trabalho útil, em vez de os deixar à espera enquanto os dados atravessam as interligações internas do sistema.

Onde o El Capitan se posiciona na corrida global

Este recorde surge num cenário competitivo. Em novembro de 2025, os sistemas exaescala concentram-se no topo das tabelas globais:

Posição Supercomputador Desempenho Rmax País Instituição
1 El Capitan ≈ 1.742 exaFLOPS Estados Unidos Laboratório Nacional Lawrence Livermore
2 Frontier ≈ 1.353 exaFLOPS Estados Unidos Laboratório Nacional de Oak Ridge
3 Aurora ≈ 1.012 exaFLOPS Estados Unidos Laboratório Nacional de Argonne
4 JUPITER ≈ 1.000 exaFLOPS União Europeia Centro de Supercomputação de Jülich
5 Eagle ≈ 561 petaFLOPS Estados Unidos Microsoft Azure

Embora cada plataforma esteja orientada para cargas de trabalho ligeiramente distintas, todas partilham a mesma pressão: provar que a escala se traduz em avanços científicos reais, e não apenas em resultados de “benchmark”. O resultado nas plumas de foguetão é um exemplo concreto nesse sentido.

"Em vez de apenas liderar gráficos de desempenho, o El Capitan passa agora a sustentar um resultado concreto: uma simulação de fluidos que muitos especialistas teriam considerado impraticável há apenas alguns anos."

Uma nova forma de dominar ondas de choque e turbulência

A dimensão, por si só, não bastou para tornar a execução viável. A equipa introduziu também um método matemático chamado Regularização Geométrica da Informação, ou IGR. Criado por Spencer Bryngelson (Georgia Tech), Florian Schäfer (Universidade de Nova Iorque) e Ruijia Cao (Cornell), o IGR procura estabilizar escoamentos violentos sem “alisar” os pormenores que realmente interessam aos engenheiros.

Esquemas numéricos tradicionais tendem a sofrer quando ondas de choque se cruzam, como acontece em plumas de foguetões com motores agrupados. Podem gerar oscilações espúrias ou obrigar a reduzir o passo temporal e o espaçamento da grelha até a computação se tornar demasiado lenta.

O IGR acrescenta uma camada adicional de controlo às equações. Ao mesmo tempo que amortiza ondulações não físicas, preserva gradientes acentuados de pressão e densidade. Esse equilíbrio permite à simulação avançar de forma estável em grelhas enormes, sem “explodir” numericamente nem perder picos e vales que alimentam efeitos como as cargas acústicas sobre a estrutura do foguetão.

Como o método se integra de perto com o MFC, também ajuda a manter o consumo de memória sob controlo. Esta combinação de estabilidade e eficiência foi decisiva para ultrapassar o patamar de um quatrilião de graus de liberdade.

O que isto altera para foguetões e para outras áreas

De ensaios raros a “túneis de vento digitais”

Testar motores de foguetões no mundo real continua a ser caro, ruidoso e arriscado. Um único ensaio estático exige infra-estruturas especializadas, medidas de segurança exigentes, propelente e uma equipa de testes considerável. Se algo falhar, o hardware pode ficar danificado e o programa pode recuar semanas.

Modelos numéricos de alta fidelidade não substituem totalmente os bancos de ensaio, mas mudam o equilíbrio. Com esta capacidade, os engenheiros podem:

  • avaliar conceitos de design virtualmente antes de se comprometerem com hardware
  • explorar cenários de pior caso que seriam perigosos de reproduzir fisicamente
  • analisar eventos raros, como ressonâncias acústicas destrutivas, através de muitas variantes
  • ajustar padrões de injectores e geometrias de bocais com muito mais visão sobre interacções entre plumas

Uma empresa a desenvolver um lançador pesado, por exemplo, pode executar séries de simulações ao nível do El Capitan para conjuntos de motores agrupados em diferentes regimes de aceleração. Depois, consegue reduzir a campanha física a um pequeno número de configurações promissoras, em vez de dezenas.

Sectores que poderão beneficiar a seguir

Escoamentos turbulentos complexos surgem em muitos contextos sem ligação a foguetões. As técnicas demonstradas aqui podem transitar para:

  • aeronáutica, ao prever vibração aerodinâmica, vórtices nas pontas das asas e ruído de jactos perto de aeroportos
  • acústica urbana, para perceber como o som se propaga entre edifícios e barreiras
  • biomecânica, em que o sangue a atravessar artérias ramificadas pode comportar-se de forma surpreendentemente turbulenta
  • diagnóstico médico, como o escoamento de ar em pulmões danificados ou a dinâmica de aerossóis em salas hospitalares

Nestes domínios, os dados experimentais são muitas vezes limitados, seja porque as medições são invasivas, seja porque construir modelos físicos à escala é demasiado caro. Simulações de alta resolução oferecem outra via para ganhar compreensão - desde que se possa confiar que a numérica representa a realidade com rigor suficiente.

Porque estas simulações ainda levantam desafios

Mesmo com desempenho exaescala, a modelação exige escolhas delicadas. Em cada simulação é necessário decidir que processos físicos seguir com detalhe e quais aproximar. A química do escape de foguetão, por exemplo, pode envolver dezenas de espécies e percursos de reacção, cada um com a sua escala temporal. Capturar tudo com fidelidade total ultrapassaria a capacidade de qualquer máquina existente.

Por isso, os investigadores constroem modelos reduzidos para química, turbulência e radiação. Essas simplificações têm de ser validadas continuamente face a experiências e a simulações mais pequenas. Se houver discrepâncias, é possível obter imagens visualmente impressionantes que não correspondem, de facto, ao hardware que pretendem imitar.

O custo energético das execuções exaescala também merece atenção. Mesmo com ganhos de eficiência, colocar dezenas de milhares de processadores a funcionar a plena carga durante horas consome tanta electricidade quanto uma pequena cidade. Essa realidade incentiva arquitectos de computadores a apostar em aceleradores mais eficientes e em escalonamento mais inteligente, para que corridas a recordes não se tornem passivos ambientais.

Conceitos-chave por trás das manchetes

Para quem chega a este tema fora da ciência computacional, alguns termos ajudam a enquadrar o que aconteceu.

Computação exaescala. O termo designa sistemas capazes de realizar pelo menos 1018 operações de vírgula flutuante por segundo. Chegar a esta escala exigiu novos desenhos de chips, redes internas mais rápidas e soluções mais avançadas de arrefecimento, energia e distribuição eléctrica.

Dinâmica de fluidos computacional (CFD). Esta disciplina transforma as equações do movimento dos fluidos em problemas discretos que um computador resolve numa malha ou grelha. Cada aumento de resolução multiplica o número total de equações. Escoamentos altamente turbulentos precisam de grelhas especialmente finas, o que explica a necessidade de máquinas massivas como o El Capitan.

Graus de liberdade. Aqui, a expressão quantifica quantos valores independentes a simulação acompanha. Um número maior permite capturar vórtices mais pequenos, choques mais nítidos e interacções mais ricas, mas multiplica também a carga de cálculo.

O trabalho futuro deverá empurrar estes números ainda mais para cima, ou distribuí-los por vários supercomputadores a colaborar em paralelo. Em simultâneo, muitos investigadores querem combinar técnicas como o IGR com modelos orientados por dados, para que partes do escoamento sejam previstas por redes treinadas em vez de serem resolvidas directamente em todo o lado.

Por agora, o recorde resulta de uma combinação cuidadosamente afinada de hardware, algoritmos e conhecimento do domínio - e de uma ideia simples com consequências amplas: se for possível simular, in silico, uma pluma à escala real de um foguetão, torna-se possível repensar a forma como se desenha tudo o que se move, vibra ou escoa através do ar e do espaço.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário