A Computação de Alto Desempenho (HPC) refere-se à prática de agregar poder de computação de uma forma que oferece potência muito maior do que os computadores e servidores tradicionais. HPC ou supercomputação, é como a computação cotidiana, só que mais poderosa. É uma forma de processar grandes volumes de dados em velocidades muito altas usando vários computadores e dispositivos de armazenamento como uma estrutura coesa. A HPC torna possível explorar e encontrar respostas para alguns dos maiores problemas mundiais em ciência, engenharia e negócios.
Hoje, a HPC é usada para resolver problemas complexos e que exigem alto desempenho, e as organizações estão cada vez mais migrando cargas de trabalho de HPC para a nuvem. A HPC na nuvem está mudando a economia de desenvolvimento e pesquisa de produtos porque requer menos protótipos, acelera os testes e reduz o tempo de comercialização.
Algumas cargas de trabalho, como sequenciamento de DNA, são simplesmente imensas para serem processadas por um único computador. Os ambientes de HPC ou de supercomputação abordam esses desafios grandes e complexos com nós individuais (computadores) trabalhando juntos em um cluster (grupo conectado) para realizar grandes quantidades de computação em um curto período de tempo. A criação e a remoção desses clusters costumam ser automatizadas na nuvem para reduzir custos.
A HPC pode ser executada em muitos tipos de cargas de trabalho, mas os dois mais comuns são cargas de trabalho embaraçosamente paralelas e cargas de trabalho fortemente acopladas.
São problemas computacionais divididos em tarefas pequenas, simples e independentes que podem ser executadas ao mesmo tempo, geralmente com pouca ou nenhuma comunicação entre elas. Por exemplo, uma empresa pode enviar 100 milhões de registros de cartão de crédito para núcleos de processador individuais em um cluster de nós. Processar um registro de cartão de crédito é uma tarefa pequena e, quando 100 milhões de registros estiverem espalhados pelo cluster, essas pequenas tarefas podem ser executadas ao mesmo tempo (em paralelo) em velocidades surpreendentes. Casos de uso comuns incluem simulações de risco, modelagem molecular, pesquisa contextual e simulações de logística.
Em geral, utilize uma carga de trabalho compartilhada grande e divida-a em tarefas menores que se comunicam continuamente. Em outras palavras, os diferentes nós no cluster se comunicam uns com os outros enquanto executam seu processamento. Casos de uso comuns incluem dinâmica de fluidos computacional, modelagem de previsão do tempo, simulações de materiais, emulações de colisão de automóveis, simulações geoespaciais e gerenciamento de tráfego.
A HPC tem sido uma parte crítica da pesquisa acadêmica e inovação do setor por décadas. A HPC ajuda engenheiros, cientistas de dados, designers e outros pesquisadores a resolver problemas grandes e complexos em muito menos tempo, e com menos custo do que a computação tradicional.
Os principais benefícios da HPC são:
As empresas Fortune 1000 em quase todos os setores empregam HPC e sua popularidade está crescendo. De acordo com a Hyperion Research, o mercado global de HPC deverá atingir US$ 44 bilhões até 2022.
A seguir estão alguns dos setores que usam HPC e os tipos de cargas de trabalho que a HPC os ajuda a realizar:
A HPC pode ser executada no local, na nuvem ou em um modelo híbrido que envolve um pouco de cada um.
Em uma implementação de HPC on-premise, uma empresa ou instituição de pesquisa constrói um cluster HPC cheio de servidores, soluções de armazenamento e outra infraestrutura que gerencia e atualiza com o tempo. Em uma implementação de HPC na nuvem, um provedor de serviços de nuvem administra e gerencia a infraestrutura, e as organizações a usam em um modelo Pay-as-you-go.
Algumas organizações usam implantações híbridas, especialmente aquelas que investiram em uma infraestrutura local, mas também desejam aproveitar a velocidade, a flexibilidade e a economia de custos da nuvem. Eles podem usar a nuvem para executar algumas cargas de trabalho de HPC em uma base contínua e recorrer a serviços em nuvem em uma base ad hoc, sempre que o tempo de fila se tornar um problema local.
As organizações com ambientes de HPC on-premises ganham grande controle sobre suas operações, mas devem enfrentar vários desafios, incluindo
Em parte devido aos custos e outros desafios de ambientes locais, as implantações de HPC baseadas em nuvem estão se tornando mais populares, com a Market Research Future antecipando um crescimento de mercado mundial de 21% de 2017 a 2023. Quando as empresas executam suas cargas de trabalho de HPC na nuvem, eles pagam apenas pelo que usam e podem aumentar ou diminuir rapidamente conforme suas necessidades mudam.
Para conquistar e reter clientes, os principais provedores de nuvem mantêm tecnologias de ponta que são especificamente arquitetadas para cargas de trabalho de HPC, para que não haja perigo de desempenho reduzido conforme o equipamento local envelhece. Os provedores de nuvem oferecem as CPUs e GPUs mais recentes e mais rápidas, bem como armazenamento flash de baixa latência, redes RDMA ultrarrápidas e segurança de classe empresarial. Os serviços estão disponíveis o dia todo, todos os dias, com pouco ou nenhum tempo na fila.
Nem todos os provedores de nuvem são criados iguais. Algumas nuvens não são projetadas para HPC e não podem fornecer desempenho ideal durante os períodos de pico de cargas de trabalho exigentes. As quatro características a serem consideradas ao selecionar um provedor de nuvem são
Geralmente, é melhor procurar serviços em nuvem bare metal que oferecem mais controle e desempenho. Combinado com a rede de cluster RDMA, a HPC bare metal fornece resultados idênticos aos que você obtém com hardware semelhante no local.
Empresas e instituições em vários setores estão recorrendo à HPC, impulsionando um crescimento que deve continuar por muitos anos. Espera-se que o mercado global de HPC se expanda de US$ 31 bilhões em 2017 para US$ 50 bilhões em 2023. À medida que o desempenho da nuvem continua a melhorar e se torna ainda mais confiável e poderoso, grande parte desse crescimento deve ocorrer em implantações de HPC baseadas em nuvem que aliviam as empresas da necessidade de investir milhões em infraestrutura de data center e custos relacionados.
Em um futuro próximo, espere ver big data e HPC convergindo, com o mesmo grande cluster de computadores usado para analisar big data e executar simulações e outras cargas de trabalho de HPC. Conforme essas duas tendências convergem, o resultado será mais poder de computação e capacidade para cada uma, levando a pesquisas e inovações ainda mais inovadoras.
i Earl Joseph, Steve Conway, Bob Sorensen, Alex Norton. Hyperion Research Update: ISC19. https://hyperionresearch.com/wp-content/uploads/2019/06/Hyperion-Research-ISC19-Breakfast-Briefing-Presentation-June-2019.pdf