As empresas estão cada vez mais tendo que lidar com volumes crescentes de dados, alimentando a demanda por análises avançadas e ferramentas de aprendizado de máquina para ajudá-las a entender e processar tudo.
Isso, por sua vez, impõe novos requisitos à infraestrutura de TI para lidar com as demandas computacionais de tais técnicas.
Como resultado, as cargas de trabalho corporativas estão evoluindo além das tradicionais que giram em torno de conjuntos de dados estruturados e processamento de transações e estão começando a incorporar análises e outras técnicas, como inteligência artificial (IA).
De acordo com o IDC, a IA será um componente central das cargas de trabalho corporativas em 2024. A empresa de consultoria especializada em pesquisa de mercado acredita que, para três quartos das empresas, 20% de suas cargas de trabalho serão baseadas ou habilitadas para IA, e 15% da TI a infraestrutura será acelerada pela IA.
No entanto, as empresas estão descobrindo que a integração de análises avançadas e técnicas de IA, incluindo aprendizado de máquina, em cargas de trabalho pode sobrecarregar sua infraestrutura de TI.
A existência de linhas paralelas
As arquiteturas de unidade central de processamento (CPU) tradicionais, em particular, têm se mostrado aquém do ideal para algumas dessas técnicas, que geralmente exigem um alto grau de paralelismo.
Rapidamente ficou claro que esse era o tipo de problema com o qual as unidades de processamento gráfico (GPUs) podiam lidar. Projetadas para aliviar a carga de processamento gráfico da CPU em jogos, as GPUs têm muitos núcleos de processador relativamente simples e podem lidar com um grande número de cálculos em paralelo.
Outros aceleradores de hardware também foram adicionados à mistura, como matrizes de portas programáveis em campo (field programmable gate arrays – FPGAs) e circuitos integrados específicos de aplicativos (application-specific integrated circuits – ASICs), todos os quais têm seus pontos fortes variados quando se trata de acelerar cargas de trabalho.
Esses aceleradores são normalmente conectados a um servidor padrão e funcionam em conjunto com os núcleos de processador existentes. Isso é conhecido como computação heterogênea e, para funcionar melhor, requer integração cuidadosa dos diferentes tipos de mecanismos de computação em um sistema para fornecer desempenho ideal.
Um bom exemplo de um sistema tão heterogêneo é a linha DGX da Nvidia. Esses produtos combinam os processadores Intel com várias GPUs da Nvidia em um sistema voltado diretamente para o aprendizado profundo (Deep Learning) e outras cargas de trabalho exigentes de IA e computação de alto desempenho (High-Performance Computing – HPC).
O uso de uma infraestrutura heterogênea
Uma resposta a esse desafio pode vir na forma de uma infraestrutura composta, uma arquitetura de sistema que desagrega parte do hardware de um servidor tradicional em pools de recursos.
O pensamento por trás desse conceito é que os recursos apropriados podem ser reunidos sob o controle do software para fornecer um sistema que corresponda precisamente aos requisitos da carga de trabalho que deve operar.
Com os sistemas existentes, o número de processadores e outros recursos, como memória e armazenamento, é amplamente fixo ou não é fácil de alterar como e quando necessário. Isso normalmente leva a uma utilização abaixo do ideal, com sistemas tendo mais recursos do que o necessário para a carga de trabalho.
A capacidade de compor um sistema sob demanda a partir de um pool compartilhado de recursos deve significar que hardware caro, como GPUs ou FPGAs, pode ser compartilhado em um banco de sistemas e alocado como e quando necessário, em vez de ser instalado permanentemente em cada sistema que possa precisar para executar uma carga de trabalho que precisa de um acelerador.
Essa flexibilidade de infraestrutura combinável significa que pode ser uma opção atraente para organizações que buscam a melhor plataforma para suportar cargas de trabalho novas e emergentes que incorporam abordagens como análise de big data e aprendizado de máquina.
As novas cargas de trabalho se alinham muito melhor com a infraestrutura combinável, pois permite que você dimensione as configurações de hardware conforme os requisitos de carga de trabalho mudam e evoluem.
Além disso, o uso de componentes de alto custo está conduzindo os requisitos para uma melhor utilização e otimização contínua dos recursos de hardware, que é um dos benefícios exclusivos da infraestrutura complexa.
Sobre New Route
New Route é uma empresa especializada em infraestrutura de TI moderna. Utilizamos tecnologias da Computação de Alto Desempenho (HPC) e Inteligência Artificial (IA) para trazer maior insight e melhores resultados aos projetos de pesquisa científica em diversas áreas.
Soluções personalizadas com um portfólio de ponta a ponta que inclui estações de trabalho, servidores, supercomputadores, armazenamento, redes, software, sistemas e serviços. Nossa atuação vai desde o planejamento e arquitetura da solução, até a instalação, deployment e suporte técnico local. New Route, há mais de 25 anos apoiando cientistas brasileiros a realizarem desc