Como solucionar erros de “Out of memory” na implantação
Conheça as possíveis causas de erros “Out of memory” na implantação de pipeline e como corrigi-los adequadamente.
Atualizado
Isto foi útil?
Conheça as possíveis causas de erros “Out of memory” na implantação de pipeline e como corrigi-los adequadamente.
Atualizado
Isto foi útil?
O erro de falta de memória, “Out of Memory”, ocorre quando o pipeline tenta consumir mais memória do que foi alocada durante a implantação.
A primeira etapa para resolver esse problema é encontrar sua causa analisando os logs de execução do pipeline com falha. A sobrecarga de memória pode ter acontecido por:
fazer consultas em uma grande quantidade de dados sem paginação em uma solicitação HTTP, um banco de dados ou ao baixar e ler um arquivo na memória;
executar muitas execuções simultâneas;
usar o componente Session Management para armazenar dados e não limpá-lo após a leitura.
Para atualizar o para uma possível nova versão, a primeira coisa que você precisa fazer é reimplantar o pipeline (reciclagem do pipeline). .
Isso pode acontecer porque a Digibee Integration Platform atualiza regularmente sua infraestrutura. Parte desta atualização é reciclar os computadores que oferecem suporte à infraestrutura.
Os erros de “Out of memory” também podem ser resolvidos por paginação e/ou uma arquitetura orientada a eventos. A paginação permite que você processe dados em partes, em vez de tudo de uma só vez.
Implementar uma arquitetura orientada a eventos significa usar o pipeline principal para recuperar dados e criar um loop que passa por esses dados e chama um segundo pipeline que possui um .
Após os ajustes necessários no pipeline, reimplante novamente no ambiente de teste.
Os consumidores compartilham a memória disponível no contêiner. Ou seja, quanto mais consumidores, menos memória disponível para cada um. É recomendável adicionar novas réplicas a esse pipeline para fluir o processo.
Após fazer os ajustes necessários no pipeline, reimplante-o no ambiente de teste. Se o erro persistir, aumente o Tamanho da implantação do pipeline.
Uma boa prática para reduzir o risco de sobrecarga ou falta de memória é a limpeza do componente Session Management, que salva os dados depois de lê-los. Para realizar esta ação, configure a função DELETE nas operações do componente.
Dessa forma, você divide a carga de memória e cria um fluxo de integração escalável que funciona com conjuntos de dados pequenos e grandes.
Um pipeline SMALL com 2 réplicas tem o dobro do desempenho de processamento e escalabilidade e assim por diante. As réplicas não apenas fornecem mais poder de processamento e escalabilidade, mas também garantem maior disponibilidade - se uma das réplicas falhar, haverá outras para assumir. .
Assim, após o componente enviar a mensagem como resposta final, é possível limpar os dados armazenados após a leitura com a operação DELETE caso este componente seja a última etapa do pipeline.