Digibee Documentation
Solicitar documentaçãoAgendar demo
Português
Português
  • Primeiros passos
  • Destaques
    • Release notes
      • Release notes 2025
        • Maio
        • Abril
        • Março
        • Fevereiro
        • Janeiro
      • Release notes 2024
        • Dezembro
        • Novembro
        • Outubro
        • Setembro
        • Agosto
          • Lançamento de conectores 20/08/2024
        • Julho
        • Junho
        • Maio
        • Abril
        • Março
        • Fevereiro
        • Janeiro
      • Release notes 2023
        • Dezembro
        • Novembro
        • Outubro
        • Setembro
        • Agosto
        • Julho
        • Junho
        • Maio
        • Abril
        • Março
        • Fevereiro
        • Janeiro
      • Release notes 2022
        • Dezembro
        • Novembro
        • Outubro
        • Setembro
        • Agosto
        • Julho
        • Junho
        • Maio
        • Abril
        • Março
        • Fevereiro
        • Janeiro
      • Release notes 2021
      • Release notes 2020
    • AI Pair Programmer
    • Digibeectl
      • Comece a usar
        • Como instalar o Digibeectl no Windows
      • Digibeectl sintaxe
      • Operações do Digibeectl
  • Digibee em ação
    • Casos Práticos de Uso
      • Melhorando o desempenho de integrações com paginação de API
      • Automatize o armazenamento de arquivos com a Digibee
      • Estratégia de reprocessamento em integrações orientadas a eventos
      • Práticas essenciais para proteger informações sensíveis em pipelines com a Digibee
      • OAuth2 para acesso seguro a APIs
      • Proteja suas APIs com JWT na Digibee
      • Melhores práticas de integração para desenvolvedores na Digibee Integration Platform
      • Como usar Arquitetura orientada a eventos na Digibee Integration Platform
      • Download dinâmico de arquivos com a Digibee
      • Microsserviços: Padrão Circuit Breaker para melhorar a resiliência
      • Estratégia de tratamento de erros em integrações orientadas a eventos
    • Solução de problemas
      • Orientações para integrações
        • Como resolver problemas comuns em pipelines
        • Como resolver o Erro 409: “You cannot update a pipeline that is not on draft mode”
        • Como resolver o erro "Pipeline execution was aborted"
        • Autenticação integrada com o Microsoft Entra ID
        • Como resolver o erro "Failed to initialize pool: ONS configuration failed"
        • Como executar o mapeamento de endereços IP com o banco de dados Progress
        • Como construir fluxos de integração que enviam notificações de erro
        • Como enviar logs para serviços externos
        • Como o JSONPath difere nos conectores e no Painel de execução
        • Usando JSONPath para validar números com dígitos iniciais específicos
        • Como analisar o erro “Network error: Failed to fetch” no Painel de execução
        • Como trabalhar com requisições de payloads superiores a 5MB
        • Como configurar o Microsoft Entra ID para exibir grupos na Digibee Integration Platform
        • Como montar uma mensagem HL7
      • Comportamento e configuração de conectores
        • Timeout no conector Pipeline Executor
        • Como usar DISTINCT e COUNT no Object Store
        • Entendendo o @@DGB_TRUNCATED@@ na Digibee Integration Platform
        • Como resolver nomes sem DNS - REST, SOAP, SAP (web protocols)
        • Como ler e escrever arquivos dentro de pastas
        • AuthToken Reuse para conector Salesforce
        • Como resolver o erro "Invalid payload" na integração de API
        • Bancos de dados suportados
          • Funções e utilidades para banco de dados
      • Implementação e exemplos de uso de conectores
        • Google Storage: Cenários de uso
        • DB V2: Cenários de uso
        • For Each: Exemplo de uso
        • Template e suas utilizações
        • Implementação do Digibee JWT
        • Email V1: Exemplos de uso (Descontinuado)
      • Aplicações do JOLT
        • Transformer: Conhecendo o JOLT
        • Transformer: Transformações com JOLT
        • Transformer: Adicionar valores aos elementos da lista
        • Transformer: Visão geral das operations
        • Transformer: Formatação de datas utilizando split e concat
        • Transformer: Lógica IF-ELSE simples com JOLT
      • Dicas de acesso e desempenho da Plataforma
        • Como resolver problemas para fazer o login na Digibee Integration Platform
        • Como receber atualizações da Status Page da Digibee
        • Como executar a limpeza de cache da Digibee Integration Platform
      • Orientações sobre governança e solução de problemas
        • Como consumir pipelines com Internal API usando ZTNA
        • Como usar a API Interna com ou sem uma VPN
        • Como gerar, converter e cadastrar SSH Keys
        • Autenticação mTLS
          • Como configurar o mTLS na Digibee Integration Platform
          • Perguntas frequentes: Certificados no mTLS
        • Como conectar a Digibee ao Oracle RAC
        • Como conectar a Digibee à SAP
        • Como conectar a Digibee ao MongoDB Atlas usando VPN
        • Como gerenciar IPs na Digibee Integration Platform
        • Configurando Account Dropbox
        • Como usar sua conta do Gmail com o componente de e-mail Digibee (SMTP)
        • Como utilizar a política CORS na Digibee Integration Platform
      • Cenários de implantação
        • Como solucionar erros de “Out of memory” na implantação
        • Aviso de conflito de rotas
    • Boas práticas
      • Boas práticas para a construção de um pipeline
      • Boas práticas ao validar mensagens em um pipeline consumer
      • Evitando loops e maximizando a eficiência dos pipelines
      • Nomenclatura: Global, Contas (Accounts) e Consumers (Chaves de API)
      • Tutorial de paginação
        • Tutorial de paginação - parte 1
        • Tutorial de paginação - parte 2
        • Tutorial de paginação - parte 3
        • Tutorial de paginação - parte 4
      • Exemplos de paginação
      • Arquitetura orientada a eventos
      • Modelo de notificação em integrações orientadas a eventos
      • Modelo de integração OAuth2 com a Digibee
      • Boas práticas para tratamento de erros em pipelines
    • Digibee Academy
      • Integration Developer Bootcamp
  • Guias de referência
    • Conectores
      • AWS
        • S3 Storage
        • SQS
        • AWS Secrets Manager
        • AWS Athena
        • AWS CloudWatch
        • AWS Elastic Container Service (ECS)
        • AWS Eventbridge
        • AWS Identity and Access Management (IAM)
        • AWS Kinesis
        • AWS Kinesis Firehose
        • AWS Key Management Service (KMS)
        • AWS Lambda
        • AWS MQ
        • AWS Simple Email Service (SES)
        • AWS Simple Notification System (SNS)
        • AWS Security Token Service (STS)
        • AWS Translate
      • Azure
        • Azure CosmosDB
        • Azure Event Hubs
        • Azure Key Vault
        • Azure ServiceBus
        • Azure Storage Datalake Service
        • Azure Storage Queue Service
      • Enterprise applications
        • SAP
        • Salesforce
        • Braintree
        • Facebook
        • GitHub
        • Jira
        • ServiceNow
        • Slack
        • Telegram
        • Twillio
        • WhatsApp
        • Wordpress
        • Workday
        • Zendesk
      • File storage
        • Blob Storage (Azure)
        • Digibee Storage
        • Dropbox
        • FTP
        • Google Drive
        • Google Storage
        • OneDrive
        • SFTP
        • WebDav V2
        • WebDav (Descontinuado)
      • Files
        • Append Files
        • Avro File Reader
        • Avro File Writer
        • CSV to Excel
        • Excel
        • File Reader
        • File Writer
        • GZIP V2
        • GZIP V1 (Descontinuado)
        • Parquet File Reader
        • Parquet File Writer
        • Stream Avro File Reader
        • Stream Excel
        • Stream File Reader
        • Stream File Reader Pattern
        • Stream JSON File Reader
        • Stream Parquet File Reader
        • Stream XML File Reader
        • XML Schema Validator
        • ZIP File
        • NFS
      • Flow
        • Delayer
      • Google/GCP
        • Google BigQuery
        • Google BigQuery Standard SQL
        • Google Calendar
        • Google Cloud Functions
        • Google Mail
        • Google PubSub
        • Google Secret Manager
        • Google Sheets
      • Industry solutions
        • FHIR (Beta)
        • Gupy Public API
        • HL7
        • HubSpot: Sales e CMS
        • Mailgun API
        • Oracle NetSuite (Beta)
        • Orderful
        • Protheus: Billing e Inventory of Cost
      • Logic
        • Block Execution
        • Choice
        • Do While
        • For Each
        • Retry
        • Parallel Execution
      • Queues and messaging
        • Event Publisher
        • JMS
        • Kafka
        • RabbitMQ
      • Security
        • AES Cryptography
        • Asymmetric Cryptography
        • CMS
        • Digital Signature
        • JWT (Descontinuado)
        • JWT V2
        • Google IAP Token
        • Hash
        • Digibee JWT (Generate and Decode)
        • LDAP
        • PBE Cryptography
        • PGP
        • RSA Cryptography
        • Symmetric Cryptography
      • Structured data
        • CassandraDB
        • DB V2
        • DB V1 (Descontinuado)
        • DynamoDB
        • Google Big Table
        • Memcached
        • MongoDB
        • Object Store
        • Relationship
        • Session Management
        • Stored Procedure
        • Stream DB V3
        • Stream DB V1 (Descontinuado)
        • ArangoDb
        • Caffeine Cache
        • Caffeine LoadCache
        • Couchbase
        • CouchDB
        • Ehcache
        • InfluxDB
      • Tools
        • Assert V2
        • Assert V1 (Descontinuado)
        • Base64
        • CSV to JSON V2
        • CSV to JSON V1 (Descontinuado)
        • HL7 Message Transformer (Beta)
        • HTML to PDF
        • Transformer (JOLT) V2
        • JSLT
        • JSON String to JSON Transformer
        • JSON to JSON String Transformer
        • JSON to XML Transformer
        • JSON to CSV V2
        • JSON to CSV Transformer (Descontinuado)
        • JSON Path Transformer V2
        • JSON Path Transformer
        • JSON Transformer
        • Log
        • Pipeline Executor
        • QuickFix (Beta)
        • SSH Remote Command
        • Script (JavaScript)
        • Secure PDF
        • Store Account
        • Template Transformer
        • Throw Error
        • Transformer (JOLT)
        • Validator V1 (Descontinuado)
        • Validator V2
        • XML to JSON Transformer
        • XML Transformer
        • JSON Generator (Mock)
      • Web protocols
        • Email V2
        • Email V1 (Descontinuado)
        • REST V2
        • REST V1 (Descontinuado)
        • SOAP V3
        • SOAP V2
        • SOAP V1 (Descontinuado)
        • WGet (Download HTTP)
        • gRPC
    • Triggers
      • Web Protocols
        • API Trigger
        • Email Trigger
        • Email Trigger V2
        • HTTP Trigger
        • HTTP File Trigger
          • HTTP File Trigger - Downloads
          • HTTP File Trigger - Uploads
        • REST Trigger
      • Scheduling
        • Scheduler Trigger
      • Messaging and Events
        • Event Trigger
        • JMS Trigger
        • Kafka Trigger
        • RabbitMQ Trigger
      • Others
        • DynamoDB Streams Trigger
        • HL7 Trigger
        • Salesforce Trigger - Events
    • Double Braces
      • Como referenciar dados usando Double Braces
      • Funções Double Braces
        • Funções matemáticas
        • Funções de utilidades
        • Funções numéricas
        • Funções de string
        • Funções de JSON
        • Funções de data
        • Funções de comparação
        • Funções de arquivo
        • Funções de condição
      • Preenchimento automático de expressões Double Braces
  • Ciclo de desenvolvimento
    • Build
      • Canvas
        • Assistente de IA
        • Smart Connector User Experience
        • Painel de execução
        • Modos de Design e Inspeção
        • Linter: Validação de construção do canvas
        • Mock de Conectores
      • Pipeline
        • Como criar um pipeline
        • Como criar um pipeline usando uma especificação OpenAPI
        • Como criar um projeto
        • Histórico de versões do pipeline
        • Versionamento de pipelines
        • Processamento de mensagens
        • Subpipelines
      • Cápsulas
        • Como usar Cápsulas
          • Como criar uma coleção de Cápsulas
            • Dimensões do cabeçalho da Cápsula
          • Como criar um grupo de Cápsulas
          • Como configurar uma Cápsula
          • Como construir uma Cápsula
          • Como testar uma Cápsula
          • Como salvar uma Cápsula
          • Como publicar uma Cápsula
          • Como mudar uma Cápsula de coleção ou grupo
          • Como arquivar e restaurar uma Cápsula
        • Versionamento de Cápsulas
        • Cápsulas públicas
          • SAP
          • Digibee Tools
          • Google Sheets
          • Gupy
          • Enviar alerta por email
          • Totvs Live
          • Canvas LMS
        • Assistente de IA para geração de documentação de cápsulas
    • Run
      • Conceitos de Run
        • Autoscalling
      • Implantação
        • Implantando um pipeline
        • Como reimplantar um pipeline
        • Como promover pipelines entre ambientes
        • Como verificar o Histórico de implantação do pipeline
        • Como fazer rollback de versão implantada
        • Como utilizar as funções avançadas do histórico de implantação
        • Status de implantação do pipeline
      • Como os alertas funcionam nos pipelines em Run
    • Monitor
      • Monitor Insights (Beta)
      • Execuções concluídas
        • Download dos logs de execução de pipeline
      • Pipeline logs
      • Pipeline Metrics
        • API de métricas de pipeline
          • Como configurar API de métricas Digibee com Datadog
          • Como configurar API de métricas Digibee com Prometheus
        • Latência de Conector
      • Alertas
        • Como criar um alerta
        • Como editar um alerta
        • Como ativar, desativar ou duplicar um alerta
        • Como excluir um alerta
        • Como configurar alertas no Slack
        • Como configurar alertas no Telegram
        • Como configurar alertas via webhook
        • Métricas disponíveis
        • Boas práticas para alertas
        • Casos de uso para alertas
      • Monitoramento de conexões de VPN
        • Alertas para métricas de VPN
  • Gerenciamento de conectividade
    • Conectividade
    • Zero Trust Network Access (ZTNA)
      • Pré-requisitos para usar o ZTNA
      • Como visualizar conexões (Edge Routers)
      • Como visualizar Network Mappings associados com um Edge Router
      • Como adicionar novas conexões em ZTNA (Edge Routers)
      • Como deletar conexões em ZTNA (Edge Routers)
      • Como visualizar rotas (Network mapping)
      • Como adicionar novas rotas (Network Mapping)
      • Como adicionar rotas em lote para ZTNA
      • Como editar rotas (Network Mapping)
      • Como deletar rotas (Network Mapping)
      • Como gerar novas chaves (Edge Router)
      • Como mudar o ambiente dos Edge Routers
      • Fluxo Inverso (Inverse Flow) de ZTNA
      • Grupos de ZTNA
    • Virtual Private Network (VPN)
  • Administração da plataforma
    • Administração
      • Auditoria
      • Controle de acesso
        • Usuários
        • Grupos
        • Papéis
          • Lista de permissões por serviço
          • Papéis e responsabilidades: Governança e identificação de pessoas-chave
      • Integração com provedores de identidades
        • Como integrar um provedor de identidade
        • Regras de autenticação
        • Integração de grupos IdP com grupos Digibee
          • Como criar uma integração de grupo
          • Como testar uma integração de grupo
          • Como habilitar uma integração de grupo
          • Como editar uma integração de grupo
          • Como remover uma integração de grupo
      • Autenticação e autorização de usuários
        • Como habilitar e desabilitar a autenticação de dois fatores
        • Fluxo de login
      • Grupos da organização
    • Configurações
      • Globals
        • Como criar Globals
        • Como editar ou excluir Globals
        • Como usar Globals
      • Contas (Accounts)
        • Configurando cada tipo de conta
        • Monitore alterações nas configurações da conta em pipelines implantados
        • Arquitetura OAuth2
          • Cadastro de novos provedores OAuth
      • Consumers (Chaves de API)
      • Modelos de Relacionamento
      • Multi-Instância
        • Implantando um pipeline de multi-instância
      • Transmissão de Logs
        • Como usar a Transmissão de Logs com o Datadog
    • Governança
      • Políticas
        • Segurança
          • Política de acesso à APIs internas
          • Política de acesso à APIs externas
          • Política de campos sensíveis
        • Transformação
          • Cabeçalho HTTP personalizado
          • Cabeçalho HTTP CORS
        • Política de Limite de réplicas
    • Licenciamento
      • Modelos de licenciamento
        • Modelo baseado em consumo
      • Capacidade e cotas
      • Consumo de licenças
    • Digibee APIs
      • Como criar credenciais de API
  • Conceitos da Digibee
    • Pipeline Engine
      • Digibee Integration Platform Pipeline Engine v2
      • Suporte a Credenciais Dinâmicas (Beta Restrito)
    • Introdução ao ZTNA
  • Ajuda & FAQ
    • Suporte ao Cliente Digibee
    • Solicitar documentação, sugerir nova feature ou enviar feedback
    • Programa Beta
    • Segurança e conformidade
    • Sobre a Digibee
Fornecido por GitBook
Nesta página
  • O que é considerado um erro?
  • Exemplos de erros em integrações
  • Guia passo a passo para identificar, analisar e resolver problemas
  • Identificando o problema
  • Analisando o problema
  • Resolvendo problemas comuns
  • Suporte de ferramentas externas
  • Aprimorando diagnósticos
  • Preste atenção nos logs
  • Verifique as configurações do trigger e da fila
  • Revise a implementação do pipeline
  • Monitore as configurações de implantação
  • Use as ferramentas de monitoramento da Digibee
  • Reprocessar execuções manualmente
  • Ainda enfrentando problemas com sua integração?
  • Conclusão

Isto foi útil?

  1. Digibee em ação
  2. Solução de problemas
  3. Orientações para integrações

Como resolver problemas comuns em pipelines

Saiba como identificar e resolver erros comuns em seus pipelines.

AnteriorOrientações para integraçõesPróximoComo resolver o Erro 409: “You cannot update a pipeline that is not on draft mode”

Atualizado há 3 meses

Isto foi útil?

O que é considerado um erro?

Em integrações, um erro é uma falha ou comportamento inesperado que interrompe o fluxo normal de dados entre sistemas, serviços ou conectores. Esses erros podem ocorrer em qualquer etapa da execução.

Exemplos de erros em integrações

Timeout

Descrição: Ocorre quando o pipeline excede o tempo máximo de execução configurado, forçando a interrupção do processo.

Exemplo: Um pipeline que consulta um banco de dados externo demora mais de 15 minutos para completar a requisição devido ao grande volume de dados.

{
  "timestamp": 1730373482528,
  "error": "Pipeline execution timed-out.",
  "code": 500
}
Out of Memory (OOM)

Descrição: Este erro acontece quando o pipeline consome mais memória ou CPU do que o permitido pela configuração, interrompendo a execução.

Exemplo: Um pipeline processa um arquivo grande ou consulta uma API de alto volume sem paginação, resultando em uso excessivo de memória. Saiba .

{
  "timestamp": 1730438185028,
  "error": "This pipeline execution was aborted and cannot be automatically retried because it was configured to disallow redeliveries.",
  "code": 500
}
Falhas de conexão

Descrição: Erro de comunicação entre o pipeline e um serviço externo ou banco de dados, como falhas de autenticação ou servidores indisponíveis.

Exemplo: Um pipeline tenta acessar uma API externa, mas encontra um erro de autenticação ou não consegue conectar porque o servidor está temporariamente indisponível.

{
  "timestamp": 1734254417051,
  "error": "java.sql.SQLTransientConnectionException: HikariPool-1 - Connection is not available, request timed out after 60000ms.",
  "code": 500
}
Erros de configuração

Descrição: Erros causados por configurações incorretas, como endpoints inválidos, parâmetros ausentes ou limites de tamanho incorretos.

Exemplo: Um pipeline com um endpoint incorreto para uma API REST não consegue enviar dados, resultando em erro de URL inválida.

{
    "timestamp": 1734134205495,
    "error": "An internal error has occurred. Exception: java.lang.NullPointerException: Cannot invoke \"String.length()\" because \"sql\" is null",
    "code": 500
}
Reinicializações inesperadas

Descrição: Quando a infraestrutura de integração, como os containers do pipeline, é reiniciada devido a problemas internos, como erros de OOM.

Exemplo: Um pipeline que consome muita memória leva a uma reinicialização automática pelo Kubernetes e gera um aviso de “reciclado” na tela de Runtime.

Expiração de mensagens em filas de eventos

Descrição: Mensagens expiram se não forem processadas a tempo, levando à sua eliminação.

Exemplo: Uma mensagem expira antes de ser consumida pelo próximo pipeline, especialmente se o tempo de expiração da fila for curto e a carga de dados for alta.

Guia passo a passo para identificar, analisar e resolver problemas

Identificando o problema

1

Reúna informações iniciais

Certifique-se de ter a chave de execução dos logs de erro ou encontre-a filtrando os logs por tempo e campos relevantes.

2

Acesse o pipeline e a execução

  • Build: Mostra como sua integração está configurada.

  • Monitor: Mostra detalhes da execução e possíveis pontos de erro.

3

Analise os logs

Confira os logs de execução para rastrear o caminho da integração, encontrar o ponto onde a integração foi abortada ou identificar o erro. Os logs podem ser analisados individualmente ou em múltiplas execuções. Você pode visualizá-los de duas maneiras:

Analisando o problema

Método 1

Compare uma integração bem-sucedida com uma integração que falhou. Identifique dados que foram integrados corretamente (por exemplo, um número de pedido) e dados que falharam. Caso dados semelhantes sigam fluxos diferentes, compare os logs para encontrar o ponto de divergência.

Método 2

Identifique padrões nas falhas de execução. Por exemplo, se execuções simultâneas falharem com timeout, analise os logs para determinar qual etapa causou o problema e qual conector ou serviço está associado a ele.

Resolvendo problemas comuns

Timeout

O que é: Um timeout ocorre quando o pipeline excede o tempo de execução, geralmente 15 minutos (900.000 milissegundos).

Como corrigir:

  • Aumente o tempo limite no trigger do pipeline, mas evite ultrapassar o limite máximo.

  • Reestruture pipelines que estejam próximos do limite de 10 minutos, processando os dados em partes menores com paginação.

Out of Memory (OOM)

O que é: Ocorre quando o pipeline excede o limite de memória configurado.

Como corrigir:

  1. Identifique a causa: Use a página Monitor para analisar os logs e determinar onde o erro está ocorrendo. Adicionar logs pode ajudar a refinar a análise.

  2. Otimize o fluxo: Implemente paginação para reduzir o volume de dados ou divida o fluxo em pipelines primários e secundários para lógica de enriquecimento e envio de dados.

  3. Ajuste a implantação: Após reestruturar o pipeline, teste-o e, em seguida, implante-o em Produção. Se o erro persistir, aumente o tamanho do pipeline e realize uma nova implantação.

Configuração do trigger e expiração da fila

O que é: O trigger do pipeline inicia a execução, e a expiração da fila determina quanto tempo uma mensagem pode aguardar para ser processada.

Como corrigir:

  • Para cenários de baixo volume, configure tempos de expiração mais curtos (2-5 minutos) para evitar acúmulo desnecessário de mensagens.

  • Para cenários de alto volume, estenda o tempo de expiração para 10-15 minutos, dependendo do tempo necessário para consumir e processar as mensagens.

  • Ajuste o tempo de expiração para evitar a perda de mensagens que ocorre quando as filas expiram antes do processamento.

Sugestões:

  • Certifique-se de que o trigger está configurado de acordo com a carga esperada antes de executar o pipeline.

  • Monitore as filas regularmente para ajustar o tempo de expiração ao volume e ao comportamento esperado do pipeline.

Lentidão no Object Store ou no Session Management

Como corrigir:

  • Verifique o volume de dados: Acesse o Object Store e analise o tamanho atual do banco de dados. Se o volume de dados estiver alto, implemente uma rotina de limpeza para melhorar o desempenho.

  • Implemente uma rotina de limpeza: Configure uma rotina para remover dados antigos ou desnecessários. Isso evitará o acúmulo excessivo de dados e manterá o armazenamento mais eficiente.

  • Divida o processamento em partes menores: Para pipelines que processam grandes volumes de dados, utilize paginação ou divida o fluxo em diferentes pipelines. Um pipeline realiza a primeira consulta e envia os dados para outros pipelines. Isso mantém o Object Store mais limpo e o processo de integração escalável.

  • Teste e monitore: Após implementar uma rotina de limpeza ou reestruturar o pipeline, monitore o desempenho em um ambiente de teste. Verifique se o atraso diminuiu e, se necessário, ajuste o processo de limpeza ou o fluxo de integração antes de implantá-lo no ambiente de Produção.

Suporte de ferramentas externas

Algumas vezes, é possível usar ferramentas externas para auxiliar em certos aspectos da integração:

  • Validação de certificados SSL: Para verificar se os certificados estão corretamente atualizados e ativos em caso de problemas de conexão.

  • Validação e comparação de XML: Para depurar erros em fluxos de trabalho XML e comparar execuções bem-sucedidas com falhas.

  • Gerador de esquema JSON: Para gerar esquemas a partir de um arquivo JSON válido.

  • Gerador de dados fictícios: Para testar com grandes volumes de dados.

  • Ferramentas de IA: Para simplificar soluções lógicas, como a criação de expressões regulares (RegEx).

Aprimorando diagnósticos

Preste atenção nos logs

  • Monitore esses logs regularmente para identificar padrões de erro ou sinais de desempenho inadequado. Com o conector Log configurado em áreas-chave, você terá uma visão mais detalhada da execução, facilitando o rastreamento de problemas.

Verifique as configurações do trigger e da fila

  • Certifique-se de que o trigger do pipeline está configurado corretamente e que o tempo de expiração da fila é adequado para o volume de dados que está sendo processado. Erros no trigger ou um tempo de expiração muito curto podem levar à perda de mensagens importantes.

  • Configure o trigger de acordo com os requisitos do fluxo de dados e ajuste o tempo na fila, se necessário, para garantir que as mensagens tenham tempo suficiente para serem processadas. Fique atento ao tempo de expiração da fila de eventos e verifique regularmente o tempo de vida das mensagens nas filas.

Revise a implementação do pipeline

Monitore as configurações de implantação

  • Ajuste essas configurações conforme necessário para garantir um desempenho estável e minimizar erros de execução.

Use as ferramentas de monitoramento da Digibee

A Digibee Integration Platform fornece ferramentas de monitoramento e insights para detectar problemas, como aumento nos tempos de resposta ou taxas de erro incomuns. Ative essas ferramentas para monitorar a saúde dos pipelines em tempo real e receber alertas proativos sobre problemas de desempenho ou configuração.

Reprocessar execuções manualmente

  • Esse recurso permite aos usuários tentar novamente chamadas processadas anteriormente, sendo útil em cenários onde a chamada original falhou devido a problemas temporários, como interrupções de rede ou erros no sistema de destino.

Embora o reprocessamento manual seja uma ferramenta eficaz, deve ser usado com cautela. Em alguns casos, pode ser necessário investigar as causas dos erros antes de simplesmente repetir chamadas, para evitar a repetição dos mesmos erros.

Ainda enfrentando problemas com sua integração?

Ao abrir o ticket, forneça as seguintes informações relevantes:

  • Nome do pipeline ou ID de Execução

  • Análises prévias realizadas pelo cliente com evidências de testes

  • Outras informações pertinentes para auxiliar na identificação e análise

  • Comportamento esperado versus comportamento observado

  • Mensagem de erro com data e horário

  • Chave do pipeline (para erros ou incidentes)

  • Ambiente (Produção ou Teste)

  • Nome do projeto (se aplicável)

Conclusão

Seguindo as recomendações deste guia, você pode solucionar problemas em pipelines na Digibee Integration Platform de forma mais eficiente e independente. Com uma abordagem organizada e a aplicação de boas práticas — como análise detalhada de logs, monitoramento adequado das filas e ajustes nas configurações de implantação — é possível identificar e resolver rapidamente erros comuns que afetam a execução da integração.

A Digibee Integration Platform oferece ferramentas que, junto com os procedimentos de solução de problemas apresentados, permitem resolver muitos problemas de forma autônoma. Quando necessário, utilize recursos como reprocessamento manual e ferramentas de monitoramento para validar correções e garantir a estabilidade dos pipelines.

Abra duas abas: uma para o pipeline analisado e outra para a execução associada na página . Isso permite comparar a integração configurada (pipeline) com o que realmente aconteceu (execução).

: Exibe a chave de execução, as mensagens de entrada/saída e os timestamps de início e término.

: Fornece logs das etapas executadas, desde a solicitação até a resposta do pipeline.

Nem todos os conectores geram logs automaticamente. Conectores como e conectores de interação externa (por exemplo, , , ) sempre registram mensagens. No entanto, os resultados de transformações de dados ou conectores externos só são exibidos se forem registrados explicitamente.

Identifique onde o timeout ocorre no fluxo. Ajuste o tempo limite no conector para requisições específicas, como ou .

O que é: Lentidão no ou no ocorre quando o volume de dados armazenados aumenta significativamente sem uma rotina de limpeza ou exclusão. Isso sobrecarrega o banco de dados, desacelera as consultas e a execução do pipeline, afetando o desempenho geral.

Gerador de HTML: Para criar mensagens HTML utilizadas em conectores como e .

Os logs são cruciais para identificar rapidamente onde os erros ocorrem no pipeline. Para diagnósticos eficazes, recomendamos posicionar o conector em pontos estratégicos do pipeline. Coloque-o antes e depois de conectores críticos, como transformações de dados, chamadas para serviços externos e decisões de fluxo. Isso permitirá rastrear o caminho exato da execução e identificar problemas específicos.

Analise cada conector do pipeline para identificar possíveis pontos de falha. Se for detectado um erro em um conector específico (por exemplo, ou ), verifique suas configurações, como os ajustes de tempo limite e a estrutura dos dados enviados ou recebidos.

Você pode usar um para verificar se os dados retornados por serviços externos estão no formato esperado, garantindo uma integração mais robusta.

Configurações de implantação, como o número de , e alocação de memória (), têm um impacto significativo no desempenho do pipeline. Certifique-se de que a memória e as réplicas estão dimensionadas adequadamente para a carga de trabalho esperada, especialmente para pipelines de alta demanda.

Configuração de alertas: Nesta página, é possível personalizar notificações de desempenho da integração com base em métricas, permitindo ações rápidas para minimizar impactos operacionais. Saiba mais na .

Monitor Insights: Este recurso oferece insights sobre a saúde das integrações concluídas. Selecionar um insight te direciona às métricas das execuções que exigem atenção, já filtradas pelo período de ocorrência. Mais informações estão disponíveis na .

O reprocessamento manual exige a identificação da chamada com falha e a verificação dos parâmetros usados anteriormente. Dependendo da configuração, é possível manter os mesmos parâmetros ou alterá-los. Após reprocessar a chamada, realize uma nova pesquisa na página ; ela será exibida com o valor "manual" no campo Origem.

Se sim, abra um ticket com nossa equipe de Suporte. Veja .

como resolver o erro "Pipeline execution was aborted"
Execuções Concluídas
Execuções Concluídas
Pipeline Logs
Log
REST
Google Storage
Stream DB
REST
SOAP
Object Store
Session Management
Email
Template Transformer
Log
REST
SOAP
Assert
documentação de Alertas
documentação do Monitor Insights
Pipeline logs
como abrir um ticket e os prazos esperados
Réplicas
Execuções simultâneas
Tamanho do pipeline