DynamoDB Streams Trigger
Saiba mais sobre o DynamoDB Streams Trigger e como utilizá-lo na Digibee Integration Platform.
O DynamoDB Streams é uma funcionalidade do banco de dados DynamoDB que publica eventos quase em tempo real para cada modificação de registro em uma tabela do DynamoDB que tenha o DynamoDB Streams habilitado. O DynamoDB Streams Trigger captura esses eventos e os envia para pipelines em execução na infraestrutura da Digibee. Isso permite que padrões de Change Data Capture (CDC) sejam facilmente implementados com pipelines da Digibee.
Parâmetros
Dê uma olhada nos parâmetros de configuração do trigger. Parâmetros suportados por expressões Double Braces estão marcados com (DB)
.
Parâmetro | Descrição | Valor padrão | Tipo de dado |
---|---|---|---|
DynamoDB Client Account | Conta AWS usada para acessar a API DynamoDB Streams. | N/A | String |
Table Name | Nome da tabela do DynamoDB da qual o fluxo de eventos será buscado. | N/A | String |
AWS Region | Define a região da AWS onde o DynamoDB está localizado. | us-east-1 | String |
Expiration | A quantidade de tempo que o evento passa na fila (em milissegundos). Se o valor for igual a 0 ou for um valor maior que 6h (21600000 ms), a expiração será 1/4 do valor especificado em Maximum Timeout. | 600000 | Inteiro |
Maximum Timeout | Tempo máximo (em milissegundos) para o pipeline processar informações antes de retornar uma resposta. Padrão: 30000. Limite: 900000. | 30000 | Inteiro |
Allow Redelivery of Messages | Se ativada, a opção permite que as mensagens sejam entregues novamente caso o Pipeline Engine falhe. | False | Booleano |
Informações adicionais
O DynamoDB Streams Trigger não ativa automaticamente a funcionalidade Streams em uma tabela existente do DynamoDB. Em vez disso, o trigger assume que a tabela existe com o recurso pré-configurado e envia os eventos para o pipeline como estão, sem qualquer transformação.
Veja abaixo um exemplo de evento do DynamoDB Streams:
Observe que o trigger, uma vez implantado, sempre começa consumindo o evento mais recente dos Streams. Isso significa que o pipeline não receberá eventos que foram publicados antes de estar online. Isso evita que o ambiente de execução seja sobrecarregado com eventos, o que pode levar a erros de falta de memória e atrasos na entrega.
Atualizado