DynamoDB Streams Trigger

Saiba mais sobre o DynamoDB Streams Trigger e como utilizá-lo na Digibee Integration Platform.

O DynamoDB Streams é uma funcionalidade do banco de dados DynamoDB que publica eventos quase em tempo real para cada modificação de registro em uma tabela do DynamoDB que tenha o DynamoDB Streams habilitado. O DynamoDB Streams Trigger captura esses eventos e os envia para pipelines em execução na infraestrutura da Digibee. Isso permite que padrões de Change Data Capture (CDC) sejam facilmente implementados com pipelines da Digibee.

Parâmetros

Dê uma olhada nos parâmetros de configuração do trigger. Parâmetros suportados por expressões Double Braces estão marcados com (DB).

Parâmetro
Descrição
Valor padrão
Tipo de dado

DynamoDB Client Account

Conta AWS usada para acessar a API DynamoDB Streams.

N/A

String

Table Name

Nome da tabela do DynamoDB da qual o fluxo de eventos será buscado.

N/A

String

AWS Region

Define a região da AWS onde o DynamoDB está localizado.

us-east-1

String

Expiration

A quantidade de tempo que o evento passa na fila (em milissegundos). Se o valor for igual a 0 ou for um valor maior que 6h (21600000 ms), a expiração será 1/4 do valor especificado em Maximum Timeout.

600000

Inteiro

Maximum Timeout

Tempo máximo (em milissegundos) para o pipeline processar informações antes de retornar uma resposta. Padrão: 30000. Limite: 900000.

30000

Inteiro

Allow Redelivery of Messages

Se ativada, a opção permite que as mensagens sejam entregues novamente caso o Pipeline Engine falhe.

False

Booleano

Informações adicionais

O DynamoDB Streams Trigger não ativa automaticamente a funcionalidade Streams em uma tabela existente do DynamoDB. Em vez disso, o trigger assume que a tabela existe com o recurso pré-configurado e envia os eventos para o pipeline como estão, sem qualquer transformação.

Veja abaixo um exemplo de evento do DynamoDB Streams:

{
   "eventID":"1",
   "eventName":"INSERT",
   "eventVersion":"1.0",
   "eventSource":"aws:dynamodb",
   "awsRegion":"us-east-1",
   "dynamodb":{
      "Keys":{
         "Id":{
            "N":"101"
         }
      },
      "NewImage":{
         "Message":{
            "S":"New item!"
         },
         "Id":{
            "N":"101"
         }
      },
      "SequenceNumber":"111",
      "SizeBytes":26,
      "StreamViewType":"NEW_AND_OLD_IMAGES"
   }
}

Observe que o trigger, uma vez implantado, sempre começa consumindo o evento mais recente dos Streams. Isso significa que o pipeline não receberá eventos que foram publicados antes de estar online. Isso evita que o ambiente de execução seja sobrecarregado com eventos, o que pode levar a erros de falta de memória e atrasos na entrega.

Atualizado