Release notes 2021
Isto foi útil?
Isto foi útil?
Email V2: adicionamos o parâmetro FORCE TLS V1.2 que permite definir como obrigatório o uso do protocolo TLS V1.2 nas conexões com os servidores de email. Importante: recomendamos a utilização deste parâmetro com servidores de email Microsoft Exchange. Clique aqui para o artigo completo do componente.
Nós também solucionamos alguns bugs:
Trigger Scheduler: corrigimos o erro que, em raras situações, impedia a execução consecutiva de tarefas agendadas.
Desenvolvemos um novo modelo de controle de acesso mais robusto e prático. Agora, a gestão de acesso permite o agrupamento e reuso de perfis de acessos similares para melhorar a experiência de acesso do realm.
Exemplo da nova concessão de permissões:
O novo modelo de Controle de Acesso conta com novos conceitos de Grupos, Papéis e Usuários que se relacionam como no modelo abaixo:
\
Para saber mais sobre o novo Controle de Acesso, leia os artigos abaixo:
Para que nenhum usuário perca suas permissões, planejamos um período de transição onde os dois modelos de acesso irão conviver. Todos os usuários devem ser migrados até 31 de Março/2022. Para saber mais sobre a transição, leia o artigo completo aqui.
Visando melhorar a experiência dos nossos usuários e dar mais clareza no uso de alguns termos, atualizamos a tela de Consumers, dentro do menu Configurações. Agora, ela se chama API Keys. Sua função se mantém a mesma e o fluxo de configurações também.
Realizamos melhorias na experiência de auditoria. Agora, os logs de auditoria contam com novos dados:
Serviço - identificação da funcionalidade da Digibee Integration Platform que foi auditada. Ex.: pipelines, globals, accounts.
Ação - a ação realizada que originou o registro. Ex.: created, updated, deleted, viewed.
Referência - é o nome amigável do objeto que foi auditado.
IMPORTANTE: nesta fase de entrega, apenas os objetos Pipeline, Account e Global possuem a referência.
Status: indica se a ação foi concluída com sucesso ou erro.
Esta entrega é parte de um processo mais amplo de aprimoramento que incluirá a possibilidade de navegação até o objeto que foi auditado.
XML Schema Validator: O cliente poderá validar um XML contra os arquivos XSD. Clique aqui para ler o artigo completo.
Nós também solucionamos alguns bugs:
Componente CSV to Excel: corrigimos o erro que impedia a leitura de arquivos com charsets diferentes de UTF-8.
Métricas de pipelines: corrigimos o erro que impedia a exibição correta de dados quando filtrados pelo período de 15 minutos.
Email Trigger V2: corrigimos um erro que impedia novos emails de serem lidos e também de serem movimentados e deletados corretamente após serem processados.
Desenvolvemos uma nova experiência para as implantações de seus pipelines. A nova tela de implantação oferece mais autonomia, facilidade e traz mais dados para facilitar a tomada de decisão no momento de implantação, como a indicação do usuário que a realizou. Clique aqui para ler o artigo completo sobre a nova tela.
IMPORTANTE: Durante o período do Programa Beta a funcionalidade será oferecida em paralelo a atual, desta forma você verá dois botões na tela.
Para saber mais sobre o Programa Beta, acesse aqui a nossa documentação.
Adicionamos uma nova funcionalidade ao histórico de versões de pipelines. Agora, é possível visualizar qualquer versão secundária de um pipeline, seus componentes e as configurações de cada um. Clique aqui para ler o artigo completo sobre o histórico de versões.
Para saber mais sobre o programa Beta, acesse aqui a nossa documentação.
Implementamos uma melhoria no gerenciamento de Projetos. Quando um pipeline é movido para um novo projeto é necessário implantá-lo novamente pois os ambientes de execução de pipelines (Test e Prod) são imutáveis. Assim, será exibido um alerta nas implantações que precisam desta ação.
IMPORTANTE: essa funcionalidade ainda não suporta implantações multi-instância.
Visando mais segurança no acesso à Plataforma, realizamos uma melhoria para que a senha de login expire a cada 15 dias. A partir de agora será necessário criar uma nova senha quinzenalmente e refazer o login para que a sessão seja restabelecida. Caso haja necessidade de alterar o prazo de expiração da senha, entre em contato com o suporte via chat. Somente o administrador do realm pode fazer a solicitação.
Atualizamos a documentação do artigo de Contas para adicionar o prazo de expiração de tokens previsto pelos provedores abaixo:
Microsoft - 3 meses Google - 6 meses Mercado Livre - 6 meses
Clique aqui para ler o artigo completo.
Rest V2: atualizamos a documentação do artigo do componente. Clique aqui para ler o artigo completo.
Realizamos melhorias na performance de consulta dos registros em Auditoria. Além disso, agora é possível identificar a referência do objeto auditado (Object ID). Isto é parte de um processo mais amplo de aprimoramento que incluirá a possibilidade de navegação até o objeto que foi auditado.
A função possibilita gerar strings aleatórias com base em um charset e um tamanho. Os charsets disponíveis são: ALPHANUMERIC, ASCII, NUMERIC e ALPHABETIC. Para ler sobre esta e outras Funções de String clique aqui.
A função possibilita gerar números aleatórios com base em um intervalo de valores inclusivos. Para saber mais sobre essa e outras Funções Numéricas clique aqui. \
Nós também solucionamos alguns bugs:
Tela de Relacionamento: corrigimos o erro que impossibilitava buscar registros na tela de configuração de Relacionamento.\
Edição de Projetos: corrigimos o erro que impedia acessar a tela de edição de Projetos.\
Edição de Cápsulas: corrigimos o erro que impedia acessar a tela de edição de Cápsulas.\
Visualização de _logs_: corrigimos o erro que impedia a consulta através do link de Ver todos os Logs nos detalhes de uma transação.
Para garantir que nosso suporte esteja sempre disponível, criamos uma funcionalidade alternativa para o envio de mensagens. Agora, é possível enviar pedidos ao nosso time de suporte mesmo que haja intermitências no serviço de chat online. As respostas serão enviadas por email.
Após as atualizações do servidor de OAuth do Mercado Livre, modificamos o provedor OAuth do Mercado Livre para autenticar no endpoint de contas do Brasil (www.mercadolivre.com.br/authorization).
IMPORTANTE: os tokens existentes em Accounts não são afetados. Novos tokens serão obtidos através do novo endpoint.
O novo componente possibilita gerar tokens do tipo OpenID para autenticações de proxies IAP (Identity Aware Proxy). Clique aqui para ler o artigo completo.
Adicionamos uma nova funcionalidade ao componente. Agora, o SQS também possibilita o envio de mensagens para filas do tipo FIFO do serviço AWS SQS. Clique aqui para ler o artigo completo.
A função possibilita aplicar uma cardinalidade de n:1 na estrutura informada, onde independente da quantidade de elementos na entrada, a saída será sempre 1 elemento. Para ler sobre essas e outras funções JSON, clique aqui.
A função possibilita normalizar a saída em cardinalidade múltipla. Ou seja, caso a entrada seja um array com n elementos, a saída será um array com n elementos e caso a entrada seja um único objeto, a saída será um array contendo este único objeto. Clique aqui para ler o artigo completo de funções JSON. \
Nós também solucionamos alguns bugs:
Componente LDAP: corrigimos o erro que causava um bloqueio na execução de pipelines que possuíam o componente LDAP.\
Chat: Removemos a obrigatoriedade de um usuário possuir a permissão USER:READ para acessar o chat.\
Histórico de versões de um _pipeline_: Corrigimos o erro que causava tela branca quando o todas as versões de um pipeline fossem arquivadas e quando uma das versões fosse restaurada.
NFS: O componente manipula arquivos. É possível listá-los, fazer o download e upload de arquivos e deletá-los. Clique aqui para acessar o artigo sobre NFS.
IMPORTANTE: o componente só é suportado em SaaS dedicado devido às características do protocolo NFS. \
Nós também solucionamos um bug:
Seletor de ambiente em Monitor: Corrigimos o bug que não armazenava o último ambiente selecionado ao alternar entre telas.
O digibeectl é o CLI (command-line interface) da Digibee que permite a execução de uma série de passos relacionados aos serviços disponíveis na Digibee Integration Platform HIP, até então somente disponíveis através da interface gráfica. Para saber mais sobre o digibeectl e sua documentação clique. IMPORTANTE: Solicite sua participação no programa Beta Restricted do digibeectl via chat da plataforma ou com o time de Customer Success. Para entender o que é o programa Beta clique aqui.\
Trigger HTTP/REST: agora os Triggers REST, HTTP e HTTP File adicionam o path invocado como parte das informações do request que chegam ao pipeline. Você pode acessar o artigo destes Triggers nos link abaixo: Trigger REST Trigger HTTP Trigger HTTP FIle
PUSH: agora é possível utilizar a função PUSH(array, element) para inserir novos elementos no final de um array com o intuito de implementar uma estrutura de pilha. Clique aqui para acessar o artigo sobre PUSH e outras funções de JSON. \
POP: agora é possível utilizar a função POP(array) para remover o último elemento de um array com o intuito de implementar uma estrutura de pilha. Clique aqui para acessar o artigo sobre POP e outras funções de JSON.
Realizamos uma melhoria que visa diminuir o atraso na exibição dos logs de pipelines. Isto é parte de um processo mais amplo de aprimoramento do desempenho da coleta de logs.
Nós também solucionamos alguns bugs:
Listagem de _pipelines_** vazia:** corrigimos um erro onde o botão de criar pipeline não tinha ação.
Listagem vazia de implantações: corrigimos o botão de atualização de implantações que não exibia o texto correto.
Adicionamos o algoritmo BCrypt ao componente Hash. Para ler o artigo atualizado, clique aqui. \
Recentemente comunicamos a habilitação automática do nosso novo layout. A partir de hoje (31/08), você não terá mais acesso ao layout antigo. Ao fazer o login, você será direcionado para a Plataforma com uma estética consistente com o ciclo de construção de integrações, baseado em Build, Run e Monitor.
Mas não se preocupe…
essa mudança não afeta em nada a sua experiência
continuaremos recebendo os seus comentários sobre o novo layout através do canal de feedback
Nós também solucionamos alguns bugs:
Projetos: corrigimos uma falha que não permitia a movimentação de pipelines para projetos com caracteres especiais nos seus títulos. Além disso, pipelines já existentes nos projetos não eram exibidos na tela de Run.
Monitor e Build: realizamos ajustes para melhorar o carregamento da listagem e dos dashboard de pipelines nas telas Monitor e Build.
Audit: solucionamos o bug que não permitia a visualização do menu de acesso no novo layout da Plataforma.
O componente que já existia na nossa paleta, e que se chamava JWT, agora se chama Digibee JWT. Ele é próprio para autenticação que utiliza o gateway da Digibee e não sofreu alterações em suas funções.
Agora está disponível o novo componente JWT, que gera e decodifica tokens JWT para uso externo. Com isso, você pode manipular os tokens JWS ou JWE conforme a sua necessidade de criptografia, assinaturas e payloads dinâmicos.
Nota: para entender melhor a diferença entre os 2 componentes, clique nos títulos abaixo e acesse a documentação atualizada de cada um deles:
Digibee JWT (uso interno) JWT (uso externo)\
Agora é possível utilizar a função REMOVEAT (array, index) para remover elementos específicos de um array em um JSON. Clique aqui para acessar o artigo sobre REMOVEAT e outras funções de JSON.
Adicionamos uma nova validação do pipeline que permite verificar se o trigger configurado precisa de uma configuração dedicada para o ambiente do realm.
Estamos realizando a habilitação automática do nosso novo layout. A partir de agora, ao fazer o login, você será direcionado para a Plataforma com uma estética consistente com o ciclo de construção de integrações, baseado em Build, Run e Monitor.\
Mas não se preocupe…
essa mudança não afeta em nada a sua experiência
você terá até o dia 30/08/2021 para utilizar o layout anterior, bastando clicar no ícone do seu perfil para selecioná-lo.
continuaremos recebendo os seus comentários sobre o novo layout através do canal de feedback

Nós também solucionamos um bug:
Digibee Storage: resolvemos o problema que gerava um link incorreto para download ao realizar o upload de um arquivo para um diretório que começasse com o caractere “ / ”.
Adicionamos uma nova funcionalidade ao componente, que permite a gravação da resposta de uma determinada requisição em arquivo local do pipeline. Clique aqui para ler o artigo completo sobre o SOAP V2.
Agora é possível informar a partição do tópico para a qual se deseja enviar uma mensagem ao Kafka. Para ler o artigo atualizado sobre o componente, clique aqui.
Dados do tipo CLOB podem ser enviados através de um arquivo agora. Você pode ler o artigo atualizado do componente clicando aqui.
Agora é possível informar as partições do tópico a consumir mensagens do Kafka. Para ler o artigo atualizado sobre o trigger, clique aqui.
As funções ESCAPE e UNESCAPE agora permitem que o tipo de escape nos padrões JSON, CSV, html e xml seja informado. Para ler sobre essas e outras funções de string, clique aqui.
Adicionamos um novo parâmetro à função SIZE. Com ele, é possível determinar se uma exceção deve ser lançada (true) ou não (false) quando algo der errado na verificação do tamanho de um objeto, array ou JSON. Você pode ler o artigo sobre SIZE e outras funções de utilidades clicando aqui.
Por padrão, todos os Projetos atuais são visíveis para todos os usuários. Mas agora, além de criar e editar Projetos, você também pode dar permissões de visibilidade por usuário. Com essa melhoria, os seus Projetos serão visualizados por usuários específicos. \
Nós também solucionamos alguns bugs:
Versões major de pipeline por Projeto (Beta): ajustamos uma falha que permitia a apresentação de todas as versões do pipeline mesmo quando uma versão major específica era movida para outro Projeto.
Implantação: corrigimos o problema que impedia a criação de novas implantações quando todas as implantações existentes em um realm eram removidas.
Atualizamos a leitura sobre alguns componentes para que você tenha uma melhor experiência com as suas integrações.
Você pode acessar os novos artigos sobre:
\
Realizamos melhorias no componente DB V2 para possibilitar o recebimento de tipos de dados customizados (STRUCT) via procedures em bancos de dados Oracle. Clique aqui para acessar o artigo atualizado sobre o DB V2.
Agora você pode configurar propriedades de conexão (ex.: timeout) no componente Mongo DB. Clique aqui para ler o artigo. \
Nós também solucionamos alguns bugs:
Tornou-se possível especificar o charset do arquivo a ser lido pelo componente CSV to JSON V2.
redução no tempo para salvar pipelines;
pipelines com muitas versões deixaram de apresentar erro ao serem salvos;
melhoria da responsividade na listagem de pipelines e implantações;
correção na tela de reexecução de pipeline, que impedia o envio da requisição;
aperfeiçoamento na apresentação de informações sobre ajustes para a publicação de Cápsulas;
a listagem dos nomes de pipelines movidos entre projetos passou a ser exibida em sua totalidade.
Pensando facilitar cada vez mais o seu dia-a-dia com a Digibee Integration Platform, estamos disponibilizando Cápsulas prontas para utilização.
Veja quais são as Coleções que estão com novidades:
As Cápsulas da Coleção SAP foram todas projetadas para abstrair as chamadas ao SAP, encapsulando a capacidade de chamar funções remotas (RFC) ao sistema SAP e entregando flexibilidade e facilidade para integrar outros sistemas com o SAP.
SAP RFC - Connector (JSON Input): Cápsula genérica, utilizada para qualquer operação com as funções remotas do SAP. É possível ler dados de tabelas e cadastros de modo mais completo, atualizar ou incluir novos cadastros (fornecedores, clientes, endereços, etc.).
SAP RFC - Read Nota Fiscal: obtém informações da nota fiscal através da função BAPI_J_1B_NF_GETDETAIL.
SAP RFC - Connectivity test: Cápsula para testes de conectividade com o SAP.
SAP RFC - Read Table: consulta dados das tabelas do SAP através da RFC READ_TABLE.
Clique aqui para ler o artigo completo sobre essa Coleção.#\
Atualizamos o nosso Termo de Uso, que será ativado em 08/07/2021 às 12h (horário de Brasília, GMT-03). Para garantir o seu uso individual da Plataforma, faça o seu login, leia atentamente o conteúdo e selecione a opção “Eu aceito o Termo descrito acima”.
Atualizamos a leitura sobre alguns componentes para que você tenha uma melhor experiência com as suas integrações.
Você pode acessar os novos artigos sobre:
Fizemos melhorias na interface de associação de pipelines a um consumer, garantindo desempenho superior no carregamento de lista de pipelines.
Por questões de segurança, a sua sessão na Plataforma passará a expirar a cada 60 dias, havendo atividade ou não.
Estamos sempre buscando melhorar a sua experiência na Plataforma. Veja o que fizemos:
adicionamos informações sobre as configurações utilizadas no trigger dos pipelines;
inserimos a data de ocorrência do último erro do pipeline.

Nós também solucionamos um bug:
Coleções: corrigimos uma falha que permitia a exibição de Coleções, Grupos e Cápsulas mesmo após arquivamento. Agora esses itens são exibidos apenas quando estão ativos.
Gostaríamos de compartilhar algumas melhorias e novidades:
Estamos sempre buscando melhorar a sua experiência na Plataforma. Veja o que fizemos:
adicionamos um novo componente de prévia de carregamento.
Os componentes DB V2 e Stream DB V3 agora podem realizar consultas que manipulam o tipo CLOB como arquivo. Clique no título dos componentes para acessar a documentação atualizada.\
Agora é possível informar um truststore que contém a cadeia de certificados confiáveis e/ou um keystore que contém a cadeia de certificados e a chave privada do lado cliente para publicar nos tópicos de Kafka. Para acessar o artigo atualizado sobre o componente, clique aqui.
Agora é possível informar um truststore que contém a cadeia de certificados confiáveis e/ou um keystore que contém a cadeia de certificados e a chave privada do lado cliente para consumir dos tópicos de Kafka. Para acessar o artigo atualizado sobre o trigger, clique aqui.
Atualizamos a leitura sobre alguns componentes para que você tenha uma melhor experiência com as suas integrações.
Você pode acessar os novos artigos de:
Agora você pode:
editar nomes de grupos;
remover grupos;
criar uma Cápsula a partir de um grupo existente.
A funcionalidade acima requer permissões específicas que o seu usuário talvez ainda não tenha. Caso necessário, entre em contato com o administrador do seu Realm.
Agora é possível receber tipos customizados do Oracle em queries que utilizam os componentes DB V2 e Stream DB V3. \
Nós também solucionamos um bug:
Stream DB V3: solucionamos o bug que interrompia a execução de um pipeline com erro quando um BLOB nulo era recebido.
Gostaríamos de compartilhar algumas melhorias e novidades:
A nova tela de Run também está disponível no nosso novo layout.
Clique aqui para acessar o artigo atualizado sobre o novo layout.
Atualizamos a leitura sobre um componente para que você tenha uma melhor experiência com as suas integrações.
Você pode acessar o novo artigo de Assert clicando aqui.
Gostaríamos de compartilhar algumas melhorias e novidades:
Estamos lançando a versão beta do nosso novo layout e da funcionalidade Projetos. Para que você possa aproveitar o melhor que essas novidades têm a oferecer, criamos artigos que esclarecem:
o que o novo layout traz de diferente e como habilitá-lo
o que é a funcionalidade Projetos, como ela funciona, como habilitá-la e o passo-a-passo de utilização
Clique aqui para acessar o artigo sobre o novo layout.
Clique aqui para acessar o artigo sobre a funcionalidade Projetos.
Stream XML File Reader: criamos um novo componente que permite que grandes estruturas XML disponibilizadas em arquivos sejam percorridas item a item, com filtros e de forma eficiente em termos de uso de memória. Leia o artigo sobre Stream XML File Reader clicando aqui.
Object Store: inserimos na documentação do componente Object Store uma explicação sobre a operação UPSERT dentro de um componente loop quando a opção de execução em paralelo está habilitada. Clique aqui para ler o artigo atualizado.
Validação de pipelines: melhoramos a sua experiência com a Plataforma ao prover mais feedback durante a implantação, economizando tempo e evitando implantações consecutivas por pequenas falhas.
Mudança visual: agora ficou ainda mais fácil de você entender o status das implantações. Veja como está o visual dos cartões:
Nós também solucionamos alguns bugs:
Runtime e configurações: solucionamos o bug que impedia a exibição de mensagens de confirmação ou falha em processos de criação, remoção ou edição nas configurações ou implantações.
REST V2: resolvemos o problema que impedia a utilização de Custom Accounts na configuração de uma chamada com multipart/form-data e Double Braces.
S3 Storage: ajustamos o nome do parâmetro Link Expiration (in ms) para Expiration Timestamp (in ms) e, com isso, você tem mais clareza sobre como realizar a devida configuração do parâmetro. Para entender melhor essa mudança, acesse o artigo atualizado do S3 Storage clicando aqui.
Pensando facilitar cada vez mais o seu dia-a-dia com a Digibee Integration Platform, estamos disponibilizando Cápsulas prontas para utilização.
Veja quais são as Coleções que estão com novidades:
Essa Coleção de Cápsula traz ferramentas que auxiliam na padronização do seu pipeline por meio das melhores práticas, assim como agilidade, qualidade em validações e transformações prontas.\
CPF CNPJ Validator: possibilita que o número do dígito verificador de documentos brasileiros referente a cadastro de pessoas seja validado.
Digibee Publish Error: envia notificações de mensagens padronizadas para que se tenha maior clareza e eficiência nos alertas e tratamentos de erros.
Parallel Execution List to Objects: transforma arrays de objetos produzidos por execuções paralelas. Essa Cápsula é bastante útil quando utilizada em combinação com o componente Parallel Execution.
Sort Array by field: ordena listas no formato JSON a partir de um campo determinado.
Validate Consumers: valida a quantidade de consumers configurados de acordo com o Runtime do pipeline.
Clique aqui para ler o artigo completo sobre essa Coleção.\
O que estamos entregando para melhorar a sua experiência com a Digibee Integration Platform.
Sabia que a partir do dia 25/05/2021 você terá acesso à versão beta do nosso novo layout e da funcionalidade de Projetos?
Novo layout
O novo layout da Digibee Integration Platform é o primeiro passo da revolução que estamos promovendo na nossa interface. A ideia é que você usufrua de uma navegação mais objetiva e com uma estética mais agradável, amigável e consistente. Com isso também queremos te oferecer, de maneira mais ágil, funcionalidades como Projetos. Projetos
Projetos são como pastas, que podem ser utilizados para organizar pipelines. Na versão beta você poderá:
criar projetos informando nome e descrição;
alterar nome e descrição de projetos;
mover pipelines de um projeto para outro;
criar pipelines associados a um projeto;
arquivar projetos que não tenham pipelines.
As versões beta surgem como uma oportunidade para verificarmos como os usuários da Plataforma se sentem em relação à estabilidade, à escalabilidade, ao desempenho e à usabilidade de novos layouts e funcionalidades.
Enquanto você estiver utilizando as versões beta, algumas situações indesejadas podem ocorrer. O motivo para isso é que elas não são as versões finais e ainda seguem em processo de melhoria. Ao final do período de teste, levando em consideração o feedback dos usuários, o reporte de eventuais erros de execução ou a identificação de problemas de usabilidade, optaremos por prorrogar as versões beta ou disponibilizar as versões finais dos layouts e das funcionalidades.
Todos os usuários da Plataforma podem aderir às versões beta. Ao ativar o novo layout, você automaticamente realiza a sua adesão e concorda com os termos de uso. Para acessar as funcionalidades, ative o Layout Beta a partir de sua conta:
Quais são os termos de uso da versão beta na Plataforma?
Para utilização da versão beta, você deve:
respeitar todos os termos de uso da versão operacional;
concordar que a utilização da versão beta da Plataforma implica em não estar coberto pelo SLA aplicado à versão operacional ativa;
concordar que a versão beta e as suas funcionalidades podem não ser disponibilizadas em uma versão operacional;
não utilizar os meios normais de suporte. Comentários, críticas, elogios e sugestões devem ser registradas através do canal “Enviar Feedback”.\
Como eu faço para enviar feedback sobre uma versão beta?
A Plataforma já possui um canal para que os usuários enviem feedbacks. Veja:
Você deve encaminhar todas as suas sugestões, elogios, reclamações e comentários por meio desse canal. Dessa forma, os seus feedbacks são encaminhados para a equipe responsável, que se encarrega de fazer ajustes e melhorias.
Caso você tenha qualquer outra dúvida, fique à vontade para entrar em contato com o seu Customer Success Manager.
Basta acessar o menu do seu perfil (no exemplo abaixo representado pela letra A com fundo laranja) e selecionar a opção "Default Layout":
Gostaríamos de compartilhar algumas melhorias e novidades:
Disponibilizamos um novo componente que torna possíveis chamadas gRPC através da Digibee Integration Platform. Com isso você pode executar chamadas do tipo unary e client stream. Leia o artigo sobre o componente gRPC clicando aqui.
Criamos um novo componente que permite que grandes estruturas JSON disponibilizadas em arquivos sejam percorridas item a item, com filtros e de forma eficiente em termos de uso de memória. Clique aqui para acessar o artigo sobre o Stream JSON File Reader.
Campos marcados como sensíveis em seu realm ou na configuração de um pipeline agora são ofuscados no componente Log. Você pode saber mais sobre esse componente clicando aqui.
Atualizamos a leitura sobre alguns componentes para que você tenha uma melhor experiência com as suas integrações.
Você pode acessar o novo artigo de:
Para facilitar a sua experiência na criação de Coleções de Cápsulas, criamos um guia de melhores práticas para personalização. Clique aqui para acessar a leitura.
Quando uma das réplicas de um pipeline era reinicializada, apresentávamos o termo "crash". No entanto, entendemos que o termo "crash" não representa fielmente o ocorrido. Por isso, passamos a adotar o termo "recycled".
Nós também solucionamos alguns bugs:
Configuração de componentes: solucionamos um bug que permitia que um campo obrigatório fosse preenchido apenas com espaços em branco. Com isso, pipelines e componentes são corretamente documentados.
Configuração de pipelines: corrigimos o erro que impedia a alteração dos valores de InSpec/OutSpec de um pipeline.
Pensando facilitar cada vez mais o seu dia a dia com a Digibee Integration Platform, estamos disponibilizando Cápsulas prontas para utilização.
Veja quais são as Coleções de Cápsulas que estão com novidades:
Get Spreadsheets By Id: consulte metadados na sua planilha compartilhada.
Get Rows Values by Range: obtenha dados existentes dentro da planilha e trabalhe com consultas paginadas de acordo com o intervalo desejado.
Append Data: escreva novos dados em uma planilha existente.
Clique aqui para ler o artigo completo sobre essa Coleção de Cápsulas.
O gRPC Trigger permitirá a exposição de pipelines seguindo o protocolo gRPC.
Gostaríamos de compartilhar algumas melhorias e novidades:
Lançamos uma funcionalidade que te permite acompanhar o que está acontecendo com os pipelines por meio destes novos gráficos em tempo real:\
Execuções de pipeline por segundo (eps)
Tempo de resposta do pipeline (em milissegundos)
Execuções de pipeline em andamento (inflights)
Tamanho das mensagens do pipeline (bytes)
Consumo de memória do pipeline (%)
Mensagens na fila do pipeline (mensagens)
Consumo de CPU do pipeline (%)
Para que você se familiarize melhor com os termos e conceitos relacionados à navegação da Digibee Integration Platform, vamos lançar uma série de artigos esclarecedores.
Para começar, clique aqui e leia sobre Runtime.
Atualizamos o artigo do componente LDAP. Clique aqui para acessá-lo.
Agora você pode arquivar Coleções que não estão mais sendo utilizadas.
Criamos novas funções para otimizar a sua experiência com integrações na Plataforma. Veja quais são elas:
Funções de String
CONTAINS
Clique aqui para ler o artigo sobre essa e outras Funções de String.
Funções de JSON
GETELEMENTAT
LASTELEMENT
NEWEMPTYOBJECT
NEWEMPTYARRAY
Clique aqui para ler o artigo sobre essas e outras Funções de JSON.
Atualizamos a descrição de Fail On Error na documentação de alguns dos nossos componentes, sem modificar o comportamento desse parâmetro de configuração. Reveja os seguintes artigos:
Corrigimos a informação de retenção de dados nas telas:
painel
execuções concluídas
pipeline logs
Pensando facilitar cada vez mais o seu dia-a-dia com a Digibee Integration Platform, estamos disponibilizando Cápsulas prontas para utilização.
Veja quais são as Coleções que estão com novidades:
Configuring Webhooks: configure e consulte os webhooks da Gupy com mais agilidade.
Upsert Department: gerencie cadastros de departamentos para as vagas existentes na Gupy.
Gupy Business Flow JOB: fluxo para a criação de vagas, que agrupa passos importantes (cargo, departamento, filial, template) de forma simples e mantém a segurança e o tratamento de erros.
Clique aqui para ler o artigo completo sobre essa Coleção.
\
Em breve você poderá gerenciar as imagens dos cabeçalhos de Cápsulas e Coleções em uma área específica. Esse gerenciamento pode ser feito até mesmo por usuários que não têm permissão para criar Cápsula. Com isso, não há preocupações em relação à segurança das Cápsulas.
Estamos trabalhando para que a Plataforma suporte o uso do protocolo gRPC na construção de pipelines.
Gostaríamos de compartilhar algumas melhorias e novidades:
Atualizamos a leitura sobre alguns componentes para que você tenha uma melhor experiência com as suas integrações.
Você pode acessar os novos artigos de:
O artigo “Busca na tela de logs” foi renomeado para “Tela de logs” e passou trazer informações sobre dados sensíveis e limites de retenção, incluindo o tamanho da mensagem (conceito de DGB Truncated). Para acessar a leitura atualizada, clique aqui.
Nós também solucionamos um bug:
Tela de consumer: normalizamos o acesso à tela de configurações quando não há dados no Realm.
Layout de navegação: em breve teremos novidades de navegação para melhorar a sua experiência na Plataforma.
Projetos: você poderá organizar melhor os seus pipelines, o que garante um processo de gestão mais efetivo.
Métricas de pipelines: que tal acompanhar o que está acontecendo com os seus pipelines por meio de novos gráficos em tempo real?
Gostaríamos de compartilhar algumas melhorias e novidades:\
O componente HTML to PDF passou a suportar a inclusão de proteção por senha e também a definição de permissões de acesso. Dessa forma, é possível gerar PDFs com uma camada de segurança e com permissões de acesso específicas. Para ler o artigo completo sobre o componente, clique aqui.
Adicionamos novas configurações ao componente Kafka, possibilitando que os valores do cabeçalho sejam enviados para o broker Kafka aplicando o charset selecionado. Além disso, o valor do cabeçalho de uma mensagem pode ser interpretado em formato binário (base64). Clique aqui para acessar o artigo atualizado sobre o componente.
Implementamos uma melhoria ao componente Log e, a partir de agora, você não precisa utilizar funções para retirar os caracteres de quebra de linha no seu uso. Leia o artigo atualizado desse componente clicando aqui.
Adicionamos o recurso que pode ser ativado para possibilitar o recebimento de um ou mais cabeçalhos (headers) em mensagens consumidas do broker Kafka. Clique aqui para acessar o artigo sobre o Kafka trigger.
Para otimizar a sua experiência de leitura, melhoramos os exemplos no artigo “Double Braces - Funções de String”, mais especificamente nas funções INDEXOF e LASTINDEXOF. Clique aqui para acessar o artigo.
Atualizamos a leitura sobre um componente para que você tenha uma melhor experiência com as suas integrações.
Acesse o novo artigo de Scheduler Trigger clicando aqui.\
Nós também solucionamos um bug:
Componentes DB: resolvemos o problema que impedia o uso de componentes de bancos de dados com bases do tipo OLAP.
Gostaríamos de compartilhar algumas melhorias e novidades
Entregamos um novo componente que permite a execução de comandos em um servidor que suporte SSH remoto. Para saber mais sobre o SSH Remote Command, clique aqui.
Kafka
Adicionamos o recurso de inclusão de um ou mais cabeçalhos (headers) na mensagem enviada para o broker Kafka. Clique aqui para ler o artigo completo e atualizado do componente.\
Atualizamos a leitura sobre alguns componentes para que você tenha uma melhor experiência com as suas integrações.
Você pode acessar os novos artigos de:
Gostaríamos de saber quais são os seus comentários e sugestões de melhoria para a Plataforma. Por isso, te convidamos a utilizar o novo recurso de compartilhamento de opiniões. Veja como é fácil enviar o seu feedback:
Nós também solucionamos alguns bugs:
Stream DB V3: resolvemos uma falha na gestão do pool de conexões que, após uma execução com erro de timeout, impedia que as conexões fossem devolvidas ao pool. Além disso, eliminamos o problema que causava a interpretação incorreta de expressões Double Braces duplicadas no Stream DB V3.
Do While e Parallel Execution: solucionamos o bug que criava uma inconsistência nos componentes Do While e Parallel Execution quando eram criadas versões Major de pipelines.
Telas de configuração: corrigimos um problema de proporção nas telas de configuração de Consumer, Global, Relation e Multi instance, que dificultava a visualização do formulário.
Tela de erro padrão: anteriormente erros não tratados geravam uma tela em branco. Agora uma tela com a exibição de erros padrão é mostrada.
Gostaríamos de compartilhar algumas melhorias e novidades:\
Adicionamos a função DIFFDATE à Plataforma. Agora você pode calcular a diferença de anos, meses, dias, horas, minutos, segundos e milissegundos entre duas datas. Clique aqui para acessar o nosso artigo completo sobre essa e outras Funções de Data.
Atualizamos a leitura sobre alguns componentes para que você tenha uma melhor experiência com as suas integrações.
Você pode acessar os novos artigos de:
Passamos a fornecer uma melhor visualização dos logs referentes aos passos de implantação de pipelines. Com isso, você pode verificar o andamento da implantação e as mensagens de erro que antes não apareciam.
Redesenhamos a apresentação da listagem de pipelines para que você possa aproveitar melhor a tela. Além disso, tornamos a tela mais responsiva, se adaptando melhor a diferentes resoluções.
Criamos um meio exclusivo para você compartilhar a sua opinião sobre a Plataforma, podendo enviar comentários gerais e sugestões de melhoria. Esse recurso está presente em cada uma das nossas telas, o que nos possibilita saber a origem da sua opinião. Veja como nos enviar o seu feedback:
Nós também solucionamos alguns bugs:
JSON to CSV V2: corrigimos um problema que exibia uma mensagem de erro do componente DB V2, quando na verdade o erro ocorria na execução do componente JSON to CSV V2.
Stream DB V3: os componentes de stream (Streamers DB e File Reader) passaram a fechar os recursos de maneira adequada após o término das suas execuções ao invés de fechá-los apenas após o término da execução do pipeline.
Append File: ajustamos a lista de "Files To Append" para suportar Double Braces no campo onde é informado o nome do arquivo.
Zip File: ajustamos a lista de "Files" para suportar Double Braces no campo onde é informado o nome do arquivo.
Email Trigger V2: arrumamos uma falha que permitia que operações efetuadas em mensagens recebidas pelo trigger Email V2 não fossem corretamente movidas, marcadas como lidas ou removidas, pois a caixa postal já havia se desconectado.
Pipeline com multi-instância: eliminamos o bug que permitia a implantação de um pipeline com nome conflitante entre pipelines multi-instância e não multi-instância. Por exemplo: o pipeline "store-newyork" cujo nome é "store" e a instância é "newyork" poderia conflitar com um pipeline previamente implantado com o nome "store-newyork". Apesar de serem pipelines diferentes, os nomes coincidem e isso não é permitido
Gostaríamos de compartilhar algumas melhorias e novidades:
Criamos um componente que possibilita a transformação de um arquivo ou texto para o formato Base64, gerando como saída um novo texto ou um novo arquivo de acordo com sua necessidade. Para ler o artigo sobre o Base64, clique aqui.
Entregamos um novo componente que te permite acrescentar o conteúdo de um arquivo a um outro arquivo já existente. Clique aqui para ler o artigo sobre o Append File.
Adicionamos uma nova funcionalidade ao componente SOAP V2 para que você possa especificar que o corpo da requisição será fornecido por um arquivo. Clique aqui para acessar o artigo atualizado sobre o SOAP V2.
Agora é possível definir o tamanho do pool de conexões do DB V2 como um número equivalente à quantidade de consumers configurados durante a implantação. Além disso, você pode definir que o pool é exclusivo do componente.
Passamos a suportar o IBM MQ, um novo broker do componente JMS. Clique aqui para ler o artigo atualizado.
Atualizamos a leitura sobre o HTTP Trigger para que você tenha uma melhor experiência com as suas integrações. Clique aqui para acessar o artigo.
Passamos a suportar o IBM MQ, um novo broker do JMS Trigger. Clique aqui para ler o artigo atualizado.
Homologamos na Plataforma o banco de dados Snowflake. Clique aqui para saber quais outros bancos de dados são suportados.\
Melhoramos a mensagem que informa sobre o andamento das execuções que excedem o limite máximo de espera do test-mode na tela do pipeline canvas. Além disso, passamos a informar que essas execuções podem ser consultadas no Dashboard, dentro de “Execuções concluídas”.
Estamos sempre buscando melhorar a sua experiência na Plataforma.
Agora, ao clicar no link “Voltar para pipelines” ou no logo da Digibee, você pode usar os seguintes modificadores para abrir uma nova guia, preservando o pipeline canvas aberto:
Windows / Linux: CTRL + botão esquerdo do mouse
Mac: COMMAND + botão esquerdo do mouse
Alteramos a forma de recuperação de senha, onde um link de troca é enviado junto com o e-mail contendo as instruções.
Melhoramos a sensibilidade do mecanismo RECAPTCHA, diminuindo os casos de falsos positivos.
Nós também solucionamos um bug:
Runtime: realizamos um ajuste na tela de Runtime, onde não estava ocorrendo a exibição da lista de pipelines implantados quando o número de licenças era excedido em uma nova implantação.
Gostaríamos de compartilhar algumas melhorias e novidad
Lançamos as Cápsulas Digibee! Cápsulas são componentes reutilizáveis que podem ser criados por qualquer usuário da Plataforma, usando o mesmo modelo de desenvolvimento visual concebido na criação do pipeline.
Uma Cápsula permite que a integração de fluxos seja publicada na paleta de componentes para ser utilizada em outro momento, de maneira simplificada e ainda mais rápida.
Clique aqui para saber mais detalhes sobre as Cápsulas na nossa página.
Clique aqui para acessar o nosso Guia inicial para o uso de Cápsulas.
Adicionamos ao componente as seguintes capacidades:
definição do resultado das linhas de execuções (por exemplo, uma saída resumida do total de execuções ou o detalhamento de todas as execuções);
exibição dos resultados com base no nome das linhas de execução;
ocultação opcional dos erros.
Para ler o artigo atualizado sobre o Parallel Execution, clique aqui.
Adicionamos o campo “Mime Type” ao componente Google Drive, possibilitando que determinados arquivos sejam convertidos para algum tipo do Google Workspace no momento do upload. Para ler o artigo completo sobre esse componente, clique aqui.
O componente Zip File passou a descomprimir arquivos zip, além de comprimir vários arquivos em um único zip.
Adicionamos a função de utilidades TOBOOLEAN à Plataforma. Para saber mais sobre essa e outras funções, clique aqui.
Estamos sempre buscando melhorar a sua experiência na Plataforma. Veja o que fizemos:
adicionamos uma indicação de recebimento de mensagens no novo ícone de ajuda;
inserimos a opção de buscar por todos os tipos de mensagens no filtro de busca nas telas de execuções concluídas e logs de pipelines;
agora o formato de hora na tela de Runtime segue o padrão das demais telas da Plataforma (24h).
Nós também solucionamos alguns bugs:
Mensagem de erro no Canvas: melhoramos a qualidade da mensagem de erro no test-mode quando um teste era realizado no pipeline fazendo referência a um account ou globals inexistente.
SAP: eliminamos um erro que impedia o test-mode de responder corretamente quando o administrador do SAP efetuava uma alteração na RFC. Para pipelines implantados, continua sendo necessário fazer a reimplantação.
Gostaríamos de compartilhar algumas melhorias e novidades:
O componente passou a suportar o Oracle Netsuite ERP. Esse novo banco de dados só permite consultas ao banco, não sendo possível realizar as operações de INSERT, UPDATE e DELETE. Para saber quais são os outros bancos de dados suportados pela Plataforma, clique aqui.
O menu de ajuda dentro do pipeline canvas está mais completo. Além de um caminho para iniciar uma conversa com o nosso time de suporte, você também pode:
acessar a central de ajuda e pesquisar o que quiser sobre a Plataforma;
ver a lista das nossas novidades mais recentes, caso tenha perdido nossos comunicados;
clicar no ícone para os atalhos do teclado, que antes ficava no topo da sua página.
Nós também solucionamos um bug:
SAP: quando era realizada uma chamada com um payload inválido a uma RFC, uma inconsistência no componente SAP afetava o funcionamento das demais chamadas. Agora, mesmo que esse erro ocorra, o pipeline continua funcionando normalmente para as chamadas corretas. Se você utiliza esse componente nos seus pipelines, faça a reimplantação para que a correção seja aplicada.
Gostaríamos de compartilhar algumas melhorias e novidades:\
Criamos um novo componente para que você possa transformar os seus JSONs de maneira mais rápida, eficiente e sem código. Para saber mais sobre o JSON Transformer, clique aqui.
Entregamos um novo componente que te permite criar fluxos de execução paralela. Clique aqui para ler o artigo.
Adicionamos aos triggers REST e HTTP um novo parâmetro que te permite definir o tamanho máximo do payload enviado em uma requisição. Os valores de configuração são:
1MB
2MB
3MB
4MB
5MB
O valor limite atual utilizado em todos os pipelines é de 5MB.
Nós também solucionamos um bug:
Multi-instance: a Plataforma permitia erroneamente o cadastro de fields com valores apenas numéricos, tornando-os inutilizáveis devido à falta de suporte para nomes compostos apenas por números. Por isso, foi criada uma regra para impedir a criação de fields inválidos.
\