LLM Connector

Descubra mais sobre o LLM Connector e como utilizá-lo na Digibee Integration Platform.

O LLM Connector envia solicitações para Modelos de Linguagem de Grande Escala (LLMs) dentro de pipelines da Digibee, permitindo tarefas como classificação de texto, extração de informações, sumarização e avaliação de conteúdo.

Ele suporta autenticação integrada e funciona com os principais provedores: OpenAI, Google Gemini, Anthropic Claude, Azure OpenAI e DeepSeek. A configuração permite controlar o comportamento do modelo, o formato da resposta e a estrutura da saída com base nas necessidades da integração.

Parâmetros

Dê uma olhada nos parâmetros de configuração do conector. Parâmetros suportados por expressões Double Braces estão marcados com (DB).

General

Parâmetro
Descrição
Valor padrão
Tipo de dado

Alias

Nome (alias) para a saída deste conector, permitindo que você a referencie posteriormente no fluxo usando expressões Double Braces. Saiba mais.

llm-1

String

LLM Provider

Especifica o provedor LLM a ser usado. Opções disponíveis: OpenAI, Google Gemini, Anthropic Claude, Azure Open AI e DeepSeek.

N/A

String

Use Custom Model

Habilite para selecionar um modelo de IA personalizado.

False

Booleano

Model

O modelo de IA a ser utilizado, baseado no provedor selecionado. Apenas modelos de texto são suportados; geração de imagem não está disponível.

N/A

String

Account

A conta para autenticação com o conector. Deve estar previamente registrada na página Accounts. Tipo suportado: Secret Key.

N/A

Account

System Promp (DB)

Uma instrução predefinida que define o tom e o comportamento da IA. Você pode usá-la para definir funções ou o tipo de resposta que o modelo deve sempre seguir.

N/A

Plain Text

User Prompt (DB)

O prompt enviado para o modelo de IA. Suporta sintaxe Double Braces para incluir dados ou variáveis de etapas anteriores.

N/A

Plain Text

Response Format

Parâmetro
Descrição
Valor padrão
Tipo de dado

Use JSON Schema

Quando ativado, permite que você forneça um JSON Schema para orientar o LLM na geração do formato de resposta esperado.

False

Booleano

JSON Schema definition

O JSON Schema que a IA deve seguir ao gerar a resposta.

N/A

JSON

Use JSON Mode

Quando ativado, permite que você forneça um exemplo de JSON para ajudar o LLM a produzir o formato de resposta desejado.

False

Booleano

JSON definition

O JSON que a IA deve seguir ao gerar a resposta.

N/A

JSON

Settings

Parâmetro
Descrição
Valor padrão
Tipo de dado

Maximum Output Token (DB)

O comprimento máximo da resposta. Números maiores permitem respostas mais longas, números menores as tornam mais curtas.

10000

Integer

Temperature (DB)

Controla a criatividade. Valores mais baixos tornam as respostas mais focadas e previsíveis. Valores mais altos as tornam mais variadas e criativas.

0.1

Float

Top K (DB)

Limita a quantidade de opções de palavras que o modelo considera em cada etapa. Números menores representam respostas mais seguras e focadas. Números maiores representam mais variedade.

64

Integer

Top P (DB)

Outra forma de controlar a variedade. O modelo analisa apenas as palavras com maior probabilidade de se somarem a essa probabilidade. Valores mais baixos representam respostas mais focadas.

1

Integer

Frequency Penalty (DB)

Desencoraja o modelo de repetir as mesmas palavras com muita frequência.

0

Integer

Presence Penalty (DB)

Incentiva o modelo a trazer novas ideias em vez de permanecer no mesmo tópico.

0

Float

Error Handling

Parâmetro
Descrição
Valor padrão
Tipo de dado

Fail On Error

Se ativado, interrompe a execução do pipeline ao ocorrer um erro. Se desativado, a execução continua, mas a propriedade "success" será definida como false.

False

Booleano

Documentation

Parâmetro
Descrição
Valor padrão
Tipo de dado

Documentation

Campo opcional para descrever a configuração do conector e quaisquer regras de negócio relevantes.

N/A

String

LLM Connector em ação

Configuração apenas com User Prompt

Essa configuração utiliza apenas o parâmetro User Prompt para enviar uma requisição ao modelo de IA.

Exemplo prático

  • Caso de uso: Um pipeline integrado ao Zendesk recebe um novo ticket de cliente. O LLM Connector é utilizado para analisar a solicitação e classificar seu tópico.

  • Objetivo: Classificar o tópico de um ticket de suporte.

User Prompt:

Classifique o tópico da seguinte solicitação de cliente:
"Meu pagamento foi recusado, mas o valor foi debitado da minha conta. Preciso de ajuda para resolver isso."

Exemplo de saída:

{
  "status": 200,
  "body": "Problemas de pagamento"
}

Configuração com User + System Prompts

Essa configuração utiliza os parâmetros User Prompt e System Prompt para guiar a resposta da IA.

Exemplo prático

  • Caso de uso: Após classificar o ticket de suporte, o pipeline consulta uma base de conhecimento. O LLM Connector é então usado novamente para gerar uma resposta personalizada ao cliente.

  • Objetivo: Gerar uma resposta personalizada utilizando tom e estilo predefinidos.

System Prompt:

Você é um agente de suporte amigável e prestativo. Use sempre um tom empático e forneça instruções claras. Retorne a mensagem em texto simples, sem quebras de linha.

User Prompt:

Escreva uma resposta para o cliente abaixo, explicando que iremos investigar o pagamento e responder dentro de 24 horas:
"Meu pagamento foi recusado, mas o valor foi debitado da minha conta. Preciso de ajuda para resolver isso."

Exemplo de saída:

{
  "status": 200,
  "body": "Olá, sinto muito por ouvir que você está passando por problemas com seu pagamento. Posso imaginar que isto pode ser frustrante e quero que saiba que estamos aqui para ajudar. Vamos investigar essa situação o mais rápido possível. O processo de investigação pode levar até 24 horas e entraremos em contato assim que tivermos uma atualização para você. Enquanto isso, sugiro que verifique com sua instituição bancária se há algum problema do lado deles. Muito obrigado pela sua paciência e compreensão."
}

Configuração com Prompts + JSON Schema

Essa configuração utiliza User Prompt, System Prompt e JSON Schema para gerar uma resposta estruturada.

Exemplo prático

Caso de uso: Um pipeline recebe um comentário gerado por um usuário em uma plataforma de ISV (independent software vendor). O LLM Connector envia o comentário para a IA avaliar se ele é nocivo ou ofensivo. A pontuação retornada é então usada para decidir se o comentário deve ser publicado ou se o usuário deve ser sinalizado.

Objetivo: Avaliar e atribuir uma pontuação ao nível de nocividade de um comentário e determinar se ele deve ser aprovado.

System Prompt:

Você é um moderador de conteúdo. Avalie se o comentário é nocivo, atribua uma pontuação de 0 a 1 para gravidade e indique se ele deve ser aprovado
User Prompt:

User Prompt:

Avalie o seguinte comentário:
"Tive uma ótima experiência com essa empresa. A equipe é profissional e muito prestativa."

JSON Schema:

{
  "$schema": "https://json-schema.org/draft/2020-12/schema",
  "title": "ModerationResult",
  "type": "object",
  "properties": {
    "status": {
      "type": "integer",
      "enum": [200],
      "description": "Código de status HTTP"
    },
    "body": {
      "type": "object",
      "properties": {
        "score": {
          "type": "string",
          "pattern": "^(0(\\.\\d+)?|1(\\.0+)?)$",
          "description": "Pontuação de gravidade de 0 a 1"
        },
        "label": {
          "type": "string",
          "description": "Rótulo descrevendo o conteúdo, ex.: inofensivo, potencialmente nocivo"
        },
        "should_approve": {
          "type": "boolean",
          "description": "Indica se o comentário deve ser aprovado"
        }
      },
      "required": ["score", "label", "should_approve"],
      "additionalProperties": false
    }
  },
  "required": ["status", "body"],
  "additionalProperties": false
}

Saída:

{
  "body": {
    "status": "200",
    "body": {
      "score": "0",
      "label": "inofensivo",
      "should_approve": true
    }
  },
  "tokenUsage": {
    "inputTokenCount": 168,
    "outputTokenCount": 22,
    "totalTokenCount": 190
  }
}

Configuração com Prompts + JSON simples

Essa configuração utiliza User Prompt, System Prompt e JSON simples para gerar uma resposta estruturada.

Exemplo prático

Usando o mesmo caso de uso acima, os prompts orientam a IA a retornar diretamente um objeto JSON, sem validação de schema.

System Prompt:

Você é um moderador de conteúdo. Avalie se o comentário é nocivo, atribua uma pontuação de 0 a 1 para gravidade e indique se ele deve ser aprovado.

User Prompt:

Avalie o seguinte comentário:
"Tive uma ótima experiência com essa empresa. A equipe é profissional e muito prestativa."

JSON Simples:

{
  "score": "",
  "label": "",
  "should_approve": ""
}

Possível saída:

{
  "body": {
    "score": "0",
    "label": "Inofensivo",
    "should_approve": "sim"
  },
  "tokenUsage": {
    "inputTokenCount": 91,
    "outputTokenCount": 26,
    "totalTokenCount": 117
  }
}

Configuração dinâmica: Prompt com referência Double Braces

Essa configuração utiliza o campo User Prompt para injetar dinamicamente dados de um conector anterior usando expressões Double Braces. Além disso, os campos System Prompt e Output Format são usados para orientar a IA e gerar uma resposta estruturada.

Exemplo prático

  • Caso de uso: Um pipeline recebe dados de endereço de um conector REST que consulta a API pública brasileira de CEP (OpenCEP). O LLM Connector é então utilizado para classificar o tipo de endereço como residencial, comercial ou rural, com base no nome da rua e no bairro retornados pela API.

  • Objetivo: Categorizar o tipo de endereço utilizando dados dinâmicos do conector anterior.

System Prompt:

Você é um assistente de classificação de endereços. Com base no nome da rua e no bairro, classifique o endereço como residencial, comercial ou rural. Explique seu raciocínio.

User Prompt com Double Braces:

Use o seguinte endereço para fazer sua avaliação: {{message.body}}

Output Format Body:

{
  "tipo": "",
  "razão": ""
}

Possível saída:

{
  "status": 200,
  "body": {
    "tipo": "Residencial",
    "razão": "Os endereços residenciais geralmente são caracterizados por nomes de rua sem identificadores comerciais ou industriais. A 'Rua Abilio Carvalho Bastos' não sugere que seja uma área comercial ou industrial. Além disso, as ruas normalmente representam áreas residenciais em uma cidade ou cidade. O bairro 'Fósforo', por não possuir uma identificação típica de zonas comerciais ou rurais, também sugere ser uma área residencial."
  }
}

Perguntas frequentes

Como posso testar e experimentar meus prompts?

Use o Painel de Execução para testar seus prompts. A opção Executar seleção é especialmente útil para testar prompts separadamente do restante do pipeline.

Posso usar dados de conectores anteriores?

Sim. Você pode usar expressões Double Braces para referenciar dados de conectores anteriores e incluí-los no seu prompt.

Como os dados sensíveis são tratados?

O conector não redige nem filtra os dados do payload. Recomendamos seguir as mesmas práticas de tratamento de dados usadas com outros conectores.

Posso encadear várias chamadas LLM em um único pipeline?

Sim. Você pode usar a saída de uma chamada LLM como entrada para outra. Por exemplo, primeiro classificar um ticket de suporte, depois gerar uma resposta com base na classificação.

E se o LLM gerar resultados imprecisos ou inventados?

Para tarefas críticas, reduza o risco de alucinação dividindo o processo em etapas menores, como gerar primeiro e verificar depois. Isso proporciona mais controle e permite validar o resultado antes de utilizá-lo.

O que acontece se o provedor demorar muito para responder?

Se o provedor demorar muito para responder, a solicitação será encerrada por tempo excedido e uma mensagem de erro será exibida no Painel de Execução.

Atualizado

Isto foi útil?