LLM Connector
Descubra mais sobre o LLM Connector e como utilizá-lo na Digibee Integration Platform.
Atualizado
Isto foi útil?
Descubra mais sobre o LLM Connector e como utilizá-lo na Digibee Integration Platform.
Atualizado
Isto foi útil?
O LLM Connector envia solicitações para Modelos de Linguagem de Grande Escala (LLMs) dentro de pipelines da Digibee, permitindo tarefas como classificação de texto, extração de informações, sumarização e avaliação de conteúdo.
Ele suporta autenticação integrada e funciona com os principais provedores: , , e . A configuração permite controlar o comportamento do modelo, o formato da resposta e a estrutura da saída com base nas necessidades da integração.
Dê uma olhada nos parâmetros de configuração do conector. Parâmetros suportados por estão marcados com (DB)
.
LLM Provider
Especifica o provedor LLM a ser usado. Opções disponíveis: Anthropic Claude, DeepSeek, Google Gemini e OpenAI.
N/A
String
Model
O modelo de IA a ser utilizado, baseado no provedor selecionado. Apenas modelos de texto são suportados; geração de imagem não está disponível.
N/A
String
Account
N/A
Account
User Prompt (DB)
O prompt enviado para o modelo de IA. Suporta sintaxe Double Braces para incluir dados ou variáveis de etapas anteriores.
N/A
Plain Text
Output Format
Quando ativado, permite definir um formato de saída personalizado para a resposta da IA.
False
Booleano
Output Format Body (DB)
A estrutura do formato de saída desejado.
N/A
JSON
System Prompt (DB)
Uma instrução predefinida que define o tom e comportamento da IA. Pode ser usado para definir papéis ou o tipo de resposta que o modelo deve seguir.
N/A
Plain Text
Maximum Output Token (DB)
Define o número máximo de tokens permitidos na resposta da IA. Valores menores podem reduzir a qualidade e completude da saída.
1024
Integer
Stop On Client Error
Se ativado, interrompe a execução do pipeline ao ocorrer um erro HTTP 4xx.
False
Booleano
Stop On Server Error
Se ativado, interrompe a execução do pipeline ao ocorrer um erro HTTP 5xx.
False
Booleano
Fail On Error
Se ativado, interrompe a execução do pipeline ao ocorrer um erro. Se desativado, a execução continua, mas a propriedade "success"
será definida como false
.
False
Booleano
Documentation
Campo opcional para descrever a configuração do conector e quaisquer regras de negócio relevantes.
N/A
String
Essa configuração utiliza apenas o parâmetro User Prompt para enviar uma requisição ao modelo de IA.
Vantagens:
Fácil de configurar com apenas uma entrada.
Bom para testar diferentes prompts rapidamente.
Funciona bem para requisições simples.
Caso de uso: Um pipeline integrado ao Zendesk recebe um novo ticket de cliente. O LLM Connector é utilizado para analisar a solicitação e classificar seu tópico.
Objetivo: Classificar o tópico de um ticket de suporte.
User Prompt:
Exemplo de saída:
Essa configuração utiliza os parâmetros User Prompt e System Prompt para guiar a resposta da IA.
Vantagens:
Ajuda a guiar o tom e o comportamento da IA.
Torna as respostas mais consistentes.
Adiciona contexto que ajuda a IA a entender melhor o prompt.
Caso de uso: Após classificar o ticket de suporte, o pipeline consulta uma base de conhecimento. O LLM Connector é então usado novamente para gerar uma resposta personalizada ao cliente.
Objetivo: Gerar uma resposta personalizada utilizando tom e estilo predefinidos.
System Prompt:
User Prompt:
Exemplo de saída:
Essa configuração utiliza User Prompt, System Prompt e Output Format para gerar uma resposta estruturada.
Vantagens:
Produz uma saída clara e estruturada.
Útil quando o resultado precisa seguir uma estrutura específica.
Ajuda a controlar a imprevisibilidade da IA ao definir um formato fixo.
Caso de uso: Um pipeline recebe um comentário gerado por usuário de uma plataforma ISV (provedor de software independente). O LLM Connector envia o comentário à IA para avaliar se é ofensivo ou prejudicial. A pontuação retornada é usada para decidir se o comentário deve ser publicado ou se o usuário deve ser sinalizado.
Objetivo: Avaliar e pontuar a nocividade de um comentário e determinar se ele deve ser aprovado.
System Prompt:
User Prompt:
Output Format Body:
Possível saída:
Essa configuração utiliza o campo User Prompt para injetar dinamicamente dados de um conector anterior usando expressões Double Braces. Além disso, os campos System Prompt e Output Format são usados para orientar a IA e gerar uma resposta estruturada.
Vantagens:
Permite prompts contextuais com base em dados do pipeline.
Conecta a resposta da IA a informações de tempo de execução.
Objetivo: Categorizar o tipo de endereço utilizando dados dinâmicos do conector anterior.
System Prompt:
User Prompt com Double Braces:
Output Format Body:
Possível saída:
A conta para autenticação com o conector. Deve estar previamente registrada na página . Tipo suportado: Secret Key.
Caso de uso: Um pipeline recebe dados de endereço de um que consulta a API pública brasileira de CEP (OpenCEP). O LLM Connector é então utilizado para classificar o tipo de endereço como residencial, comercial ou rural, com base no nome da rua e no bairro retornados pela API.
Use o para testar seus prompts. A opção é especialmente útil para testar prompts separadamente do restante do pipeline.
Sim. Você pode usar para referenciar dados de conectores anteriores e incluí-los no seu prompt.