LLM Connector
Descubra mais sobre o LLM Connector e como utilizá-lo na Digibee Integration Platform.
O LLM Connector envia solicitações para Modelos de Linguagem de Grande Escala (LLMs) dentro de pipelines da Digibee, permitindo tarefas como classificação de texto, extração de informações, sumarização e avaliação de conteúdo.
Ele suporta autenticação integrada e funciona com os principais provedores: Anthropic Claude, DeepSeek, Google Gemini e OpenAI. A configuração permite controlar o comportamento do modelo, o formato da resposta e a estrutura da saída com base nas necessidades da integração.
Parâmetros
Dê uma olhada nos parâmetros de configuração do conector. Parâmetros suportados por expressões Double Braces estão marcados com (DB)
.
General
LLM Provider
Especifica o provedor LLM a ser usado. Opções disponíveis: Anthropic Claude, DeepSeek, Google Gemini e OpenAI.
N/A
String
Model
O modelo de IA a ser utilizado, baseado no provedor selecionado. Apenas modelos de texto são suportados; geração de imagem não está disponível.
N/A
String
Account
A conta para autenticação com o conector. Deve estar previamente registrada na página Accounts. Tipo suportado: Secret Key.
N/A
Account
User Prompt (DB)
O prompt enviado para o modelo de IA. Suporta sintaxe Double Braces para incluir dados ou variáveis de etapas anteriores.
N/A
Plain Text
Output Format
Quando ativado, permite definir um formato de saída personalizado para a resposta da IA.
False
Booleano
Output Format Body (DB)
A estrutura do formato de saída desejado.
N/A
JSON
System Prompt
System Prompt (DB)
Uma instrução predefinida que define o tom e comportamento da IA. Pode ser usado para definir papéis ou o tipo de resposta que o modelo deve seguir.
N/A
Plain Text
Maximum Output Token (DB)
Define o número máximo de tokens permitidos na resposta da IA. Valores menores podem reduzir a qualidade e completude da saída.
1024
Integer
Settings
Stop On Client Error
Se ativado, interrompe a execução do pipeline ao ocorrer um erro HTTP 4xx.
False
Booleano
Stop On Server Error
Se ativado, interrompe a execução do pipeline ao ocorrer um erro HTTP 5xx.
False
Booleano
Error Handling
Fail On Error
Se ativado, interrompe a execução do pipeline ao ocorrer um erro. Se desativado, a execução continua, mas a propriedade "success"
será definida como false
.
False
Booleano
Documentation
Documentation
Campo opcional para descrever a configuração do conector e quaisquer regras de negócio relevantes.
N/A
String
LLM Connector em ação
Configuração mínima: Requisição com User Prompt
Essa configuração utiliza apenas o parâmetro User Prompt para enviar uma requisição ao modelo de IA.
Vantagens:
Fácil de configurar com apenas uma entrada.
Bom para testar diferentes prompts rapidamente.
Funciona bem para requisições simples.
Exemplo prático
Caso de uso: Um pipeline integrado ao Zendesk recebe um novo ticket de cliente. O LLM Connector é utilizado para analisar a solicitação e classificar seu tópico.
Objetivo: Classificar o tópico de um ticket de suporte.
User Prompt:
Classifique o tópico da seguinte solicitação de cliente:
"Meu pagamento foi recusado, mas o valor foi debitado da minha conta. Preciso de ajuda para resolver isso."
Exemplo de saída:
{
"status": 200,
"body": "Problemas de pagamento"
}
Configuração intermediária: Requisição com User + System Prompts
Essa configuração utiliza os parâmetros User Prompt e System Prompt para guiar a resposta da IA.
Vantagens:
Ajuda a guiar o tom e o comportamento da IA.
Torna as respostas mais consistentes.
Adiciona contexto que ajuda a IA a entender melhor o prompt.
Exemplo prático
Caso de uso: Após classificar o ticket de suporte, o pipeline consulta uma base de conhecimento. O LLM Connector é então usado novamente para gerar uma resposta personalizada ao cliente.
Objetivo: Gerar uma resposta personalizada utilizando tom e estilo predefinidos.
System Prompt:
Você é um agente de suporte amigável e prestativo. Use sempre um tom empático e forneça instruções claras. Retorne a mensagem em texto simples, sem quebras de linha.
User Prompt:
Escreva uma resposta para o cliente abaixo, explicando que iremos investigar o pagamento e responder dentro de 24 horas:
"Meu pagamento foi recusado, mas o valor foi debitado da minha conta. Preciso de ajuda para resolver isso."
Exemplo de saída:
{
"status": 200,
"body": "Olá, sinto muito por ouvir que você está passando por problemas com seu pagamento. Posso imaginar que isto pode ser frustrante e quero que saiba que estamos aqui para ajudar. Vamos investigar essa situação o mais rápido possível. O processo de investigação pode levar até 24 horas e entraremos em contato assim que tivermos uma atualização para você. Enquanto isso, sugiro que verifique com sua instituição bancária se há algum problema do lado deles. Muito obrigado pela sua paciência e compreensão."
}
Configuração avançada: Requisição com Prompts + Output Format
Essa configuração utiliza User Prompt, System Prompt e Output Format para gerar uma resposta estruturada.
Vantagens:
Produz uma saída clara e estruturada.
Útil quando o resultado precisa seguir uma estrutura específica.
Ajuda a controlar a imprevisibilidade da IA ao definir um formato fixo.
Exemplo prático
Caso de uso: Um pipeline recebe um comentário gerado por usuário de uma plataforma ISV (provedor de software independente). O LLM Connector envia o comentário à IA para avaliar se é ofensivo ou prejudicial. A pontuação retornada é usada para decidir se o comentário deve ser publicado ou se o usuário deve ser sinalizado.
Objetivo: Avaliar e pontuar a nocividade de um comentário e determinar se ele deve ser aprovado.
System Prompt:
Você é um moderador de conteúdo. Avalie se o comentário é prejudicial, atribua uma pontuação de 0 a 1 para a gravidade e indique se ele deve ser aprovado.
User Prompt:
Avalie o seguinte comentário:
"Esta empresa é uma piada. Todos que trabalham lá são completamente incompetentes."
Output Format Body:
{
"pontuação": "",
"classificação": "",
"aprovado": ""
}
Possível saída:
{
"status": 200,
"body": {
"pontuação": "0.7",
"classificação": "Prejudicial",
"aprovado": "Não"
}
}
Configuração dinâmica: Prompt com referência Double Braces
Essa configuração utiliza o campo User Prompt para injetar dinamicamente dados de um conector anterior usando expressões Double Braces. Além disso, os campos System Prompt e Output Format são usados para orientar a IA e gerar uma resposta estruturada.
Vantagens:
Permite prompts contextuais com base em dados do pipeline.
Conecta a resposta da IA a informações de tempo de execução.
Exemplo prático
Caso de uso: Um pipeline recebe dados de endereço de um conector REST que consulta a API pública brasileira de CEP (OpenCEP). O LLM Connector é então utilizado para classificar o tipo de endereço como residencial, comercial ou rural, com base no nome da rua e no bairro retornados pela API.
Objetivo: Categorizar o tipo de endereço utilizando dados dinâmicos do conector anterior.
System Prompt:
Você é um assistente de classificação de endereços. Com base no nome da rua e no bairro, classifique o endereço como residencial, comercial ou rural. Explique seu raciocínio.
User Prompt com Double Braces:
Use o seguinte endereço para fazer sua avaliação: {{message.body}}
Output Format Body:
{
"tipo": "",
"razão": ""
}
Possível saída:
{
"status": 200,
"body": {
"tipo": "Residencial",
"razão": "Os endereços residenciais geralmente são caracterizados por nomes de rua sem identificadores comerciais ou industriais. A 'Rua Abilio Carvalho Bastos' não sugere que seja uma área comercial ou industrial. Além disso, as ruas normalmente representam áreas residenciais em uma cidade ou cidade. O bairro 'Fósforo', por não possuir uma identificação típica de zonas comerciais ou rurais, também sugere ser uma área residencial."
}
}
Perguntas frequentes
Atualizado
Isto foi útil?