7.20 - Contextos
Descubra como a API da OpenAI pode transformar suas interações, fornecendo respostas inteligentes em sessões receptivas, apoiando seus agentes durante atendimentos em andamento e até mesmo auxiliando os administradores com resumos detalhados em relatórios de conversas.
Em resumo, você administrador deverá:
Criar sua conta na https://www.openai.com/ para integração com o Conecta Leucotron.
Definir Contextos para o fluxo e FAQ dos agentes.
Vincular o Aplicativo REST às equipes para gerar os resumos nos relatórios de conversas.
A seguir, descrevemos detalhadamente o que e como devem ser realizadas as configurações.
Crie sua Conta na OpenAI e obtenha a API Key
O primeiro passo para desbloquear o potencial da OpenAI em sua plataforma é criar uma conta na OpenAI. Acesse o site oficial e siga as instruções para configurar sua conta: https://www.openai.com/
Depois, acesse o link https://platform.openai.com/api-keys para obter sua API Key. Essa chave é essencial para a comunicação entre os recursos da OpenAI e a plataforma Conecta Leucotron.
O uso da API Key está sujeito a custos, conforme a quantidade de tokens solicitados. Verifique a página oficial de preços da OpenAI para garantir informações atualizadas antes de realizar qualquer integração ou teste em sua plataforma: https://openai.com/pricing
Integração na Plataforma Conecta Leucotron
Com sua API Key em mãos, acesse a Tela Administrativado Conecta. Navegue até o menu 9.0 - Integrações e escolha "Rest". Na aba "Aplicativo", clique no ícone inferior para cadastrar um novo aplicativo.
Configurando o Aplicativo:
Nome do App: Nome que será exibido no componente RPA do 4.0 - Fluxo e nas 7.3 - Equipes .
Categoria: Selecione "Copilot".
Tipos de Itens: GPT - Completions, Chat, Completions (Context) e Chat (Context)
A diferença entre GPT completions e GPT Chat está principalmente relacionada à maneira como lidam com o histórico de mensagens e compreensão durante uma conversa.
No GPT Chat, se você pergunta algo como "O conecta possui X funcionalidade?" e na próxima pergunta diz "Ele consegue fazer X operação?", o modelo entenderá que você está se referindo ao assunto anterior. O GPT completions também pode ser suficiente na maioria dos casos, mas a escolha entre eles depende da sua preferência.
Quanto ao "Context", se você optar por usá-lo, precisa fornecer um contexto durante a configuração. Geralmente, é útil em cenários de atendimento ao cliente, onde você pode dar instruções específicas sobre como as informações devem ser retornadas.
Salvando o Aplicativo e Acessando Configurações - Contextos
Após salvar o aplicativo, vá para 7.0 - Configurações e clique em "Contextos". Nesta seção, você define regras e conteúdos que serão aplicados no fluxo de atendimento dos canais ou como atalhos para os agentes, enriquecendo a base de conhecimento.
Configurando Contextos:
Crie regras específicas para direcionar o uso dos modelos da OpenAI em diferentes situações.
Associe conteúdos relevantes a cada contexto. Estes podem ser perguntas frequentes, informações importantes ou até mesmo instruções específicas.
Fluxo de atendimento
Inicialmente, estabeleça a estrutura do fluxo de atendimento, delineando os caminhos possíveis e as respostas adequadas com base em contextos predefinidos. Explore os questionamentos que devem ser feitos e como o sistema deve reagir diante de diferentes solicitações.
Confira abaixo dois exemplos representativos que abordam a identificação do setor e respostas alinhadas a uma FAQ criada.
Clique nas abas abaixo para uma visão mais detalhada.
Contextos utilizados
A vantagem dessa integração é a necessidade de apenas fornecer um contexto com o conteúdo e instruções, ao invés de prever todas as possíveis perguntas e respostas, como acontece com o 7.14 - Inteligência Artificial (NLP) . A resposta para o usuário é baseada na pergunta formulada pelo cliente e no contexto contendo informações relevantes, juntamente com as regras definidas para o BOT.
É possível ainda utilizar uma condição para validar o retorno para a variável vinculada identificando o setor solicitado e, em seguida, definir novas integrações ou utilizar componentes nativos do Conecta Leucotron para direcionar o atendimento.
Veja um exemplo:
Script do fluxo
() => {
var x = contexto + "\n" + "P:" + conversa + "\nR:"
return x;
};
JSON do Componente RPA
{
"id": "{{ID}}",
"object": "text_completion",
"created": 1675885315,
"model": "text-davinci-003",
"choices": "{{CHOICES}}",
"usage": {
"prompt_tokens": 11,
"completion_tokens": 38,
"total_tokens": "{{TOTAL_TOKENS}}"
}
}
Mensagem de retorno com mustache
{{!project:start}}
{{#CHOICES}}
{{text}}
{{/CHOICES}}
{{!project:end}}
Para obter informações detalhadas sobre a configuração do fluxo de atendimento, consulte o tópico 7.20 - Contextos | Configuração Geral .
Tela Operacional
O Copilot também proporciona um auxílio valioso para os agentes durante os atendimentos, conforme ilustrado nas imagens a seguir:
A integração não envia a mensagem automaticamente após a seleção, permitindo que o agente verifique e garanta que a resposta esteja adequada à pergunta do contato. Essa funcionalidade proporciona uma otimização significativa nos atendimentos, facilitando a busca de informações e a formulação de mensagens.
Para informações detalhadas sobre a configuração da tela operacional, veja o tópico 7.20 - Contextos | Configuração Geral.
Relatório de Conversas
Além de todas as melhorias mencionadas, a atualização também incluiu um resumo automático para cada sessão após a finalização dos atendimentos. A análise de sentimentos pode ser ativada, e o resumo descreverá brevemente os sentimentos em relação a toda a conversa, tanto do contato para o agente quanto vice-versa.
É possível configurar no contexto como o resumo dos atendimentos e a análise de sentimentos devem ser realizados, por exemplo, definindo a quantidade de palavras e frases inseridas. Essa funcionalidade visa melhorar os processos de auditoria para conversas mais longas, com alto tráfego de mensagens.
A ativação da análise de sentimentos fica a critério do responsável, pois o resumo pode ser habilitado independente deste recurso nas equipes. Veja sobre aqui: 4.2 - Análise de Sentimentos
Imagens para referência:
Configuração Geral
Na tela administrativa, perceba que foi adicionada a aba de Contextos no menu Configuração, que é justamente o ambiente de criação dos conteúdos que serão consultados pelo ChatGPT para fornecer informações ao fluxo, aos agentes e criar os resumos e análises em relatórios de atendimento.
Para criar um contexto, acesse Configurações → Contextos e clique no ícone de adição no canto inferior direito da tela.
Dê uma identificação para este contexto e insira o texto que será utilizado para análise da entrada do cliente. Veja exemplos de contextos no tópico 7.20 - Contextos | Contextos utilizados
Voltar para Manual de Configuração do Conecta
Voltar para Tela Administrativa
Voltar para Configurações