Testes Unitários 11 de março de 2026 12:24 Atualizado Índice Introdução Como acessar os Testes unitários Gerenciando Testes Unitários Configurando um Teste Unitário Executando e Analisando os Testes IntroduçãoA funcionalidade de Testes Unitários permite validar a precisão das respostas do seu fluxo conversacional, seja ele determinístico ou baseado em um agente de IA.O teste funciona configurando pares de interação: você define a mensagem de entrada, que pode ser um texto ou uma URL pública, e a resposta esperada, que pode ser um texto e/ou a validação de arquivos. Durante a execução, o teste envia cada interação e para ao detectar a primeira falha.Este processo garante que o sistema responda corretamente e permite ajustes rápidos em caso de problemas, sendo uma ferramenta essencial para verificar se os comportamentos esperados estão corretos antes de serem implantados em produção. A funcionalidade facilita a manutenção e a evolução contínua do seu Contato Inteligente. Como acessar os Testes unitáriosNa tela Studio: No canto superior direito da tela, clique no ícone . No menu que abrir, selecione Testes unitários. A seguinte tela se abrirá:Gerenciando Testes UnitáriosA tela de gerenciamento de testes unitários é o ponto de partida para visualizar, criar e executar os testes do seu bot ou agente de IACriar testeClique no botão Criar teste no canto superior direito ou caso não haja testes criados clicar no botão centralizado na lista Criar novo teste. É possível preencher todos os parâmetros para o teste manualmente ou importar um arquivo de configurações clicando no botão: Importar configurações: carregar um arquivo no formato do Blip com testes já prontos.Outros recursos Pesquisar: Campo de busca para encontrar testes específicos pelo nome. Lista de testes: Exibe todos os testes unitários criados, com as seguintes informações: Nome do teste: Nome definido para o teste. Interações: Número total de interações configuradas para o teste. Última execução: Data e hora da última vez que o teste foi executado. Último status: Indica o resultado da última execução do teste, podendo ser: Aguardando execução: O teste foi criado, mas ainda não foi executado. Sucesso: Todas as interações do teste passaram com sucesso (ex: "Sucesso 18/18"). Falha na métrica: O teste foi executado, mas algumas interações falharam (ex: a mensagem "Falha na métrica 25/57" indica que 25 interações falharam de um total de 57 interações configuradas.). Erro ao iniciar: O teste não pôde ser executado devido a um erro no início (ex: "Erro ao iniciar 2/3"). Interrompido: O teste pode ser interrompido durante a execução. Excluir testes: remove um ou mais testes Executar testes: executa um ou mais testes selecionados. Configurando um Teste UnitárioAo criar ou editar um teste, você terá acesso a três abas de configuração: Definições, Variáveis e Interações.InteraçõesEstá a aba é onde você define a sequência de perguntas e respostas para validar o comportamento do seu bot ou agente de IA Ordem: A ordem em que as interações serão executadas. Você pode reordenar as interações arrastando os ícones de grade. Descrição: A entrada de texto que será enviada para o bot. Resultado: O status da interação após a execução do teste, podendo ser: Aguardando execução: A interação ainda não foi testada. Sucesso: A resposta do bot correspondeu ao esperado. Erro ao iniciar: A interação não pôde ser iniciada. Falha na métrica: A resposta do bot não correspondeu ao esperado. Interrompido: O teste foi interrompido pelo usuário durante a execução. Configurando uma Interação:Ao clicar em uma interação, você pode expandir a seção para configurá-la em detalhes. Tipo de entrada: Define o tipo de entrada que você está enviando. Mensagem de Entrada: A entrada do usuário pode ser um texto simples ou uma URL pública apontando para um arquivo. Resposta Esperada: Blocos de Texto: A resposta esperada pode ser um ou mais trechos de texto. Quando se trata de formatos estruturados, como menus em JSON, é aconselhável incluir o JSON diretamente, garantindo que o sistema compreenda e compare conforme esperado. Tipo de Arquivo: Além disso, a resposta pode requerer a presença de arquivos específicos, como documentos, imagens, áudios ou vídeos. A configuração deve especificar não apenas o tipo, mas também a quantidade esperada. Por exemplo, se a interação deve retornar dois documentos, a configuração deve refletir isso. O teste falhará se a resposta não corresponder exatamente ao número e tipo de arquivos esperados. Texto: O texto que o bot receberá (ex: "Qual horário de funcionamento?"). Métrica de Comparação Textual:Similaridade: A métrica de similaridade avalia o quanto uma resposta gerada se aproxima da resposta esperada em termos de conteúdo e estrutura. Ela permite variações enquanto ainda considera a resposta válida.Recomendação de Uso: Ideal para sistemas flexíveis, como agentes inteligentes, que podem gerar respostas com alguma variação. Defina o ponto limite de similaridade para estabelecer o grau de variação aceitável. Por exemplo, um limite de 6.5 indica que a resposta deve ter pelo menos 65% de similaridade com o esperado. Correspondência Exata:Esta métrica requer que a resposta gerada seja completamente idêntica à resposta esperada, sem qualquer desvio ou variação, incluindo pontuação e caracteres especiais.Recomendação de Uso: Ideal para sistemas determinísticos onde a precisão é crucial. Garante que a resposta seja exatamente como esperado, assegurando consistência e precisão. Considera diferenças de formatação, como quebras de linha dentro de um bloco ou separação em blocos distintos, indicando mensagens enviadas separadamente. VariáveisNesta aba, você pode gerenciar as variáveis de contexto que serão usadas no fluxo de teste. Adicione, edite ou remova as variáveis que seu bot ou agente de IA pode precisar para iniciar o fluxo corretamente. Tipo: contexto ou contato Nome: Nome da variável (ex: numbercpf). Valor: Valor que a variável terá (ex: 129.452.875-06). Nova variável: Adiciona uma nova variável. DefiniçõesNesta aba, você define o tempo de espera para que o teste seja executado.Tempo de espera da resposta: Use o controle deslizante para definir o tempo limite para cada interação do seu teste. Se a resposta do bot demorar mais do que o tempo estipulado, a interação será considerada uma falha.Executando e Analisando os Testes Clique em Salvar após configurar o teste. Na lista de testes, selecione o teste e clique em Executar testes. Veja o status na lista e clique no teste para analisar o resultado. Interações com Falha na métrica ou Erro ao iniciar indicam pontos que precisam de ajustes. Para mais informações, acesse a discussão sobre o assunto em nossa comunidade ou os vídeos no nosso canal. 😃 Artigos relacionados Configuração do arquivo de audiência - Envio de notificações em massa Studio: Primeiros Passos - Configurações Básicas Bibliotecas blocos - Habilidades prontas Como testar seu modelo de NLP Criando mensagens interativas no WhatsApp