Índice
Introducción
La funcionalidad de Pruebas Unitarias permite validar la precisión de las respuestas de su flujo conversacional, ya sea determinista o basado en un agente de IA.
La prueba funciona configurando pares de interacción: usted define el mensaje de entrada, que puede ser un texto o una URL pública, y la respuesta esperada, que puede ser un texto y/o la validación de archivos. Durante la ejecución, la prueba envía cada interacción y se detiene al detectar el primer fallo.
Este proceso garantiza que el sistema responda correctamente y permite ajustes rápidos en caso de problemas, siendo una herramienta esencial para verificar si los comportamientos esperados son correctos antes de ser implementados en producción. La funcionalidad facilita el mantenimiento y la evolución continua de su Contacto Inteligente.
Cómo acceder a las Pruebas unitarias
En la pantalla Studio:
En la esquina superior derecha de la pantalla, haga clic en el icono
.
En el menú que se abra, seleccione Pruebas unitarias.
Se abrirá la siguiente pantalla:
Gestionando Pruebas Unitarias
La pantalla de gestión de pruebas unitarias es el punto de partida para visualizar, crear y ejecutar las pruebas de su bot o agente de IA.
Crear prueba
Haga clic en el botón Crear prueba en la esquina superior derecha o, en caso de que no haya pruebas creadas, haga clic en el botón centrado en la lista Crear nueva prueba. Es posible completar todos los parámetros para la prueba manualmente o importar un archivo de configuraciones haciendo clic en el botón:
Importar configuraciones: cargar un archivo en el formato de Blip con pruebas ya listas.
Otros recursos
Buscar: Campo de búsqueda para encontrar pruebas específicas por el nombre.
-
Lista de pruebas: Muestra todas las pruebas unitarias creadas, con las siguientes informaciones:
Nombre de la prueba: Nombre definido para la prueba.
Interacciones: Número total de interacciones configuradas para la prueba.
Última ejecución: Fecha y hora de la última vez que se ejecutó la prueba.
-
Último estado: Indica el resultado de la última ejecución de la prueba, pudiendo ser:
Esperando ejecución: La prueba fue creada, pero aún no ha sido ejecutada.
Éxito: Todas las interacciones de la prueba pasaron con éxito (ej: "Éxito 18/18").
Fallo en la métrica: La prueba fue ejecutada, pero algunas interacciones fallaron (ej: el mensaje "Fallo en la métrica 25/57" indica que 25 interacciones fallaron de un total de 57 interacciones configuradas).
Error al iniciar: La prueba no pudo ejecutarse debido a un error al inicio (ej: "Error al iniciar 2/3").
Interrumpido: La prueba puede ser interrumpida durante la ejecución.
Eliminar pruebas: elimina una o más pruebas.
Ejecutar pruebas: ejecuta una o más pruebas seleccionadas.
Configurando una Prueba Unitaria
Al crear o editar una prueba, tendrá acceso a tres pestañas de configuración: Definiciones, Variables e Interacciones.
Interacciones
Esta pestaña es donde usted define la secuencia de preguntas y respuestas para validar el comportamiento de su bot o agente de IA.
Orden: El orden en que se ejecutarán las interacciones. Puede reordenar las interacciones arrastrando los iconos de cuadrícula.
Descripción: La entrada de texto que se enviará al bot.
-
Resultado: El estado de la interacción después de la ejecución de la prueba, pudiendo ser:
Esperando ejecución: La interacción aún no ha sido probada.
Éxito: La respuesta del bot coincidió con lo esperado.
Error al iniciar: La interacción no pudo iniciarse.
Fallo en la métrica: La respuesta del bot no coincidió con lo esperado.
Interrumpido: La prueba fue interrumpida por el usuario durante la ejecución.
Configurando una Interacción:
Al hacer clic en una interacción, puede expandir la sección para configurarla en detalle.
Tipo de entrada: Define el tipo de entrada que está enviando.
Mensaje de Entrada: La entrada del usuario puede ser un texto simple o una URL pública que apunte a un archivo.
-
Respuesta Esperada:
Bloques de Texto: La respuesta esperada puede ser uno o más fragmentos de texto.
Cuando se trata de formatos estructurados, como menús en JSON, se aconseja incluir el JSON directamente, garantizando que el sistema comprenda y compare según lo esperado.
Tipo de Archivo: Además, la respuesta puede requerir la presencia de archivos específicos, como documentos, imágenes, audios o vídeos. La configuración debe especificar no solo el tipo, sino también la cantidad esperada. Por ejemplo, si la interacción debe devolver dos documentos, la configuración debe reflejar eso. La prueba fallará si la respuesta no corresponde exactamente al número y tipo de archivos esperados.
Texto: El texto que el bot recibirá (ej: "¿Cuál es el horario de atención?").
Métrica de Comparación Textual:
Similitud:
La métrica de similitud evalúa cuánto se aproxima una respuesta generada a la respuesta esperada en términos de contenido y estructura. Permite variaciones mientras sigue considerando la respuesta válida.
Recomendación de Uso:
Ideal para sistemas flexibles, como agentes inteligentes, que pueden generar respuestas con alguna variación.
Defina el punto límite de similitud para establecer el grado de variación aceptable. Por ejemplo, un límite de 6.5 indica que la respuesta debe tener al menos un 65% de similitud con lo esperado.
Correspondencia Exacta:
Esta métrica requiere que la respuesta generada sea completamente idéntica a la respuesta esperada, sin ninguna desviación o variación, incluyendo puntuación y caracteres especiales.
Recomendación de Uso:
Ideal para sistemas deterministas donde la precisión es crucial.
Garantiza que la respuesta sea exactamente como se espera, asegurando consistencia y precisión.
Considera diferencias de formato, como saltos de línea dentro de un bloque o separación en bloques distintos, indicando mensajes enviados por separado.
Variables
En esta pestaña, puede gestionar las variables de contexto que se utilizarán en el flujo de prueba. Añada, edite o elimine las variables que su bot o agente de IA pueda necesitar para iniciar el flujo correctamente.
Tipo: contexto o contacto
Nombre: Nombre de la variable (ej: numbercpf).
Valor: Valor que tendrá la variable (ej: 129.452.875-06).
Nueva variable: Añade una nueva variable.
Definiciones
En esta pestaña, usted define el tiempo de espera para que se ejecute la prueba.
Tiempo de espera de la respuesta: Use el control deslizante para definir el tiempo límite para cada interacción de su prueba. Si la respuesta del bot tarda más que el tiempo estipulado, la interacción será considerada un fallo.
Ejecutando y Analizando las Pruebas
Haga clic en Guardar después de configurar la prueba.
En la lista de pruebas, seleccione la prueba y haga clic en Ejecutar pruebas.
Vea el estado en la lista y haga clic en la prueba para analizar el resultado.
Las interacciones con Fallo en la métrica o Error al iniciar indican puntos que necesitan ajustes.
Para más información, acceda a la discusión en nuestra comunidad o a los videos en nuestro canal. 😃