Logs y Eventos en el Studio 12 de mayo de 2026 17:38 Actualización Índice Introducción ¿Qué es Logs y Eventos y cuándo usarlo? Cómo acceder y generar logs Conociendo la pantalla de Logs y Eventos Cómo localizar una conversación específica Cómo interpretar eventos y acciones Cómo visualizar errores Cómo visualizar trackings Cómo analizar ejecuciones con IA Cómo usar Logs y Eventos con Pruebas Unitarias Cómo consultar y limpiar datos del contacto Buenas prácticas de debug Problemas comunes Preguntas frecuentes (FAQ) Limitaciones y puntos de atención Glosario rápido IntroducciónLa pantalla de Logs y Eventos ayuda a los usuarios del Studio a monitorear e investigar ejecuciones de flujos conversacionales. Con ella, es posible visualizar mensajes traficados, eventos generados, acciones ejecutadas, errores, trackings, payloads técnicos y consumo de tokens en interacciones con agentes de IA. La nueva experiencia organiza esta información en una jornada de investigación: primero localiza la conversación, luego sigue la línea de tiempo de la interacción, expande el árbol de ejecución y analiza los detalles técnicos de cada evento. ¿Qué es Logs y Eventos y cuándo usarlo?Logs y Eventos son registros generados durante la ejecución de un flujo conversacional. Ayudan a entender qué sucedió en una conversación, qué camino recorrió el flujo y qué eventos técnicos se generaron en cada etapa. Use Logs y Eventos para: Probar flujos en construcción; Investigar conversaciones de bots publicados; Validar si el flujo recorrió el camino esperado; Identificar errores o comportamientos inesperados; Consultar payloads, JSONs y variables; Verificar trackings; Analizar ejecuciones de agentes de IA; Monitorear el consumo de tokens; Apoyar el troubleshooting antes o después de la publicación de un flujo. La pantalla ayuda a responder preguntas como: ¿Qué mensaje inició la ejecución? ¿Qué bloque o agente fue activado? ¿Pasó el flujo por el camino esperado? ¿Hubo algún error? ¿Se registró algún tracking? ¿Hubo una llamada de herramienta? ¿Cuántos tokens se consumieron? ¿Cuál fue el output generado? Cómo acceder y generar logsPara usar Logs y Eventos, abra el bot o flujo que desea investigar. En el Studio, acceda al flujo deseado. En la esquina superior derecha de la pantalla, haga clic en el ícono de pruebas/laboratorio. Seleccione Logs y Eventos. La pantalla se abrirá con la lista de conversaciones y eventos disponibles.Para generar nuevos logs, inicie una interacción con el bot. Puede hacer esto probando un flujo en construcción, un chatbot publicado o una conversación real en un canal integrado. En bots publicados, use un contacto conocido, filtre por el canal y anote el horario aproximado de la interacción para encontrar la conversación con más facilidad. Conociendo la pantalla de Logs y EventosLa nueva pantalla está organizada en cuatro áreas principales. Lista de conversaciones: La lista de conversaciones muestra las interacciones disponibles para la investigación. Seleccione una conversación para visualizar su línea de tiempo y los eventos asociados. Línea de tiempo de la conversación: La línea de tiempo presenta la interacción en formato conversacional, permitiendo entender el contexto antes de analizar los detalles técnicos. Puede mostrar mensajes enviados por el usuario, respuestas del bot, respuestas de agentes de IA y otros elementos relacionados con la ejecución. Árbol de ejecución: El árbol de ejecución muestra los eventos y acciones técnicas generadas durante la conversación. Al expandir los ítems, puede seguir el camino recorrido por el flujo. Panel lateral: El panel lateral muestra los detalles del evento seleccionado. Dependiendo del tipo de evento, podrá consultar input, output, JSON, payloads, trackings, errores, Tool Calls, tiempo de ejecución y consumo de tokens. Cómo localizar una conversación específicaEn entornos de prueba, generalmente es sencillo localizar la conversación recién creada. En bots publicados o con alto volumen de mensajes, puede ser necesario usar filtros.Usando filtro por canal: Use el filtro por canal para visualizar solo conversaciones originadas de un canal específico, como Blip Chat, WhatsApp u otro canal integrado.Usando búsqueda por contacto: Cuando esté disponible, use la búsqueda por contacto para localizar una conversación asociada a un usuario específico. La búsqueda puede realizarse por id o nombre del usuario. Recomendaciones para bots con muchas conversaciones Al probar bots en producción: Utilice un contacto conocido; Envíe un mensaje fácil de identificar; Anote el horario aproximado de la prueba; Filtre por el canal usado; Busque por el contacto; Espere algunos segundos en caso de que la conversación aún no aparezca. Qué verificar si la conversación no aparece Verifique si: el mensaje fue realmente enviado; el canal correcto está seleccionado; el bot está publicado o en prueba correctamente; usted está en el bot o flujo correcto; hay filtros activos ocultando la conversación; la pantalla necesita ser actualizada; existe retraso en la llegada de los logs. Cómo interpretar eventos y accionesEl árbol de ejecución muestra los eventos técnicos asociados a la conversación seleccionada. Al expandir los ítems del árbol, puede seguir el camino recorrido por el flujo y consultar los detalles de cada etapa.Lista de algunos de los eventos que podrán ser encontrados: Tipo de evento Qué significa Caracterización Input del usuario Mensaje o entrada enviada por el usuario. Casilla gris Nombre del bloque Nombre de cada bloque por el que navega el usuario. Ícono Azul Acciones de salida/Entrada Grupo de acciones ejecutadas en ese bloque. Ícono verde SendMessage/SendRawMessage/SendMessageFromHttp Envío de mensaje por el bot al usuario. Ícono amarillo Execute Script/ExecuteScriptV2/ExecuteBlipFunction Ejecución de script configurado en el flujo. Ícono amarillo Request HTTP Llamada HTTP a un servicio externo. Ícono amarillo Track Event/TrackContactsJourney Evento de tracking registrado por el flujo. Ícono amarillo ManageList Gestionar lista de distribución. Ícono amarillo MergeContact Actualización del contacto. Ícono amarillo Redirect Redirección entre subbots. Ícono amarillo ForwardMessageToDesk/ForwardToDesk/LeavingFromDesk Eventos específicos del Desk. Ícono amarillo SetVariable Define variable. Ícono amarillo ProcessCommand Procesar un comando. Ícono amarillo ProcessContentAssistant Procesa NLP. Ícono amarillo ForwardToAgent Eventos de entrada del agente. Ícono amarillo KnowledgeBaseConsult Consulta en la base de conocimiento. Ícono amarillo Agent Run Ejecución de un agente de IA. Ícono amarillo LLM Invoke Llamada al modelo de lenguaje. Ícono amarillo Tool Call Llamada de herramienta realizada por un agente. Ícono amarillo Erro Falla registrada durante la ejecución. Rojo Para inspeccionar un evento: Seleccione una conversación. Expanda el árbol de ejecución. Haga clic en el evento que desea analizar. Consulte la información mostrada en el panel lateral. Use el JSON o payload técnico cuando necesite confirmar campos enviados o recibidos, validar valores de variables, analizar retornos de integraciones o compartir evidencias con equipos de soporte e ingeniería. Como visualizar erroresCuando un error es registrado, puede aparecer asociado a un evento o acción de la ejecución.Para investigar errores: Localice la conversación; Expanda el árbol de ejecución; Busque eventos marcados como error o falla; Haga clic en el evento; Consulte el panel lateral; Verifique el mensaje de error, payload, acción relacionada y contexto anterior. Al analizar un error, busque responder: ¿Qué mensaje inició la ejecución? ¿Qué bloque se estaba ejecutando? ¿Qué acción falló? ¿El error ocurrió antes o después de una llamada externa? ¿El error ocurrió en un bloque determinístico, agente de IA o Tool Call? ¿Existe un payload de retorno? ¿Existe un mensaje de error claro? ¿El error se repite en nuevas pruebas? Cómo visualizar trackingsTrackings ayudan a monitorear eventos importantes del flujo, como conversiones, etapas concluidas, acciones del usuario o eventos de negocio. En la nueva experiencia, los trackings aparecen integrados a la inspección del evento, permitiendo analizarlos dentro del contexto de la ejecución. Para visualizar trackings: Seleccione una conversación; Expanda el árbol de ejecución; Haga clic en un evento o bloque; Acceda al área de trackings en el panel lateral, cuando esté disponible. Un tracking puede contener información como: categoría; acción; nombre del evento; propiedades adicionales; valores enviados; contexto de la ejecución. Use trackings para validar si eventos importantes están siendo registrados correctamente, como inicio de jornada, conclusión de etapa, clic o elección del usuario, conversión, error de negocio o paso por determinado bloque. Cómo analizar ejecuciones con IAEn flujos con agentes de IA, Logs y Eventos ayuda a entender no solo el camino del flujo, sino también el comportamiento del agente. Usted puede analizar: qué agente fue activado; qué input llegó al agente; qué instrucciones o prompt fueron consideradas; qué herramientas estaban disponibles; si alguna Tool Call fue ejecutada; qué respuesta fue generada; si hubo error; cuánto tiempo tomó la ejecución; cuántos tokens fueron consumidos. Agent Run El Agent Run representa la ejecución de un agente de IA. Indica que el flujo activó un agente para interpretar el contexto, ejecutar una tarea, generar una respuesta o activar herramientas. Use este evento para entender cuándo un agente fue activado y qué parte de la conversación está relacionada con su ejecución. LLM Invoke El LLM Invoke representa la llamada al modelo de lenguaje. Es en este evento donde normalmente aparece información relacionada con el input enviado al modelo, el output generado, el tiempo de ejecución y el consumo de tokens. Use este evento para analizar: lo que fue enviado al modelo; qué respuesta fue generada; cuánto tiempo tomó la ejecución; cuántos tokens fueron consumidos; si el comportamiento del agente es coherente con lo esperado. Tool Calls Tool Calls son llamadas de herramientas realizadas por agentes de IA. Pueden representar, por ejemplo: consulta a una API; búsqueda en base de conocimiento; definición de contacto; registro de información; ejecución de una acción externa; activación de una herramienta configurada en el agente. Cuando un agente usa una herramienta, la Tool Call aparece asociada a la ejecución del agente. Al analizar una Tool Call, verifique: qué herramienta fue llamada; qué parámetros fueron enviados; qué retorno fue recibido; si hubo error; cuánto tiempo tomó la llamada; si la llamada impactó el output final del agente. Tool Calls y trackings Cuando un tracking es registrado directamente como Track Event, aparece en el área de trackings. Cuando el tracking ocurre por medio de una Tool Call, puede ser necesario verificar la propia Tool Call en el árbol de ejecución y, si es necesario, validar el evento en informes complementarios. Consumo de tokens Tokens son unidades de texto procesadas por el modelo de lenguaje. Todo lo que el agente lee y escribe se convierte en tokens. El consumo de tokens puede ayudar a entender: costo de la ejecución; tamaño del contexto enviado al agente; tamaño de la respuesta generada; impacto del historial de conversación; impacto de herramientas e instrucciones; posibles oportunidades de optimización. Usted puede visualizar tokens en eventos relacionados a la ejecución de agentes de IA, especialmente en eventos como LLM Invoke. Indicador Qué significa Input tokens Cantidad de tokens enviados al modelo. Incluye instrucciones, contexto, historial y entrada del usuario. Input cached Parte del input reutilizada en caché, cuando sea aplicable. Output tokens Cantidad de tokens generados por el modelo en la respuesta. Total tokens Total de tokens procesados en la ejecución. El consumo puede aumentar cuando: el prompt es muy largo; hay muchas instrucciones en el agente; el historial de conversación es grande; muchas herramientas están disponibles; la base de contexto enviada al agente es extensa; la respuesta generada es larga; hay múltiples llamadas de LLM en la misma ejecución. Cómo investigar una respuesta inesperada de IACuando un agente responda de forma inesperada: Abra la conversación en Logs y Eventos; Localice la ejecución del agente; Abra el evento de LLM Invoke; Verifique el input enviado; Verifique el output generado; Analice el prompt o instrucciones, cuando esté disponible; Vea si el historial influenció la respuesta; Verifique si alguna Tool Call fue activada; Consulte tokens y tiempo de ejecución; Ajuste el flujo, prompt, herramientas o base de conocimiento según sea necesario. Cómo usar Logs y Eventos con Pruebas UnitariasLogs y Eventos y Pruebas Unitarias tienen objetivos diferentes, pero pueden ser usados en conjunto. Funcionalidad Cuándo usar Pruebas Unitarias Para validar si una entrada genera la salida esperada. Logs y Eventos Para investigar técnicamente el camino recorrido y los eventos generados durante la ejecución. Use los dos juntos cuando una prueba unitaria falle y usted necesite entender el motivo.Flujo recomendado: Ejecute la prueba unitaria; Si la prueba falla, abra Logs y Eventos; Localice la conversación o ejecución generada por la prueba; Expanda el árbol de ejecución; Verifique dónde el comportamiento divergió de lo esperado; Analice input, output, errores, trackings, Tool Calls y tokens. Algunos flujos dependen de palabras clave, disparadores o condiciones iniciales para direccionar la conversación correctamente. Si la prueba unitaria no incluye el input necesario para activar ese camino, el flujo puede no llegar al agente o bloque esperado. Como consultar y limpiar datos del contactoDurante las pruebas, puede ser necesario limpiar los datos de un contacto para reiniciar la jornada y validar el flujo desde el inicio. En la pantalla de Logs y Eventos, al seleccionar una conversación o contacto, puede acceder a detalles relacionados con el contacto, como variables e información de contexto.Para limpiar o restaurar datos del contacto: Seleccione la conversación deseada. Haga clic en el encabezado o área de detalles del contacto. Abra el panel lateral de información del contacto. Localice la opción de restaurar o limpiar datos. Confirme la acción, si es aplicable. Ejecute la prueba nuevamente. Buenas prácticas de debugAntes de publicar o alterar un flujo, use Logs y Eventos para validar si la ejecución está ocurriendo conforme a lo esperado. Verifique si: la conversación aparece en la lista de Logs y Eventos; la línea de tiempo representa correctamente la interacción; el árbol de ejecución sigue el camino esperado; los bloques correctos fueron ejecutados; los direccionamientos ocurrieron correctamente; no hay errores inesperados; los trackings esperados fueron registrados; las llamadas HTTP devolvieron éxito; los scripts fueron ejecutados correctamente; los agentes de IA recibieron el input correcto; las Tool Calls fueron activadas cuando se esperaba; las respuestas de la IA son coherentes; el consumo de tokens está dentro de lo esperado; el tiempo de ejecución es aceptable. Para reportar un problema, incluya: nombre del bot; ambiente; canal utilizado; horario aproximado de la prueba; contacto usado; mensaje enviado por el usuario; captura de pantalla o video de la pantalla; evento o error observado; JSON o payload relevante, cuando sea posible; comportamiento esperado; comportamiento ocurrido. Problemas comunes 1. No aparece ningún log Posibles causas: ninguna conversación fue iniciada; el bot no recibió mensaje; el canal seleccionado no es el correcto; hay un filtro activo; existe retraso (delay) en la renderización; el bot o flujo abierto no es el mismo usado en la prueba. Qué hacer: Envíe un nuevo mensaje por el chat de prueba; Verifique si está en el bot correcto; Elimine filtros activos; Espere algunos segundos; Actualice la pantalla; Inténtelo de nuevo. 2. No encuentro mi conversación en producción Posibles causas: hay muchas conversaciones ocurriendo al mismo tiempo; el contacto no fue identificado correctamente; el canal filtrado es incorrecto; la conversación aún no ha sido renderizada. Qué hacer: Filtre por el canal usado; Use la búsqueda por contacto; Busque por el horario aproximado de la interacción; Envíe un nuevo mensaje de prueba fácil de identificar; Espere la actualización de la lista. 3. El filtro no abre o no responde Posibles causas: comportamiento intermitente de la interfaz; conflicto local en la sesión; retraso (delay) de carga; problema en el navegador. Qué hacer: Espere algunos segundos; Cierre y vuelva a abrir el chat de prueba; Actualice la página; Inténtelo de nuevo; Grabe un video si el problema persiste; Reporte al equipo responsable. 4. El orden de los eventos parece incorrecto Posibles causas: Los eventos pueden llegar de fuentes diferentes; Puede haber un retraso (delay) en la renderización; La ordenación puede depender del timestamp disponible; Algunos eventos de IA y eventos determinísticos pueden ser registrados en momentos diferentes. Qué hacer: Verifique los detalles de cada evento; Consulte el horario y el tipo de acción; Compare con la línea de tiempo de la conversación; Ejecute la prueba nuevamente, si es necesario; Reporte en caso de que el orden perjudique el análisis. 5. El tracking esperado no apareció Posibles causas: El flujo no pasó por el bloque que registra el tracking; El tracking no fue configurado correctamente; El tracking fue realizado vía Tool Call; El evento no aparece en la pestaña de Trackings, pero aparece en el árbol de ejecución; Existe un retraso (delay) en la renderización. Qué hacer: Confirme si el flujo pasó por el bloque esperado. Verifique el árbol de ejecución. Consulte el área de trackings. Busque Tool Calls relacionadas. Valide en informes externos, si es necesario. 6. El consumo de tokens parece alto Posibles causas: prompt largo; historial de conversación extenso; muchas instrucciones; muchas herramientas disponibles; respuesta larga; múltiples llamadas de LLM; contexto grande enviado al agente. Qué hacer: Abra el evento de LLM Invoke; Verifique input tokens; Verifique output tokens; Vea si hay un historial muy extenso; Revise el prompt y las instrucciones; Evalúe si hay herramientas innecesarias disponibles; Compare ejecuciones diferentes. 7. La prueba unitaria falló, pero no sé por qué La Prueba Unitaria muestra el resultado de la validación, pero puede no mostrar todos los detalles investigativos de la ejecución.Qué hacer: Abra Logs y Eventos en paralelo; Localice la ejecución generada por la prueba; Expanda el árbol; Verifique en qué etapa hubo divergencia; Analice input, output, errores, Tool Calls y tokens; Confirme si la prueba incluyó disparadores o palabras clave necesarias. Preguntas frecuentes (FAQ) ¿Logs y Eventos funciona en bots publicados? Sí. En bots publicados, la pantalla puede mostrar conversaciones de múltiples usuarios. Use filtros, búsqueda por contacto, canal y horario aproximado para localizar la conversación deseada. ¿Logs y Eventos sustituye al Beholder? La nueva experiencia centraliza la investigación de logs directamente en el Studio y fue creada para hacer que el proceso de debug sea más claro, accesible e integrado a la construcción del flujo. ¿Logs y Eventos guarda historial? Logs y Eventos fue diseñado principalmente para apoyar el debug y la inspección de ejecuciones. La disponibilidad histórica de los datos puede variar según el tipo de información, ambiente, canal e implementación de la funcionalidad. Para auditoría o análisis históricos consolidados, utilice los informes y dashboards recomendados por el equipo responsable. ¿Cuál es la diferencia entre Logs y Eventos y Pruebas Unitarias? Las Pruebas Unitarias validan si una entrada genera la salida esperada. Logs y Eventos ayudan a investigar técnicamente el camino recorrido y los eventos generados durante la ejecución. ¿Dónde veo el consumo de tokens? En eventos relacionados con la ejecución de IA, especialmente en LLM Invoke. ¿Qué son input tokens? Son los tokens enviados para que el modelo los procese, incluyendo instrucciones, contexto, historial, herramientas disponibles y el mensaje del usuario. ¿Qué son output tokens? Son los tokens generados por el modelo en la respuesta. ¿Qué es input cached? Es la parte del input que pudo haber sido reutilizada en caché por el modelo, cuando sea aplicable. ¿Por qué el consumo de tokens aumenta a lo largo de la conversación? Porque el agente puede recibir más historial y contexto a medida que la conversación avanza. Cuanta más información se envíe al modelo, mayor tiende a ser el consumo de tokens. ¿Aparecen las Tool Calls en la pantalla? Sí. Cuando haya Tool Calls registradas, estas pueden aparecer en el árbol de ejecución, asociadas a la ejecución del agente. ¿Aparecen las Tool Calls en la pestaña de Trackings? Cuando el tracking se registra directamente como Track Event, aparece en el área de trackings. Cuando ocurre a través de una Tool Call, puede ser necesario consultar la propia Tool Call en el árbol de ejecución. ¿Qué significa “inactividad” en la línea de tiempo (timeline)? La indicación de inactividad representa un comportamiento o evento del flujo, no un mensaje escrito por el usuario. ¿Cómo limpiar los datos de un contacto para probar de nuevo? Acceda a los detalles del contacto a través de la conversación seleccionada y utilice la opción de restaurar, limpiar o resetear los datos del contacto. ¿Qué hacer cuando se encuentre un bug? Registre el bot, ambiente, canal, horario, contacto, mensaje enviado, capturas de pantalla o video, evento con error, payload relevante, comportamiento esperado y comportamiento observado. Después, envíe el material al canal de soporte o al equipo responsable de la funcionalidad. Limitaciones y puntos de atenciónAntes de usar Logs y Eventos, considere los siguientes puntos: Ponto de atenção O que significa La pantalla apoya debug en tiempo real Use Logs y Eventos para investigar ejecuciones mientras ocurren o mientras la pantalla está abierta. Puede ser usada en flujos publicados La funcionalidad también puede apoyar el análisis técnico de flujos en producción, siempre que la investigación ocurra en tiempo real. Los datos quedan en local storage Los logs mostrados actualmente se almacenan localmente en el navegador. Los logs no son persistidos en base de datos Al recargar la pantalla, los logs mostrados se reinician. No es una herramienta de analytics La pantalla no genera dashboard, informe histórico, métricas consolidadas o seguimiento retroactivo. No sustituye informes analíticos Para análisis históricos, métricas agregadas u observabilidad persistente, utilice los informes y dashboards propios para ese fin. La cobertura aún puede evolucionar En escenarios complejos, los logs pueden no evidenciar con claridad la causa raíz o el evento que llevó el flujo a la excepción. La propuesta de la nueva experiencia es centralizar el proceso de debug técnico en el Studio, reduciendo gradualmente la dependencia de herramientas paralelas como Beholder y la pestaña de debug del Blip Chat. Glosario rápido Término Significado Log Registro técnico de una ejecución. Evento Acontecimiento registrado durante la conversación o flujo. Timeline Visualización de la conversación en orden de interacción. Árbol de ejecución Estructura expansible con acciones y eventos de la ejecución. Payload Contenido técnico enviado o recibido por un evento. JSON Formato estructurado usado para representar datos técnicos. Tracking Evento usado para realizar el seguimiento de acciones, métricas o etapas. Agent Run Ejecución de un agente de IA. LLM Invoke Llamada al modelo de lenguaje. Tool Call Llamada de herramienta realizada por un agente. Input tokens Tokens enviados al modelo. Output tokens Tokens generados por el modelo. Input cached Parte del input reutilizada en caché. Total tokens Total de tokens procesados. Debug Proceso de investigación de comportamiento o error. Flujo determinístico Flujo basado en reglas y bloques previamente definidos. Flujo con IA Flujo que utiliza agentes o modelos de lenguaje. ¿Necesita más ayuda? Explore nuestros contenidos en Blip Academy o Blip Community, vea tutoriales en nuestro canal de YouTube o aclare sus dudas en nuestro canal de atención 😃 Artículos relacionados Pruebas Unitarias Studio: Base de Conocimiento Studio: Buenas prácticas Análisis de temas Bibliotecas de bloques - Habilidades listas