Rapports et Utilisation
Chemin : /dashboard/analytics · Permission : Module Analytics
Le tableau de bord Analytics offre une vue d'ensemble des performances de votre assistant IA, de l'engagement des utilisateurs et de la conversion des conversations en leads. Utilisez ces données pour optimiser votre base de connaissances, votre modèle d'IA et votre stratégie de capture de leads.
Sélecteur de période
Utilisez les boutons de période en haut à droite pour contrôler la fenêtre temporelle de tous les graphiques et métriques de cette page :
| Période | Affiche les données de |
|---|---|
| 24h | Les dernières 24 heures |
| 7j | Les 7 derniers jours |
| 30j | Les 30 derniers jours (par défaut) |
| 90j | Les 90 derniers jours |
Toutes les cartes, graphiques et compteurs se mettent à jour instantanément lorsque vous changez de période. La période sélectionnée est affichée entre parenthèses à côté de chaque en-tête de section.
Graphique du Volume d'Interaction
Le grand graphique en haut à gauche affiche les sessions et messages au fil du temps sous forme de graphique en lignes/barres. Chaque point de données représente un jour (ou une heure en mode 24h).
Comment l'interpréter :
- Tendance à la hausse → Votre bot est de plus en plus utilisé — assurez-vous que la base de connaissances reste à jour.
- Pics → Corrèlent avec des campagnes marketing, des lancements de produits ou des événements de support.
- Ligne plate à zéro → Le widget n'est peut-être pas déployé, ou le bot n'est pas accessible.
Le graphique se met à jour en temps réel — un badge vert le confirme.
Sujets d'Engagement (Engagement Topics)
Le graphique en anneau en haut à droite montre la répartition des intentions des utilisateurs — quelles catégories de questions les gens posent le plus. Les sujets sont détectés automatiquement par l'IA et affichés sous forme de pourcentage.
Comment l'utiliser :
- Si un sujet domine, ajoutez plus de FAQ et de documents sur ce thème.
- Si le taux de "général" ou "inconnu" est élevé, votre base de connaissances pourrait nécessiter une couverture plus large.
Cartes de métriques (Rangée 1)
La première rangée de cartes de métriques affiche :
| Carte | Ce qu'elle mesure | Ce qu'il faut surveiller |
|---|---|---|
| Total Messages | Nombre de messages utilisateurs sur la période | Une chute soudaine peut indiquer un problème de widget ou de serveur |
| Temps de réponse moyen | Vitesse de réponse de l'IA, en secondes | Moins de 3s est idéal ; plus de 8s — envisagez un modèle plus rapide |
| Base de connaissances | Total des éléments indexés (historique), répartis par Docs / URLs / FAQ | Si ce chiffre est à 0, le bot n'a aucun contenu pour répondre |
| Coût LLM | Estimation des dépenses chez le fournisseur d'IA pour la période | Suivez ceci pour rester dans votre budget OpenRouter |
Cartes de métriques (Rangée 2)
| Carte | Ce qu'elle mesure | Ce qu'il faut surveiller |
|---|---|---|
| Sessions actives | Sessions utilisateurs distinctes sur la période | À comparer avec le Total Messages pour évaluer la profondeur des échanges |
| Feedback | Nombre total d'évaluations reçues | Un chiffre bas signifie que le module de feedback est peut-être désactivé |
| Taux de satisfaction | Pourcentage de feedback positif (👍) vs négatif (👎) | En dessous de 70% — examinez les conversations négatives pour trouver des lacunes |
| Tokens utilisés | Cumul des tokens d'entrée + sortie consommés | Une forte utilisation fait grimper les coûts — réduisez Max Tokens ou changez de modèle |
Entonnoir de conversion
L'entonnoir suit la progression des visiteurs, de l'ouverture du widget jusqu'à la transformation en lead. Chaque étape affiche un décompte et un pourcentage de taux de conversion :
| Étape | Ce qu'elle compte | Le taux indique |
|---|---|---|
| Ouvertures Widget | Utilisateur a cliqué sur la bulle de chat | 100% (référence) |
| Débuts de Chat | Utilisateur a envoyé son premier message | % d'ouvertures devenues des chats |
| Sessions Live Chat | Conversations avec plus de 3 échanges | % de chats devenus engagés |
| Leads Capturés | Utilisateur a soumis le formulaire de contact | % de sessions engagées ayant capturé un lead |
Benchmarks de conversion sains
| Conversion | Plage saine | Si inférieur à la plage |
|---|---|---|
| Ouverture → Début | 40–60% | Améliorez votre message de bienvenue et les questions suggérées |
| Début → Live Chat | 30–50% | Améliorez la couverture de la base de connaissances — les utilisateurs abandonnent |
| Live Chat → Lead | 15–30% | Activez ou optimisez le formulaire de lead, ajoutez un transfert pour les conversations à haute valeur |
Lecture de l'entonnoir
- Ouvertures élevées, débuts faibles → Le widget est visible mais le message d'accueil n'est pas assez incitatif pour démarrer une conversation.
- Débuts élevés, live chats faibles → Les utilisateurs posent des questions mais ne reçoivent pas de réponses utiles. Consultez Conversations pour identifier les manques.
- Live chats élevés, leads faibles → Les conversations sont productives mais vous ne capturez pas les coordonnées. Activez le formulaire de lead dans Settings → Lead Form.
Top des Intérêts Utilisateurs
Affiche les 5 principaux sujets sur lesquels les utilisateurs s'interrogent pendant la période choisie, classés par nombre d'occurrences. Chaque sujet est auto-détecté par le classificateur d'intention de l'IA.
Comment l'utiliser :
- Concentrez l'amélioration de votre base de connaissances sur les sujets n°1 et n°2.
- Si un sujet apparaît alors que votre bot ne devrait pas le traiter, mettez à jour le system prompt pour rediriger ou refuser la demande.
Détail de l'utilisation LLM
Deux panneaux côte à côte vous donnent de la visibilité sur la consommation de l'IA :
Utilisation LLM (par modèle)
Affiche chaque modèle d'IA utilisé sur la période avec :
- Nom du modèle (ex: DeepSeek/DeepSeek-V3)
- Nombre d'appels API
- Tokens consommés (en milliers)
- Coût estimé en USD
Conseil : Si un modèle consomme la majeure partie de votre budget, envisagez de passer à une option plus économique. Voir Modèles IA.
Répartition des tâches LLM (par objectif)
Montre comment les tokens sont répartis entre les différentes tâches du système :
| Tâche | Rôle |
|---|---|
| chat | Réponses principales de la conversation |
| summary | Résumés de conversation générés par l'IA pour les leads |
| intent | Classification des sujets pour les analyses |
| embedding | Indexation de la base de connaissances |
Si "chat" domine, c'est normal. Si "embedding" est élevé, vous réindexez peut-être trop fréquemment.
Conseils d'optimisation
Basé sur ce que vous disent les analyses :
- Ajoutez des FAQ pour les intérêts prioritaires — Cela accélère les réponses et améliore la précision sur les sujets courants.
- Passez à un modèle plus rapide si le temps de réponse moyen dépasse 5 secondes — voir Modèles IA pour des options à faible latence comme Gemini Flash ou Claude Haiku.
- Activez le formulaire de lead si les sessions de chat sont nombreuses mais que la capture de leads est faible.
- Examinez les conversations mal notées (cliquez depuis la carte Feedback) pour identifier où le bot peine et mettez à jour votre base de connaissances en conséquence.
- Affinez votre system prompt si le ton du bot ou le format des réponses ne répond pas aux attentes.
- Surveillez le coût LLM et passez à des modèles économiques (DeepSeek V3, GPT-4o Mini) pour les bots à fort volume.
FAQ
Q : Pourquoi mes analyses sont-elles vides ?
- Le bot n'a pas encore reçu assez de sessions, ou vous regardez une période sans activité. Essayez d'élargir la période à 90j.
Q : Qu'est-ce qui compte comme une "session live chat" ?
- Une session avec 3 messages ou plus (échanges utilisateur + bot). Les sessions à message unique sont comptées comme des "débuts de chat" mais pas comme des "sessions live chat".
Q : Les analyses sont-elles par bot ou globales ?
- Par bot. Toutes les analyses sont limitées à l'espace de travail du bot actuellement sélectionné. Changez de bot via le menu déroulant de l'espace de travail pour comparer.
Q : À quelle fréquence les données sont-elles mises à jour ?
- Les analyses se mettent à jour en temps réel au fur et à mesure des conversations. Rafraîchissez la page pour voir les dernières données.
Q : Comment est calculé le coût LLM ?
- Le coût est estimé en fonction du nombre de tokens et du prix par token de chaque modèle sur OpenRouter. FRENZY.BOT n'ajoute aucune marge — le coût affiché correspond à ce qu'OpenRouter facture.

