Aller au contenu

Rapports et Utilisation

Chemin : /dashboard/analytics · Permission : Module Analytics

Rapports Analytics Rapports Analytics

Le tableau de bord Analytics offre une vue d'ensemble des performances de votre assistant IA, de l'engagement des utilisateurs et de la conversion des conversations en leads. Utilisez ces données pour optimiser votre base de connaissances, votre modèle d'IA et votre stratégie de capture de leads.


Sélecteur de période

Utilisez les boutons de période en haut à droite pour contrôler la fenêtre temporelle de tous les graphiques et métriques de cette page :

Période Affiche les données de
24h Les dernières 24 heures
7j Les 7 derniers jours
30j Les 30 derniers jours (par défaut)
90j Les 90 derniers jours

Toutes les cartes, graphiques et compteurs se mettent à jour instantanément lorsque vous changez de période. La période sélectionnée est affichée entre parenthèses à côté de chaque en-tête de section.


Graphique du Volume d'Interaction

Le grand graphique en haut à gauche affiche les sessions et messages au fil du temps sous forme de graphique en lignes/barres. Chaque point de données représente un jour (ou une heure en mode 24h).

Comment l'interpréter :

  • Tendance à la hausse → Votre bot est de plus en plus utilisé — assurez-vous que la base de connaissances reste à jour.
  • Pics → Corrèlent avec des campagnes marketing, des lancements de produits ou des événements de support.
  • Ligne plate à zéro → Le widget n'est peut-être pas déployé, ou le bot n'est pas accessible.

Le graphique se met à jour en temps réel — un badge vert le confirme.


Sujets d'Engagement (Engagement Topics)

Le graphique en anneau en haut à droite montre la répartition des intentions des utilisateurs — quelles catégories de questions les gens posent le plus. Les sujets sont détectés automatiquement par l'IA et affichés sous forme de pourcentage.

Comment l'utiliser :

  • Si un sujet domine, ajoutez plus de FAQ et de documents sur ce thème.
  • Si le taux de "général" ou "inconnu" est élevé, votre base de connaissances pourrait nécessiter une couverture plus large.

Cartes de métriques (Rangée 1)

La première rangée de cartes de métriques affiche :

Carte Ce qu'elle mesure Ce qu'il faut surveiller
Total Messages Nombre de messages utilisateurs sur la période Une chute soudaine peut indiquer un problème de widget ou de serveur
Temps de réponse moyen Vitesse de réponse de l'IA, en secondes Moins de 3s est idéal ; plus de 8s — envisagez un modèle plus rapide
Base de connaissances Total des éléments indexés (historique), répartis par Docs / URLs / FAQ Si ce chiffre est à 0, le bot n'a aucun contenu pour répondre
Coût LLM Estimation des dépenses chez le fournisseur d'IA pour la période Suivez ceci pour rester dans votre budget OpenRouter

Cartes de métriques (Rangée 2)

Carte Ce qu'elle mesure Ce qu'il faut surveiller
Sessions actives Sessions utilisateurs distinctes sur la période À comparer avec le Total Messages pour évaluer la profondeur des échanges
Feedback Nombre total d'évaluations reçues Un chiffre bas signifie que le module de feedback est peut-être désactivé
Taux de satisfaction Pourcentage de feedback positif (👍) vs négatif (👎) En dessous de 70% — examinez les conversations négatives pour trouver des lacunes
Tokens utilisés Cumul des tokens d'entrée + sortie consommés Une forte utilisation fait grimper les coûts — réduisez Max Tokens ou changez de modèle

Entonnoir de conversion

L'entonnoir suit la progression des visiteurs, de l'ouverture du widget jusqu'à la transformation en lead. Chaque étape affiche un décompte et un pourcentage de taux de conversion :

Étape Ce qu'elle compte Le taux indique
Ouvertures Widget Utilisateur a cliqué sur la bulle de chat 100% (référence)
Débuts de Chat Utilisateur a envoyé son premier message % d'ouvertures devenues des chats
Sessions Live Chat Conversations avec plus de 3 échanges % de chats devenus engagés
Leads Capturés Utilisateur a soumis le formulaire de contact % de sessions engagées ayant capturé un lead

Benchmarks de conversion sains

Conversion Plage saine Si inférieur à la plage
Ouverture → Début 40–60% Améliorez votre message de bienvenue et les questions suggérées
Début → Live Chat 30–50% Améliorez la couverture de la base de connaissances — les utilisateurs abandonnent
Live Chat → Lead 15–30% Activez ou optimisez le formulaire de lead, ajoutez un transfert pour les conversations à haute valeur

Lecture de l'entonnoir

  • Ouvertures élevées, débuts faibles → Le widget est visible mais le message d'accueil n'est pas assez incitatif pour démarrer une conversation.
  • Débuts élevés, live chats faibles → Les utilisateurs posent des questions mais ne reçoivent pas de réponses utiles. Consultez Conversations pour identifier les manques.
  • Live chats élevés, leads faibles → Les conversations sont productives mais vous ne capturez pas les coordonnées. Activez le formulaire de lead dans Settings → Lead Form.

Top des Intérêts Utilisateurs

Affiche les 5 principaux sujets sur lesquels les utilisateurs s'interrogent pendant la période choisie, classés par nombre d'occurrences. Chaque sujet est auto-détecté par le classificateur d'intention de l'IA.

Comment l'utiliser :

  • Concentrez l'amélioration de votre base de connaissances sur les sujets n°1 et n°2.
  • Si un sujet apparaît alors que votre bot ne devrait pas le traiter, mettez à jour le system prompt pour rediriger ou refuser la demande.

Détail de l'utilisation LLM

Deux panneaux côte à côte vous donnent de la visibilité sur la consommation de l'IA :

Utilisation LLM (par modèle)

Affiche chaque modèle d'IA utilisé sur la période avec :

  • Nom du modèle (ex: DeepSeek/DeepSeek-V3)
  • Nombre d'appels API
  • Tokens consommés (en milliers)
  • Coût estimé en USD

Conseil : Si un modèle consomme la majeure partie de votre budget, envisagez de passer à une option plus économique. Voir Modèles IA.

Répartition des tâches LLM (par objectif)

Montre comment les tokens sont répartis entre les différentes tâches du système :

Tâche Rôle
chat Réponses principales de la conversation
summary Résumés de conversation générés par l'IA pour les leads
intent Classification des sujets pour les analyses
embedding Indexation de la base de connaissances

Si "chat" domine, c'est normal. Si "embedding" est élevé, vous réindexez peut-être trop fréquemment.


Conseils d'optimisation

Basé sur ce que vous disent les analyses :

  1. Ajoutez des FAQ pour les intérêts prioritaires — Cela accélère les réponses et améliore la précision sur les sujets courants.
  2. Passez à un modèle plus rapide si le temps de réponse moyen dépasse 5 secondes — voir Modèles IA pour des options à faible latence comme Gemini Flash ou Claude Haiku.
  3. Activez le formulaire de lead si les sessions de chat sont nombreuses mais que la capture de leads est faible.
  4. Examinez les conversations mal notées (cliquez depuis la carte Feedback) pour identifier où le bot peine et mettez à jour votre base de connaissances en conséquence.
  5. Affinez votre system prompt si le ton du bot ou le format des réponses ne répond pas aux attentes.
  6. Surveillez le coût LLM et passez à des modèles économiques (DeepSeek V3, GPT-4o Mini) pour les bots à fort volume.

FAQ

Q : Pourquoi mes analyses sont-elles vides ?

  • Le bot n'a pas encore reçu assez de sessions, ou vous regardez une période sans activité. Essayez d'élargir la période à 90j.

Q : Qu'est-ce qui compte comme une "session live chat" ?

  • Une session avec 3 messages ou plus (échanges utilisateur + bot). Les sessions à message unique sont comptées comme des "débuts de chat" mais pas comme des "sessions live chat".

Q : Les analyses sont-elles par bot ou globales ?

  • Par bot. Toutes les analyses sont limitées à l'espace de travail du bot actuellement sélectionné. Changez de bot via le menu déroulant de l'espace de travail pour comparer.

Q : À quelle fréquence les données sont-elles mises à jour ?

  • Les analyses se mettent à jour en temps réel au fur et à mesure des conversations. Rafraîchissez la page pour voir les dernières données.

Q : Comment est calculé le coût LLM ?

  • Le coût est estimé en fonction du nombre de tokens et du prix par token de chaque modèle sur OpenRouter. FRENZY.BOT n'ajoute aucune marge — le coût affiché correspond à ce qu'OpenRouter facture.