Constat de terrain : la fiche de fin de séance n’est utile que si elle alimente des décisions. Pas de littérature, peu d’items, des indicateurs lisibles, et un espace pour capter ce que les chiffres ne disent pas. Voici une trame A4 claire et des critères d’évaluation opérationnels, pensés pour le présentiel comme pour la FOAD.
1) Ce que la fiche doit capturer (et rien de plus)
Clarté : objectifs compris, niveau attendu identifiable.
Pertinence : contenus, cas, exemples alignés sur le besoin métier.
Animation : rythme, interactions, réponses aux questions, consignes.
Utilité perçue : ce que l’on peut appliquer dès J+1.
Soutien : supports, ressources, accès aux replays (si FOAD), accompagnement.
Objectifs : j’ai compris ce que je devais savoir/faire à l’issue de la séance.
Pertinence : le contenu répond à mes besoins actuels.
Cas/Exemples : les mises en situation sont proches de mon contexte.
Bloc B — Animation & dynamique (1–5) 4. Rythme : alternance exposé/activité/feedback équilibrée. 5. Interaction : j’ai pu poser des questions et obtenir des réponses utiles. 6. Consignes : les activités étaient claires et réalisables.
Bloc C — Transférabilité & soutien (1–5) 7. Applicabilité J+1 : je vois au moins une action concrète à mettre en œuvre. 8. Supports : documents/replays/outils me permettront de réviser et d’appliquer. 9. Accessibilité/Confort : conditions matérielles et adaptées (présentiel/FOAD).
Bloc D — Synthèse 10. Satisfaction globale (1 = très insatisfait · 5 = très satisfait). 11. Recommandation (0–10). 12. Intention de transfert (O/N) : Je m’engage à tester [compétence x] avant [date].
Bloc E — Ouvertures (réponses courtes)
Ce que je retiens absolument :
Ce que je changerais :
Besoin d’appui complémentaire (préciser) :
Ancrages conseillés : 1 = pas du tout / 2 = peu / 3 = moyen / 4 = bien / 5 = très bien.
3) Critères d’évaluation : grille opérationnelle
Critère
Indicateur observé
Question type
Seuil d’alerte
Clarté des objectifs
≥ 80 % ≥ 4/5
« J’ai compris les objectifs »
< 70 %
Pertinence des contenus
≥ 75 % ≥ 4/5
« Le contenu répond à mes besoins »
< 65 %
Qualité d’animation
≥ 80 % ≥ 4/5
« Rythme et interactions satisfaisants »
< 70 %
Applicabilité
≥ 70 % ≥ 4/5
« Je vois quoi appliquer dès J+1 »
< 60 %
Supports & ressources
≥ 80 % ≥ 4/5
« Les supports me suffisent »
< 70 %
Accessibilité/Confort
≥ 85 % ≥ 4/5
« Conditions adaptées »
< 75 %
Satisfaction globale
Moyenne ≥ 4/5
item 10
< 3,6/5
Recommandation (NPS-like)
≥ 50 % de 9–10
item 11
< 35 %
Lecture rapide
Vert : seuils atteints ou dépassés → capitaliser.
Orange : 1–2 critères sous seuil → plan d’amélioration.
Si « Applicabilité J+1 » < 3,6/5 ou < 60 % d’intentions → revue du scénario pédagogique.
Si « Accessibilité/Confort » < 4/5 → action logistique/IT.
Si recommandation < 35 % de 9–10 → débrief formateur.
6) Trois biais à neutraliser (et comment)
Halo (tout est haut si l’animateur plaît) → séparer satisfaction globale et critères techniques.
Acquiescement (tout à 4) → alterner formulations positives/neutres.
Fatigue → 12 items maximum, pas plus.
7) Trame “micro-séance 6 items” (15–45 min)
Objectifs compris (1–5)
Pertinence perçue (1–5)
Activité utile (1–5)
Applicabilité J+1 (1–5)
Satisfaction globale (1–5)
Une chose à améliorer (ouvert)
8) Exploitation : boucler la boucle
Sous 5 jours : publier la synthèse (3 forces, 3 axes, 3 actions).
Sous 30 jours : vérifier les intentions de transfert (échantillon court).
Trimestriel : comparer scores par module/formateur, retirer les items peu discriminants, enrichir les cas.
9) Mentions utiles (copier-coller)
Intro fiche : « Vos réponses guident l’amélioration du module. 10 min suffisent. »
Consentement : « Données utilisées à des fins de pilotage pédagogique, conservées [durée] puis anonymisées. »
Engagement : « Je testerai [compétence] d’ici [date]. »
Parfait — voici la suite au ton journalistique, centrée sur l’opérationnel avancé : formats, banques d’items, lecture des résultats, exploitation du texte libre, gouvernance et suivi J+30. Zéro détour, zéro superflu.
10) Trois formats qui couvrent 95 % des besoins
Express (6 items, 2 minutes). Fin de micro-séance, prise de pouls rapide. Standard (12 items, 5–7 minutes). Fin de module, pilotage qualité + transfert. Audit (20 items, 8–10 minutes). Refonte de parcours, comparaisons inter-formateurs/sites.
“Je dispose d’outils concrets pour le suivi (checklist, rituel, indicateurs)” (1–5)
12) Ancrages d’échelle qui évitent la tiédeur
Remplacer les chiffres nus par des repères verbalisés : 1 = “pas du tout acquis” • 2 = “notions” • 3 = “opérationnel assisté” • 4 = “autonome” • 5 = “référence pour autrui”. Résultat : moins de réponses “tout à 4”, meilleure discrimination entre modules.
“La qualité audio/vidéo a permis de suivre sans fatigue” (1–5).
“Le temps d’attente/technique n’a pas dépassé l’acceptable” (1–5). Seuil : < 4/5 → action IT immédiate (guide de connexion, test micro-casque, replays allégés).
16) Gouvernance : qui fait quoi, quand
Formateur : collecte et premier tri (H+24), propose 2 actions rapides.
Référent pédagogique : consolide, arbitre les priorités (J+5).
Direction formation : publie le flash qualité mensuel (3 indicateurs + 3 décisions).
DSI/Support (si FOAD) : traite les irritants techniques < 48 h.
RACI (échantillon) Synthèse module : Référent (A) • Formateur (R) • Direction (C) • Support (I) Plan d’action : Direction (A) • Référent (R) • Formateur (C) • Support (C)
17) Suivi J+30 : mesurer le transfert, pas l’intention
Mini-sondage 4 items (2 minutes) envoyé à un échantillon :
“Le contenu répond à un besoin actuel de mon poste” (1–5)
“Les exemples reflètent mon contexte” (1–5)
Bloc “Animation”
“Le rythme a maintenu l’attention sans survol” (1–5)
“Je suis reparti avec des réponses concrètes à mes questions” (1–5)
Bloc “Transfert”
“Je sais par où commencer demain” (1–5)
“Les supports m’aident à refaire seul” (1–5)
Synthèse
Satisfaction globale (1–5)
Recommandation (0–10)
Intention de transfert (O/N) + “je testerai… avant [date]”
Ouvertes
“Le meilleur moment de la séance : …”
“Ce que j’améliorerais en priorité : …”
“Ressource complémentaire souhaitée : …”
20) Tableaux de bord — trois vues qui suffisent
Vue Module. Qualité, Impact, NPS-like, Top 3 irritants, 3 actions datées. Vue Formateur. Moyennes 3 derniers mois vs moyenne réseau (écarts ± 0,3 pt). Vue Site/Promo. Heatmap par critère (vert ≥ 4,1 • orange 3,6–4,0 • rouge < 3,6).
21) Anti-biais, version terrain
Ordre aléatoire de 2–3 items sensibles (quand outil numérique).
Item “ancre” inversé (“Le rythme était trop dense”) pour détecter l’acquiescement.
Mémo “ni sanction ni prime” en en-tête → baisse du biais stratégique.
22) Mentions réglementaires & conservation
Entête discret : “Données utilisées pour le pilotage pédagogique, anonymisées à [durée]. Accès restreint à l’équipe formation. Droits d’accès/rectification via [contact].”
Résumé actionnable
Choisir un format (Express/Standard/Audit).
Tirer 10–12 items clairs + 3 ouvertes.
Suivre Qualité / Impact / FOAD avec des seuils.
Publier en 1 page : forces, irritants, 3 actions.
Revenir à J+30 pour mesurer l’application.
1) Fiche “Corail & Menthe — Icônes & Jauges”
Fichier Word (A4) : Fiche_Evaluation_Formation_Corail_Menthe_A4_2025.docx
Conception : bande corail verticale + ruban menthe ; tags de section menthe ; tableaux Likert à bulles “○” (1→5) ; boîtes pointillées pour commentaires ; NPS 0→10 sur une ligne.