L’évaluation à froid : et si on la faisait vraiment ?

0

La formation représente un investissement généralement coûteux : aux frais pédagogiques s’ajoutent le temps de travail que l’apprenant doit consacrer au stage, ainsi que les coûts d’organisation et de suivi.   Il paraît donc assez naturel que la mesure de son efficacité réelle, c’est-à-dire sa traduction par un changement dans la pratique professionnelle du bénéficiaire, fasse l’objet d’un soin particulier. Mais la problématique de l’évaluation de la formation n’est pas simple : la réussite d’une action de formation ne se mesure pas aussi facilement que celle d’une opération commerciale, et par ailleurs toutes les formations ne s’évaluent pas de la même façon… Comment passer des paroles aux actes, et traduire cette complexité en procédures opérationnelles pragmatiques et efficaces ?

 

Qu’est-ce que l’évaluation à froid ?

Comme nous l’avons déjà souvent évoqué sur ce blog, l’évaluation de la formation a été théorisée dès la fin des années 1950 par l’Américain Donald Kirkpatrick, auteur du modèle qui porte son nom. Celui-ci compte 4 niveaux : la réaction (avez-vous aimé la formation ?), les apprentissages (qu’avez-vous appris ?), les comportements (que faites-vous différemment grâce à la formation ?), les objectifs RH (en quoi l’entreprise en a bénéficié ?). Les deux premiers niveaux se pratiquent habituellement « à chaud », c’est-à-dire à l’issue de la session de formation. Les deux derniers relèvent de l’évaluation dite « à froid », et peuvent se tenir plusieurs mois après le stage.

L’évaluation à froid consiste ainsi à établir dans quelle mesure le salarié a modifié sa pratique à l’issue de la formation ; ainsi qu’à essayer de calculer le « retour sur attentes » de la formation vis-à-vis de l’entreprise ou du service.

 

Un succès d’estime ?

L’enquête Fefaur/Talentsoft que nous commentions en octobre dernier dans cet article le rappelait de nouveau : si l’évaluation à froid est volontiers reconnue comme essentielle, elle reste relativement pratiquée. Dans la moitié des entreprises interrogées, l’évaluation du transfert en situation de travail des connaissances acquises n’a lieu que pour moins de 30% des actions. Si on se tourne vers la mesure de l’impact de la formation sur la performance opérationnelle du salarié, on monte à près des deux tiers des entreprises, et à près de 7 entreprises sur 10 pour la mesure du retour sur attentes.

En clair, plus on monte dans les « niveaux » du modèle de Kirkpatrick, c’est-à-dire plus on s’intéresse aux bénéfices opérationnels concrets à moyen et long terme de la formation, moins la pratique est répandue. Les autres données contenues dans l’étude vont dans le même sens.

Le phénomène n’est pas une exception française : dans son ouvrage L’évaluation de la formation, Jonathan Pottiez signale que le même phénomène en Amérique du Nord, avec des pourcentages plus faibles encore. Ceux-ci s’expliquent peut-être, cependant, par une meilleure connaissance des exigences de l’évaluation : il n’est pas rare, selon l’auteur, que des responsables formation considèrent avoir « évalué à froid » parce qu’ils ont posé une question sur la formation suivie lors de l’entretien annuel, ou encore parce qu’ils ont réalisé l’évaluation à chaud avec retard…

 

Pourquoi évalue-t-on si peu à froid ?

Comment s’explique ce moindre recours à une pratique pourtant reconnue comme inhérente à une juste mesure de la pertinence de l’investissement formation ?

En 2004, selon une étude citée dans l’ouvrage de Jonathan Pottiez, près des deux tiers des entreprises européennes estimaient que le sujet n’était pas prioritaire, ou n’avaient pas de temps à y consacrer. Les mentalités ont sans doute évolué depuis : dans l’étude Fefaur/Talentsoft de 2017, les responsables interrogés pointent plutôt le manque d’implication des acteurs et la difficulté de l’exercice ; mais ils sont encore 47,5% à invoquer le manque de temps et de moyens. Pourquoi cette désaffection ?

Une première réponse est que toute formation ne se prête pas nécessairement à une évaluation à froid. Une formation à une technique simple, comme un logiciel bureautique ou une formation obligatoire à la conduite d’un engin de chantier, ne requiert pas forcément que l’on déploie une ingénierie complexe d’évaluation personnalisée sur une longue période.

Un second axe d’explication est que, tout simplement, l’évaluation à froid n’est pas un exercice aisé. Elle suppose que plusieurs conditions soient remplies :

  • Des objectifs, des indicateurs doivent avoir été définis en amont ;
  • Les managers doivent être mobilisés ;
  • Un suivi personnalisé doit être mis en place.

Comment parvenir à mettre en place des processus qui permettent de valider ces  trois points de manière pragmatique et réaliste ?

 

Passer à l’acte

Pour évaluer de façon systématique l’impact à long terme des formations (sur le comportement et le travail de l’apprenant comme sur la performance de l’entreprise), l’aide d’un outil informatique de gestion sera certainement précieuse. L’expérience de RHEXIS montre cependant qu’informatiser ne suffit pas, du fait notamment de la grande diversité des situations de formation qui se rencontrent dans l’entreprise. Deux cas de figure peuvent se rencontrer :

  • Le cas des grands programmes de formation collectifs décidés par la direction et destinés à toute une population. De tels programmes sont généralement conçus avec des objectifs précis en tête, les mêmes pour tout le monde ; la mobilisation des managers va de soi, et se trouve garantie par un planning précis et la volonté exprimée de la direction ; le suivi personnalisé est relativement facile à déployer et à justifier.
  • Le cas du plan de formation « bottom-up », conjuguant une multitude de prestations aux périmètres et aux thèmes très différents, et impliquant une variété de collaborateurs, de services et de managers. L’exercice se fait alors plus délicat.

 

L’évaluation comme processus

En effet, dans le cas de formations prévues pour une population limitée, ou pour des actions ciblées sur des personnes précises, il devient plus difficile de trouver le temps et les ressources pour assurer une évaluation dans la durée. C’est dans ce contexte que l’on prend conscience de ce fait d’expérience : l’évaluation à froid, à la différence de l’évaluation à chaud, requiert un processus organisationnel.

Reprenons les trois conditions énumérées ci-dessus :

  • La définition d’objectifs en amont se heurte à plusieurs difficultés dans le cas de formations isolées. « Si l’évaluation du transfert des acquis », écrit Jonathan Pottiez, « rencontre peu d’obstacles dans le cas de formations techniques, elle peut être plus difficile dans le cas de formations comportementales ou managériales ». Par ailleurs, qui est le mieux placé pour définir ces objectifs ? Le manager ? La personne formée ? L’un est l’autre devront être impliqués, dans une phase préalable de précision du besoin qui est impérative pour une évaluation efficace. Il y a du chemin à parcourir : selon l’étude Fefaur/Talentsoft, 68,5% des entreprises n’évaluent jamais ou rarement les connaissances des salariés avant leur formation ; et seul un petit quart d’entre elles « négocient des indicateurs mesurables de réussite avec les opérationnels avant la formation ».
  • La mobilisation des managers est un point bloquant fréquemment évoqué par les responsables formation. ,: 77% d’entre eux, selon le baromètre Management de la formation, jugent négativement l’implication des managers sur les questions de formation. Or, évaluer l’impact de formations ponctuelles prévues pour un petit nombre de personnes suppose d’impliquer chacun des managers, ce qui est coûteux en temps et en énergie.
  • La difficulté d’un suivi personnalisé pour chaque formation découle naturellement des éléments précédents : déployer une organisation complexe dans la durée, qui aille au-delà d’un simple échange informel lors de l’entretien annuel ou de professionnalisation, requiert des ressources importantes.

 

S’outiller pour mieux évaluer

La réponse passe, selon nous, par un outillage informatique pertinent mis au service de procédures adaptées.

Là encore, deux cas sont à envisager.

Le premier est celui dans lequel les objectifs de formation sont facilement identifiables en amont, avec des indicateurs définis. C’est le cas en particulier, le plus souvent, des grands programmes de formation décidés par la direction pour une vaste population ; mais cela peut se présenter également pour des programmes plus restreints et plus ponctuels, en fonction de la nature de la formation.

Dans cette situation, l’outil informatique peut aisément accompagner le suivi de l’évaluation à froid, en définissant et en implémentant un calendrier de suivi pour chaque apprenant et chaque indicateur.

Dans le cas de formations ponctuelles et variées pour des publics divers et nombreux, le suivi peut devenir plus problématique. Il est possible cependant d’intégrer l’évaluation à froid dans le processus :

  • La définition préalable d’objectifs peut être intégrée de façon systématique dès l’instant de la décision de former, avec un espace informatique pour les recenser. L’étape peut éventuellement être contournée lorsqu’elle n’apparaît pas pertinente, mais l’important est qu’elle soit prévue par défaut, et implique le manager et le futur stagiaire.
  • Une variante pragmatique peut consister à construire les objectifs à l’issue de chaque formation avec le bénéficiaire, par le biais d’un questionnaire intégré à celui de l’évaluation à chaud. On demandera ainsi au stagiaire, par exemple, de définir trois objectifs de changements comportementaux ou techniques à atteindre dans les 3 ou 6 mois.
  • L’outil peut comprendre un rappel systématique, par exemple à 90 jours après la formation, pour faire le point sur l’atteinte des objectifs.

Le suivi informatisé de la formation intègre ainsi la notion d’objectifs à définir et à suivre pour chaque action de formation. Cette architecture simple suppose une appropriation par les acteurs – responsable formation, managers, collaborateurs – qui peuvent disposer de droits d’accès différenciés.

 

C’est une approche de ce type que nous avons choisie pour proposer un suivi de l’évaluation dans notre outil RHEBUS. Ce n’est pas la seule possible, mais elle présente l’avantage d’être pragmatique et opérationnelle. L’outil ne se substitue pas à une nécessaire démarche d’organisation, mais elle lui vient en appui et permet au responsable formation de la déployer. A condition que les conditions soient propices, ce qui suppose une direction bien disposée, qu’il faudra parfois convaincre et convertir !

 

Crédit illustration : fotoliaweyo

 

Si vous souhaitez vous inscrire à la newsletter mensuelle du blog MANAGEMENT DE LA FORMATION : rendez-vous ici.

Découvrez le site RHEXIS, l’externalisation au service de la gestion de votre formation.

 Retrouvez les articles qui peuvent vous intéresser sur des thèmes proches :

Laissez un commentaire