Faire de l’évaluation, un processus participatif et négocié ? C’est possible. Le 10 octobre dernier, ESPRIst-ULiège organisait un séminaire intitulé « L’évaluation : pour quoi faire ? », cet article vise à donner du corps aux réflexions qui y ont été partagées, ainsi qu’à réaffirmer la nécessité d’orienter l’évaluation vers des pratiques démocratiques, négociées et adaptées à la complexité des situations vécues tant par les professionnels que leurs « ayant droits ».
ESPRIst-ULiège est un Centre d’expertise en promotion de la santé agréé par la Région wallonne (AViQ). Outre ses missions de soutien à l’évaluation et de capitalisation des expériences en promotion de la santé, ESPRIst-ULiège soutient l’élaboration et le pilotage de politiques publiques.
Les opérateurs agréés en promotion de la santé, avec des acteurs et actrices des champs de la santé, de la recherche et des administrations, se sont réunis pour partager leurs visions de l’évaluation, de ses finalités et enjeux le 10 octobre dernier. Les échanges (dont le compte-rendu est accessible en ligne) se sont rapidement orientés vers des constats similaires à ceux pointés par la Fédération wallonne de promotion de la santé, dans sa note stratégique du 18 juin 2024. Établie dans le cadre des consultations préalables à l’élaboration de nouveaux accords de gouvernement, elle soulignait notamment l’urgence d’une simplification administrative, de façon à permettre aux organisations à vocation sociale de consacrer leur temps au fondement même de leur existence : le travail de terrain (FWPsanté, 2024).
En effet, les professionnels s’accordent généralement sur un même constat : l’emprise toujours plus grande de logiques d’évaluation chronophages, déconnectées de leurs réalités et ne rendant pas suffisamment compte du sens de leurs actions. Indicateurs impossibles à documenter ou trop nombreux, pressions relatives à la production de données dites « de résultats » et perspectives politiques semblant annoncer la montée des exigences d’efficacité… Tous les ingrédients sont là pour que l’évaluation soit prise en grippe !
L’idéologie cachée de l’évaluation
Les techniques et outils de la gestion de projet, en ce compris l’évaluation, se présentent généralement comme des instruments objectifs visant à améliorer les projets et les politiques publiques. Les professionnels de terrain, aux prises avec ces outils, perçoivent cependant bien qu’ils ne sont pas réellement neutres. Vincent de Gaulejac en parle d’ailleurs comme d’une idéologie, c’est-à-dire un ensemble de représentations du monde au service d’une forme de pouvoir politique (De Gaulejac, 2014). En d’autres termes, l’évaluation repose sur un imaginaire social (Dejours, 2003), une image idéalisée de la société et de comment celle-ci devrait fonctionner. Pour le dire encore différemment, l’évaluation traduit une manière de gouverner (Martuccelli, 2010) en un ensemble d’outils et de techniques.
Cette idéologie, quand elle est managériale et technicienne (Aggeri, 2023), prête à l’évaluation de nombreuses vertus, parmi lesquelles l’égalité (tout le monde peut ou doit être évalué), la gestion transparente du pouvoir, le choix des pratiques les plus efficaces, la bonne utilisation des ressources, voire encore la capacité de l’évaluation à motiver les individus à travailler mieux (Martuccelli, 2010). Elle sous-entend que la société et les problématiques sociales peuvent être gérées grâce à un ensemble d’indicateurs (Salais, 2010) qui permettent des prises de décisions rationnelles et objectives. Mais l’évaluation de type managérial est-elle vraiment l’option la plus efficace ?
L’évaluation ne peut pas tout mesurer
L’idée d’un monde qui soit entièrement mesurable, observable – et donc évaluable – réduit les interactions et les activités humaines en un ensemble de propositions plus ou moins simples dans leur formulation : des indicateurs. Il est vrai que cette simplification donne l’impression que les problèmes sont plus faciles à gérer mais elle occulte complètement l’interrogation qui devrait pourtant être centrale : a-t-on bien compris quel est le problème ? (Hamant, 2023). En effet, les professionnels se sont vite aperçus de l’incapacité des indicateurs à rendre compte de leurs pratiques.
D’un côté, les indicateurs quantitatifs sont soutenus par la confiance encore largement répandue envers les données chiffrées, perçues comme moins discutables et plus scientifiques (Salais, 2010). Pourtant, ces indicateurs reposent souvent sur des données de faible qualité (car peu nombreuses), difficilement comparables entre elles (car récoltées sans une méthodologie commune), décontextualisées et sujettes à une diversité d’interprétations selon les regards qui seront portés sur elles.
D’un autre côté, les indicateurs qualitatifs se présentent souvent, eux aussi, comme des simplifications abusives. Le vécu des individus, de même que les situations sociales dans lesquelles ils évoluent, constituent un ensemble de phénomènes mouvants et protéiformes difficiles à appréhender. Le monde qui nous entoure n’est pas compris, ressenti de la même manière par tout le monde. Par ailleurs, les interactions humaines sont faites de paradoxes, d’évolutions constantes et interviennent dans des contextes parfois radicalement différents les uns des autres. La richesse de l’expérience, pour beaucoup, réside d’ailleurs dans ses dimensions invisibles et subjectives (les savoir-faire et les émotions, par exemple) (Dejours, 2003).
Trop éloignée du réel, l’évaluation qui se focalise exclusivement sur la production d’indicateurs ne dit finalement rien – ou très peu – du travail accompli. Elle ne laisse pas de place à l’échec, aux essais-erreurs, à l’adaptation aux imprévus, à la spontanéité des réponses apportées et aux bricolages dont les pratiques professionnelles sont constituées, ni à tous les aspects invisibles du travail (Dejours, 2003). Les indicateurs sont rarement en mesure de rendre compte du savoir-faire déployé par les professionnels parce qu’ils dénient la capacité de ces derniers à produire une « mise en récit authentique » de leurs pratiques (Périlleux, 2005, p. 131).
L’insistance grandissante de produire des indicateurs de « résultats » doit à ce titre être surveillée avec attention. En effet, ceux-ci ne disent rien des efforts mis en œuvre par les professionnels (Dejours, 2003), ni de la légitimité des actions entreprises. Par exemple, vouloir à tout prix mesurer les changements de comportements à l’issue d’une formation ne dit rien de l’intelligence, de la qualité, de l’ingéniosité avec laquelle une formation est conçue et donnée, ni de sa pertinence au regard d’objectifs sociaux ou de santé. Notamment parce que les changements de comportements ne sont pas simplement le résultat d’un lien de causalité direct entre un incitant et un changement mais dépendent tout autant de l’environnement dans lequel évolue l’individu et des déterminants sociaux qui le caractérisent. Par ailleurs, le pas est vite franchi de transformer les apprenants d’une formation en des consommateurs passifs qui évalueraient leur satisfaction en fonction de leurs attentes individuelles vis-à-vis d’une formation (Faulx & Danse, 2021). Enfin, les changements qu’une formation peut induire chez un individu ne sont pas toujours immédiatement visibles ; certains peuvent prendre des années avant de se manifester.
Par ailleurs, le plus grand danger, en réduisant les interventions des professionnels aux résultats à mesurer, est sans doute de continuer à faire reposer la responsabilité des changements souhaitables sur les épaules des professionnels qui consacrent leur énergie à alléger, autant que possible, le poids des inégalités sociales, plutôt que de concentrer le regard sur les politiques publiques qui créent ou renforcent ces mêmes inégalités (Kinet, 2022).
L’évaluation ne permet plus de prendre des décisions éclairées
Nous avons vu que l’évaluation n’est pas neutre mais sous-tendue par une idéologie. Il faut, à présent, souligner que l’évaluation n’est pas un objet inerte. Au contraire, la manière dont elle est conçue entraine des modifications dans les pratiques mêmes des professionnels. Poussée par l’idéologie managériale, l’évaluation dérive vers un nouvel enjeu : il n’est plus tellement question de bien faire son travail, mais de montrer que l’on fait bien son travail (Martuccelli, 2010).
Les discours construits autour des actions de terrain s’enferment dans un langage de gestionnaire (Dejours, 2003) qui ne correspond ni aux finalités premières des organisations à vocation sociale, ni aux valeurs qu’elles portent (Hardy, 2024). Les professionnels en viennent à s’interroger sur les modifications à apporter à leurs pratiques, de façon à rencontrer les exigences de l’évaluation qui leur sont imposées. Puisque les « résultats attendus » doivent être définis à l’avance, ils et elles sont incités à se concentrer uniquement sur la maximisation de ces résultats, plutôt que sur la nature même de leurs actions (Salais, 2010).
Face à ces logiques dénuées de sens pour les professionnels, ces derniers sont de plus en plus amenés à séparer l’évaluation pour rendre des comptes de l’évaluation pour améliorer les pratiques. La première repose sur des indicateurs choisis pour satisfaire les attentes du pouvoir subsidiant, montrer qu’ils et elles sont « utiles » et « méritent » leur financement. La seconde, qui cherche à construire des connaissances partagées autour d’une action ou d’une problématique, est souvent laissée au placard, parce que la première prend déjà suffisamment de temps et que les professionnels sont désabusés vis-à-vis de la démarche évaluative.
Si les choses en restaient là, nous pourrions collectivement et simplement déplorer une perte de temps généralisée, mais ce n’est pas le cas : ces évaluations à l’échelle des organisations sont censées nourrir une évaluation de la politique publique en matière de promotion de la santé. Il est alors, toujours collectivement et de manière légitime, normal de se demander : ces indicateurs, si largement dénoncés, sont-ils vraiment capables d’orienter les décisions politiques de manière pertinente et transparente ? (Salais, 2010).
Si l’évaluation ne permet plus d’éclairer la prise de décision, elle en devient inefficace. Dès lors, ne faudrait-il pas, comme le proposait une participante au séminaire, évaluer l’évaluation ? En 1997, Pierre Bourdieu écrivait, à propos des autorités académiques : « Il est remarquable que ces responsables (…) se mettent soigneusement à l’abri de tout ce qui pourrait conduire à appliquer à leurs pratiques administratives les procédures dont ils préconisent si généreusement l’application » (Bourdieu, 1997). La remarque est volontairement provocatrice et pourtant, s’il fallait évaluer les pratiques d’évaluation imposées aux professionnels, les questions évaluatives seraient nombreuses.
Quels sont les effets du temps que passent les professionnels à répondre aux exigences en matière d’évaluation sur le travail de terrain, sur la qualité des interventions… et sur la santé mentale des professionnels ? Comment les exigences en matière d’évaluation transforment-elles les pratiques professionnelles ? Permettent-elles vraiment aux professionnels de questionner leurs pratiques et de les améliorer ? Que nous dit l’évaluation sur les principes et les valeurs qui guident actuellement la prise de décisions en promotion de la santé ? Ces valeurs sont-elles les mêmes que celles portées par les acteurs de terrain ? L’évaluation leur permet-elle de prendre des décisions pour donner corps à leurs objectifs premiers, à savoir l’application de la Déclaration des Droits de l’Homme (Hardy, 2024) et la réduction des inégalités sociales de santé ? La liste pourrait être encore longue.
Soutenir des formes démocratiques d’évaluation
Devrait-on pour autant abandonner toute forme d’évaluation ? Probablement pas. L’évaluation est un outil qui peut être riche en enseignements, pour autant qu’on la conçoive comme une démarche participative, négociée et, dès lors, démocratique. Cette conception devrait en premier lieu s’appliquer à la démarche même de l’évaluation. Les méthodes d’évaluation devraient toujours être négociées. En effet, « lorsque ses conditions, n’ont pas été élaborées de commun accord, l’évaluation peut être l’occasion d’un brutal rapport de forces, sous couvert de mesures objectives des performances » (Périlleux, 2005, p. 115).
En deuxième lieu, il s’agit de construire une analyse commune d’une situation, en permettant aux différents acteurs d’exprimer les significations que cette situation revêt pour eux et les interprétations qu’ils en font. Puisque « personne, en effet, n’a l’exclusivité du sens » (Cardinet, 1990), mettre les acteurs concernés par un projet, y compris les ayant droits, autour d’une même table est probablement le meilleur moyen de parvenir à des décisions qui soient pertinentes, parce que fondées sur la construction d’une vision partagée d’un problème à résoudre au travers de sa mise en discussion (Salais, 2010).
Enfin, en troisième lieu, il s’agit également de reconnaître qu’il existe d’autres formes d’évaluation, orientées vers la formulation de questions évaluatives et de mises en récit qui ne conditionnent pas l’analyse à des propositions préalablement définies mais s’octroient la possibilité d’une démarche inductive et véritablement qualitative (Kinet et al., 2022). Une telle démarche est d’ailleurs conciliable avec la formulation d’indicateurs d’évaluation pertinents, comme le montre le travail réalisé par Estelle Georgin (ESPRIst-ULiège) en collaboration avec la Fédération wallonne de promotion de la santé (Georgin, 2022).
C’est cette conception de l’évaluation comme un processus participatif et négocié qui est défendue par l’équipe d’ESPRIst-ULiège et qui continuera de sous-tendre les prochains « séminaires évaluation ». Ceux-ci visent avant tout à favoriser les échanges de pratiques et les réflexions, la diffusion d’outils méthodologiques et à soutenir les professionnels dans leurs démarches d’évaluation. Les séminaires contribuent aussi à soulever les incohérences des conceptions actuelles de l’évaluation et à promouvoir des démarches alternatives plus démocratiques et plus justes. Le prochain séminaire (14 avril 2025, La Louvière) sera consacré à l’identification et la formulation de questions évaluatives.
Toutes les informations relatives aux séminaires sont disponibles sur le site internet d’ESPRIst-ULiège (Séminaires évaluation 2025)
Bibliographie
Aggeri F., L’innovation mais pour quoi faire ? Essai sur un mythe économique, social et managérial, Paris, Seuil, 2023
Bourdieu P., Les usages sociaux de la science, Versailles INRA Éditions, 1997
Cardinet J. , « Vers une nouvelle conception de l’évaluation ? », in Revue française de pédagogie, n°90, 1990
De Gaulejac V., La société malade de la gestion. Idéologie gestionnaire, pouvoir managérial et harcèlement social, Paris, Points, 2014
Dejours C., L’évaluation du travail à l’épreuve du réel. Critique des fondements de l’évaluation, Paris, Éditions Quae, 2003
Faulx D. et Danse C., Comment favoriser l’apprentissage et la formation des adultes ?, Bruxelles, De Boeck Éditions, 2021
Fédération Wallonne de Promotion de la Santé, Note stratégique sur la politique wallonne de promotion de la santé et de prévention, 18 juin 2024
Georgin E., Plan wallon de prévention et de promotion de la santé : Des indicateurs d’évaluation des objectifs transversaux co-construits avec les acteurs », in Éducation Santé, 2022
Hamant O., Antidote au culte de la performance : La robustesse du vivant, Paris, Gallimard, 2023
Hardy J. « Se redonner des chemins de sens : Évaluer avec l’éthique des droits humains », in Écrire le social, n°6, 2024
Kinet J. (2022), Promotion de la santé et accompagnement des détenus en matière de santé mentale, de gestion des assuétudes et de réduction des risques dans les prisons en Wallonie. Rapport d’évaluation, Liège, ESPRIst-ULiège, 2022
Kinet J., Nisen L. et Thiry, B., Évaluation de la réception des outils Yapaka par les professionnels de première et deuxième ligne. Rapport d’évaluation, Liège, ESPRIst-ULiège, 2022
Martuccelli D. (2010), « Critique de la philosophie de l’évaluation », in Cahiers internationaux de Sociologie, 2010
Périlleux M., « Le déni de l’évaluation », in Travailler, n°13, 2005
Salais R., « La donnée n’est pas un donné. Pour une analyse critique de l’évaluation chiffrée« , in Revue française d’administration publique, n°135, 2010