Novembre 2012 Par Gaëtan ABSIL Chantal VANDOORNE Outils

Sélectionnés et commentés par Gaëtan Absil et Chantal Vandoorne, SCPS APES – ULg

Ce glossaire n’a pas la vocation de devenir un dictionnaire du bien parlé et du bien pensé en évaluation. Il a pour objectif de soutenir vos réflexions et vos échanges autour de l’évaluation, entre partenaires, avec des évaluateurs, avec des décideurs…

De nombreux glossaires existent, les définitions prolifèrent, leurs usages sont multiples. Ils varient en fonction des logiques d’évaluation sous-tendues: émancipation, management, économique, gouvernance… et de l’idéologie du promoteur du glossaire. Parmi ce foisonnement, les définitions présentées ici ont été choisies, voire recomposées (1), pour leur valeur opérationnelle, définie sur base de l’expérience de l’équipe de l’APES-ULg. Nous vous encourageons cependant à aller consulter les glossaires dans leur version originale.

Ce glossaire se veut avant tout utile. Les termes sont regroupés par proximité en fonction des questions et des thèmes de réflexion les plus fréquents au moment de démarrer une démarche d’évaluation. Les termes techniques relatifs aux méthodes de collecte et d’analyse de données n’ont pas été pris en compte ici.

Évaluation

Exercice particulier consistant à répondre à un ensemble de questions relatives à la raison d’être, à la mise en œuvre et aux effets d’une intervention, afin de construire un jugement sur sa valeur à partir de plusieurs angles de vue (efficacité, efficience, pertinence, cohérence…).

On recense une grande variété de définitions de l’évaluation. L’évaluation est souvent qualifiée en fonction des politiques, programmes ou actions sur lesquels elle porte (par exemple, évaluation de politiques, de programmes, de projets, de pratiques professionnelles, de réseaux), de ses finalités (évaluation formative, récapitulative, managériale…), de la discipline principalement mobilisée (évaluation épidémiologique, évaluation économique…), du mode opératoire (évaluation externe, interne, autoévaluation), du moment auquel elle est réalisée (évaluation ex-ante, concomitante ou in itinere , ex-post), de la nature de l’exercice (démarche, méthode, processus d’évaluation). (d’après Jabot et Bauchet)

Jugement sur la valeur

«Évaluer c’est émettre un jugement sur la valeur d’une action», est une citation fréquente dans le monde de l’évaluation. Ce jugement – qui a un sens proche de celui d’appréciation – est construit à partir d’informations et d’analyses valides et fiables, mais aussi à partir des normes de références des participants à l’élaboration du jugement. Le jugement sur la valeur est le fait d’une personne ou d’un groupe (par exemple, une instance d’évaluation) inséré dans un contexte social. Ce jugement est porté à partir de critères explicites. Le jugement sur la valeur – ou jugement évaluatif – n’est pas un jugement de valeur au sens profane du terme. (*)

Boîte 1 – Pourquoi ?

Les finalités de l’évaluation

Apprentissage organisationnel

Le fait que les leçons tirées de l’expérience sont acceptées et retenues par les institutions ou organisations responsables de l’intervention. L’apprentissage va au-delà de la rétroaction dans la mesure où les leçons apprises sont capitalisées et peuvent être appliquées à d’autres interventions.

Il y a apprentissage direct (dit «en simple boucle») lorsque les utilisateurs apprennent que l’intervention est un succès ou un échec. Cela peut les conduire, par exemple, à diminuer la dotation budgétaire des interventions qui réussissent le moins bien.

Il y a apprentissage indirect (dit «en boucle double») lorsque les utilisateurs réalisent qu’ils doivent remettre en cause leurs hypothèses de base (leur théorie d’action). Cela peut les conduire, par exemple, à organiser différemment la mise en œuvre des interventions qui réussissent le moins bien. (Jabot et Bauchet)

Évaluation formative

Évaluation qui s’intéresse à ce qui se passe pendant le déroulement d’un programme, d’un projet ou d’une action.
Le but en est d’améliorer les modalités d’action, de coopération, voire de revoir les objectifs du programme, par un processus de feedback à l’intention des acteurs et partenaires du programme. On réintègre donc dans le programme les résultats d’une démarche d’évaluation concomitante. En référence à la définition ci-dessus, il s’agit parfois d’apprentissage organisationnel indirect (dit en boucle double). (d’après Midy)

Méta-évaluation

Évaluation d’une autre évaluation ou d’une série d’autres évaluations.
Les critères de jugement sont généralement la fiabilité, la crédibilité et l’utilité. Le terme est quelquefois appliqué à l’audit de la fonction évaluative d’une organisation (vérification que les règles concernant l’évaluation ont été appliquées avec professionnalisme). On parle parfois de méta-évaluation pour une synthèse faite à partir d’une série d’évaluations. (MEANS)

Responsabilité de rendre compte

Obligation de rendre compte du fait que le travail a été conduit selon les règles et les normes convenues, ou obligation de rendre compte de façon claire et impartiale sur les résultats et la performance, au regard du mandat et/ou des objectifs fixés.

Pour les décideurs et les gestionnaires du secteur public le devoir de rendre compte s’effectue envers les contribuables et les citoyens. (OCDE)

Pour les opérateurs, ce devoir concerne les financeurs, les pouvoirs organisateurs, les partenaires, voire les populations cibles. (*)

Valorisation

Ensemble d’activités utilisées pour faire connaître les résultats d’une évaluation (diffusion) et pour qu’une utilisation pratique puisse en être tirée.
Un point important de cette démarche consiste à étendre les apprentissages présentant un intérêt général et/ou spécifique à d’autres situations et contextes. (Office Fédéral de la Santé Publique)

Boîte 2 – Quoi ?

Questions et objets d’évaluation

Objet d’évaluation

Ce que l’évaluation observe pour répondre aux questions d’évaluation.
Il existe des objets à des niveaux de généralités différents (un programme, un projet, une action) et au sein de ceux-ci, des facettes différentes à examiner (les résultats, les processus, les ressources…). Ces exemples sont des catégories courantes d’objets d’évaluation. Pour chacune de ces catégories, les guides d’évaluation proposent souvent soit des listes de questions évaluatives, soit des objets plus précis encore. Ainsi, la catégorie «effets» se décline traditionnellement en comportements, représentations, aménagements matériels ou organisationnels, mobilisation communautaire, etc. (*)

Question d’évaluation

Interrogation se rapportant à l’objet d’évaluation et correspondant à ce que l’on veut réellement savoir à propos de l’objet retenu. (ERSP Rhône – Alpes)
Les questions ont en principe trois dimensions: descriptive (que s’est-il passé?), causale (dans quelle mesure ce qui s’est passé est-il réellement un effet de l’intervention?) et normative (l’effet est-il satisfaisant?). Une évaluation comprend généralement plusieurs questions. (MEANS)

Processus

Dans le domaine de l’évaluation, le processus se définit généralement par contraste avec les résultats, les effets ou les impacts.
L’évaluation de processus, parfois appelée évaluation de la mise en œuvre, s’intéresse à ce qu’un projet ou un programme met en place pour tenter d’atteindre ses objectifs. Elle est donc aussi utile pour comprendre pourquoi le programme prévu ne les a éventuellement pas atteints. L’évaluation de processus recouvre des dimensions aussi variées que le partenariat, le nombre et la couverture des actions, les outils et services construits pour servir de supports, les freins et facilitateurs à la mise en place du projet, etc. Certains éléments de processus sont suffisamment importants pour donner lieu à une définition particulière (implantation, réalisation, qualité…). (*)

Qualité

La qualité d’un produit ou d’un service, c’est l’ensemble des propriétés et caractéristiques d’une entité, qui lui confèrent l’aptitude à satisfaire des besoins exprimés ou implicites. Le terme évaluation de la qualité peut, selon les cas, être associé à des démarches d’accréditation ou à des démarches qualité.

L’accréditation repose sur la conformité du service à un certain nombre de normes préétablies, souvent définies et attestées par des experts extérieurs.

Une démarche qualité est un processus global, systématique et continu qui permet d’accroître la confiance dans la qualité du service rendu. Elle consiste à examiner régulièrement des points clefs du fonctionnement de l’organisation et des actions, à se questionner collectivement sur les pratiques de l’organisation et à décider de mesures afin de conforter ses points forts et de réduire progressivement ses points faibles. On parlera d’assurance de qualité quand cette démarche repose sur une série d’actions planifiées et systématiques et/ou sur la référence à des normes standardisées. (d’après INPES)

Réalisation

Selon les auteurs, les réalisations sont classées parmi les processus ou les résultats. Les réalisations sont des activités, biens et services fournis directement par une intervention, bien délimités et concrets, mis en place pour atteindre les objectifs du projet ou du programme, et qui continueront à avoir une existence en dehors de celui-ci.
Les réalisations peuvent prendre la forme d’objets matériels (un outil d’animation, une brochure, une base documentaire…) ou immatériels (un réseau de partenaires, un programme de formation, etc.).

Implantation

Quelquefois utilisée dans le sens restreint de couverture (population qui a été rejointe par le programme), l’implantation peut être parfois comprise de manière plus large, comme l’analyse des conditions qui ont permis au projet ou au programme de toucher l’ensemble du territoire ou des populations concernées.

Résultat

Dans le domaine de l’évaluation, le terme résultat est généralement utilisé en complément, en écho du terme processus. Il se rapporte à l’atteinte des objectifs d’une intervention. Dans certains modèles, il équivaut au terme «produit». Comme les termes «effet» et «impact», le terme «résultat» recouvre des définitions variées, parfois contradictoires.

Face à l’un des ces trois termes qui se rapportent aux changements produits par une intervention, on lèvera les ambiguïtés en se posant les questions suivantes: le changement concerné est-il observé directement après l’intervention, à court ou moyen terme ou au contraire à long terme ? Concerne-t-il une des finalités sanitaires, sociales, économiques sur l’ensemble d’une population ou un des objectifs intermédiaires nécessaires pour progresser vers cette finalité? L’évaluation intègre-t-elle seulement les changements attendus ou va-t-elle enregistrer aussi les changements inattendus sur la population concernée, sur les autres programmes ou mesures, etc. (*)

Effets

Ce sont les changements directement observables d’une intervention (d’un projet, d’une action) sur le milieu ou une population; ils peuvent être attendus ou non, attribuables directement ou indirectement à une action, identifiables à court ou moyen terme ( acquisition de connaissances , amélioration des compétences , modification de comportement …). Les effets se constatent fréquemment sur les déterminants intermédiaires alors que les impacts se constatent sur les finalités. (d’après Jabot et Bauchet)

Impacts

Les impacts désignent plutôt les changements rapportables aux finalités à long terme d’une politique ou d’un programme; l’évaluation des impacts peut nécessiter d’analyser de façon différentielle les effets d’une variété d’axes d’intervention ou d’actions.

On parlera par exemple, d’impact sur l’amélioration de la qualité de vie, la réduction de la mortalité, la réduction de l’obésité, la réduction de la consommation de tabac d’une population. L’évaluation d’impact s’intéresse aussi à l’ensemble des changements sociaux, économiques et environnementaux imputables à une intervention, qu’ils soient positifs ou négatifs, souhaités ou non. (d’après Jabot et Bauchet)

Performance

Le concept de performance est de plus en plus souvent utilisé bien qu’il n’en existe pas une définition stabilisée. Il s’applique plutôt à des objets d’évaluation très larges tels que les systèmes de santé, les organisations, les politiques de remise à l’emploi ou d’insertion, les politiques de prévention ou de promotion de la santé, etc.

La performance désigne à la fois la capacité d’une organisation à atteindre les résultats fixés avec les moyens alloués et sa capacité à maîtriser la chaîne (des ressources, activités, réalisations) qui mène aux résultats et aux impacts. L’appréciation de la performance suppose un effort d’intégration plus qu’un simple exercice d’ordonnancement ou d’analyse de quelques indicateurs. La mesure de la performance ne s’intéresse donc pas nécessairement aux résultats et aux impacts.

Un système performant est un système qui atteint les objectifs et les mandats qui lui sont donnés, en conformité avec les valeurs qui l’animent et qui optimise sa production compte tenu des ressources qu’il obtient. (Commissariat à la santé et au bien – être du Québec ; Jabot et Bauchet , MEANS , *)

Boîte 3 – Critères, indicateurs

Critère

Le critère est une caractéristique de l’objet à évaluer sur la base de laquelle sera formulé le jugement évaluatif. C’est un angle de vue adopté par des acteurs pour regarder un objet et apprécier une intervention.

Cohérence, pertinence, efficacité, efficience et utilité sont les principaux critères qui orientent les questions d’évaluation. Toutefois, pour chaque évaluation, des critères plus spécifiques seront construits et négociés avec l’ensemble des acteurs concernés (bailleurs de fonds, organismes subventionnaires, responsables de programme, opérateurs, bénéficiaires), lesquels ne portent pas nécessairement le même regard sur l’intervention. Par exemple, l’évaluation d’un service peut être appréciée sur la base de plusieurs critères, en fonction des intérêts des différentes personnes: l’accessibilité , la permanence du fonctionnement et la qualité de l’accueil pour les usagers de ce service; la conformité aux normes techniques et la compétence des professionnels pour les responsables de l’organisme pourvoyeur de services; l’adaptabilité du service aux besoins du fonctionnement pour les professionnels de ce service; et enfin la rentabilit é pour le commanditaire. (Jabot et Bauchet)

Référentiel

Cadre d’interprétation des données recueillies aux fins de l’évaluation et à partir duquel un jugement peut être formulé.
C’est un système de référence qui permet de confronter les indicateurs (éléments représentatifs d’une situation réelle) aux critères et aux normes ou valeurs de référence, quand celles-ci existent (éléments significatifs d’une situation désirée) dans un contexte donné. (Jabot et Bauchet)

Indicateur

Un indicateur est la manifestation concrète d’un critère, un indice pris dans l’observable qui permet de dire si l’objet d’évaluation correspond au critère.
L’indicateur peut être quantitatif ou qualitatif ( Jabot et Bauchet ). Idéalement, un indicateur devrait être mesurable (une quantité – chiffre ou taux) ou observable (une qualité – présence ou absence d’une caractéristique); en lien direct avec la réalité observée; concret: interprétable de la même façon pour tout le monde. Un indicateur est choisi en fonction de son utilité, de sa faisabilité, de sa proximité avec la réalité étudiée. Plusieurs indicateurs se combinant peuvent correspondre à un même critère. (Campanale)

Norme

Niveau que l’intervention doit atteindre pour être jugée réussie selon un critère donné ou encore combinaison de caractéristiques que l’objet doit posséder pour être jugé satisfaisant selon un critère donné.
On pourrait distinguer les normes, fixées par la loi ou les recommandations, et celles qui peuvent être fixées en fonction du contexte d’une action et des enjeux des acteurs. La norme (on parle aussi parfois de seuil ou de standards) est indispensable pour pouvoir interpréter l’indicateur. (*)

Cohérence

Critère de jugement qui interroge l’adéquation entre plusieurs termes: les objectifs de l’intervention, les ressources allouées, les activités prévues ( cohérence interne ), la construction de l’intervention ou encore d’autres interventions visant les mêmes effets ( cohérence externe ). (Jabot et Bauchet)

Efficacité

Ce critère permet d’apprécier la réalisation des objectifs d’une intervention en comparant les résultats (au sens d’effets) obtenus aux résultats attendus, ces résultats étant imputables à cette intervention ( efficacité propre ). (Jabot et Bauchet)

Évaluer l’efficacité suppose donc d’une part qu’un objectif ait été préalablement défini, et d’autre part que le résultat obtenu ait été mesuré (ou du moins estimé, observé). […] L’objectif devra en effet correspondre à un choix, présentant les caractéristiques suivantes: il traduit une recherche de cohérence par rapport à la mission et à la vocation de l’organisation; il s’inscrit dans un horizon temporel de moyen ou long terme; il s’accompagne d’une part de la définition du résultat attendu à cette échéance, et d’autre part de l’étude de la situation de départ, de façon à pouvoir identifier le parcours intermédiaire à réaliser; il est mesurable ou observable et doit donc donner lieu à l’élaboration d’indicateurs ou d’indices. (d’après Bartoli)

Efficience

L’efficience met en rapport les ressources mises en œuvre et les effets d’une intervention. Cela suppose d’avoir fait la preuve de l’efficacité. Une intervention efficiente est une intervention efficace au moindre coût. (Jabot et Bauchet)

Ethno-évaluation

L’ethno-évaluation est aussi un processus qui est activé en permanence pendant l’action. Ethno-évaluation désigne une évaluation pour laquelle les critères et les indicateurs sont construits par et pour les professionnels à partir de l’observation de leurs pratiques dans la conduite quotidienne de leurs projets.(*)

Pertinence

Critère interrogeant le bien-fondé d’une intervention, à savoir l’adéquation entre ses objectifs et la nature du problème à résoudre. (Jabot et Bauchet)

Durabilité (pérennité, viabilité)

La propriété des effets ou des réalisations à perdurer à moyen ou long terme. Ils sont durables s’ils subsistent après la fin du financement attribué pour l’intervention. Ils ne sont pas durables si une activité n’est pas capable de générer ses propres ressources ou d’être assurée par des ressources existant par ailleurs. L’intervention n’est pas durable si elle s’accompagne d’effets négatifs, notamment sur l’environnement, et que cela entraîne des phénomènes de blocage ou de rejet. (MEANS)

Boîte 4 – Quand ?

Les moments de l’évaluation

Évaluation ex-ante (diagnostic de situation)

Réalisée avant la mise en œuvre d’une intervention, cette évaluation vise à identifier les effets a priori et la faisabilité d’une intervention. (Jabot et Bauchet)

Évaluation in-itinere ou concomitante

Intermédiaire, in itinere ou chemin faisant, cette évaluation est réalisée au cours de la mise en œuvre d’une intervention. Elle fournit un diagnostic d’étape sur les premières phases de la réalisation. Elle est utile pour vérifier la nécessité de réorienter une intervention. (Jabot et Bauchet)

Évaluation ex-post

Réalisée à la fin d’une intervention, cette évaluation a pour but d’apprécier les effets de cette intervention, d’en identifier les facteurs de réussite ou d’échec, et d’en tirer des enseignements pour les fins d’autres interventions. (Jabot et Bauchet)

Évaluation d’Impact sur la Santé (EIS)

Une combinaison de procédures, méthodes et outils par lesquels une politique, un programme ou un projet peut être jugé quant à ses effets potentiels sur la santé de la population et la distribution de ces effets à l’intérieur de la population.
En d’autres mots, par l’EIS, on vise à dresser un tableau des effets anticipés de politiques, de programmes et de projets sur la santé d’une population et sur les différents groupes qui la composent. La mise en lumière des effets potentiels sur la santé permet ainsi d’éclairer la prise de décision. Il s’agit donc d’une forme particulière d’évaluation ex ante (*). ( Évaluation d’Impact sur la Santé lors de l’élaboration des projets de loi et règlements au Québec)

Boîte 5 – Qui?

Les acteurs qui participent à l’évaluation

Enjeux

Il s’agit d’envisager comment l’évaluation devient un lieu d’expression – explicite ou implicite – des stratégies, des intérêts, des valeurs des participants selon leurs contraintes propres (expérience, appartenance institutionnelle, affiliation politique, relations de pouvoir…). (*)

Évaluation participative

L’évaluation participative accorde une place particulière à toutes les personnes concernées par une intervention et son évaluation. Elle prend en considération leurs valeurs, leurs points de vue, leurs intérêts et leurs attentes, et cela à toutes les étapes du processus.

Elle peut cependant prendre des formes diverses en fonction de la largeur de la participation (qui y est associé? Associe-t-on les citoyens?) et en fonction des étapes auxquelles on associe les participants (identification des questions évaluatives, cahier des charges, protocole, pilotage et instance d’évaluation, analyse et interprétation des résultats, formulation de recommandations et diffusion des résultats). Les bénéfices recherchés en recourant à l’évaluation participative permettent aussi d’en distinguer les formes. Ces bénéfices s’organisent autour de trois axes: l’axe politique (autodétermination et émancipation des acteurs, justice sociale, démocratisation de la décision publique – Fetterman ); l’axe opérationnel (utilisation des résultats, amélioration de l’efficacité des programmes et des politiques – Patton ); l’axe constructiviste (qualité et pertinence de la connaissance produite par l’intégration des aspirations, préoccupation et valeurs des différents acteurs – Stake). (Jabot et Bauchet , Baron et Monnier , Jacob et Ouvrard)

Évaluation pluraliste

Une plus grande diversité de points de vue facilite leur confrontation au sein du groupe de pilotage, et permet d’élever le degré de consensus, d’interaction et la robustesse des interprétations. Sous réserve de savoir tirer un parti positif des différences de vues, l’évaluation pluraliste renforce la richesse et la crédibilité des conclusions. (MEANS)

Évaluation démocratique

Démarche d’évaluation qui vise à accroître la qualité et la transparence du débat démocratique […]. L’évaluation est définie comme un «jugement porté sur la valeur de l’intervention publique» par des personnalités démocratiquement élues. Les professionnels de l’évaluation sont au service de cette instance et ont un apport technique uniquement. Le processus est public. (MEAN)

Évaluation négociée

La négociation se situe toujours sur deux plans: d’un côté, ce sur quoi porte la négociation, par exemple le montant d’une subvention, l’objet d’évaluation, les critères d’évaluation, le type d’information à recueillir; de l’autre, celui du processus de négociation, c’est-à-dire comment les démarches d’évaluation prévoient les modalités de décisions.
La négociation consiste en un processus dynamique au cours duquel les parties, ayant à la fois des intérêts communs et des intérêts opposés, essaient de convenir des termes d’un protocole d’évaluation. Cette définition suppose que la négociation comporte une série d’entretiens, d’échanges de points de vue et de démarches pour parvenir à un accord. (d’après Midy)

L’évaluation émancipatrice

L’évaluation émancipatrice reprend les caractéristiques de l’évaluation négociée, de l’évaluation démocratique et pluraliste: négociation, diversité des points de vue et démocratisation.
Cependant, elle affiche une volonté explicite de donner du pouvoir aux participants grâce au processus d’évaluation. Elle considère indispensable d’accorder un pouvoir de décision aux groupes les plus démunis et exclus. Elle affiche aussi clairement son appartenance au constructivisme. (Baron et Monnier)

Instance d’évaluation

Groupe de pilotage de l’évaluation comprenant les principaux protagonistes de l’intervention évaluée.
On peut associer à l’évaluation toute personne qui est potentiellement utilisatrice des recommandations, toute personne qui a un intérêt dans les informations produites, toute personne qui est susceptible d’être gagnante ou perdante dans le processus. Les principales catégories de protagonistes sont les financeurs, les gestionnaires, les opérateurs et les publics concernés. Les protagonistes invités à participer à une instance d’évaluation expriment leurs attentes et leurs craintes; ils améliorent la pertinence des questions posées et leur présence crédibilise l’évaluation. (MEANS)

Panel d’experts

Groupe de travail spécialement constitué et réuni à plusieurs reprises pour la réalisation de l’évaluation.
Les experts sont des spécialistes indépendants et reconnus dans les domaines d’intervention évalués. Les experts produisent collectivement un jugement sur la valeur de l’intervention publique et de ses effets. Le panel d’experts permet de formuler rapidement et à faible coût un jugement de synthèse intégrant les principales informations connues sur le programme ainsi que celles issues d’expériences antérieures et extérieures. (MEANS)

Participants

Personnes tirant profit de la mise en œuvre d’une intervention, directement ou indirectement, intentionnellement ou non.
Ainsi, on distingue différentes catégories de participants: ceux qui sont directement visés par une intervention ( participants directs ), ceux qui profitent des conséquences indirectes d’une intervention sans en être les cibles ( participants indirects ), ceux qui profiteront de ses conséquences à long terme ( participants ultimes ), ceux qui bénéficient d’un appui dans le cadre de cette intervention ( participants intermédiaires ). Stakeholder et partie-prenante sont aussi utilisés. (Jabot et Bauchet)

Évaluation interne

L’évaluation interne est produite par les auteurs d’une intervention. L’évaluation interne intervient dans différentes autres formes d’évaluation telle que l’évaluation formative, la démarche qualité, l’auto-évaluation, l’évaluation accompagnée. Il faut encore distinguer les cas où l’évaluation interne implique toute une équipe de ceux où elle est confiée à l’un ou l’autre membre de celle-ci.

Autoévaluation

L’autoévaluation consiste à s’évaluer soi-même, soit à partir de critères dont on s’est doté soi-même, soit à partir d’un référentiel déterminé.(*)
On peut aussi distinguer deux versants de l’autoévaluation: l’autocontrôle et l’autoquestionnement. L’autocontrôle met en rapport les évaluateurs avec les normes sociales, légales, scientifiques, professionnelles, etc. dans un souci de conformité ou de formalisation. L’autoquestionnement serait plutôt du coté de la créativité, de la mise en projet et de la recherche de sens. (d’après Vial)

Évaluation accompagnée

L’évaluation accompagnée est une modalité de l’évaluation où le rôle de l’évaluateur est de soutenir les porteurs de projet pour que ceux-ci conçoivent et réalisent leur propre évaluation. Elle est principalement mise en place lors d’évaluation interne ou d’autoévaluation. Elle doit être distinguée de l’évaluation négociée et de l’évaluation émancipatrice dans lesquelles l’évaluateur peut garder une place externe. (*)

Évaluation externe

L’évaluation externe est conduite par des personnes extérieures à l’intervention évaluée.
Lors d’une évaluation externe, la responsabilité de la réalisation de l’évaluation, telle que définie par le cahier des charges et/ou pilotée par l’instance d’évaluation, repose sur les évaluateurs. L’évaluation externe peut cependant être menée de manière participative (dans le schéma pluraliste, par exemple) ou négociée. (*)

Boîte 6

Ce n’est pas fini: encore quelques mots !

Cadre logique (modèle logique)

Outil permettant de formaliser la logique d’une intervention, à savoir les relations entre les différentes composantes de cette intervention (buts, objectifs, activités, effets attendus), de visualiser les différentes voies possibles pour atteindre les résultats, et d’identifier les facteurs externes susceptibles d’influer sur cette intervention. ( Jabot et Bauchet )

Cahier des charges

Le cahier des charges définit le travail et le calendrier que devra réaliser l’équipe d’évaluation.
Il rappelle le cadre réglementaire et précise le champ de l’évaluation. Il annonce les principaux motifs de l’évaluation et précise les questions posées. Il rappelle les connaissances disponibles et trace les grandes lignes de la méthode d’évaluation. Il décrit la répartition du travail et des responsabilités entre les personnes qui participent au processus d’évaluation. Il fixe le calendrier et, si possible, le budget alloué. Il précise les qualifications attendues des équipes candidates ainsi que les critères qui seront utilisés pour sélectionner l’équipe d’évaluation. Il est généralement complété par des annexes administratives. (MEANS)

Théorie de l’action

Logique et stratégies sur lesquelles est construite une intervention, notamment les hypothèses émises pour expliquer la façon dont celle-ci devrait produire ses effets et atteindre son objectif global. Elle explicite les relations entre les réalisations, les effets intermédiaires et l’impact à plus long terme. (Jabot et Bauchet)

Protocole d’évaluation

Au sens large, ensemble des règles définies au démarrage d’une évaluation, décrivant sa méthodologie ainsi que ses différentes étapes. ( ERSP Rhônes – Alpes )
Au sens plus étroit: partie technique du plan de travail de l’évaluation conçu pour réaliser la collecte d’informations et l’analyse des données. (MEANS)

Triangulation

Combinaison de plusieurs sources d’information, techniques de recueil de données, théories de référence ou chercheurs dans le but de vérifier la justesse et la stabilité des résultats produits ou dans le but d’avoir une vision plus riche des objets d’évaluation. (d’après Mucchielli A )