Les Cahiers pédagogiques sont une revue associative qui vit de ses abonnements et ventes au numéro.
Pensez à vous abonner sur notre librairie en ligne, c’est grâce à cela que nous tenons bon !

Il n’y a pas de «clearinghouse» en France et c’est tant mieux

laure-endrizzi-2.jpgBien que potentiellement rattachée à une université, une clearinghouse n’est pas un laboratoire de recherche. Elle produit des analyses secondaires de la littérature de recherche, appelées « revues systématiques », pour identifier ce qui marche en éducation. Ces revues s’appuient sur une procédure statistique, dite « méta-analyse », qui combine des données issues de multiples études séparées ; l’examen de ces données consolidées et agrégées vise à déterminer les politiques scolaires et pratiques pédagogiques efficaces.

Les clearinghouses s’inscrivent dans le mouvement de l’evidence-based education (EBE), particulièrement développé dans les pays anglo-saxons : il s’agit de fonder l’éducation sur des « données probantes », c’est-à-dire sur des preuves fournies par la recherche. Les plus connues sont la What Works Clearing­house (WWC) aux États-Unis et l’Evidence for Policy and Practice Information and Coordinating Centre (EPPI-Centre) en Angleterre. Elles travaillent sur commande, souvent en lien étroit avec les milieux politiques, parfois avec de puissants lobbys enseignants ou partenaires de l’éducation, tous cherchant à justifier scientifiquement leurs actions.

La méthode de la revue systématique est standardisée : toutes les questions sont traitées selon le même protocole dont la transparence et la systématisation sont considérées comme des gages de validité scientifique. Il s’agit soit d’évaluer l’efficacité d’un dispositif (par exemple mesurer l’impact de l’introduction des tablettes sur les résultats des élèves), soit d’identifier les pratiques les plus efficaces par rapport à un objectif (mesurer les effets de différentes modalités de formation des enseignants sur l’usage pédagogique réel du numérique). En Europe, l’EPPI-centre joue un rôle clé dans la dissémination de l’EBE, en commercialisant notamment un logiciel qui instruit les différentes étapes de la revue systématique.

Un processus en entonnoir

La sélection des études procède par raffinements successifs à partir de requêtes complexes dans les bases de données scientifiques internationales. Le filtrage initial sur le titre et le résumé est automatisé, les filtrages suivants à partir du texte intégral sont strictement minutés. Les articles théoriques, historiques ou philosophiques, les revues de littérature et autres rapports sont exclus ; les recherches incluses présentent une certaine homogénéité : des études expérimentales qui divisent en deux la population interrogée (avec ou sans telle ou telle caractéristique), de façon idéalement aléatoire.

Si la masse de données agrégées produit une impression de robustesse, les revues systématiques rapprochent parfois des données très hétérogènes, la validité scientifique prévalant sur la pertinence : une question sur l’individualisation des apprentissages a toutes les chances de renvoyer à des réalités culturelles fort différentes selon les pays.

La popularité de ces revues systématiques est cependant immense, à l’image de l’ouvrage de John Hattie, Visible Learning (2009), qui synthétise environ 800 méta-analyses traitant plus de 50 000 études portant sur des millions d’élèves. Cette popularité tient en partie au fait qu’elles exposent les résultats de la recherche sous une forme claire et accessible, hiérarchisant les bonnes pratiques à l’aide de coefficients de pondération : l’impact du feedback est présenté comme plus efficace que la pédagogie de projet par exemple. Les praticiens sont ainsi confortés dans l’idée que le feedback sur le travail des élèves est important, mais qu’apprennent-ils sur la façon de mettre en œuvre une évaluation formative de qualité ?

Les conclusions, ainsi simplifiées, éliminent les effets de contexte pour faire émerger des recettes générales, rendant par là même l’enseignant seul responsable de toute la réussite scolaire ; elles gomment également les dissensions éventuelles, concluant à un effet globalement non significatif si l’impact est tantôt évalué positivement, tantôt considéré comme nul.

Faut-il dès lors faire de ces revues systématiques un modèle pour une science de l’éducation instrumentale ? La revue systématique établit au mieux des corrélations ; l’assimilation des corrélations à des causes est un biais pointé dans les cours d’initiation aux sciences sociales. La revue systématique ne dit rien des contenus disciplinaires enseignés dans la classe, ni des attentes et jugements des enseignants, ni des relations entre élèves, ni des situations de travail : ce sont les didactiques, la psychologie sociale et les sciences de l’information qui s’en chargent. La revue systématique ne prend pas en compte l’origine sociale et culturelle des élèves, les réformes en cours, les relations de l’établissement avec son environnement, ses modes de financement, etc. Ce sont la sociologie, la science politique, la géographie, l’économie qui s’en chargent. Sans oublier les apports de l’histoire, de la philosophie. C’est sans doute pour cette raison que les sciences de l’éducation finissent toujours, au-delà des recettes, par se conjuguer au pluriel.

Laure Endrizzi
Chargée d’études, service Veille et analyses à l’IFÉ-ENS de Lyon


Pour en savoir plus

Plusieurs articles sur Éduveille, dont « Protocole détaillé d’une revue systématique sur les compétences des enseignants », eduveille.hypotheses.org/2571,
et « Analyse critique des apports de l’ouvrage Visible Learning de John Hattie », eduveille.hypotheses.org/8285.