Accueil
Infos
premier
degré
second
degré
Contacts
Sgen
Auvergne
Nous
écrire
Liens
| |
Evaluation
nationale de CE1 : exercices mal ciblés ou trucage délibéré ?
"Les
résultats sont-ils en baisse ou les exigences en hausse ? Pour la première année,
les évaluations des élèves de CE1 sont généralisées dans toutes les écoles
de France. Et les premiers résultats, inquiétants.
De nombreux témoignages recueillis depuis quelques semaines nous permettent
d’ores et déjà de pointer un problème majeur : les épreuves retenues (et
les instructions en matière de codage de résultats) mettent en difficulté une
proportion d’élèves sans commune mesure avec les résultats des années précédentes.
De nombreuses classes affichent un pourcentage d’élèves identifiés "
en grande difficulté " supérieur à 60%.
Résultat, ici, un inspecteur prend conscience du malaise et suspend toute
passation. Là c'est un inspecteur d'académie qui fait état publiquement de
ses doutes sur la validité du protocole retenu. Partout, les circonscriptions
sont débordées par la demande de livrets « B » supplémentaires.
Pour certains items, la distorsion est flagrante avec le protocole de l’an
passé. Ainsi la double page de l’exercice 1, demandant aux élèves de
choisir les mots correctement orthographiés en dessous de leur image, également
présente dans les évaluations de CE2, est massivement échouée, en
particulier du fait du codage prescrit : zéro défaut imposé.
Evidemment, quelques âmes mal pensantes suspectent la manipulation, en ces
temps de polémique médiatique sur la lecture : le meilleur moyen de pouvoir
dire n’importe quoi sur la question, c’est de casser l'échelle du thermomètre
pour ignorer l’état de la fièvre. Annoncer publiquement une inflation de
difficultés scolaires en début de CE1, ne serait-ce pas le dernier argument
d’un ministre acculé à la gesticulation médiatique pour assurer son propos
sur " tout fout le camp " ?
"Pourtant", explique Michèle, suivant depuis plusieurs années ses élèves
en cycle II en ZEP, "les résultats de la cohorte de cette année ne sont
ni pires ni meilleurs que ceux de l’an passé. Mais je suis sûre que les
exercices choisis et la manière de coder entraînent une performance aux tests
bien plus négative".
Pour ne pas céder à la paranoïa, il faut revenir sur la genèse de cette évaluation.
Sa construction a été produite, de 2002 à 2004, par un groupe très hétérogène
autour de la Desco (Direction de l’Enseignement Scolaire du ministère de l'éducation
nationale) et de la Dep (Direction de l’Evaluation et de la Prospective).
Constitué de chercheurs (linguistes, psychologues, didacticiens), de représentants
de l’Inspection Générale, d’acteurs de terrain (IEN, CPC, enseignants), ce
groupe s’est posé toutes les questions nécessaires pour "cadrer"
cet exercice. Quelle part pour la numération ? Et les pseudo-mots ? La
production d’écrit ? Les activités de compréhension ? Quel niveau de
vocabulaire exiger pour les textes proposés à la lecture des élèves ? Quel
niveau de langue ? Quel codage des items ? Combien de temps de passation ? Selon
quelles modalités ? Quels items sont réellement basiques, prédicteurs des
difficultés ?… Le codage des résultats a été lui aussi au centre de
discussions passionnées : à quel niveau d’échec va-t-on demander à l’élève
de passer la partie complémentaire de l’évaluation ? 3/ 15 ? 5/15 ? 8/15 ?
A partir du travail statistique réalisé dans cette première phase, les items
retenus avaient été choisis pour arriver, en moyenne, à un taux de réussite
de 85% de bonnes réponses à la première épreuve, afin de bien identifier ces
15% d’élèves dont on sait qu’ils posent problème à l’Ecole. Evidemment,
ce 15% est inégalement réparti sur le territoire national : dans certaines ZEP,
on peut arriver parfois à 50%.
Mais cette année, les résultats semblent montrer une aggravation conséquente
des résultats : hors ZEP, les élèves en difficulté sont souvent 30 à 40%,
pour monter à 80% dans les zones ZEP. Dans ces conditions, il y a fort à
parier que l'évaluation nationale ne puisse aider en rien les enseignants pour
adapter leur enseignement.
Difficile de savoir qui a décidé de la forme finale que prendrait le
protocole. La Desco est aux abonnés absents et le groupe de pilotage qui avait
monté le protocole initial a été dispersé. Pour le moment, au ministère, on
affirme attendre les remontées du terrain pour la mi-novembre. On veut croire
que les enseignants ont peur de la nouveauté. Comme si ce genre d'évaluation
était inédit.
Si le ministère veut montrer que ce dérapage est autre chose qu’une
manipulation supplémentaire pour truquer les chiffres, il va falloir qu’il
fasse rapidement quelque chose. S’il ne dit rien d’audible, il sera une fois
de plus contreproductif, faisant douter encore plus les enseignants de
l’utilité de centrer leur activité sur les évaluations diagnostics, qui
sont pourtant un outil efficace pour accompagner les maîtres dans la compréhension
des difficultés des élèves.
|