Image générée par Intelligence Artificielle.
Évaluer les projets STEAM : comment s’y retrouver ?
Les projets STEAM – pour Science, Technology, Engineering, Arts et Mathematics – séduisent de plus en plus d’enseignants. Ils mobilisent les élèves autour de défis concrets, croisent les disciplines et valorisent la créativité. Mais une question revient sans cesse dans les salles des profs : comment évaluer équitablement ce type d’apprentissage ?
Corriger un contrôle de math ou un rapport de labo est une chose. Apprécier une démarche où se mêlent programmation, design, expérimentation et travail d’équipe en est une autre. Heureusement, la recherche éducative s’est emparée du sujet et propose aujourd’hui des balises très concrètes.
Pourquoi l’évaluation est-elle si complexe ?
Dans une étude menée sur 46 projets STEAM en Espagne, Fernández et ses collègues (2023) montrent que les outils traditionnels peinent à rendre compte de la richesse de ces dispositifs. Évaluer uniquement le résultat final revient à passer à côté d’éléments essentiels : la façon dont les élèves collaborent, testent, échouent, recommencent, mobilisent plusieurs disciplines à la fois.
Les auteurs défendent dès lors l’idée d’élargir les critères d’évaluation afin d’y inclure, aux côtés des savoirs disciplinaires, des dimensions telles que l’intégration interdisciplinaire, la créativité ou encore les stratégies de résolution de problèmes (Fernández et al., 2023). Autrement dit, il ne suffit plus de demander « est-ce que ça marche ? », mais aussi « comment y sont-ils arrivés ? ».
Regarder le chemin autant que la destination
Cette idée traverse également les travaux de Huang et al. (2025), qui ont observé la mise en œuvre de projets intégrés à Taiwan. Leur proposition est claire : l’évaluation devrait combiner deux focales complémentaires.
La première porte sur les acquis disciplinaires. Les élèves doivent continuer à développer des connaissances solides en sciences, en mathématiques ou en technologie. La seconde s’intéresse au processus, suivi étape par étape : compréhension du problème, exploration de pistes, prototypage, amélioration.
Cette approche « phase par phase » permet de reconnaître la valeur des tâtonnements et de l’évolution des idées (Huang et al., 2025). Dans cette perspective, l’évaluation devient moins un jugement final qu’un outil de régulation des apprentissages.
Les rubriques : un allié précieux
Pour aider les enseignants à traduire ces principes dans la pratique, plusieurs recherches proposent des rubriques d’évaluation structurées.
Wang et al. (2021), par exemple, se sont intéressés à la place des mathématiques dans les projets STEAM. Leur constat : l’intégration interdisciplinaire ne doit pas diluer les exigences propres à chaque matière. Une bonne grille peut à la fois préserver la profondeur des contenus et valoriser la pensée critique ainsi que la collaboration.
Dans le même esprit, Liu et al. (2022) ont développé une échelle d’indicateurs pour analyser les productions STEAM dans l’enseignement obligatoire. On y retrouve des dimensions comme le design thinking, la pensée computationnelle ou la littératie scientifique. Les auteurs montrent que ces indicateurs présentent une fiabilité suffisante pour soutenir l’évaluation en classe.
Des approches qui se complètent
À première vue, certaines démarches semblent privilégier la standardisation par critères, tandis que d’autres mettent l’accent sur l’observation continue. En réalité, les publications convergent.
Fernández et al. (2023) soulignent l’intérêt de rubriques explicites pour clarifier les attentes. Huang et al. (2025) rappellent l’importance de suivre l’évolution des élèves pendant le projet. Liu et al. (2022) démontrent qu’il est possible d’outiller cette observation grâce à des indicateurs robustes.
En combinant ces perspectives, l’enseignant dispose à la fois d’une boussole et d’un carnet de bord.
Ce que disent les chercheurs aux enseignants
Un premier message ressort fortement : l’évaluation doit être cohérente avec les objectifs visés. Si l’on affirme vouloir développer la créativité ou la collaboration, ces dimensions doivent apparaître clairement dans la manière d’attribuer les points (Fernández et al., 2023).
Deuxième recommandation : multiplier les sources d’information. Huang et al. (2025) mettent en avant l’intérêt de croiser observation de l’enseignant, traces du travail et moments de réflexion des élèves.
Enfin, rendre les critères visibles favoriserait l’engagement et l’autonomie. Les apprenants savent mieux vers quoi ils tendent et peuvent ajuster leurs stratégies en cours de route (Liu et al., 2022).
Vers une culture de l’évaluation renouvelée
Évaluer un projet STEAM, ce n’est donc pas simplement sanctionner un résultat. C’est reconnaître une dynamique d’apprentissage faite d’exploration, de dialogue entre disciplines et d’inventivité.
Les recherches récentes montrent que des solutions existent : rubriques détaillées, indicateurs validés, suivi du processus. Elles invitent surtout à déplacer le centre de gravité de l’évaluation, du produit vers la démarche.
Un changement exigeant, sans doute, mais profondément aligné avec l’ambition du STEAM : former des élèves capables de comprendre, de relier et de créer.
Références (APA 7e éd.)
Fernández, A., et al. (2023). Evaluating STEAM projects: A rubric-based approach. Education Sciences, 14(1), 53.
Huang, C., et al. (2025). Phase-by-phase evaluation of integrated STEAM projects. Thinking Skills and Creativity.
Liu, Y., et al. (2022). Development of indicators for assessing STEAM creations in K–12 education. Education and Information Technologies.
Wang, L., et al. (2021). Mathematics in STEAM project-based learning: Evaluation challenges and strategies. ZDM–Mathematics Education.