Évaluation d’un environnement informatique pour l'apprentissage humain (EIAH)

De EduTech Wiki
Aller à la navigation Aller à la recherche

Résumé

Dans cette note de synthèse, il est question des objectifs, des critères, des méthodes et des limites de l’évaluation d’un environnement informatique pour l'apprentissage humain, que nous résumerons sous l’acronyme «EIAH».

Introduction

D’après Tchounikine et Tricot (2010), on peut définir un EIAH comme «un programme destiné à être utilisé par les apprenants impliqués dans une situation d’enseignement et à accompagner ou susciter leur apprentissage», tandis que George et al. (2013) indiquent que «le champ des EIAH (Environnements Informatiques pour l’Apprentissage Humain) correspond à la conception, la réalisation et l’évaluation d'environnements informatiques dont la finalité est de susciter et d'accompagner l'apprentissage humain (Balacheff, 2002 ; Grandbastien & Labat, 2006)». Un EIAH est donc investi d’une mission complexe, d’autant plus que son efficacité ne dépend pas seulement de ses caractéristiques intrinsèques, mais également du contexte dans lequel il s’inscrit et des acteurs impliqués. Dès lors, on peut comprendre que, pour être pertinente et féconde, l’évaluation d’un EIAH doit être considérée comme une étape fondamentale qui nécessite une approche méthodologique rigoureuse : «l’évaluation des systèmes est un élément clé de leur conception» (Tchounikine et Tricot, 2010).

Développement

Critères

Trois critères permettent d’évaluer un EIAH :

D’une part, l’utilité concerne la synergie entre l’EIAH et les objectifs pédagogiques à atteindre, tels qu’une augmentation des performances ou de la motivation de l’utilisateur (ATIEF, 2018a ; Tricot et al., 2003).

D’autre part, l’utilisabilité concerne les qualités ergonomiques de l’EIAH. On s’interroge alors sur d’éventuels problèmes de maniabilité et de fonctionnalité qui pourraient nuire à la capacité effective d’utiliser l’EIAH (ATIEF, 2018a ; Tricot et al., 2003).

Enfin, l’acceptabilité est un troisième critère plus complexe car sa définition intègre les deux premiers critères : «nous définissons l’acceptabilité d’un EIAH comme la valeur de la représentation mentale (attitudes, opinions, etc. plus ou moins positives) à propos d’un EIAH, de son utilité et de son utilisabilité» (Tricot et al., 2003).

Objectifs

Fondamentalement, l’évaluation d’un EIAH vise à obtenir un retour sur l’activité (ATIEF, 2018c) en collectant des données qualitatives ou quantitatives (ATIEF, 2018a). Plus précisément, l’objectif est d’apprécier l’adéquation de l’EIAH, en vérifiant s’il «correspond aux besoins de l’utilisateur», si «l’utilisateur peut adapter le système à ses besoins», ou si le «système s’adapte aux évolutions de l’utilisateur» et si «l’utilisateur s’approprie effectivement le système en contexte» (ATIEF, 2018b). La notion d’appropriation correspond ici à «la manière dont les usagers évaluent et adoptent, adaptent et intègrent une technologie dans les pratiques quotidiennes» (Carrol et al., 2003, cité dans ATIEF, 2018b).

Méthodes

Tchounikine et Tricot (2010) mettent judicieusement en lumière les enjeux méthodologiques de l'évaluation d'un EIAH :

La singularité de l’évaluation d’un EIAH est liée au hiatus qui existe généralement entre la situation à évaluer et les méthodologies d’évaluation. Une première difficulté est de définir ce qui doit faire l’objet de l’évaluation. […] Une seconde difficulté est de disposer de méthodologies d’évaluation scientifique. […] Une troisième difficulté est que, si l’on se place du point de vue de la conception des EIAH, il s’agit de mener une évaluation qui puisse (au moins en partie) être interprétée pour procéder à une réingénierie du système produit. (pp. 191-193)

Un EIAH peut être évalué dans des conditions expérimentales, en laboratoire, ou en conditions écologiques, dans le milieu naturel (ATIEF, 2018a). De manière analogue à la méthodologie de recherche de nombreux autres domaines, la production de données qualitatives ou quantitatives quant au rapport d’utilisateurs vis-à-vis d’un EIAH s’articule autour de trois méthodes : le recours à l’observation sur le terrain, la conduite d’entretiens et la passation de questionnaires (ATIEF, 2018c).

Dans tous les cas, l’idée n’est pas de juger uniquement les caractéristiques techniques de l’EIAH, mais bien de rendre compte de l’appropriation rendue possible par l’EIAH. L’appropriation est alors évaluée «par l’analyse des éléments du contexte et des perceptions des utilisateurs en contexte vis-à-vis de l’utilisation ou de l’usage» (ATIEF, 2018b).

On peut également noter que si le sens commun conçoit généralement la phase d’évaluation comme une étape finale, il est pourtant tout à fait pertinent d’appréhender l’évaluation avec une approche itérative où les résultats d’évaluations nourrissent le processus de conception d’un EIAH de manière cyclique, afin de l’améliorer aussi tôt et aussi souvent que possible (ATIEF, 2018a).

Limites

L’évaluation d’un EIAH n’est pas exempte de difficultés ni de limites :

Premièrement, il s’agit d’une étape coûteuse, notamment car la conduite d’entretiens et l’observation sur le terrain sont des activités extrêmement chronophages (ATIEF, 2018c). Les questionnaires permettent de consulter plus aisément un grand nombre d’utilisateurs et représentent un gain de temps intéressant pour le chercheur, mais le temps nécessaire à la compilation des données ne devrait pas être sous-estimé pour autant.

De plus, il est nécessaire de garder à l’esprit l’importante subjectivité des déclarations des utilisateurs d’un EIAH, qui conditionne fortement les conclusions de l’évaluation (ATIEF, 2018c). En effet le ressenti d’un utilisateur peut être en décalage avec la réalité, prêtant ainsi à surestimer l’importance objective d’un problème identifié.

D’autre part, comme évoqué précédemment, l’évaluation d’un EIAH appréhendée comme une étape finale constitue en réalité une perte d’opportunités de conception par rapport à une approche itérative ; une unique analyse à posteriori risque donc de s’avérer inadaptée car insuffisante (ATIEF, 2018c).

Conclusion

L’évaluation d’un environnement informatique pour l'apprentissage humain est fondamentale pour concevoir des dispositifs de qualité qui répondent aux besoins et aux attentes des apprenants. En observant ou en questionnant ces derniers, on peut alors faire émerger les points forts et les points faibles d’un EIAH. Toutefois, le cadre méthodologique de l’évaluation mérite une attention particulière, pour produire des données utiles à la conception, et il est nécessaire de comprendre la subjectivité inhérente aux utilisateurs, car in fine, «l’acceptabilité ne concerne pas que la représentation de l’EIAH mais aussi celles de son utilité et de son utilisabilité» (Tricot et al., 2003).

Références bibliographiques

  • George, S., Michel, C. et Ollagnier-Beldame, M. (2013). Usages réflexifs des traces dans les environnements informatiques pour l’apprentissage humain. Intellectica, 59(1), 205-241.
  • Tchounikine, P. et Tricot, A. (2010). Environnements informatiques et apprentissages humains. Dans C. Garbay, et D. Kayser (dir.), Informatique et sciences cognitives : Influences ou confluence ? (p. 167-200).
  • Tricot, A., Plégat-Soutjis, F., Camps, J-F., Amiel, A., Lutz, G. et Morcillo, A. (2003). Utilité, utilisabilité, acceptabilité : interpréter les relations entre trois dimensions de l’évaluation des EIAH. Dans C. Desmoulins, P. Marquet et D. Bouhineau (dir.), Environnements informatiques pour l’apprentissage humain (p. 391-402).



Rédigé par Thomas Goffin dans le cadre du cours ADID en décembre 2022.