Designs de recherche orientés test de théorie

De EduTech Wiki
Révision datée du 26 mars 2015 à 12:51 par Daniel K. Schneider (discussion | contributions) (Page créée avec « {{tutoriel |fait_partie_du_cours=Manuel de recherche en technologie éducative |fait_partie_du_module= |est_module_de= |page_suivante= |statut=à améliorer |dernière_mod... »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche
Manuel de recherche en technologie éducative
à améliorer débutant
2015/03/26 ⚒⚒ 2015/03/27

Introduction

Nous avons précédemment présenté trois grandes familles d’approches de recherche: la recherche explicative, orientée vérification de théorie, la recherche interprétative, orientée création de théorie, et la recherche design. Dans ce chapitre, nous présenterons des designs de recherche (stratégies d’investigation) explicatifs, orientés vérification de théorie, i.e. le courant dominant des sciences sociales. La plupart des recherches en sciences de l’éducation publiées dans des revues de qualité s’appuient sur cette méthodologie. Plusieurs recherches évaluation reposent également sur une approche descendante fondée sur des modèles théoriques.


Objectifs d’apprentissage

  • Comprendre les principes fondamentaux de la recherche orientée vérification de théorie
  • Se familiariser avec quelques approches principales et être en mesure de les distinguer

Introduction

La recherche quantitative cherche à vérifier une théorie en examinant les relations existant entre les variables. Ces variables peuvent être mesurées, par des instruments, afin de générer des données numériques qui vont pouvoir être analysées avec des procédures statistiques. De plus, une étude quantitative a une structure fixe comportant une introduction, la littérature et la théorie, les méthodes, les résultats et la discussion. (Creswell, 2014, p. 247)

Les éléments les plus importants d’un design empirique fondé sur la théorie sont de ce fait (Figure 21): la théorie, les hypothèses, les mesures et les analyses causales (statistiques).


Figure 21: Principaux éléments de la recherche empirique fondée sur la théorie


  • Conceptualisations: chaque question de recherche est détaillée par l’intermédiaire d’une ou de plusieurs hypothèses. Les hypothèses sont ancrées dans la théorie.
  • Mesures: les mesures sont généralement quantitatives (e.g. données expérimentales, données d’enquêtes, «statistiques» organisationnelles ou publiques, etc.) et s’appuient sur des artéfacts tels que des sondages ou du matériel expérimental.
  • Analyses et conclusions: les hypothèses sont testées à l’aide de méthodes statistiques, par exemple des designs expérimentaux ou des designs corrélationnels (statistiques).

Il existe plusieurs variantes d’approches de recherche orientées vérification de théorie. Nous allons nous intéresser à certaines d’entre elles dans les chapitres suivants. Ces différentes approches ont des suppositions et des modèles méthodologiques en commun, que nous présenterons en temps voulu.

Designs expérimentaux

Dans la plupart des disciplines issues des sciences naturelles, la recherche expérimentale représente le paradigme idéal (le meilleur) pour la recherche empirique. L’expérience vise à contrôler les interactions physiques entre les variables.

Voici des questions de recherche types en psychologie de l’éducation:

  • Quels sont les effets d’une nouvelle intervention technologique sur la mémorisation de concepts simples à long terme et à court terme?
  • Quelle est l’influence de la continuité du déroulement d’une présentation sur la mémorisation d’informations?

Dans les domaines scientifiques, le principe de l’expérience est assez simple:

1. L’objet d’étude est complètement isolé de toute influence liée à son environnement et observé (O1)

2. Un stimulus est appliqué à l’objet (X1)

3. Les réactions de l’objet sont observées (O2)

Ces points peuvent être schématisés de cette façon (Figure 22):


Figure 22: Le principe de l’expérience

O1 = observation de l’état de l’objet non manipulé

X = traitement (stimulus, intervention)

O2 = observation de l’état de l’objet manipulé

L’effet du traitement (X) se mesure par la différence entre O1 et O2. En d’autres termes, une expérience peut corroborer qu’une 'intervention X 'aura un 'effet Y. 'X et Y sont des variables théoriques qui sont opérationnalisées de la façon suivante. X est le traitement (l’intervention) et Y représente les mesures quantifiées de l’effet par l’intermédiaire de l’opération O2 ― O1.

Dans le domaine des sciences humaines (comme dans les sciences de la vie), il n’est pas possible d’isoler totalement un sujet de son environnement. Par conséquent, nous devons nous assurer que les effets de l’environnement soient contrôlés ou du moins répartis de manière égale au groupe contrôle. Voyons à présent quelques stratégies pour mener des expériences dans le domaine des sciences de l’apprentissage.

Expérience simple à l’aide d’un groupe contrôle

Voici à quoi ressemble un design simple avec groupe contrôle (Figure 23):


Figure 23: Design expérimental avec groupes aléatoires et groupe contrôle


Le principe de ce design méthodologique est le suivant.

1. Deux groupes de sujets sont choisis de façon aléatoire (R[#_msocom_4 [B4]]) dans une population mère, de sorte à éliminer une influence systématique de variables inconnues dans un groupe. Nous partons du principe que les deux groupes seront influencés de façon identique par les mêmes variables non contrôlées.

2. La variable indépendante (X) est manipulée par le chercheur. Il soumettra un groupe à une condition expérimentale, i.e. en appliquant un traitement.

3. Idéalement, les sujets ne devraient pas avoir connaissance des objectifs de la recherche, car ils pourraient consciemment ou inconsciemment influencer les résultats.

Afin d’analyser les effets, nous comparons les effets du traitement (stimulus) et de l’absence de traitement des deux groupes. On appelle également la mesure «O» un post-test, car nous l’appliquons après le traitement.

Exemple 1. Expérience simple avec postest et groupe contrôle aléatoire

traitement effet (O) absence d’effet (O) effet complet pour un groupe '
traitement:
(groupe X)
plus important moins important 100% nous appliquons une comparaison «verticale»
absence de traitement:
(groupe non-X)
moins important plus important 100%


Les questions d’analyse sont formulées dans cet esprit: quelle est la probabilité que le traitement X produise l’effet O? Le tableau ci-dessus présente les effets de l’expérience. Nous pouvons constater que l’effet sur le groupe expérimental (soumis au traitement) est plus important que sur le groupe non expérimental, et inversement.

Expérience simple avec plusieurs traitements

L’expérience simple avec plusieurs traitements est un design légèrement différent, mais semblable sur le principe (Figure 24). Nous souhaitons observer les effets de différents types de traitements.


Figure 24: Expérience simple avec différents traitements

Exemple: on répartit des étudiants de première année dans différentes sessions, utilisant chacune une pédagogie particulière (e.g. pédagogie collaborative, pédagogie transmissive, etc.) (X). On cherche à savoir si en fin de formation les effets sont différents (O). Remarque: O1, O2 et O3 utilisent les mêmes tests.

Problèmes de l’expérience simple

De tels designs, qui sont orientés uniquement «post-test», ne sont pas optimaux, pour plusieurs raisons.

  • Sélection: les sujets ne sont pas forcément les mêmes dans différents groupes. Les échantillons étant typiquement très petits (12-20 / groupe), une sélection aléatoire de sujets pourrait ne pas fonctionner.
  • Réactivité des sujets: les individus se posent des questions sur l’expérience, ce qui mène à des effets de compensation, ou bien les individus peuvent changer entre les observations pour des raisons autres.
  • Difficulté de contrôler certaines variablesdans un contexte réel. Exemple: une nouvelle pédagogie utilisant les TIC pourrait mieux fonctionner pour plusieurs raisons: a) du fait qu’elle stimulerait l’enseignant, b) du fait que les apprenants seraient plus attentifs et travailleraient plus, ou c) simplement du fait que les groupes expérimentaux seraient plus petits que dans des conditions réelles, ce qui permettrait à chaque étudiant d’obtenir plus d’attention.

En principe, on peut tester de telles variables intermédiaires avec de nouvelles conditions expérimentales, mais pour chaque nouvelle variable, il faudrait ajouter au moins deux groupes expérimentaux, ce qui est très coûteux. Intéressons-nous à présent à un design plus courant qui comprend des pré-tests.

Expérience simple avec pré-tests

Le design suivant cherche à contrôler les différences qui peuvent exister entre deux groupes expérimentaux, i.e. nous ne nous appuyons pas sur un système aléatoire ou nous ne pouvons attribuer des sujets aléatoirement à un groupe. C’est typiquement le cas lorsque nous choisissons par exemple deux classes dans un environnement scolaire, que nous soumettons à deux traitements différents.

Voici la «formule» du design (Figure 25):


Figure 25: Design expérimental avec groupe contrôle, pré-test et post-test

L’analyse des résultats est menée de façon légèrement différente qu’avec le design aléatoire sans pré-tests. Afin de contrôler la différence potentielle entre les groupes, nous comparons la différence entre O2 et O1 avec la différence entre O4 et O3. O1 à O4 sont des tests identiques.

Effet = (O2-O1) comparé à (O4-O3).

Ce design présente également des désavantages: l’effet de la première mesure (le pré-test) peut influencer le résultat. Exemple: (a) si X est censé augmenter l’effet pédagogique, les tests O1 et O3 peuvent également avoir un effet (les apprenants apprennent en faisant le test). L’effet de X uniquement peut ainsi être surestimé.

Cet effet d’expérience peut être contrôlé par le design de Solomon, dont le principe est similaire (Figure 26). Cette méthode requiert deux groupes de contrôle supplémentaires; elle est donc plus coûteuse.


Figure 26: Le design de Solomon

Le design de Solomon combine le design de l’expérience simple avec le design du pré-test.

Il est par exemple possible de tester si

O2 > O1, O2 > O4, O5 > O6 et O5 > O3

Une simple comparaison de deux situations différentes n’est pas une expérience! La variable de traitement X doit être simple et unidimensionnelle (sans quoi vous ne connaissez pas la cause précise d’un effet). Nous reviendrons sur ce problème lorsque nous parlerons des designs de recherche quasi expérimentaux.

Les designs expérimentaux, dont les sujets sont des personnes exposées à des tâches significatives, ne font qu’apporter des éléments pour confirmer ou infirmer une hypothèse. Nous ne devrions jamais utiliser les termes «preuve» et «vérification», et leur préférer les termes «corroboration» ou «témoignage factuel».

Designs factoriels

Dans cette introduction, nous avons uniquement présenté des designs expérimentaux simples, i.e. le type de designs auquel on pourrait s’attendre dans une mémoire de Master mené par des novices en recherche expérimentale. Nous n’allons pas élaborer de designs factoriels [#_msocom_5 [B5]]en détails, mais souligner les principes de base.

Dans la recherche en technologie éducative et les domaines liés, les chercheurs tentent souvent d’étudier l’influence de plus d’un facteur X et cherchent à savoir comment les facteurs XA et XB interagissent. Contrôler des interactions entre deux variables indépendantes requiert au moins quatre groupes.

Exemple 2. Design simple à deux facteurs

Imaginons un design simple à deux facteurs: «Quelle est l’influence de la durée d’une formation (1h vs 4h) et de la modalité d’apprentissage (présentiel vs à distance) sur les résultats de l’apprenant?»

Le facteur A correspond à la durée de la formation et le facteur B à la modalité (Tableau 16).

Facteur A
Condition: 1 heure Condition: 4 heures
Facteur B Condition: présentiel Groupe 1 Groupe 3
Condition: à distance Groupe 2 Groupe 4

Tableau 16: Design simple à deux facteurs

Nous pourrions également utiliser une notation similaire à celle que nous avons utilisée précédemment mais elle devrait être interprétée différemment. Par exemple, X11 signifie qu’un groupe est dans la condition A = 1 et dans la condition B = 1, et X21 signifie qu’un groupe est dans la condition A = 2 et B = 1 (Figure 27).


Figure 27: Design simple à deux facteurs

Nous pourrions dans un premier temps analyser les effets de chaque facteur (comme dans l’exemple précédent) mais, il est plus intéressant de tester comment ces facteurs interagissent, e.g. il pourrait ne pas y avoir de différence entre les groupes 1 et 3 (ce qui signifierait que pour la condition «présentiel», une heure de formation suffit), mais il pourrait y avoir une différence entre les groupes 2 et 4, ce qui signifierait que le temps de formation a un effet sur la condition «à distance».

Comme nous l’avons indiqué précédemment, l’explication des designs factoriels sort du cadre de cette introduction. Si vous souhaitez en apprendre davantage, vous pouvez lire le document en ligne, en anglais, de Bill Trochim sur les designs factoriels (http://www.socialresearchmethods.net/kb/expfact.php).

La non-expérience: ce qu’il faut éviter

Intéressons-nous à des mauvais designs, car nous les rencontrons souvent dans des discours de décideurs ou dans les esquisses de propositions de recherche. Evitez-les à tout prix, car les experts n’acceptent aucun résultat issu d’une logique défectueuse.

La (non) expérience sans groupe contrôle ni pré-test

Le premier design de mauvaise qualité ressemble à la Figure 28:


Figure 28: Expérience de mauvaise qualité (1)

Nous observons simplement les données (O) après un événement (X).

Exemple 1. Un mauvais discours sur les compétences des élèves en matière de TIC:

Intéressons-nous à l’affirmation suivante: Depuis que nous avons introduit les TIC dans le programme, la plupart des élèves de l’école ont des bonnes compétences en recherche d’information sur le web.

Dans une telle affirmation, il manque une réelle comparaison!

  • Nous ne faisons aucune comparaison avec d’autres écoles qui ne proposent pas de formation aux TIC. Les meilleures compétences des élèves en matière de recherche d’information sur le web s’expliquent peut-être simplement par une tendance générale, puisque la plupart d’entre eux ont accès à un ordinateur et à internet à la maison.
  • On ne connaît même pas la situation antérieure!

Une affirmation telle que «la plupart des élèves ont de bonnes compétences en X» signifie que vous ne vous intéressez pas à ce qui se passe dans d’autres contextes qui n’incluent pas les TIC dans leur programme. Par conséquent, l’argument selon lequel l’introduction des TIC a un effet sur les écoles n’est pas valable.

Variable à expliquer (O) X = TIC à l’école X = pas de TIC à l’école
Mauvaises compétences en recherche d’information sur le web 10 étudiants ??? Comparaison horizontale
de%impossible
Bonnes compétences en recherche d’information sur le web 20 étudiants ???


Les choses ont changé... ce qui signifie que vous n’êtes pas conscient de la situation préalable au changement.

Variable à expliquer (O) avant après
Mauvaises compétences en recherche d’information sur le web ??? 10 étudiants Comparaison horizontale
de%impossible
Bonnes compétences en recherche d’information sur le web ??? 20 étudiants


Intéressons-nous à présent à un autre mauvais design.

Expériences sans distribution aléatoire ni pré-test

Dans le design suivant (Figure 29), le problème est qu’il n’y a aucun contrôle sur les conditions et l’évolution des groupes contrôle

'

Figure 29: Expérience de mauvaise qualité (2)

Voici un exemple typique d’affirmation posant problème: la moyenne des notes obtenues est meilleure dans les écoles qui utilisent des animations multimédia. La moyenne des notes obtenues dans l’école A, qui utilise des animations multimédia, peut être meilleure que dans l’école B pour des raisons complètement différentes. Il se pourrait simplement que l’école A attire des élèves provenant de milieux socio-économiques différents, qui ont généralement de meilleures notes. En outre, les écoles disposant de moyens financiers plus importants peuvent introduire des animations multimédia et attirer de meilleurs élèves.

Pour terminer, voyons un dernier exemple de mauvais design: une expérience sans groupe contrôle (Figure 30).

Expérience sans groupe contrôle

Figure 30: Expérience de mauvaise qualité (3)

Dans ce design, nous ne savons pas si X est la cause réelle.

Exemple: Depuis que j’ai acheté à ma fille de nombreux jeux vidéo, elle est bien meilleure en dactylographie. Vous ne savez pas si cette évolution est «naturelle» (les enfants s’améliorent toujours après avoir utilisé un clavier plusieurs fois) ou si la fille en question a appris à dactylographier par un autre moyen. On appelle ce phénomène «évolution naturelle» ou «régression statistique» de la population.

Exemples de Master et de thèses de type expérimental

Nous allons maintenant présenter un mémoire de Master type qui utilise un design expérimental pour étudier dans quelle mesure les moyens d’apprentissage multimédias influencent l’apprentissage.

Exemple 1. Influence des animations multimédias sur l’apprentissage

L’auteur a présenté deux mémoires de Master liés, l’un en technologie de l’éducation (en français), l’autre en psychologie expérimentale (en anglais). Voici un résumé du mémoire en technologie de l’éducation.

Rebetez, C. (2004). Sous quelles conditions l’animation améliore-t-elle l’apprentissage? Mémoire de Master (145p.). MSc MALTT (Master MALTT), TECFA, University of Geneva.
http://tecfa.unige.ch/perso/staf/rebetez/papers/memoire_staf.pdf

La question de recherche centrale

Notre recherche a pour objectif de mettre en évidence l'influence, de la continuité du flux, de la collaboration, de la permanence des états antérieurs, ainsi que de vérifier la portée de variables individuelles telles que l'empan visuel et les capacités de rotation mentale (p. 33).

'Variables explicatives (indépendantes), i.e. conditions

1. Animation, condition statique vs. condition dynamique: permet de visualiser la transition entre les états. La présentation statique force les étudiants à imaginer le mouvement des éléments.

2. Permanence, condition de présence ou d’absence: le fait de présenter des états antérieurs de l’animation aux étudiants leur permet une meilleure mémorisation et les aide à construire leur modèle.

3. Collaboration, condition de présence ou d’absence: le fait de travailler à plusieurs devrait permettre aux étudiants de créer des représentations plus abouties.

Afin de tester les effets de ces conditions, 3 x 3 = 9 groupes expérimentaux ont dû être testés.

Hypothèse opérationnelle

1. Animation

  • Les scores d’inférence ainsi que les scores de rétention seront plus élevés en condition dynamique qu’en condition statique.
  • La charge cognitive perçue sera plus élevée en condition dynamique qu’en condition statique.
  • Les temps de discussion ainsi que les niveaux de certitude n’ont pas de raison d’être différents entre les conditions.

2. Permanence

  • Les participants en condition avec permanence auront de meilleurs résultats aux questionnaires que les participants en condition sans permanence. Les résultats d’inférence sont tout particulièrement visés par cet effet.
  • La charge cognitive perçue ne devrait pas être différente entre ces deux conditions. Les temps de discussion ainsi que les niveaux de certitude devraient être plus élevés avec que sans permanence.
  • L’influence de la permanence sera d’autant plus grande si les participants sont en condition de présentation dynamique.

3. Collaboration

  • La collaboration aura un effet positif sur l’apprentissage, autant en ce qui concerne la rétention que l’inférence. Toutefois, l’inférence devrait être tout particulièrement avantagée en cas de « grounding ». Les participants en duo auront donc de meilleurs scores que les participants en solo.
  • En référence à Schnotz et al. (1999), nous attendons une charge cognitive perçue plus haute en condition duo qu’en condition solo.
  • Les temps de discussion devraient être naturellement plus grand en condition duo. Les niveaux de certitude devraient également s’élever en condition duo face à la condition solo.

Méthode (petit résumé)

Population: 160 étudiants. Ils ont tous été soumis à un test visant à évaluer s’ils sont novices (i.e. s’ils montrent des lacunes en termes de connaissances du matériel utilisé dans l’expérience).

1. Matériel:

  • Le matériel pédagogique consiste en deux contenus multimédias différents (géologie et astronomie), dont chacun se décline en deux versions. Il y a 12 animations pour les conditions dynamiques, et 12 images statiques pour les conditions statiques.
  • Contenu du matériel pédagogique: «le transit de Vénus», réalisé avec VRML, et «Formation des océans et des chaînes de montagnes», réalisé avec Flash.
  • Ces médias ont été intégrés dans Authorware (pour prendre des mesures et pour garantir une interface consistante)

2. Procédure (résumé)

  • Pré-test (5 questions)
  • Introduction (briefing)
  • Pour conditions solo: test de pliage de papier et test visuo-spatial de Corsi
  • Test avec matériel
  • Test de charge cognitive (NASA-TLX)
  • Post-test (17 questions)

3. Variables dépendantes mesurées:

  • Nombre de réponses correctes aux questionnaires de rétention.
  • Nombre de réponses correctes aux questionnaires d’inférence.
  • Niveau de certitude des réponses aux questionnaires.
  • Scores sur cinq échelles de charge cognitive perçue (tirées du nasa-tlx).
  • Score au paper-folding test.
  • Score d’empan au test de Corsi.
  • Temps (sec) et nombre d’utilisation des vignettes en condition de permanence.
  • Temps de réflexion entre les présentations (sec).

'

Exemple 2: Thèse de doctorat, sur le même sujet, par le même auteur, en anglais.

Le projet de thèse est disponible en ligne: http://tecfaetu.unige.ch/perso/staf/rebetez/blog/wp-content/files/ThesisProject_Rebetez.pdf

La thèse est également disponible en ligne: http://archive-ouverte.unige.ch/unige:4860


Exemple 3: Thèse de doctorat de Nicolas Nova, en anglais: The influences of location awareness on computer-supported collaboration

http://infoscience.epfl.ch/record/100038/files/EPFL_TH3769.pdf


Exemple 4: Thèse de Patrick Jermann, en anglais: Computer support for interaction regulation in collaborative problem-solving

http://tecfa.unige.ch/tecfa/research/theses/jermann2004.pdf


Pour pratiquer:

1) Quel est le lien entre une variable indépendante et une condition?

2) Pourquoi la répartition aléatoire est-elle importante?

3) Définissez l’effet de l’expérience.


Etude de cas:

1) Téléchargez l’article de Jamet, E. & Arguel A. (2008), « La compréhension d'un document technique multimédia peut-elle être améliorée par une présentation séquentielle de son contenu ? », Le travail humain 3 (Vol. 71), p. 253-270.

URL : www.cairn.info/revue-le-travail-humain-2008-3-page-253.htm / DOI : 10.3917/th.713.0253

2) Faites un résumé de l’article, de manière similaire à ce qui a été entrepris ci-dessus avec le mémoire de Rebetez, en prenant soin d’indiquer: la question de recherche, les variables indépendantes et les variables dépendantes, les hypothèses, la méthode (échantillon, procédure, variables dépendante mesurée).

Designs quasi-expérimentaux

Il est difficile de mener des expériences dans des contextes réels, e.g. dans des écoles. Toutefois, il existe des designs qu’on appelle les designs quasi-expérimentaux. Ils s’inspirent de principes de designs expérimentaux (pré-tests, post-tests et groupes contrôle). Ces designs ont l’avantage de pouvoir être menés dans des situations non-expérimentales, i.e. dans des contextes «réels» et peuvent être utilisés lorsque les vrais traitements expérimentaux deviennent trop «lourds», i.e. lorsqu’ils nécessitent plus de 2-3 variables de traitement bien définies.

Les désavantages des situations quasi-expérimentales sont liés au manque de contrôle:

  • Vous ne connaissez pas tous les stimuli possibles (i.e. les causes qui ne sont pas dues aux conditions expérimentales)
  • Vous ne pouvez pas distribuer de manière aléatoire (distribuer équitablement d’autres stimuli intermédiaires non connus aux groupes)
  • Vous pourriez manquer de sujets

Cependant, la recherche quasi-expérimentale peut aider à tester toutes sortes de variables que vous ne pouvez pas contrôler. On les appelle des obstacles à la validité interne.

Dans le domaine de l’éducation, les designs quasi-expérimentaux sont particulièrement appréciés dans la recherche évaluation et dans la recherche sur les innovations organisationnelles. Les connaissances en matière de design quasi-expérimental contribuent également à améliorer la qualité des questionnaires dans les enquêtes par sondage (pensez aux variables de contrôle pour tester des hypothèses alternatives).

Comme dans la recherche expérimentale, il existe plusieurs designs de recherche quasi-expérimentaux différents. Certains sont plus faciles à mener, mais ils donneront des résultats moins robustes (validité). Nous allons nous intéresser à une partie d’entre eux.

Design de la série chronologique interrompue

Dans le schéma suivant (Figure 31), correspondant à la série chronologique interrompue, nous cherchons à contrôler l’effet d’autres événements possibles (traitements) sur un groupe expérimental donné.


Figure 31: Design de la série chronologique interrompue

L’avantage de ce design est qu’il permet de contrôler quelque peu les tendances (naturelles), i.e. lorsque vous observez ou introduisez un traitement, e.g. une réforme pédagogique, vous ne pouvez pas avoir la certitude que ce sont les éléments de la réforme qui produisent les effets recherchés: les changements peuvent être dus à autre chose, comme une tendance générale vers de meilleures capacités au sein d’une population d’étudiants.

Les problèmes de ce design sont les suivants: vous ne pouvez pas contrôler des événements externes simultanés (X2 se produisant en même temps que X1).

Voici un exemple de l’effet de la pédagogie fondée sur les TIC en classe. Les méthodes pédagogiques fondées sur les TIC que vous étudiez peuvent avoir été introduites en même temps que d’autres innovations pédagogiques. Qu’est-ce qui a le plus influencé la performance globale; s’agit-il des TIC ou des autres innovations?

Il existe également des difficultés pratiques: il est parfois impossible d’obtenir des données sur les années écoulées. Parfois, vous n’avez pas suffisamment de temps à disposition (votre recherche se termine trop tôt et les décideurs sont toujours pressés pour attendre des résultats sur le long terme).


Exemple: les pédagogies fondées sur les TIC affirment souvent pouvoir améliorer les facultés métacognitives. Avez-vous des tests pour les années 1-2-3? Pouvez-vous attendre l’année +3? Pouvez-vous tester la même population lorsque les sujets entrent à l’université ou trouvent des emplois dans lesquels leurs facultés métacognitives ont plus d’importance?


Exemples de séries chronologiques

Nous allons nous intéresser de manière informelle à quelques 'patterns (modèles) de séries chronologiques, i.e. des mesures qui évoluent dans le temps et qui peuvent confirmer ou infirmer des hypothèses sur une intervention X.


Figure 32: Exemple de série chronologique interrompue

Dans la Figure 32, O2, O3, etc., sont des données d’observation (e.g. annuelles). X est le traitement (intervention).

1. A. Un effet statistique est probable

  • Exemple: les taux d’étudiants qui abandonnent les études ont baissé avec l’introduction de forums sur le serveur d’apprentissage en ligne.
  • Toutefois, vous devez vous méfier de vos interprétations: vous n’avez pas connaissance d’une éventuelle autre intervention qui pourrait avoir eu lieu en même temps.

2. B. Un effet statistique de type feu de paille ou «éphémère»

  • Exemple: l’enseignement s’est amélioré lorsque nous avons introduit X, puis tout est redevenu comme avant.
  • Il y a un effet constaté suite à l’intervention mais après un certain temps, la cause «s’épuise», e.g. une motivation en forte hausse suite à l’introduction des TIC dans le programme, qui ne s’installe pas forcément dans la durée.

3. C. Tendance naturelle (pas d’effet)

  • Vous pouvez contrôler cette erreur en regardant au-delà de O4 et O5!

4. D. Confusion entre les effets de cycle et l’intervention

  • Exemple: Le gouvernement a introduit des mesures pour lutter contre le chômage, mais il se peut que l’amélioration de la situation s’explique par un cycle économique naturel. Vous pouvez le vérifier en analysant l’ensemble de la série chronologique.

5. E. Effet retardé

  • Exemple: Les effets de gros investissements dans l’éducation sur la croissance économique (peuvent se manifester plusieurs décennies plus tard)

6. F. Effet d’accélération de tendance

  • Difficile à différencier de G, i.e. la courbe pourrait connaître un léger changement, mais il pourrait uniquement s’agir d’une variante de l’évolution naturelle exponentielle.

7. G. Evolution naturelle exponentielle

  • Identique à (C).

Obstacles à la validité interne

La question clé à vous poser de manière récurrente est: 'quelles sont les autres variables qui pourraient influencer mes/nos expériences?' Campbell et Stanley (1963) ont élaboré une première typologie d’obstacles dont vous devez vous méfier:

'''

Type d’obstacle Définition et exemple
Histoire

Un autre événement que X se produit entre les mesures.

Exemple: l’introduction des TIC a eu lieu en même temps que l’introduction de l’enseignement par projet.
Maturation

L’objet a changé «naturellement» entre les mesures

Exemple: ce cours a-t-il changé votre connaissance de la méthodologie ou est-ce simplement dû au fait que vous avez commencé à travailler sur votre projet de thèse?
Test

La mesure a eu un effet sur l’objet

Exemple: vos entretiens précédant l’intervention ont eu un effet sur les gens (e.g. les enseignants ont changé de comportement avant que vous ne les invitiez à des séances de formation)
Instrumentation

La méthode de mesure a changé

Exemple: les capacités de lecture sont définies différemment. e.g. de nouveaux tests favorisent la compréhension textuelle.
Régression statistique

Les différences se seraient réduites naturellement

Exemple: une école introduit de nouvelles mesures disciplinaires suite à l’agression d’un enseignant par des élèves. Il se peut que de tels événements ne se seraient pas reproduits l’année suivante, même sans intervention.
(Auto) sélection

Les sujets sont auto-sélectionnés pour le traitement

Exemple: vous introduisez de nouvelles pédagogies fondées sur les TIC et les résultats sont très bons (il se peut que seuls de bons enseignants aient participé à ces expériences).
Mortalité

Les sujets ne sont pas les mêmes

Exemple: une école introduit des mesures spéciales pour motiver les «élèves difficiles». Après 2-3 ans, les taux d’abandon diminuent. L’école est peut-être située dans une zone qui connaît des changements socio-démographiques rapides (différentes personnes).
Interaction avec
sélection
Exemple d’effets combinés: le groupe contrôle montre une maturation différente
Ambiguté directionnelle

L’effet est-il dû au traitement ou à des sujets différents?

Exemple: les performances d’employés sont-elles meilleures dans une organisation à hiérarchie «horizontale» / participative / équipée de TIC, ou est-ce qu’une telle organisation attire des individus plus actifs et plus efficaces?
Diffusion ou imitation de traitement

Le traitement a un effet sur le groupe contrôle

Exemple: une unité académique promeut un enseignement hybride moderne et attire des étudiants provenant d’une vaste zone géographique. Une unité de contrôle peut également bénéficier de cet effet.
Egalisation compensatoire

Le groupe contrôle observe le groupe expérimental

Exemple: les sujets qui ne reçoivent aucun traitement réagissent en se comportant différemment.

Tableau 17: Obstacles à la validité interne

Une règle efficace consiste à réfléchir et à chercher d’autres explications susceptibles d’expliquer un phénomène. Toutefois, de bons designs de recherche peuvent également permettre de produire une recherche valide. Voyons à présent quelques designs qui tentent de contrôler de tels obstacles à la validité interne.

Design avec groupe contrôle non équivalent

Ce design adopte des comparaisons entre deux groupes contrôle similaires (mais pas équivalents). L’avantage de ce design réside dans son efficacité à détecter d’éventuelles influences de causes extérieures (i.e. des causes différentes des causes liées à l’intervention).


Figure 33: Design avec groupe contrôle non équivalent

Si O2 ― O1 est similaire à O4 ― O3, nous pouvons rejeter l’hypothèse selon laquelle O2 ― O1 est du à X, ou nous pouvons corroborer l’effet expérimental de X (Figure 33).

Voici les problèmes et les désavantages possibles de ce design:

  • Mauvais contrôle des tendances naturelles, comme discuté dans le cadre de la série chronologique interrompue.
  • Trouver des groupes équivalents n’est pas facile dans certains contextes «réels».
  • Vous pourriez également rencontrer des effets d’interactions entre les groupes, e.g. l’imitation du groupe expérimental par le groupe contrôle.

Ce design avec groupe contrôle non équivalent n’est qu’un type de design de contrôle. Il est parfois possible d’utiliser des designs de contrôle aléatoires. Nous pouvons également créer deux ou trois designs de facteurs qui peuvent tester les interactions de variables indépendantes (facteurs). La conception et l’analyse de tels designs plus complexes sort cependant du cadre de cette introduction. Pour en savoir plus, vous pouvez consulter les ouvrages de Campbell, Stanley, Cook et Shadish. Par exemple: https://depts.washington.edu/methods/readings/Shadish.pdf


Expérience et effets d’imitation

Voici un exemple d’effet d’imitation (Figure 34). Dans le cadre d’un programme diplômant, nous introduisons une plateforme d’apprentissage dans un seul des cours. Nous nous intéressons alors à trois effets: le coût, la satisfaction des étudiants et le respect des délais en les comparant à un cours similaire donné par un autre enseignant.

'

Cours A

Introduction d’une plateforme d’apprentissage

Cours B

Pas d’introduction de plateforme
'
Effet 1:coûts augmente stable

comparaison horizontale

des résultats
E 2: satisfaction des étudiants augmente augmente
E 3: respect des délais (pour la remise des travaux) meilleur stable

Figure 34: Exemple d'effet d'imitation

Pour pratiquer:

Pourquoi la satisfaction des étudiants pourrait-elle également augmenter chez les étudiants du cours B?

Série chronologique comparative

L’un des designs de recherche quasi-expérimentale les plus puissants se sert de séries chronologiques comparatives (Figure 35). Ce design est une combinaison de la série chronologique interrompue et du groupe contrôle non équivalent, que nous avons présentés précédemment.


Figure 35: Série chronologique comparative

Ce design est efficace pour contrôler plusieurs obstacles à la validité car il permetde:

1. comparer différents groupes (situations) et aussi de contrôler d’autres variables intevening;

2. faire une série de pré- et de post-observations (tests) pour contrôler des tendances naturelles et un effet statistique de type feu de paille ou «éphémère».

Les difficultés de ce design sont pratiques. Il n’est pas facile (et parfois impossible) de:

1. trouver des groupes comparables,

2. trouver des groupes avec plus que un ou quelques cas,

3. trouver des données (en particulier des données passées ou futures),

4. de contrôler des interventions simultanées au point X.

La validité dans les designs quasi expérimentaux

Généralisons à présent la discussion et abordons les problèmes de causalité et leur validité (Tableau 18).

Selon Campbell & Stanley (1963), il existe quatre types de validité:

Type de validité
Validité interne

«Elle désigne l’aptitude des données collectées à représenter réellement le phénomène étudié. Ceci concerne aussi bien la pertinence du choix des catégories utilisées pour coder les données issues d’une observation systématique que le fait de s’assurer que les traitements appliqués dans une étude expérimentale expliquent bien les changements de comportement manifestés par les sujets (si on peut les expliquer autrement la validité interne n’est pas bonne)». http://ute.umh.ac.be/methodes/partie1.htm

Elle concerne le design (stratégie d’investigation) de votre recherche

Vous devez démontrer que les causes que vous posez comme causes sont «réelles» et que toute autre explication est fausse.  
C’est le type de validité le plus important.
Validité externe

«Elle désigne le degré selon lequel les résultats d’une étude peuvent être généralisés à une population plus large. Cette définition a une signification différente selon qu’on s’inscrit dans le paradigme quantitatif ou qualitatif. Ainsi, dans une recherche quantitative, c’est la conception même de la recherche basée sur un échantillonnage représentatif des sujets qui va assurer, dans une mesure plus ou moins grande, cette validité externe.»http://ute.umh.ac.be/methodes/partie1.htm

La question à vous poser: pouvez-vous généraliser?

Ceci n’est pas facile, car vous pourriez ne pas avoir conscience de variables «favorables», e.g. le «bon enseignant» avec lequel vous avez travaillé ou le fait que les choses étaient bien plus faciles dans votre école privée...  
Comment pouvez-vous être certain que vos expériences d’introduction des TIC dans une situation donnée et couronnées de succès seraient également couronnées de succès dans des situations similaires (ou peu similaires)?
Validité statistique

... vos relations statistiques sont-elles significatives?

Pour une analyse simple, ce type de validité n’est pas difficile. Faites en sorte d’utiliser les bonnes statistiques et fiez-vous à ces statistiques.
Validité de construction

...est-ce que l’opérationnalisation de vos concepts est solide?

Vos dimensions sont-elles justes?

Vos indicateurs mesurent-ils vraiment ce que vous cherchez à savoir?

Tableau 18: Typologie de la validité (Stanley et al.)

'Important': Cette typologie est également utile dans d’autres contextes, e.g. des analyses qualitatives structurées ou des designs statistiques. Dans la plupart des autres designs de recherche empirique, vous devez également traiter ces problèmes.

Exemple de travail de recherche quasi-expérimental[#_msocom_6 [B6]]

Questions de recherche

Méthode

Designs avec méthodes statistiques

D’une certaine manière, les designs statistiques sont conceptuellement liés aux designs expérimentaux. Les designs statistiques formulent des lois, i.e. les cas individuels n’ont aucun intérêt (à moins que quelque chose ne se passe mal). L’avantage de ce design est qu’il est possible de tester un nombre relativement important de lois (hypothèses) avec des données statistiques. On qualifie souvent de telles analyses de 'corrélationnelles, 'car elles ont pour but de démontrer des relations statistiques entre des variables.

De tels designs de recherche s’appuient sur un raisonnement théorique antérieur, car:

1. les mesures, i.e. les questionnaires peuvent ne pas être aussi fiables que cela:

  • ce que les gens disent peut ne pas correspondre à ce qu’ils font
  • ce que vous demandez pourrait ne pas mesurer ce que vous voulez observer

2. il y a une surdétermination statistique,

  • vous pouvez trouver des corrélations entre variables, mais comme nous l’avons vu précédemment, les corrélations ne sont pas nécessairement synonymes de causalités.

3. vous ne pouvez pas obtenir une «image inductive» en posant une dizaine de questions fermées.

Le design de recherche dominant est mené de façon descendante et comprend en partie la doctrine du rationalisme critique de Popper, que l’on appelle également le falsificationnisme. Comment procéder?

1. Commencez par formuler des hypothèses (des modèles qui contiennent des variables et des relations que vous pouvez mesurer)

2. Mesurez les variables (e.g. à l’aide d’un questionnaire et/ou d’un test)

3. Testez alors les relations à l’aide d’outils statistiques

4. Testez alors des hypothèses alternatives selon le même principe. Vous devez également montrer que vos hypothèses ne sont pas falsifiables.

Le design statistique le plus utilisé en technologie éducative est l’enquête par sondage.

Introduction à l’enquête par sondage

La méthode de l'enquête par sondage a maintenant plus de soixante ans et est bien documentée dans les manuels de méthodologie. Elle consiste à recueillir des informations auprès des gens sur leurs attitudes, comportements, expériences, conditions socio-économiques, etc. par le biais d’un questionnaire. Ce questionnaire peut être administré au format papier, lors d’un entretien présentiel, par téléphone ou par internet. Généralement l'enquête par sondage cherche à tester une théorie sur une assez grande population (e.g. "les étudiants de sciences sociales" ou "les adolescents à la fin de l'enseignement obligatoire dans les pays de l'OCDE"). Le questionnaire ne peut être administré à l’entièreté d’une population et seul un échantillon représentatif, typiquement quelques centaines de personnes, est sollicité pour répondre aux questions.

Voici la structure type d’un plan de recherche pour une enquête par sondage (Tableau 19):

1. Revue de littérature menant aux questions de recherche générales et/ou au cadre d’analyse

2. Vous pouvez utiliser une approche qualitative dans le cadre d’une étude préliminaire pour étudier de nouveaux domaines de recherche et les citer ici.

3. Définition des hypothèses

4. Opérationnalisation des hypothèses, e.g. définition des échelles et des questionnaires liés

5. Définition de la population mère

6. Stratégies d’échantillonnage

7. Identification des méthodes d’analyse

Tableau 19: Eléments d’un plan de recherche pour une enquête par sondage

La mise en oeuvre de ce type de recherche (en dehors de la rédaction) se déroule en cinq étapes (Tableau 20):

1. Elaboration du questionnaire (avec des entrées de préférence provenant d’échelles publiées)

2. Test du questionnaire avec 2-3 sujets

3. Sondage (entretiens présentiels, en ligne ou par écrit)

4. Codage et vérification + construction d’échelle

5. Analyse statistique des données

Tableau 20: Mise en oeuvre d’une enquête par sondage

Conseils pour la rédaction:

1. Séparez la présentation des résultats de la discussion

2. Comparez toujours vos résultats à la théorie

3. Assurez-vous de rendre votre texte lisible, e.g. placez vos résultats dans des tableaux

Niveaux de raisonnement et obstacles à la validité

Nous avons précédemment vu qu’il existe un écart entre le raisonnement théorique et les données empiriques. En tant que chercheur, vous devez être en mesure de formuler des questions de recherche générales à un niveau global et être capable de les relier, par l’intermédiaire de l’opérationnalisation, à des indicateurs [#_msocom_7 [B7]]et indices ][#_msocom_8 [B8]]précis au niveau des données. Vous devez également comprendre que l’interprétation de données statistiques est complexe et requiert un raisonnement et des connaissances sur les obstacles à la validité interne (Tableau 21).

Niveau de raisonnement Variables Cas Relations (causes)
Théorie concept /catégorie dépendent de la portée de votre théorie sont exprimées verbalement à un niveau de langue élevé
Hypothèse variables et valeurs (attributs) population mère (élèves, écoles) clairement énoncées comme des causalités ou des cooccurrences
Opérationnalisation dimensions et indicateurs échantillonnage suffisamment bon sont des relations statistiques entre des variables statistiques (e.g. échelles composées, variables socio-démographiques)
Mesure indicateurs observés (e.g. questions de sondage) sujets dans l’échantillon
Statistiques mesures (e.g. réponses aux questions), échelles (mesures composées) données (variables numériques)

Tableau 21: Niveaux de raisonnement dans une approche avec méthodes statistiques

Typologie des erreurs de validité interne

'Erreur de type 1: 'Vous croyez qu’un lien statistique entre deux variables est pertinent, car il existe une bonne corrélation entre ces deux variables, mais «en réalité» cette corrélation n’existe pas. Il se peut que la raison principale soit une variable qui influence les deux.

* En termes complexes: vous rejetez à tort l’hypothèse nulle [#_msocom_9 [B9]](pas de lien entre les variables)  

'Erreur de type 2: 'Vous croyez qu’un lien n’existe pas ... mais «en réalité» il y a bien relation entre les deux variables.

  • E.g., vous calculez un coefficient de corrélation et les résultats indiquent qu’il est très faible ou insignifiant. Un lien pourrait toutefois exister. La relation n’était peut-être pas linéaire, ou peut-être qu’une autre variable a causé un effet d’interaction...
  • En termes plus complexes: vous acceptez à tort l’hypothèse nulle

Les méthodes statistiques vous permettent de tester d’autres hypothèses et par conséquent de diminuer les risques d’erreurs de validité internes. Comme toujours: réfléchissez!

Exemples d’enquêtes par sondage

Exemple[#_msocom_10 [B10]]: Facteurs qui favorisent l’utilisation des TIC par les enseignants

Luis Gonzalez (2004): Etude pilote sur la mise en oeuvre et les perceptions des TIC. Mémoire de Master en technologie éducative, Université de Genève.

http://tecfaetu.unige.ch/staf/staf-h/gonzalez/staf25/memoire-STAF.pdf

Le but principal de ce travail de recherche, est «d’étudier les facteurs qui favorisent l’utilisation des TIC par les enseignants».

Facteurs:

L’auteur définit 8 facteurs et postule qu’il existe des relations entre eux (Figure 36):


Figure 36: Relation entre les facteurs (Mémoire L. Gonzalez, 2004, p. 18)

Hypothèses:

Voici un extrait de ce mémoire (pp. 18-19) :

“Mon hypothèse principale postule l’existence d’une corrélation entre les facteurs suivants et la

mise en oeuvre des TIC par les enseignants:

  • Le type de support offert par le cadre institutionnel
  • Leurs compétences pédagogiques
  • Leurs compétences techniques
  • La formation reçue, que ce soit la formation de base ou la formation continue
  • Leur sentiment d’auto-efficacité
  • Leur perception des technologies
  • Leur perception de l’usage pédagogique des TIC
  • Leur rationalisation et digitalisation pédagogique

Les hypothèses secondaires sont les suivantes:

  • La perception de l’usage pédagogique est corrélée avec les compétences pédagogiques de l’enseignant
  • La perception des technologies est corrélée avec celle de l’usage pédagogique
  • La dimension de radicalisation et de digitalisation pédagogique est corrélée avec la perception des technologies
  • La formation est corrélée avec les compétences pédagogiques et techniques
  • Le sentiment d’auto-efficacité de est corrélé avec les compétences pédagogiques et techniques
  • La dimension de radicalisation et de digitalisation pédagogique est corrélée avec le sentiment d’auto-efficacité”

Méthode d’échantillonnage (p. 20)

  • Echantillon représentatif de futurs enseignants du primaire (étudiants), N = 48
  • Echantillon non-représentatif d’enseignants du primaire, N = 38
  • Un e-mail a été envoyé à tous les enseignants de Genève disposant d’une adresse électronique, auto-sélection (!)
  • Remarque: le questionnaire était très long, quelques enseignants qui avaient commencé à le remplir ont abandonné après un certain temps.
  • Ce type d’échantillonnage convient à une étude pilote ou à un petit travail de mémoire de Master

Design du questionnaire

Dans la mesure du possible, les définitions de chaque «domaine conceptuel» (voir ci-dessus) ainsi que les séries de questions et les échelles ont été adaptées depuis la littérature.

Collecte de données

Les données ont été recueillies par l’intermédiaire d’un questionnaire en ligne (à l’aide de l’interface phpESP)

Purification de l’instrument

Cela a été fait par «une analyse factorielle et un regroupement des items définissant des indices susceptibles de résumer les variables» (i.e. les 8 facteurs) p. 21. Remarque: si vous utilisez des instruments publiés et sérieusement testés, cette opération n’est pas nécessaire!

Perception de l’usage pédagogique des TIC

Dans le questionnaire, ce concept est mesuré avec deux séries de questions (échelles).

La perception de l’utilisation pédagogique des TIC se mesure avec deux séries de questions: une première série interroge sur l’attitude des individus à l’égard de «déclarations officielles» sur l’utilisation des ressources informatiques dans l’éducation. La deuxième série mesure l’utilité attribuée à différents types de ressources utilisant l’informatique.

Les deux séries de questions utilisent les mêmes types de réponses: 1=pas du tout d’accord, 2=pas vraiment d’accord, 3=plutôt d’accord, 4=tout à fait d’accord.

A partir de ces questions, trois indices ont été produits (pp.28-9):

  • Var_PUP1 ― degré d’importance des outils d’entraide et de collaboration pour les élèves
  • Var_PUP2 ― degré d’importance des outils de communication entre élèves
  • Var_PUP3 ― accord sur ce qui favorise les apprentissages de type constructiviste

Design de systèmes comparatifs similaires

Ce design est largement utilisé dans l’analyse des comparaisons de politiques publiques. Il permet de comparer les systèmes éducatifs de districts / régions et de pays. Ce design se contente généralement d’utiliser des statistiques descriptives très simples, et souvent des données globales officielles.

Principe (Figure 37):

1. Assurez-vous d’avoir une bonne variance parmi les 'variables opératoires', i.e l’ensemble de toutes les variables dépendantes et indépendantes.

2. Assurez-vous qu’aucune autre variable n’ait de la variance (i.e qu’aucune variable de contrôle cachée ne puisse produire d’effets)


Figure 37: Design de systèmes comparatifs similaires

En d’autres termes, sélectionnez des cas différents en ce qui concerne les variables pertinentes pour votre recherche, mais similaires pour les autres aspects.

Exemple: si vous voulez mesurer les effets des TIC, ne choisissez pas une école prestigieuse qui utilise les TIC et une école normale qui ne les utilise pas. Choisissez soit des écoles prestigieuses, soit des écoles «normales», sans quoi vous ne pourriez savoir si c’est réellement l’utilisation des TIC qui fait la différence.

Avantages et inconvénients de cette méthode:

* fiabilité moins bonne et problèmes de validité de construction  
  • meilleur contrôle de variables inconnues en ce qui concerne la plupart des systèmes de designs différents
  • validité externe moins bonne (impossibilité à généraliser)
  • tests statistiques faibles ou inexistants. La plupart du temps, les chercheurs comparent uniquement des données descriptives et ne peuvent fournir de résultats significatifs sur le plan statistique, car les cas sont trop peu nombreux.

Résumé

Dans ce chapitre, nous avons présenté quelques designs de recherche fondés sur la théorie, que nous résumons dans le tableau ci-dessous avec quelques cas d’utilisation types. Il existe d’autres designs fondés sur la théorie que nous n’avons pas présentés, e.g. les simulations.

Approche Quelques cas d’utilisation
Designs expérimentaux
  • Enquêtes psychopédagogiques
  • Interface homme machine
Designs quasi-expérimentaux
  • Ingénierie pédagogique (dans son ensemble)
  • Psychologie sociale
  • Analyse de politiques publiques
  • Réforme éducative
  • Réforme organisationnelle
Designs statistiques
  • Les pratiques pédagogiques
  • Patterns (modèles) d’usages
Designs de systèmes comparatifs similaires
  • Analyse des politiques publiques
  • Education comparative


Bien entendu, vous pouvez combiner plusieurs de ces approches dans un projet de recherche. Vous pouvez également utiliser différents designs pour la même question afin d’obtenir différents éléments de réponse.

Pour pratiquer:

A) Répondez aux questions!

1. Quelle est la différence principale entre un design expérimental et un design quasi-expérimental?

2. Un design quasi-expérimental et une enquête par sondage ont certains éléments en commun. Lesquels?

3. Listez les étapes importantes d’une enquête par sondage.

B) Concevez!

1. Esquissez un design quasi-expérimental pour répondre à la question suivante :

Dans un programme de formation à distance, est-ce qu’un tutorat de bonne qualité augmente la satisfaction à l’égard du programme et diminue le taux d’abandon des étudiants?

2. Formulez une hypothèse de recherche qui traite du lien entre la participation des étudiants en ligne et l’accompagnement apportée aux étudiants. Elaborez pour chacune des deux variables une série de quatre questions. Justifiez chaque question et les éléments de réponse.

Astuce: vous pourriez trouver des outils de sondage dans la littérature.

C) Etude de cas

Téléchargez Poellhuber, B., Chomienne, M., Karsenti, T. (2011). L’effet du tutorat individuel sur le sentiment d’auto-efficacité et la persévérance en formation à distance. Revue des sciences de l'éducation, 37 (3), pp. 569-593. DOI: 10.7202/1014758ar

1. Identifiez la question de recherche centrale

2. Expliquez comment le sentiment d’auto-efficacité et la persévérance ont été mesurés.

3. Résumez les résultats.