BeHere
CMT s'est occupée de la partie Continuité Pédagogique, TG de la partie Assurer l'Apprentissage Collaboratif et KR de la partie Régulation Socio-Émotionnelle.
Les trois auteur·trice·s ont contribué de manière égale à l'écriture des parties d'Introduction, Besoins, Plus-Value et Prototype Final, ainsi qu'à la relecture et la révision de cette page.
Page rédigée dans le cadre du cours ADID'1 en Décembre 2022.
Introduction
Résumé
Descriptif du projet
Equipe du projet
Contexte
Formalisation des objectifs
Public cible
Besoins
”Le problème de la bouteille”
- Technologie numérique - Favoriser la continuité des activités collaborative de fabrication digitale - Conception d'un prototype d’espace phygital pour la continuité présence-distance des activités au faclab - ex. bouteille : physiquement les gens physiques le voient mais comment à distance peut voir ? - La collaboration vient des pairs
Besoins des utilisateur·trice·s
BeHere se veut implémenté dans un Faclab, en ce sens il dépasse la dichotomie hiérarchique “appenant·e / enseignant·e” et cherchera plutôt à qualifier ses utilisateur·trice·s sur un terrain d’égalité comme étant Seeker et Provider. Nous utiliserons ces termes dans cette page pour désigner respectivement une personne demandant de l’aide et une personne offrant de l’aide.
Revue de littérature
Dans les parties qui vont suivre, nous essayerons de répondre à trois questions que nous nous sommes posées et qui nous ont guidées tout au long du prototypage. Ces trois questions sont énoncées ci-bas. Chaque réponse apportée prendra compte des modalités de lieu (présence/distance) et de temps (synchrone/asynchrone).
style="color:white;background-color:
|
style="background-color:
|
style="color:white;background-color:
|
style="background-color:
|
style="color:white;background-color:
|
style="background-color:
|
Définitions
Phygital
Un espace phygital est la jointure entre les espaces physique et digital (ADD REF). Comment relier la pédagogie (appartenant à l'espace physique) et la technologie (appartenant à l'espace digital) ? -- Ryberg, T., Davidsen, J., Bernhard, J., & Larsen, M. C. (2021). Ecotones: a conceptual contribution to postdigital thinking. Postdigital Science and Education, 3(2), 407-424.
Réalité augmentée et interfaces tangibles, quels liens avec la formation par simulation ?
Faclab
Différents espaces d'apprentissage hybride : hackerspace aux co-working spaces - et au milieu le faclab : entre la production tangible et intangible et entre l'académie et le non académique, entre le formel et l'informel. -- FacLab : https://doi.org/10.1051/itmconf/20213802004 -- Dimensions of hybrid spaces from different frameworks : Kohls, C., Dubbert, D., & Münster, G. (2022). Patterns for a hybrid campus. In Hybrid Learning Spaces (pp. 249-263). Springer, Cham
FabLabs - L’institutionnalisation de Tiers-Lieux du « soft hacking »
Naissance et vie d’un FabLab, espace d’innovation et de créativité
Les fablabs, étude de cas : Le faclab de Cergy-Pontoise à Gennevilliers est-il un lieu d'expérimentation sociale en faveur des jeunes ?
Créer un fablab à l’université : enjeux humains et institutionnels
Continuité pédagogique (Celina)
Comment le temps / le lieu / les outils passés entre présence/distance diffère-t-il entre un cours à l'uni et dans un faclab ? -- Kohls et al., 2022
Présence/distance
Synchrone/Asynchrone
Outils
📱 A travers l’interface :
- La fonction “BeTuto” de l’interface permet de créer des vidéos mais aussi de consulter ces dernier·e·s. Ceci se fait donc de manière asynchrone. Les fonctionnalités à disposition sont …
🤖 A travers le robot :
🥽 A travers les lunettes AR :
Assurer l’apprentissage collaboratif (Thomas)
-- Learning-teaching // Individual-collective/individual-social // Access to learning and production ressources (Kohls et al., 2022) -- Wenger, E. (1999). Communities of practice: Learning, meaning, and identity. Cambridge university press. -- Lhoste, É. (2017). Les fablabs transforment-ils les pratiques de médiation ?. Cahiers de l’action, 48, 15-22. https://doi.org/10.3917/cact.048.0015
Présence/distance
Dans Velamazan et al., 2022 : “Agency is one of the most important capacities to be developed in education and collaborative learning because it has to do with student motivations and interests (Ahn & Clegg, 2017; (Ingold, 2008; Goodyear et al., 2018); Scardamalia & Bereiter, 1991; Tchounikine, 2019).”
Synchrone/Asynchrone
Outils
- pertinence de la réalité augmentée et du choix d’app sur mobile : SUPPORTS MOBILES D’INTERACTION ET REALITE AUGMENTEE EN SITUATION COLLABORATIVE
📱 A travers l’interface :
🤖 A travers le robot :
🥽 A travers les lunettes AR :
Régulation socio-émotionnelle (Kenneth)
Dans cette partie, les deux problématiques qui ont guidé notre réflexion sont :
- “Comment suivre et comprendre le raisonnement de l’autre ?”
- “Comment suivre et comprendre les émotions des autres ?”
Par “raisonnement” et “émotions”, nous nous appuyons sur tous les indices visuels et verbaux que les personnes peuvent partager afin de partager leur raisonnement (cognition, motivation) et leur émotions (intérêt, plaisir, etc.). BeHere se veut utile pour 1) partager ce que font, regardent ou montrent les personnes, 2) partager le plaisir et l’intérêt au sein du groupe et 3) induire un sentiment de présence sociale pour la personne à distance.
La partie ci-dessous, appuyée par la littérature, montre pourquoi BeHere se focalise sur la régulation socio-émotionnelle dans le cadre d’environnements informatisés pour l’apprentissage collaboratif (EIAC). Ensuite, nous répondons aux deux questions présentées précédemment en montrant comment chaque outil se trouve utile pour le seeker, le provider ou un groupe ayant des seekers et providers (appelés groupes mixtes) dans une situation de présence / distance et en synchrone / asynchrone. Enfin, nous présenterons les quelques fonctionnalités que BeHere peut proposer pour la régulation socio-émotionnelle en tenant compte des réponses données.
Pourquoi BeHere souhaite réguler les processus socio-émotionnels ? Tout d’abord, une tâche collaborative permet de partager et mettre en jeu les compétences, connaissances et expertises de chacun·e (Järvelä et al., 2020). Lors de la collaboration et lorsque «chaque membre de l’équipe active et maintient sa cognition, motivation, comportement et émotions à destination du but à atteindre » (traduction libre, Schunk & Greene, 2017, cité par Järvelä et al., 2020) un apprentissage collaboratif est mis en place. De plus, « sans représentations et buts communs, le travail collaboratif peut devenir moins satisfaisant pour les apprenants, ce qui engendre un apprentissage moins efficace, moins performant et/ou moins amusant »(traduction libre, Järvelä & Hadwin, 2013). Ces processus sont cependant invisibles aux yeux des autres et doivent être partagés dans la collaboration afin de permettre un apprentissage collaboratif (Järvelä & Hadwin, 2013, cité par Järvelä et al., 2020). BeHere se focalise donc à faire émerger ces processus via un partage ponctuel et/ou longitudinal du raisonnement (cognition, motivation) et des émotions ressenties afin d’améliorer la collaboration et ultimement améliorer l’apprentissage qui en découle.
Selon la littérature, trois types de régulations sont en jeu dans des tâches collaboratives : a) l’apprentissage auto-régulé où chacun est responsable de ses propres connaissances, actions, motivation et émotions dans une tâche collaborative, b) l’apprentissage co-régulé où chaque engagement d’une personne est soutenu par les autres membres du groupe, la technologie ou le contexte, c) la régulation de l’apprentissage socialement partagée où tous les membres d’un groupe régulent leur comportement, motivation et émotion de manière synchronisée (Järvelä and Hadwin 2013; Hadwin and Oshige 2011; Hadwin et al. 2011; cités par Järvelä et al., 2016). BeHere se focalise sur les deux derniers points : la co-régulation socio-émotionnelle par les pairs et par les technologies et la régulation socialement partagée.
Nous sommes conscient·e·s que ces régulations socio-émotionnelles à effectuer en même temps que la tâche peuvent être perçues comme une charge cognitive supplémentaire et inutile pour la complétion de la tâche (Tricot, 2017). Nous nous positionnons sur le fait que les gains escomptés (meilleure collaboration) seront supérieurs aux inconvénients (partage des émotions), ce qui permettra aux utilisateur·trice·s de percevoir la situation comme une réelle opportunité d'apprentissage et d’instancier une intention d'apprendre (Boekaerts, 1998, citée par Cosnefroy, 2010).
Enfin, nous nous appuyons sur le modèle SIPS (Sociabilité, Interaction sociale, Présence sociale, eSpace) pour l’apprentissage collaboratif de Kreijns & Kirschner (2018). Ce modèle postule que l’apprentissage est directement affecté par les interactions sociales. Ces interactions sociales sont influencées par l’aspect hédonique, éducatif et social de l’environnement informatisé pour l’apprentissage collaboratif. De plus, les interactions sociales sont aussi influencées par la présence sociale, décrit comme « le degré selon lequel l’autre personne est perçue comme physiquement ‘réelle’ dans la communication» (traduction libre, Kreijns et al., 2018, cités par Kreijns & Kirschner, 2018). BeHere souhaite, en plus des aspects hédonique, éducatif et social, prendre en compte cet aspect de présence sociale considéré comme importante pour chaque personne seule à distance.
Comment suivre le raisonnement d’autrui …
en présence …
en synchrone ?
: ✋ En tant que seeker :
🥽 : Concernant les lunettes AR, le principal mécanisme mis en jeu dans l’interaction entre une personne à distance et une personne portant les lunettes AR est celui de l’attention partagée. L’attention partagée se passe lors d’un processus d’interaction entre au moins deux personnes. Originellement, cette attention partagée était désignée lors d’une interaction entre un enfant et son parent. L’enfant manipule physiquement un objet, le déplace dans le champ de vision du parent jusqu’à ce que la réponse verbale/corporelle attendue soit effectuée par le parent (Kidwell & Zimmerman, cités par Due & Toft, 2021). Goodwin (1994) reprend ce terme en le modifiant pour un contexte professionnel, il appelle alors ceci la “vision professionnelle” qui est « tout moyen socialement organisé de voir et comprendre des événements» (traduction libre). Les lunettes vont donc permettre au seeker d’être guidé par le biais de flèches et de dessins faits en temps réel par le provider à distance (Due & Toft, 2021; Spitzer et al., 2018). De cette manière, le provider permet de ‘faire voir’ au seeker, sa “vision professionnelle” en lui indiquant directement les moyens/indices pour comprendre un événement particulier et donc de suivre le raisonnement de l’expert·e.
📱 🤖 🚫 : L’interface et le robot ne sont pas destinés à être utilisés en présence en synchrone pour le seeker.
: 🫴 En tant que provider
🥽 : Cette fois-ci l’argumentaire s’inverse pour le provider. C’est ce dernier qui est en attente de suivre le raisonnement d’autrui. Le seeker, comme attendant une réponse face à un problème, peut pointer et dessiner sur son interface (raisonnement - à distance - en synchrone, voir plus bas) des objets dont il n’est pas sûr de l’utilité ou la fonctionnalité par exemple. Nous pouvons donc faire la comparaison avec un·e professeur·e qui, en expliquant un savoir, attend ou encourage ses élèves de poser une question - ce qui permet au/à la professeur·e de comprendre le raisonnement d’autrui afin de les ajuster selon l’objectif pédagogique.
📱 🤖 🚫 : L’interface et le robot ne sont pas destinés à être utilisés en présence en synchrone pour le provider.
: 🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :
en asynchrone ?
: ✋ En tant que seeker :
📱 :
🤖 :
🥽 :
: 🫴 En tant que provider
📱 :
🤖 :
🥽 :
: 🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :
à distance …
en synchrone ?
: ✋ En tant que seeker :
📱 :
🤖 :
🥽 :
: 🫴 En tant que provider
📱 :
🤖 :
🥽 :
: 🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :
La vue à la première personne (lunettes AR) permettra de voir l’action en direct ainsi que les endroits que la personne en présence pointera. De plus, la vue à la troisième personne (robot) permettra aussi d’identifier l’environnement actuel dans lequel se déplace la personne en présence pour ainsi guider de manière plus globale et décrire les éléments qui se trouvent en dehors du champ de vision de la personne en présence.
en asynchrone ?
: ✋ En tant que seeker :
📱 :
🤖 :
🥽 :
: 🫴 En tant que provider
📱 :
🤖 :
🥽 :
: 🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :
Comment suivre et comprendre les émotions des autres …
en présence …
en synchrone ?
: ✋ En tant que seeker :
📱 :
🤖 :
🥽 :
: 🫴 En tant que provider
📱 :
🤖 :
🥽 :
: 🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :
Comment les personnes en présence peuvent-elles suivre les émotions des personnes à distance ? Sachant que l’objet d’intérêt est fondamentalement le projet, la vue de la personne en présence portant les lunettes ne devra donc pas être interrompue par d’autres distracteurs (surtout si la manipulation à effectuer est considérée comme dangereuse). C’est pour cela que la fonction ‘smiley à l’écran’ sera désactivée en fonction des mouvements enregistrés au travers des lunettes. Plus les mouvements (tête par des capteurs de mouvements, mains par leur représentation à travers les lunettes) sont lents/précis/immobiles et les yeux pointants pendant une longue durée sur un objet en particulier, moins les smileys seront en visu (plus ils seront transparents, voir désactivés). En dehors, la personne à distance sera invitée aussi à encourager ( 💪, 👏 ) ou à exprimer ses émotions ( 🤩, 😥, 😭, 😁, 😂) qui sera visible par la personne en présence via les lunettes (proche de la fovée) ou via le robot. Cet expression d’émotion émettra un petit son (désactivé après une utilisation abusive de 3 fois) sur le robot afin de prendre en compte cette présence ‘physique’ de la personne à distance.
en asynchrone ?
: ✋ En tant que seeker :
📱 :
🤖 :
🥽 :
: 🫴 En tant que provider
📱 :
🤖 :
🥽 :
: 🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :
à distance …
en synchrone ?
: ✋ En tant que seeker :
📱 :
🤖 :
🥽 :
Comment les personnes à distance peuvent-elles suivre les émotions des personnes en présence ? Premièrement, les personnes à distance auront accès aux vues à la première et à la troisième personne. Les gestes des mains (vue lunettes) ou du langage corporel (vue robot) permettront aux personnes à distance de juger et de suivre les émotions des personnes en présence. Si les images sont de mauvaise qualité, un guidage aux émotions analysées par les caméras (lunettes et robot) sera à disposition et désactivable à tout moment. Par exemple, si le robot capture un relâchement des épaules, du corps accompagné d’une tête vers le bas, l’interface de la personne à distance proposera “Votre collègue semble déçu… 😕 Ne plus afficher / Il s’agit d’une autre émotion ”. Libre choix sera donné à la personne sur la façon de réagir, il n’y aura pas de smileys à présenter par exemple. La personne à distance, si elle estime que les émotions analysées ne reflètent pas la réalité, pourra indique de quelle émotion il s’agit (afin d’entraîner le système à la reconnaissance d’émotions).
Robot aussi aura un rôle important dans le fait d’être présent ‘physiquement’ pour la personne en présence et ‘digitalement’ pour la personne en distance. C’est ce qu’on appelle la téléprésence (Petit et al., 2020). Le robot aura un rôle de présence sociale.
: 🫴 En tant que provider
📱 :
🤖 :
🥽 :
: 🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :
en asynchrone ?
: ✋ En tant que seeker :
📱 :
🤖 :
🥽 :
: 🫴 En tant que provider
📱 :
🤖 :
🥽 :
: 🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :
Outils
📱A travers l’interface :
- Suivre et comprendre le raisonnement d’autrui :
- La fonction “BeEyes” de l’interface permet d’afficher la vue à la première personne capturée par les lunettes AR. Cette fonction est disponible dans la partie “Chat” de l’interface. Elle est présente (de manière inactivée) dans chaque conversation avec les personnes avec qui on souhaite collaborer et est activable lorsque les lunettes sont portées. La fonction “BeEyes” est utilisée par les personnes à distance qui collaborent avec les personnes présentes au faclab. Les fonctionnalités à disposition sont le “pointage”, le “dessin” (suivre le raisonnement) et le “partage de smileys” (suivre les émotions). Ces fonctionnalités permettent de partager l’écran de la personne à distance (avec le raisonnement et les émotions) sur les lunettes AR de la personne les portant.
- La partie “BeTuto” de l’interface présentée plus haut (voir #Continuité pédagogique) contient des fonctionnalités différentes liées à la régulation socio-émotionnelle en fonction de notre statut (demandeur·euse d’aide ou aidant·e). Lorsqu’elle est utilisée par les personnes faisant le tutoriel, un texte d’introduction est affiché avant d’appuyer sur le bouton “Enregistrement” qui propose de “bien expliquer chaque mouvement, et de décomposer la tâche globale en plusieurs sous-tâches”. Ceci permet aux personnes qui regardent la vidéo de suivre le raisonnement de manière asynchrone.
- Suivre et comprendre les émotions d’autrui :
- La partie “BeChat” sera le lieu central pour comprendre les émotions d’autrui. Par exemple, avant de se rejoindre pour collaborer sur un projet, des propositions de partage d’émotion sous forme de smiley/gif sont affichées de manière “prêtes à être envoyées”. En cliquant dessus on partage ce type de texte/smiley : “J’ai hâte de travailler avec toi ! 🤓”, “Merci pour ton aide ! 🤩”, “On va y arriver 💪”
- Dans la partie “BeTuto”, si nous nous positionnons du côté du demandeur·euse d’aide, lors du visionnage de la vidéo, il sera possible d’annoter à la seconde près la vidéo ou de commenter généralement la vidéo pour permettre de partager ses émotions. L’annotation de la vidéo propose automatiquement deux types de smiley “ 😍”, “ 🤔” aux côtés d’une fenêtre pour commenter. Pour le commentaire général, un pop-up sera automatiquement présenté 5 secondes avant la fin de la vidéo pour suggérer l’écriture d’un commentaire (on peut imaginer aussi que chaque commentaire écrit nous donne des points de présence, visible par tout·e·s les utilisateur·trice·s). Ceci permettra aux personnes autrices de la vidéo de suivre et comprendre les émotions des visionneur·euse·s afin d’y répondre le plus adéquatement possible.
🤖A travers le robot :
Nom de la fonction, du bouton ? Quoi ? Fonction/bouton présent où ? et quand ? Activé quand / comment ? Qui l’utilise ? Où ? (présence/distance) Quand (synchrone/asynchrone) ? Fonctionnalités en lien avec notre partie ? But ?
- Suivre et comprendre le raisonnement d’autrui :
- Vue à la troisième personne de la personne en présence, vision d’ensemble du contexte (REF, 3rd person view help learning and understanding)
- Suivre et comprendre les émotions d’autrui :
- langage corporel sera perçu par les personnes à distance (voir si personnes en présence sont avachies, actives, etc.) (REF, body language help recognize general emotion).
Robot aussi aura un rôle important dans le fait d’être présent ‘physiquement’ pour la personne en présence et ‘digitalement’ pour la personne en distance. C’est ce qu’on appelle la téléprésence (Petit et al., 2020). Le robot aura un rôle de présence sociale.
🥽A travers les lunettes AR :
- Suivre et comprendre le raisonnement d’autrui :
- vue à la première personne permet le partage du même champs de vision. D’un côté comme de l’autre, les personnes auront leur attention partagée sur les mêmes objets d’intérêt (Due & Toft, 2021).
- Suivre et comprendre les émotions d’autrui :
- à travers voix (REF, understanding emotion through voice), envoi de smiley qui s’afficheront proche de la fovée en transparent (REF, sharing emotion through smileys)
Plus-value
Description
L’acceptabilité pour les lunettes de réalité augmentée est garantie dès le moment où les bénéfices fonctionnels sont clairement démontrés aux utilisateur·trice·s (Rauschnabel & Ro, 2016). Dans une étude de Spitzer et al. (2018), le fait d’écouter ou de voir les annotations en temps réel de l’aidant·e à travers les lunettes ont été essentiels pour le guidage lors d’une manipulation.
Evaluation
Limites
Bon vouloir des aidant·e·s Le partage des émotions la plupart de manière volontaire (charge cognitive) - automatisation par mesures physiologiques comme l’activité électrodermale, fréquence cardiaque, reconnaissance faciale, …
Prototype final
A ajouter/créer : Appli : Conversation avec gif, j’ai hâte/merci de m’aider/on va y arriver (régulation socio-émotionnelle)
Scénarios d’usage
Demandeur présent/Aideur distant
Le cas classique
Demandeur distant/Aideur présent
Un membre ne peut pas être présent au FL, mais il est disponible à distance.
Groupe/individu présents & groupe/individu distant
(aspect collaboratif)
une personne du groupe porte les lunettes AR pour que l’absent puisse tout voir.
utilisation d’une petite enceinte avec micro pour que l’absent puisse communiquer avec tout le monde et pas seulement celui qui porte les lunettes AR.
Tutoriels en asynchrone
(capitalisation des connaissances)
au FL, un U expert (ou juste une personne compétente) peut utiliser les lunettes AR pour filmer ses propres projets afin de documenter le processus et créer des tutoriels (comme le site https://www.instructables.com/ mais plus axé vidéo). Les tutoriels sont disponibles pour tout le monde sur la plateforme (on peut imaginer qqes critères de tri, par ex par technologie ou par difficulté).
Références
Cosnefroy, L. (2010). L’apprentissage autorégulé: Perspectives en formation d’adultes. Savoirs, 23(2), 9–50. https://doi.org/10.3917/savo.023.0009
Due, B. L., & Toft, T. L. W. (2021). Phygital highlighting: Achieving joint visual attention when physically co-editing a digital text. Journal of Pragmatics, 177, 1–17. https://doi.org/10.1016/j.pragma.2021.01.034
Goodwin, C. (1994). Professional Vision. ‘’American Anthropologist, 96’’(3), 606–633. http://www.jstor.org/stable/682303
Järvelä, S., Gašević, D., Seppänen, T., Pechenizkiy, M., & Kirschner, P. A. (2020). Bridging learning sciences, machine learning and affective computing for understanding cognition and affect in collaborative learning. British Journal of Educational Technology, 51(6), 2391–2406. https://doi.org/10.1111/bjet.12917
Järvelä, S., Kirschner, P. A., Hadwin, A., Järvenoja, H., Malmberg, J., Miller, M., & Laru, J. (2016). Socially shared regulation of learning in CSCL: Understanding and prompting individual- and group-level shared regulatory activities. International Journal of Computer-Supported Collaborative Learning, 11(3), 263–280. https://doi.org/10.1007/s11412-016-9238-2
Kreijns, K., & Kirschner, P. A. (2018). Extending the SIPS-Model: A research framework for online collaborative learning. In European Conference on Technology Enhanced Learning (pp. 277-290). Springer, Cham.
Petit, M., Lameul, G., & Taschereau, J. (2020). La téléprésence en formation: Définitions et dispositifs issus d’une recension systématique des écrits. https://eduq.info/xmlui/handle/11515/37920
Rauschnabel, P. A., & Ro, Y. K. (2016). Augmented reality smart glasses: An investigation of technology acceptance drivers. International Journal of Technology Marketing, 11(2), 123–148. https://doi.org/10.1504/IJTMKT.2016.075690
Spitzer, M., Nanic, I., & Ebner, M. (2018). Distance Learning and Assistance Using Smart Glasses. Education Sciences, 8(1), Article 1. https://doi.org/10.3390/educsci8010021
Tricot, A., (2017). Quels apports de la théorie de la charge cognitive à la différenciation pédagogique ? Quelques pistes concrètes pour adapter des situations d’apprentissage. Dans Notes remises dans le cadre de la conférence de consensus du Cnesco et de l’Ifé/Ens de Lyon « Différenciation pédagogique : comment adapter l’enseignement pour la réussite de tous les élèves ?», pp.157-165.
Velamazán, M., Santos, P., & Hernández-Leo, D. (2022). Socio-emotional regulation in collaborative hybrid learning spaces of formal–informal learning. In Hybrid Learning Spaces (pp. 95-111). Springer, Cham
30 novembre 2022 à 20:14 (CET)~