« BeHere » : différence entre les versions

De EduTech Wiki
Aller à la navigation Aller à la recherche
m (links and headers)
m (réajustement)
Ligne 1 : Ligne 1 :
{{bloc important|Auteur·trice·s : [[Utilisateur:Celina Marques Teixeira|Celina Marques Teixeira]], [[Utilisateur:Thomas Goffin|Thomas Goffin]] et [[Utilisateur:Kenneth Rioja|Kenneth Rioja]].<br>CMT s'est occupée de la partie [[BeHere#Continuité_pédagogique | Continuité Pédagogique]], TG de la partie [[BeHere#Assurer_l'Apprentissage_Collaboratif | Assurer l'Apprentissage Collaboratif]] et KR de la partie [[BeHere#Régulation_Socio-Émotionnelle | Régulation Socio-Émotionnelle]].<br>Les trois auteur·trice·s ont contribué de manière égale à l'écriture des parties d'Introduction, Besoins, Plus-Value et Prototype Final, ainsi qu'à la relecture et la révision de cette page. <br>Page rédigée dans le cadre du cours [[ADID'1]] en Décembre 2022.}}
{{bloc important|Auteur·trice·s : [[Utilisateur:Celina Marques Teixeira|Celina Marques Teixeira]], [[Utilisateur:Thomas Goffin|Thomas Goffin]] et [[Utilisateur:Kenneth Rioja|Kenneth Rioja]].<br>CMT s'est occupée de la partie [[BeHere#Continuité_pédagogique | Continuité Pédagogique]], TG de la partie [[BeHere#Assurer_l'Apprentissage_Collaboratif | Assurer l'Apprentissage Collaboratif]] et KR de la partie [[BeHere#Régulation_Socio-Émotionnelle | Régulation Socio-Émotionnelle]].<br>Les trois auteur·trice·s ont contribué de manière égale à l'écriture des parties d'Introduction, Besoins, Plus-Value et Prototype Final, ainsi qu'à la relecture et la révision de cette page. <br>Page rédigée dans le cadre du cours [[ADID]] en Décembre 2022.}}


=Introduction=
=Introduction=
==Résumé==
==Résumé==
==Descriptif du projet==
==Descriptif du projet==
Ligne 18 : Ligne 19 :
==Besoins des utilisateur·trice·s==
==Besoins des utilisateur·trice·s==


BeHere se veut implémenté dans un Faclab, en ce sens il dépasse la dichotomie hiérarchique “appenant·e / enseignant·e” et cherchera plutôt à qualifier ses utilisateur·trice·s sur un terrain d’égalité comme étant Seeker et Provider. Nous utiliserons ces termes dans cette page pour désigner respectivement une personne demandant de l’aide et une personne offrant de l’aide.
BeHere se veut implémenté dans un Faclab, en ce sens il dépasse la dichotomie hiérarchique “appenant·e / enseignant·e” et cherchera plutôt à qualifier ses utilisateur·trice·s sur un terrain d’égalité comme étant '''Seeker''' et '''Provider'''. Nous utiliserons ces termes dans cette page pour désigner respectivement une personne demandant de l’aide et une personne offrant de l’aide.


=Revue de littérature=
=Revue de littérature=
Ligne 24 : Ligne 25 :


{{ box  
{{ box  
| title = En quoi notre dispositif permet une '''continuité pédagogique''' entre aidé·e·s et aidant·e·s ?
| title = En quoi notre dispositif permet une '''continuité pédagogique''' entre seekers et providers ?
| content = Par continuité pédagogique nous entendons …
| content = Par continuité pédagogique nous entendons …
| color = blue}}
| color = blue}}


{{box
{{box
| title = En quoi notre dispositif permet d’assurer un '''apprentissage collaboratif''' entre les différentes parties ?
| title = En quoi notre dispositif permet d’assurer un '''apprentissage collaboratif''' entre seekers et providers ?
| content = L’apprentissage collaboratif …
| content = L’apprentissage collaboratif …
| color = green}}
| color = green}}


{{box
{{box
| title = En quoi notre dispositif permet une '''régulation socio-émotionnelle''' des deux parties ?
| title = En quoi notre dispositif permet une '''régulation socio-émotionnelle''' entre seekers et providers ?
| content = Par “régulation socio-émotionnelle”, nous entendons la capacité d’une personne et/ou d’un groupe d’adapter ses comportements, pensées, cognitions, émotions en ligne avec le but d’une tâche dans le cadre d’une activité collaborative (Järvelä et al., 2016). Les questions que se posaient la commanditaire étaient “comment les personnes peuvent suivre et comprendre le raisonnement et les émotions d’autrui ?”. Nous tenterons de répondre à ces différentes questions dans la [[BeHere#Régulation_socio-émotionnelle partie dédiée]].
| content = Par “régulation socio-émotionnelle”, nous entendons la capacité d’une personne et/ou d’un groupe d’adapter ses comportements, pensées, cognitions, émotions en ligne avec le but d’une tâche dans le cadre d’une activité collaborative (Järvelä et al., 2016). Les questions que se posaient la commanditaire étaient “comment les personnes peuvent suivre et comprendre le raisonnement et les émotions d’autrui ?”. Nous tenterons de répondre à ces différentes questions dans la [[BeHere#Régulation_Socio-Émotionnelle | partie dédiée]].
| color = red}}
| color = red}}
==Définitions==
==Définitions==
===Phygital ===
 
'''Phygital'''
 
Un espace phygital est la jointure entre les espaces physique et digital (ADD REF). Comment relier la pédagogie (appartenant à l'espace physique) et la technologie (appartenant à l'espace digital) ?
Un espace phygital est la jointure entre les espaces physique et digital (ADD REF). Comment relier la pédagogie (appartenant à l'espace physique) et la technologie (appartenant à l'espace digital) ?
-- Ryberg, T., Davidsen, J., Bernhard, J., & Larsen, M. C. (2021). Ecotones: a conceptual contribution to postdigital thinking. Postdigital Science and Education, 3(2), 407-424.
-- Ryberg, T., Davidsen, J., Bernhard, J., & Larsen, M. C. (2021). Ecotones: a conceptual contribution to postdigital thinking. Postdigital Science and Education, 3(2), 407-424.
Ligne 44 : Ligne 48 :
Réalité augmentée et interfaces tangibles, quels liens avec la formation par simulation ?
Réalité augmentée et interfaces tangibles, quels liens avec la formation par simulation ?


===Faclab===
'''Faclab'''
 
Différents espaces d'apprentissage hybride : hackerspace aux co-working spaces - et au milieu le faclab : entre la production tangible et intangible et entre l'académie et le non académique, entre le formel et l'informel.
Différents espaces d'apprentissage hybride : hackerspace aux co-working spaces - et au milieu le faclab : entre la production tangible et intangible et entre l'académie et le non académique, entre le formel et l'informel.
-- FacLab : https://doi.org/10.1051/itmconf/20213802004  
-- FacLab : https://doi.org/10.1051/itmconf/20213802004  
Ligne 57 : Ligne 62 :
Créer un fablab à l’université : enjeux humains et institutionnels
Créer un fablab à l’université : enjeux humains et institutionnels


=Continuité pédagogique=
==Continuité pédagogique==
Comment le temps / le lieu / les outils passés entre présence/distance diffère-t-il entre un cours à l'uni et dans un faclab ?
Comment le temps / le lieu / les outils passés entre présence/distance diffère-t-il entre un cours à l'uni et dans un faclab ?
-- Kohls et al., 2022
-- Kohls et al., 2022
==Présence/distance==
===Présence/distance===
 
==Synchrone/Asynchrone==
 
==Outils==
📱 A travers l’'''interface''' :
 
: La fonction “BeTuto” de l’interface permet de créer des vidéos mais aussi de consulter ces dernier·e·s. Ceci se fait donc de manière asynchrone. Les fonctionnalités à disposition sont …
 
🤖 A travers le '''robot''' :
 
🥽 A travers les '''lunettes AR''' :


=Assurer l’apprentissage collaboratif=
===Synchrone/Asynchrone===


==Assurer l’apprentissage collaboratif==
-- Learning-teaching // Individual-collective/individual-social // Access to learning and production ressources (Kohls et al., 2022)
-- Learning-teaching // Individual-collective/individual-social // Access to learning and production ressources (Kohls et al., 2022)
-- Wenger, E. (1999). Communities of practice: Learning, meaning, and  
-- Wenger, E. (1999). Communities of practice: Learning, meaning, and  
identity. Cambridge university press.
identity. Cambridge university press.
-- Lhoste, É. (2017). Les fablabs transforment-ils les pratiques de médiation ?. Cahiers de l’action, 48, 15-22. https://doi.org/10.3917/cact.048.0015  
-- Lhoste, É. (2017). Les fablabs transforment-ils les pratiques de médiation ?. Cahiers de l’action, 48, 15-22. https://doi.org/10.3917/cact.048.0015  
==Présence/distance==
===Présence/distance===


Dans Velamazan et al., 2022 : “Agency is one of the most important capacities to be
Dans Velamazan et al., 2022 : “Agency is one of the most important capacities to be
Ligne 86 : Ligne 81 :
et al., 2018); Scardamalia & Bereiter, 1991; Tchounikine, 2019).”
et al., 2018); Scardamalia & Bereiter, 1991; Tchounikine, 2019).”


==Synchrone/Asynchrone==
===Synchrone/Asynchrone===


==Outils==
- pertinence de la réalité augmentée et du choix d’app sur mobile :  SUPPORTS MOBILES D’INTERACTION ET REALITE AUGMENTEE EN SITUATION COLLABORATIVE
- pertinence de la réalité augmentée et du choix d’app sur mobile :  SUPPORTS MOBILES D’INTERACTION ET REALITE AUGMENTEE EN SITUATION COLLABORATIVE


📱 A travers l’'''interface''' :
==Régulation socio-émotionnelle==
 
 
 
🤖 A travers le '''robot''' :
 
🥽 A travers les '''lunettes AR''' :
 
=Régulation socio-émotionnelle=


Dans cette partie, les deux problématiques qui ont guidé notre réflexion sont :  
Dans cette partie, les deux problématiques qui ont guidé notre réflexion sont :  
Ligne 121 : Ligne 107 :
Enfin, nous nous appuyons sur le modèle SIPS (Sociabilité, Interaction sociale, Présence sociale, eSpace) pour l’apprentissage collaboratif de Kreijns & Kirschner (2018). Ce modèle postule que l’apprentissage est directement affecté par les interactions sociales. Ces interactions sociales sont influencées par l’aspect hédonique, éducatif et social de l’environnement informatisé pour l’apprentissage collaboratif. De plus, les interactions sociales sont aussi influencées par la présence sociale, décrit comme {{citation | le degré selon lequel l’autre personne est perçue comme physiquement ‘réelle’ dans la communication}} (traduction libre, Kreijns et al., 2018, cités par Kreijns & Kirschner, 2018). BeHere souhaite, en plus des aspects hédonique, éducatif et social, prendre en compte cet aspect de présence sociale considéré comme importante pour chaque personne seule à distance.
Enfin, nous nous appuyons sur le modèle SIPS (Sociabilité, Interaction sociale, Présence sociale, eSpace) pour l’apprentissage collaboratif de Kreijns & Kirschner (2018). Ce modèle postule que l’apprentissage est directement affecté par les interactions sociales. Ces interactions sociales sont influencées par l’aspect hédonique, éducatif et social de l’environnement informatisé pour l’apprentissage collaboratif. De plus, les interactions sociales sont aussi influencées par la présence sociale, décrit comme {{citation | le degré selon lequel l’autre personne est perçue comme physiquement ‘réelle’ dans la communication}} (traduction libre, Kreijns et al., 2018, cités par Kreijns & Kirschner, 2018). BeHere souhaite, en plus des aspects hédonique, éducatif et social, prendre en compte cet aspect de présence sociale considéré comme importante pour chaque personne seule à distance.


==Comment suivre le raisonnement d’autrui ==
===Comment suivre et comprendre le raisonnement d’autrui ?===


===en présence …===
'''En présence - synchrone'''


====en synchrone ?====
: '''✋ En tant que seeker :'''


''': ✋ En tant que seeker :'''
:: 🥽 : Concernant les lunettes AR, le principal mécanisme mis en jeu dans l’interaction entre une personne à distance et une personne portant les lunettes AR est celui de l’attention partagée. L’attention partagée se passe lors d’un processus d’interaction entre au moins deux personnes. Originellement, cette attention partagée était désignée lors d’une interaction entre un enfant et son parent. L’enfant manipule physiquement un objet, le déplace dans le champ de vision du parent jusqu’à ce que la réponse verbale/corporelle attendue soit effectuée par le parent (Kidwell & Zimmerman, cités par Due & Toft, 2021). Goodwin (1994) reprend ce terme en le modifiant pour un contexte professionnel, il appelle alors ceci la “vision professionnelle” qui est {{citation | tout moyen socialement organisé de voir et comprendre des événements}} (traduction libre). Les lunettes vont donc permettre au seeker d’être guidé par le biais de flèches et de dessins faits en temps réel par le provider à distance (Due & Toft, 2021; Spitzer et al., 2018). De cette manière, le provider permet de ‘faire voir’ au seeker, sa “vision professionnelle” en lui indiquant directement les moyens/indices pour comprendre un événement particulier et donc de suivre le raisonnement de l’expert·e.


🥽 : Concernant les lunettes AR, le principal mécanisme mis en jeu dans l’interaction entre une personne à distance et une personne portant les lunettes AR est celui de l’attention partagée. L’attention partagée se passe lors d’un processus d’interaction entre au moins deux personnes. Originellement, cette attention partagée était désignée lors d’une interaction entre un enfant et son parent. L’enfant manipule physiquement un objet, le déplace dans le champ de vision du parent jusqu’à ce que la réponse verbale/corporelle attendue soit effectuée par le parent (Kidwell & Zimmerman, cités par Due & Toft, 2021). Goodwin (1994) reprend ce terme en le modifiant pour un contexte professionnel, il appelle alors ceci la “vision professionnelle” qui est {{citation | tout moyen socialement organisé de voir et comprendre des événements}} (traduction libre). Les lunettes vont donc permettre au seeker d’être guidé par le biais de flèches et de dessins faits en temps réel par le provider à distance (Due & Toft, 2021; Spitzer et al., 2018). De cette manière, le provider permet de ‘faire voir’ au seeker, sa “vision professionnelle” en lui indiquant directement les moyens/indices pour comprendre un événement particulier et donc de suivre le raisonnement de l’expert·e.
:: 📱 🤖 🚫 : L’interface et le robot ne sont pas destinés à être utilisés en présence en synchrone pour le seeker.


📱 🤖 🚫 : L’interface et le robot ne sont pas destinés à être utilisés en présence en synchrone pour le seeker.
: '''🫴 En tant que provider'''


''': 🫴 En tant que provider'''
:: 🥽 : Cette fois-ci l’argumentaire s’inverse pour le provider. C’est ce dernier qui est en attente  de suivre le raisonnement d’autrui. Le seeker, comme attendant une réponse face à un problème, peut pointer et dessiner sur son interface (raisonnement - à distance - en synchrone, voir plus bas) des objets dont il n’est pas sûr de l’utilité ou la fonctionnalité par exemple. Nous pouvons donc faire la comparaison avec un·e professeur·e qui, en expliquant un savoir, attend ou encourage ses élèves de poser une question - ce qui permet au/à la professeur·e de comprendre le raisonnement d’autrui afin de les ajuster selon l’objectif pédagogique.


🥽 : Cette fois-ci l’argumentaire s’inverse pour le provider. C’est ce dernier qui est en attente  de suivre le raisonnement d’autrui. Le seeker, comme attendant une réponse face à un problème, peut pointer et dessiner sur son interface (raisonnement - à distance - en synchrone, voir plus bas) des objets dont il n’est pas sûr de l’utilité ou la fonctionnalité par exemple. Nous pouvons donc faire la comparaison avec un·e professeur·e qui, en expliquant un savoir, attend ou encourage ses élèves de poser une question - ce qui permet au/à la professeur·e de comprendre le raisonnement d’autrui afin de les ajuster selon l’objectif pédagogique.
:: 📱 🤖 🚫 : L’interface et le robot ne sont pas destinés à être utilisés en présence en synchrone pour le provider.


📱 🤖 🚫 : L’interface et le robot ne sont pas destinés à être utilisés en présence en synchrone pour le provider.


: '''🤝 En tant que groupe mixte'''


''': 🤝 En tant que groupe mixte'''
:: 📱 :


📱 :
:: 🤖 :


🤖 :
:: 🥽 :
'''En présence - asynchrone'''


🥽 :
: '''✋ En tant que seeker :'''
====en asynchrone ?====


''': ✋ En tant que seeker :'''
:: 📱 :


📱 :
:: 🤖 :


🤖 :
:: 🥽 :


🥽 :
: '''🫴 En tant que provider'''


''': 🫴 En tant que provider'''
:: 📱 :


📱 :
:: 🤖 :


🤖 :
:: 🥽 :


🥽 :
: ''' 🤝 En tant que groupe mixte'''


''': 🤝 En tant que groupe mixte'''
:: 📱 :


📱 :
:: 🤖 :


🤖 :
:: 🥽 :


🥽 :
'''A distance - synchrone'''


===à distance …===
: '''✋ En tant que seeker :'''
====en synchrone ?====


''': ✋ En tant que seeker :'''
:: 📱 :


📱 :
:: 🤖 :


🤖 :
:: 🥽 :


🥽 :
: '''🫴 En tant que provider'''


''': 🫴 En tant que provider'''
:: 📱 :


📱 :
:: 🤖 :


🤖 :
:: 🥽 :


🥽 :
: ''' 🤝 En tant que groupe mixte'''


''': 🤝 En tant que groupe mixte'''
:: 📱 :


📱 :
:: 🤖 :


🤖 :
:: 🥽 :
 
🥽 :




La vue à la première personne (lunettes AR) permettra de voir l’action en direct ainsi que les endroits que la personne en présence pointera. De plus, la vue à la troisième personne (robot) permettra aussi d’identifier l’environnement actuel dans lequel se déplace la personne en présence pour ainsi guider de manière plus globale et décrire les éléments qui se trouvent en dehors du champ de vision de la personne en présence.
La vue à la première personne (lunettes AR) permettra de voir l’action en direct ainsi que les endroits que la personne en présence pointera. De plus, la vue à la troisième personne (robot) permettra aussi d’identifier l’environnement actuel dans lequel se déplace la personne en présence pour ainsi guider de manière plus globale et décrire les éléments qui se trouvent en dehors du champ de vision de la personne en présence.


====en asynchrone ?====
'''A distance - asynchrone'''


''': ✋ En tant que seeker :'''
: '''✋ En tant que seeker :'''


📱 :
:: 📱 :


🤖 :
:: 🤖 :


🥽 :
:: 🥽 :


''': 🫴 En tant que provider'''
: '''🫴 En tant que provider'''


📱 :
:: 📱 :


🤖 :
:: 🤖 :


🥽 :
:: 🥽 :


'''🤝 En tant que groupe mixte'''
: ''' 🤝 En tant que groupe mixte'''


📱 :
:: 📱 :


🤖 :
:: 🤖 :


🥽 :
:: 🥽 :


==Comment suivre et comprendre les émotions des autres …==


===en présence …===


====en synchrone ?====
===Comment suivre et comprendre les émotions d’autrui ?===
'''En présence - synchrone'''


''': ✋ En tant que seeker :'''
: '''✋ En tant que seeker :'''


📱 :
:: 📱 :


🤖 :
:: 🤖 :


🥽 :
:: 🥽 :


''': 🫴 En tant que provider'''
: '''🫴 En tant que provider'''


📱 :
:: 📱 :


🤖 :
:: 🤖 :


🥽 :
:: 🥽 :


'''🤝 En tant que groupe mixte'''
: ''' 🤝 En tant que groupe mixte'''


📱 :
:: 📱 :


🤖 :
:: 🤖 :


🥽 :
:: 🥽 :




Comment les personnes en présence peuvent-elles suivre les émotions des personnes à distance ? Sachant que l’objet d’intérêt est fondamentalement le projet, la vue de la personne en présence portant les lunettes ne devra donc pas être interrompue par d’autres distracteurs (surtout si la manipulation à effectuer est considérée comme dangereuse). C’est pour cela que la fonction ‘smiley à l’écran’ sera désactivée en fonction des mouvements enregistrés au travers des lunettes. Plus les mouvements (tête par des capteurs de mouvements, mains par leur représentation à travers les lunettes) sont lents/précis/immobiles et les yeux pointants pendant une longue durée sur un objet en particulier, moins les smileys seront en visu (plus ils seront transparents, voir désactivés). En dehors, la personne à distance sera invitée aussi à encourager ( 💪, 👏 ) ou à exprimer ses émotions ( 🤩, 😥, 😭, 😁, 😂) qui sera visible par la personne en présence via les lunettes (proche de la fovée) ou via le robot. Cet expression d’émotion émettra un petit son (désactivé après une utilisation abusive de 3 fois) sur le robot afin de prendre en compte cette présence ‘physique’ de la personne à distance.
Comment les personnes en présence peuvent-elles suivre les émotions des personnes à distance ? Sachant que l’objet d’intérêt est fondamentalement le projet, la vue de la personne en présence portant les lunettes ne devra donc pas être interrompue par d’autres distracteurs (surtout si la manipulation à effectuer est considérée comme dangereuse). C’est pour cela que la fonction ‘smiley à l’écran’ sera désactivée en fonction des mouvements enregistrés au travers des lunettes. Plus les mouvements (tête par des capteurs de mouvements, mains par leur représentation à travers les lunettes) sont lents/précis/immobiles et les yeux pointants pendant une longue durée sur un objet en particulier, moins les smileys seront en visu (plus ils seront transparents, voir désactivés). En dehors, la personne à distance sera invitée aussi à encourager ( 💪, 👏 ) ou à exprimer ses émotions ( 🤩, 😥, 😭, 😁, 😂) qui sera visible par la personne en présence via les lunettes (proche de la fovée) ou via le robot. Cet expression d’émotion émettra un petit son (désactivé après une utilisation abusive de 3 fois) sur le robot afin de prendre en compte cette présence ‘physique’ de la personne à distance.


====en asynchrone ?====
'''En présence - asynchrone'''


''': ✋ En tant que seeker :'''
: '''✋ En tant que seeker :'''


📱 :
:: 📱 :


🤖 :
:: 🤖 :


🥽 :
:: 🥽 :


''': 🫴 En tant que provider'''
: '''🫴 En tant que provider'''


📱 :
:: 📱 :


🤖 :
:: 🤖 :


🥽 :
:: 🥽 :


'''🤝 En tant que groupe mixte'''
: ''' 🤝 En tant que groupe mixte'''


📱 :
:: 📱 :


🤖 :
:: 🤖 :


🥽 :
:: 🥽 :




===à distance …===
'''A distance - synchrone'''


====en synchrone ?====
: '''✋ En tant que seeker :'''


''': ✋ En tant que seeker :'''
:: 📱 :


📱 :
:: 🤖 :


🤖 :
:: 🥽 :
 
🥽 :


Comment les personnes à distance peuvent-elles suivre les émotions des personnes en présence ? Premièrement, les personnes à distance auront accès aux vues à la première et à la troisième personne. Les gestes des mains (vue lunettes) ou du langage corporel (vue robot) permettront aux personnes à distance de juger et de suivre les émotions des personnes en présence. Si les images sont de mauvaise qualité, un guidage aux émotions analysées par les caméras (lunettes et robot) sera à disposition et désactivable à tout moment. Par exemple, si le robot capture un relâchement des épaules, du corps accompagné d’une tête vers le bas, l’interface de la personne à distance proposera “Votre collègue semble déçu… 😕 Ne plus afficher / Il s’agit d’une autre émotion ”. Libre choix sera donné à la personne sur la façon de réagir, il n’y aura pas de smileys à présenter par exemple. La personne à distance, si elle estime que les émotions analysées ne reflètent pas la réalité, pourra indique de quelle émotion il s’agit (afin d’entraîner le système à la reconnaissance d’émotions).   
Comment les personnes à distance peuvent-elles suivre les émotions des personnes en présence ? Premièrement, les personnes à distance auront accès aux vues à la première et à la troisième personne. Les gestes des mains (vue lunettes) ou du langage corporel (vue robot) permettront aux personnes à distance de juger et de suivre les émotions des personnes en présence. Si les images sont de mauvaise qualité, un guidage aux émotions analysées par les caméras (lunettes et robot) sera à disposition et désactivable à tout moment. Par exemple, si le robot capture un relâchement des épaules, du corps accompagné d’une tête vers le bas, l’interface de la personne à distance proposera “Votre collègue semble déçu… 😕 Ne plus afficher / Il s’agit d’une autre émotion ”. Libre choix sera donné à la personne sur la façon de réagir, il n’y aura pas de smileys à présenter par exemple. La personne à distance, si elle estime que les émotions analysées ne reflètent pas la réalité, pourra indique de quelle émotion il s’agit (afin d’entraîner le système à la reconnaissance d’émotions).   
Ligne 305 : Ligne 285 :
Robot aussi aura un rôle important dans le fait d’être présent ‘physiquement’ pour la personne en présence et ‘digitalement’ pour la personne en distance. C’est ce qu’on appelle la téléprésence (Petit et al., 2020). Le robot aura un rôle de présence sociale.
Robot aussi aura un rôle important dans le fait d’être présent ‘physiquement’ pour la personne en présence et ‘digitalement’ pour la personne en distance. C’est ce qu’on appelle la téléprésence (Petit et al., 2020). Le robot aura un rôle de présence sociale.


''': 🫴 En tant que provider'''


📱 :
: '''🫴 En tant que provider'''


🤖 :
:: 📱 :


🥽 :
:: 🤖 :


''': 🤝 En tant que groupe mixte'''
:: 🥽 :


📱 :
: ''' 🤝 En tant que groupe mixte'''


🤖 :
:: 📱 :


🥽 :
:: 🤖 :


:: 🥽 :


'''A distance - asynchrone'''


====en asynchrone ?====
: '''✋ En tant que seeker :'''


''': ✋ En tant que seeker :'''
:: 📱 :


📱 :
:: 🤖 :


🤖 :
:: 🥽 :


🥽 :
: '''🫴 En tant que provider'''


''': 🫴 En tant que provider'''
:: 📱 :


📱 :
:: 🤖 :


🤖 :
:: 🥽 :


🥽 :
: ''' 🤝 En tant que groupe mixte'''


''': 🤝 En tant que groupe mixte'''
:: 📱 :


📱 :
:: 🤖 :


🤖 :
:: 🥽 :
 
🥽 :




=Plus-value=
==Description==
L’acceptabilité pour les lunettes de réalité augmentée est garantie dès le moment où les bénéfices fonctionnels sont clairement démontrés aux utilisateur·trice·s (Rauschnabel & Ro, 2016). Dans une étude de Spitzer et al. (2018), le fait d’écouter ou de voir les annotations en temps réel de l’aidant·e à travers les lunettes ont été essentiels pour le guidage lors d’une manipulation.
==Evaluation==
==Limites==


Bon vouloir des aidant·e·s
Le partage des émotions la plupart de manière volontaire (charge cognitive) - automatisation par mesures physiologiques comme l’activité électrodermale, fréquence cardiaque, reconnaissance faciale, …
=Prototype final=
A ajouter/créer :
Appli : Conversation avec gif, j’ai hâte/merci de m’aider/on va y arriver (régulation socio-émotionnelle)
==Outils==
==Outils==


📱A travers l’'''interface''' :
📱A travers l’'''interface''' :


: Suivre et comprendre le raisonnement d’autrui :  
: Exemples de fonctionnalités permettant la continuité pédagogique :
 
:: La fonction “BeTuto” de l’interface permet de créer des vidéos mais aussi de consulter ces dernier·e·s. Ceci se fait donc de manière asynchrone. Les fonctionnalités à disposition sont
 
: Exemples de fonctionnalités permettant de suivre et comprendre le raisonnement d’autrui :  


:: La fonction “BeEyes” de l’interface permet d’afficher la vue à la première personne capturée par les lunettes AR. Cette fonction est disponible dans la partie “Chat” de l’interface. Elle est présente (de manière inactivée) dans chaque conversation avec les personnes avec qui on souhaite collaborer et est activable lorsque les lunettes sont portées. La fonction “BeEyes” est utilisée par les personnes à distance qui collaborent avec les personnes présentes au faclab. Les fonctionnalités à disposition sont le “pointage”, le “dessin” (suivre le raisonnement) et le “partage de smileys” (suivre les émotions). Ces fonctionnalités permettent de partager l’écran de la personne à distance (avec le raisonnement et les émotions) sur les lunettes AR de la personne les portant.  
:: La fonction “BeEyes” de l’interface permet d’afficher la vue à la première personne capturée par les lunettes AR. Cette fonction est disponible dans la partie “Chat” de l’interface. Elle est présente (de manière inactivée) dans chaque conversation avec les personnes avec qui on souhaite collaborer et est activable lorsque les lunettes sont portées. La fonction “BeEyes” est utilisée par les personnes à distance qui collaborent avec les personnes présentes au faclab. Les fonctionnalités à disposition sont le “pointage”, le “dessin” (suivre le raisonnement) et le “partage de smileys” (suivre les émotions). Ces fonctionnalités permettent de partager l’écran de la personne à distance (avec le raisonnement et les émotions) sur les lunettes AR de la personne les portant.  
Ligne 361 : Ligne 354 :
:: La partie “BeTuto” de l’interface présentée plus haut (voir #Continuité pédagogique) contient des fonctionnalités différentes liées à la régulation socio-émotionnelle en fonction de notre statut (demandeur·euse d’aide ou aidant·e). Lorsqu’elle est utilisée par les personnes faisant le tutoriel, un texte d’introduction est affiché avant d’appuyer sur le bouton “Enregistrement” qui propose de “bien expliquer chaque mouvement, et de décomposer la tâche globale en plusieurs sous-tâches”. Ceci permet aux personnes qui regardent la vidéo de suivre le raisonnement de manière asynchrone.
:: La partie “BeTuto” de l’interface présentée plus haut (voir #Continuité pédagogique) contient des fonctionnalités différentes liées à la régulation socio-émotionnelle en fonction de notre statut (demandeur·euse d’aide ou aidant·e). Lorsqu’elle est utilisée par les personnes faisant le tutoriel, un texte d’introduction est affiché avant d’appuyer sur le bouton “Enregistrement” qui propose de “bien expliquer chaque mouvement, et de décomposer la tâche globale en plusieurs sous-tâches”. Ceci permet aux personnes qui regardent la vidéo de suivre le raisonnement de manière asynchrone.


: Suivre et comprendre les émotions d’autrui :
: Exemples d’de fonctionnalitésoutils permettant de suivre et comprendre les émotions d’autrui :  


:: La partie “BeChat” sera le lieu central pour comprendre les émotions d’autrui. Par exemple, avant de se rejoindre pour collaborer sur un projet, des propositions de partage d’émotion sous forme de smiley/gif sont affichées de manière “prêtes à être envoyées”. En cliquant dessus on partage ce type de texte/smiley : “J’ai hâte de travailler avec toi ! 🤓”, “Merci pour ton aide ! 🤩”, “On va y arriver 💪”
:: La partie “BeChat” sera le lieu central pour comprendre les émotions d’autrui. Par exemple, avant de se rejoindre pour collaborer sur un projet, des propositions de partage d’émotion sous forme de smiley/gif sont affichées de manière “prêtes à être envoyées”. En cliquant dessus on partage ce type de texte/smiley : “J’ai hâte de travailler avec toi ! 🤓”, “Merci pour ton aide ! 🤩”, “On va y arriver 💪”
Ligne 375 : Ligne 368 :
But ?
But ?


: Suivre et comprendre le raisonnement d’autrui :
: Exemples de fonctionnalités permettant de suivre et comprendre le raisonnement d’autrui :  
 


:: Vue à la troisième personne de la personne en présence, vision d’ensemble du contexte (REF, 3rd person view help learning and understanding)
:: Vue à la troisième personne de la personne en présence, vision d’ensemble du contexte (REF, 3rd person view help learning and understanding)


: Suivre et comprendre les émotions d’autrui :
: Exemples de fonctionnalités permettant de suivre et comprendre les émotions d’autrui :  


:: langage corporel sera perçu par les personnes à distance (voir si personnes en présence sont avachies, actives, etc.) (REF, body language help recognize general emotion).  
:: langage corporel sera perçu par les personnes à distance (voir si personnes en présence sont avachies, actives, etc.) (REF, body language help recognize general emotion).  
Ligne 386 : Ligne 380 :
🥽A travers les '''lunettes AR''' :
🥽A travers les '''lunettes AR''' :


: Suivre et comprendre le raisonnement d’autrui :
: Exemples de fonctionnalités permettant de suivre et comprendre le raisonnement d’autrui :  
 


:: vue à la première personne permet le partage du même champs de vision. D’un côté comme de l’autre, les personnes auront leur attention partagée sur les mêmes objets d’intérêt (Due & Toft, 2021).
:: vue à la première personne permet le partage du même champs de vision. D’un côté comme de l’autre, les personnes auront leur attention partagée sur les mêmes objets d’intérêt (Due & Toft, 2021).


: Suivre et comprendre les émotions d’autrui :
: Exemples de fonctionnalités permettant de suivre et comprendre les émotions d’autrui :  


:: à travers voix (REF, understanding emotion through voice), envoi de smiley qui s’afficheront proche de la fovée en transparent (REF, sharing emotion through smileys)
:: à travers voix (REF, understanding emotion through voice), envoi de smiley qui s’afficheront proche de la fovée en transparent (REF, sharing emotion through smileys)
=Plus-value=
==Description==
L’acceptabilité pour les lunettes de réalité augmentée est garantie dès le moment où les bénéfices fonctionnels sont clairement démontrés aux utilisateur·trice·s (Rauschnabel & Ro, 2016). Dans une étude de Spitzer et al. (2018), le fait d’écouter ou de voir les annotations en temps réel de l’aidant·e à travers les lunettes ont été essentiels pour le guidage lors d’une manipulation.
==Evaluation==
==Limites==


Bon vouloir des aidant·e·s
Le partage des émotions la plupart de manière volontaire (charge cognitive) - automatisation par mesures physiologiques comme l’activité électrodermale, fréquence cardiaque, reconnaissance faciale, …
=Prototype final=
A ajouter/créer :
Appli : Conversation avec gif, j’ai hâte/merci de m’aider/on va y arriver (régulation socio-émotionnelle)
==Scénarios d’usage==
==Scénarios d’usage==
===Demandeur présent/Aideur distant===
===Demandeur présent/Aideur distant===

Version du 30 novembre 2022 à 21:55

Auteur·trice·s : Celina Marques Teixeira, Thomas Goffin et Kenneth Rioja.
CMT s'est occupée de la partie Continuité Pédagogique, TG de la partie Assurer l'Apprentissage Collaboratif et KR de la partie Régulation Socio-Émotionnelle.
Les trois auteur·trice·s ont contribué de manière égale à l'écriture des parties d'Introduction, Besoins, Plus-Value et Prototype Final, ainsi qu'à la relecture et la révision de cette page.
Page rédigée dans le cadre du cours ADID en Décembre 2022.

Introduction

Résumé

Descriptif du projet

Equipe du projet

Contexte

Formalisation des objectifs

Public cible

Besoins

”Le problème de la bouteille”

- Technologie numérique - Favoriser la continuité des activités collaborative de fabrication digitale - Conception d'un prototype d’espace phygital pour la continuité présence-distance des activités au faclab - ex. bouteille : physiquement les gens physiques le voient mais comment à distance peut voir ? - La collaboration vient des pairs

Besoins des utilisateur·trice·s

BeHere se veut implémenté dans un Faclab, en ce sens il dépasse la dichotomie hiérarchique “appenant·e / enseignant·e” et cherchera plutôt à qualifier ses utilisateur·trice·s sur un terrain d’égalité comme étant Seeker et Provider. Nous utiliserons ces termes dans cette page pour désigner respectivement une personne demandant de l’aide et une personne offrant de l’aide.

Revue de littérature

Dans les parties qui vont suivre, nous essayerons de répondre à trois questions que nous nous sommes posées et qui nous ont guidées tout au long du prototypage. Ces trois questions sont énoncées ci-bas. Chaque réponse apportée prendra compte des modalités de lieu (présence/distance) et de temps (synchrone/asynchrone).

En quoi notre dispositif permet une continuité pédagogique entre seekers et providers ?
Par continuité pédagogique nous entendons …
En quoi notre dispositif permet d’assurer un apprentissage collaboratif entre seekers et providers ?
L’apprentissage collaboratif …
En quoi notre dispositif permet une régulation socio-émotionnelle entre seekers et providers ?
Par “régulation socio-émotionnelle”, nous entendons la capacité d’une personne et/ou d’un groupe d’adapter ses comportements, pensées, cognitions, émotions en ligne avec le but d’une tâche dans le cadre d’une activité collaborative (Järvelä et al., 2016). Les questions que se posaient la commanditaire étaient “comment les personnes peuvent suivre et comprendre le raisonnement et les émotions d’autrui ?”. Nous tenterons de répondre à ces différentes questions dans la partie dédiée.

Définitions

Phygital

Un espace phygital est la jointure entre les espaces physique et digital (ADD REF). Comment relier la pédagogie (appartenant à l'espace physique) et la technologie (appartenant à l'espace digital) ? -- Ryberg, T., Davidsen, J., Bernhard, J., & Larsen, M. C. (2021). Ecotones: a conceptual contribution to postdigital thinking. Postdigital Science and Education, 3(2), 407-424.

Réalité augmentée et interfaces tangibles, quels liens avec la formation par simulation ?

Faclab

Différents espaces d'apprentissage hybride : hackerspace aux co-working spaces - et au milieu le faclab : entre la production tangible et intangible et entre l'académie et le non académique, entre le formel et l'informel. -- FacLab : https://doi.org/10.1051/itmconf/20213802004 -- Dimensions of hybrid spaces from different frameworks : Kohls, C., Dubbert, D., & Münster, G. (2022). Patterns for a hybrid campus. In Hybrid Learning Spaces (pp. 249-263). Springer, Cham

FabLabs - L’institutionnalisation de Tiers-Lieux du « soft hacking »

Naissance et vie d’un FabLab, espace d’innovation et de créativité

Les fablabs, étude de cas : Le faclab de Cergy-Pontoise à Gennevilliers est-il un lieu d'expérimentation sociale en faveur des jeunes ?

Créer un fablab à l’université : enjeux humains et institutionnels

Continuité pédagogique

Comment le temps / le lieu / les outils passés entre présence/distance diffère-t-il entre un cours à l'uni et dans un faclab ? -- Kohls et al., 2022

Présence/distance

Synchrone/Asynchrone

Assurer l’apprentissage collaboratif

-- Learning-teaching // Individual-collective/individual-social // Access to learning and production ressources (Kohls et al., 2022) -- Wenger, E. (1999). Communities of practice: Learning, meaning, and identity. Cambridge university press. -- Lhoste, É. (2017). Les fablabs transforment-ils les pratiques de médiation ?. Cahiers de l’action, 48, 15-22. https://doi.org/10.3917/cact.048.0015

Présence/distance

Dans Velamazan et al., 2022 : “Agency is one of the most important capacities to be developed in education and collaborative learning because it has to do with student motivations and interests (Ahn & Clegg, 2017; (Ingold, 2008; Goodyear et al., 2018); Scardamalia & Bereiter, 1991; Tchounikine, 2019).”

Synchrone/Asynchrone

- pertinence de la réalité augmentée et du choix d’app sur mobile : SUPPORTS MOBILES D’INTERACTION ET REALITE AUGMENTEE EN SITUATION COLLABORATIVE

Régulation socio-émotionnelle

Dans cette partie, les deux problématiques qui ont guidé notre réflexion sont :

  • “Comment suivre et comprendre le raisonnement de l’autre ?”
  • “Comment suivre et comprendre les émotions des autres ?”

Par “raisonnement” et “émotions”, nous nous appuyons sur tous les indices visuels et verbaux que les personnes peuvent partager afin de partager leur raisonnement (cognition, motivation) et leur émotions (intérêt, plaisir, etc.). BeHere se veut utile pour 1) partager ce que font, regardent ou montrent les personnes, 2) partager le plaisir et l’intérêt au sein du groupe et 3) induire un sentiment de présence sociale pour la personne à distance.

La partie ci-dessous, appuyée par la littérature, montre pourquoi BeHere se focalise sur la régulation socio-émotionnelle dans le cadre d’environnements informatisés pour l’apprentissage collaboratif (EIAC). Ensuite, nous répondons aux deux questions présentées précédemment en montrant comment chaque outil se trouve utile pour le seeker, le provider ou un groupe ayant des seekers et providers (appelés groupes mixtes) dans une situation de présence / distance et en synchrone / asynchrone. Enfin, nous présenterons les quelques fonctionnalités que BeHere peut proposer pour la régulation socio-émotionnelle en tenant compte des réponses données.

(...) groups do not necessarily recognize nor react to challenging collaborative situations. Thus, they need to be alerted to and learn to regulate, those processes (Järvelä et al., 2016 cité par Velamazán et al., 2022)

Pourquoi BeHere souhaite réguler les processus socio-émotionnels ? Tout d’abord, une tâche collaborative permet de partager et mettre en jeu les compétences, connaissances et expertises de chacun·e (Järvelä et al., 2020). Lors de la collaboration et lorsque «chaque membre de l’équipe active et maintient sa cognition, motivation, comportement et émotions à destination du but à atteindre » (traduction libre, Schunk & Greene, 2017, cité par Järvelä et al., 2020) un apprentissage collaboratif est mis en place. De plus, « sans représentations et buts communs, le travail collaboratif peut devenir moins satisfaisant pour les apprenants, ce qui engendre un apprentissage moins efficace, moins performant et/ou moins amusant »(traduction libre, Järvelä & Hadwin, 2013). Ces processus sont cependant invisibles aux yeux des autres et doivent être partagés dans la collaboration afin de permettre un apprentissage collaboratif (Järvelä & Hadwin, 2013, cité par Järvelä et al., 2020). BeHere se focalise donc à faire émerger ces processus via un partage ponctuel et/ou longitudinal du raisonnement (cognition, motivation) et des émotions ressenties afin d’améliorer la collaboration et ultimement améliorer l’apprentissage qui en découle.

Selon la littérature, trois types de régulations sont en jeu dans des tâches collaboratives : a) l’apprentissage auto-régulé où chacun est responsable de ses propres connaissances, actions, motivation et émotions dans une tâche collaborative, b) l’apprentissage co-régulé où chaque engagement d’une personne est soutenu par les autres membres du groupe, la technologie ou le contexte, c) la régulation de l’apprentissage socialement partagée où tous les membres d’un groupe régulent leur comportement, motivation et émotion de manière synchronisée (Järvelä and Hadwin 2013; Hadwin and Oshige 2011; Hadwin et al. 2011; cités par Järvelä et al., 2016). BeHere se focalise sur les deux derniers points : la co-régulation socio-émotionnelle par les pairs et par les technologies et la régulation socialement partagée.

Nous sommes conscient·e·s que ces régulations socio-émotionnelles à effectuer en même temps que la tâche peuvent être perçues comme une charge cognitive supplémentaire et inutile pour la complétion de la tâche (Tricot, 2017). Nous nous positionnons sur le fait que les gains escomptés (meilleure collaboration) seront supérieurs aux inconvénients (partage des émotions), ce qui permettra aux utilisateur·trice·s de percevoir la situation comme une réelle opportunité d'apprentissage et d’instancier une intention d'apprendre (Boekaerts, 1998, citée par Cosnefroy, 2010).

Enfin, nous nous appuyons sur le modèle SIPS (Sociabilité, Interaction sociale, Présence sociale, eSpace) pour l’apprentissage collaboratif de Kreijns & Kirschner (2018). Ce modèle postule que l’apprentissage est directement affecté par les interactions sociales. Ces interactions sociales sont influencées par l’aspect hédonique, éducatif et social de l’environnement informatisé pour l’apprentissage collaboratif. De plus, les interactions sociales sont aussi influencées par la présence sociale, décrit comme « le degré selon lequel l’autre personne est perçue comme physiquement ‘réelle’ dans la communication» (traduction libre, Kreijns et al., 2018, cités par Kreijns & Kirschner, 2018). BeHere souhaite, en plus des aspects hédonique, éducatif et social, prendre en compte cet aspect de présence sociale considéré comme importante pour chaque personne seule à distance.

Comment suivre et comprendre le raisonnement d’autrui ?

En présence - synchrone

✋ En tant que seeker :
🥽 : Concernant les lunettes AR, le principal mécanisme mis en jeu dans l’interaction entre une personne à distance et une personne portant les lunettes AR est celui de l’attention partagée. L’attention partagée se passe lors d’un processus d’interaction entre au moins deux personnes. Originellement, cette attention partagée était désignée lors d’une interaction entre un enfant et son parent. L’enfant manipule physiquement un objet, le déplace dans le champ de vision du parent jusqu’à ce que la réponse verbale/corporelle attendue soit effectuée par le parent (Kidwell & Zimmerman, cités par Due & Toft, 2021). Goodwin (1994) reprend ce terme en le modifiant pour un contexte professionnel, il appelle alors ceci la “vision professionnelle” qui est « tout moyen socialement organisé de voir et comprendre des événements» (traduction libre). Les lunettes vont donc permettre au seeker d’être guidé par le biais de flèches et de dessins faits en temps réel par le provider à distance (Due & Toft, 2021; Spitzer et al., 2018). De cette manière, le provider permet de ‘faire voir’ au seeker, sa “vision professionnelle” en lui indiquant directement les moyens/indices pour comprendre un événement particulier et donc de suivre le raisonnement de l’expert·e.
📱 🤖 🚫 : L’interface et le robot ne sont pas destinés à être utilisés en présence en synchrone pour le seeker.
🫴 En tant que provider
🥽 : Cette fois-ci l’argumentaire s’inverse pour le provider. C’est ce dernier qui est en attente de suivre le raisonnement d’autrui. Le seeker, comme attendant une réponse face à un problème, peut pointer et dessiner sur son interface (raisonnement - à distance - en synchrone, voir plus bas) des objets dont il n’est pas sûr de l’utilité ou la fonctionnalité par exemple. Nous pouvons donc faire la comparaison avec un·e professeur·e qui, en expliquant un savoir, attend ou encourage ses élèves de poser une question - ce qui permet au/à la professeur·e de comprendre le raisonnement d’autrui afin de les ajuster selon l’objectif pédagogique.
📱 🤖 🚫 : L’interface et le robot ne sont pas destinés à être utilisés en présence en synchrone pour le provider.


🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :

En présence - asynchrone

✋ En tant que seeker :
📱 :
🤖 :
🥽 :
🫴 En tant que provider
📱 :
🤖 :
🥽 :
🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :

A distance - synchrone

✋ En tant que seeker :
📱 :
🤖 :
🥽 :
🫴 En tant que provider
📱 :
🤖 :
🥽 :
🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :


La vue à la première personne (lunettes AR) permettra de voir l’action en direct ainsi que les endroits que la personne en présence pointera. De plus, la vue à la troisième personne (robot) permettra aussi d’identifier l’environnement actuel dans lequel se déplace la personne en présence pour ainsi guider de manière plus globale et décrire les éléments qui se trouvent en dehors du champ de vision de la personne en présence.

A distance - asynchrone

✋ En tant que seeker :
📱 :
🤖 :
🥽 :
🫴 En tant que provider
📱 :
🤖 :
🥽 :
🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :


Comment suivre et comprendre les émotions d’autrui ?

En présence - synchrone

✋ En tant que seeker :
📱 :
🤖 :
🥽 :
🫴 En tant que provider
📱 :
🤖 :
🥽 :
🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :


Comment les personnes en présence peuvent-elles suivre les émotions des personnes à distance ? Sachant que l’objet d’intérêt est fondamentalement le projet, la vue de la personne en présence portant les lunettes ne devra donc pas être interrompue par d’autres distracteurs (surtout si la manipulation à effectuer est considérée comme dangereuse). C’est pour cela que la fonction ‘smiley à l’écran’ sera désactivée en fonction des mouvements enregistrés au travers des lunettes. Plus les mouvements (tête par des capteurs de mouvements, mains par leur représentation à travers les lunettes) sont lents/précis/immobiles et les yeux pointants pendant une longue durée sur un objet en particulier, moins les smileys seront en visu (plus ils seront transparents, voir désactivés). En dehors, la personne à distance sera invitée aussi à encourager ( 💪, 👏 ) ou à exprimer ses émotions ( 🤩, 😥, 😭, 😁, 😂) qui sera visible par la personne en présence via les lunettes (proche de la fovée) ou via le robot. Cet expression d’émotion émettra un petit son (désactivé après une utilisation abusive de 3 fois) sur le robot afin de prendre en compte cette présence ‘physique’ de la personne à distance.

En présence - asynchrone

✋ En tant que seeker :
📱 :
🤖 :
🥽 :
🫴 En tant que provider
📱 :
🤖 :
🥽 :
🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :


A distance - synchrone

✋ En tant que seeker :
📱 :
🤖 :
🥽 :

Comment les personnes à distance peuvent-elles suivre les émotions des personnes en présence ? Premièrement, les personnes à distance auront accès aux vues à la première et à la troisième personne. Les gestes des mains (vue lunettes) ou du langage corporel (vue robot) permettront aux personnes à distance de juger et de suivre les émotions des personnes en présence. Si les images sont de mauvaise qualité, un guidage aux émotions analysées par les caméras (lunettes et robot) sera à disposition et désactivable à tout moment. Par exemple, si le robot capture un relâchement des épaules, du corps accompagné d’une tête vers le bas, l’interface de la personne à distance proposera “Votre collègue semble déçu… 😕 Ne plus afficher / Il s’agit d’une autre émotion ”. Libre choix sera donné à la personne sur la façon de réagir, il n’y aura pas de smileys à présenter par exemple. La personne à distance, si elle estime que les émotions analysées ne reflètent pas la réalité, pourra indique de quelle émotion il s’agit (afin d’entraîner le système à la reconnaissance d’émotions).

Robot aussi aura un rôle important dans le fait d’être présent ‘physiquement’ pour la personne en présence et ‘digitalement’ pour la personne en distance. C’est ce qu’on appelle la téléprésence (Petit et al., 2020). Le robot aura un rôle de présence sociale.


🫴 En tant que provider
📱 :
🤖 :
🥽 :
🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :

A distance - asynchrone

✋ En tant que seeker :
📱 :
🤖 :
🥽 :
🫴 En tant que provider
📱 :
🤖 :
🥽 :
🤝 En tant que groupe mixte
📱 :
🤖 :
🥽 :


Plus-value

Description

L’acceptabilité pour les lunettes de réalité augmentée est garantie dès le moment où les bénéfices fonctionnels sont clairement démontrés aux utilisateur·trice·s (Rauschnabel & Ro, 2016). Dans une étude de Spitzer et al. (2018), le fait d’écouter ou de voir les annotations en temps réel de l’aidant·e à travers les lunettes ont été essentiels pour le guidage lors d’une manipulation.

Evaluation

Limites

Bon vouloir des aidant·e·s Le partage des émotions la plupart de manière volontaire (charge cognitive) - automatisation par mesures physiologiques comme l’activité électrodermale, fréquence cardiaque, reconnaissance faciale, …

Prototype final

A ajouter/créer : Appli : Conversation avec gif, j’ai hâte/merci de m’aider/on va y arriver (régulation socio-émotionnelle)

Outils

📱A travers l’interface :

Exemples de fonctionnalités permettant la continuité pédagogique :
La fonction “BeTuto” de l’interface permet de créer des vidéos mais aussi de consulter ces dernier·e·s. Ceci se fait donc de manière asynchrone. Les fonctionnalités à disposition sont
Exemples de fonctionnalités permettant de suivre et comprendre le raisonnement d’autrui :
La fonction “BeEyes” de l’interface permet d’afficher la vue à la première personne capturée par les lunettes AR. Cette fonction est disponible dans la partie “Chat” de l’interface. Elle est présente (de manière inactivée) dans chaque conversation avec les personnes avec qui on souhaite collaborer et est activable lorsque les lunettes sont portées. La fonction “BeEyes” est utilisée par les personnes à distance qui collaborent avec les personnes présentes au faclab. Les fonctionnalités à disposition sont le “pointage”, le “dessin” (suivre le raisonnement) et le “partage de smileys” (suivre les émotions). Ces fonctionnalités permettent de partager l’écran de la personne à distance (avec le raisonnement et les émotions) sur les lunettes AR de la personne les portant.
La partie “BeTuto” de l’interface présentée plus haut (voir #Continuité pédagogique) contient des fonctionnalités différentes liées à la régulation socio-émotionnelle en fonction de notre statut (demandeur·euse d’aide ou aidant·e). Lorsqu’elle est utilisée par les personnes faisant le tutoriel, un texte d’introduction est affiché avant d’appuyer sur le bouton “Enregistrement” qui propose de “bien expliquer chaque mouvement, et de décomposer la tâche globale en plusieurs sous-tâches”. Ceci permet aux personnes qui regardent la vidéo de suivre le raisonnement de manière asynchrone.
Exemples d’de fonctionnalitésoutils permettant de suivre et comprendre les émotions d’autrui :
La partie “BeChat” sera le lieu central pour comprendre les émotions d’autrui. Par exemple, avant de se rejoindre pour collaborer sur un projet, des propositions de partage d’émotion sous forme de smiley/gif sont affichées de manière “prêtes à être envoyées”. En cliquant dessus on partage ce type de texte/smiley : “J’ai hâte de travailler avec toi ! 🤓”, “Merci pour ton aide ! 🤩”, “On va y arriver 💪”
Dans la partie “BeTuto”, si nous nous positionnons du côté du demandeur·euse d’aide, lors du visionnage de la vidéo, il sera possible d’annoter à la seconde près la vidéo ou de commenter généralement la vidéo pour permettre de partager ses émotions. L’annotation de la vidéo propose automatiquement deux types de smiley “ 😍”, “ 🤔” aux côtés d’une fenêtre pour commenter. Pour le commentaire général, un pop-up sera automatiquement présenté 5 secondes avant la fin de la vidéo pour suggérer l’écriture d’un commentaire (on peut imaginer aussi que chaque commentaire écrit nous donne des points de présence, visible par tout·e·s les utilisateur·trice·s). Ceci permettra aux personnes autrices de la vidéo de suivre et comprendre les émotions des visionneur·euse·s afin d’y répondre le plus adéquatement possible.

🤖A travers le robot :

Nom de la fonction, du bouton ? Quoi ? Fonction/bouton présent où ? et quand ? Activé quand / comment ? Qui l’utilise ? Où ? (présence/distance) Quand (synchrone/asynchrone) ? Fonctionnalités en lien avec notre partie ? But ?

Exemples de fonctionnalités permettant de suivre et comprendre le raisonnement d’autrui :


Vue à la troisième personne de la personne en présence, vision d’ensemble du contexte (REF, 3rd person view help learning and understanding)
Exemples de fonctionnalités permettant de suivre et comprendre les émotions d’autrui :
langage corporel sera perçu par les personnes à distance (voir si personnes en présence sont avachies, actives, etc.) (REF, body language help recognize general emotion).

Robot aussi aura un rôle important dans le fait d’être présent ‘physiquement’ pour la personne en présence et ‘digitalement’ pour la personne en distance. C’est ce qu’on appelle la téléprésence (Petit et al., 2020). Le robot aura un rôle de présence sociale.

🥽A travers les lunettes AR :

Exemples de fonctionnalités permettant de suivre et comprendre le raisonnement d’autrui :


vue à la première personne permet le partage du même champs de vision. D’un côté comme de l’autre, les personnes auront leur attention partagée sur les mêmes objets d’intérêt (Due & Toft, 2021).
Exemples de fonctionnalités permettant de suivre et comprendre les émotions d’autrui :
à travers voix (REF, understanding emotion through voice), envoi de smiley qui s’afficheront proche de la fovée en transparent (REF, sharing emotion through smileys)

Scénarios d’usage

Demandeur présent/Aideur distant

Le cas classique

Demandeur distant/Aideur présent

Un membre ne peut pas être présent au FL, mais il est disponible à distance.

Groupe/individu présents & groupe/individu distant

(aspect collaboratif)

une personne du groupe porte les lunettes AR pour que l’absent puisse tout voir.

utilisation d’une petite enceinte avec micro pour que l’absent puisse communiquer avec tout le monde et pas seulement celui qui porte les lunettes AR.

Tutoriels en asynchrone

(capitalisation des connaissances)

au FL, un U expert (ou juste une personne compétente) peut utiliser les lunettes AR pour filmer ses propres projets afin de documenter le processus et créer des tutoriels (comme le site https://www.instructables.com/ mais plus axé vidéo). Les tutoriels sont disponibles pour tout le monde sur la plateforme (on peut imaginer qqes critères de tri, par ex par technologie ou par difficulté).

Références

Cosnefroy, L. (2010). L’apprentissage autorégulé: Perspectives en formation d’adultes. Savoirs, 23(2), 9–50. https://doi.org/10.3917/savo.023.0009

Due, B. L., & Toft, T. L. W. (2021). Phygital highlighting: Achieving joint visual attention when physically co-editing a digital text. Journal of Pragmatics, 177, 1–17. https://doi.org/10.1016/j.pragma.2021.01.034

Goodwin, C. (1994). Professional Vision. ‘’American Anthropologist, 96’’(3), 606–633. http://www.jstor.org/stable/682303

Järvelä, S., Gašević, D., Seppänen, T., Pechenizkiy, M., & Kirschner, P. A. (2020). Bridging learning sciences, machine learning and affective computing for understanding cognition and affect in collaborative learning. British Journal of Educational Technology, 51(6), 2391–2406. https://doi.org/10.1111/bjet.12917

Järvelä, S., Kirschner, P. A., Hadwin, A., Järvenoja, H., Malmberg, J., Miller, M., & Laru, J. (2016). Socially shared regulation of learning in CSCL: Understanding and prompting individual- and group-level shared regulatory activities. International Journal of Computer-Supported Collaborative Learning, 11(3), 263–280. https://doi.org/10.1007/s11412-016-9238-2

Kreijns, K., & Kirschner, P. A. (2018). Extending the SIPS-Model: A research framework for online collaborative learning. In European Conference on Technology Enhanced Learning (pp. 277-290). Springer, Cham.

Petit, M., Lameul, G., & Taschereau, J. (2020). La téléprésence en formation: Définitions et dispositifs issus d’une recension systématique des écrits. https://eduq.info/xmlui/handle/11515/37920

Rauschnabel, P. A., & Ro, Y. K. (2016). Augmented reality smart glasses: An investigation of technology acceptance drivers. International Journal of Technology Marketing, 11(2), 123–148. https://doi.org/10.1504/IJTMKT.2016.075690

Spitzer, M., Nanic, I., & Ebner, M. (2018). Distance Learning and Assistance Using Smart Glasses. Education Sciences, 8(1), Article 1. https://doi.org/10.3390/educsci8010021

Tricot, A., (2017). Quels apports de la théorie de la charge cognitive à la différenciation pédagogique ? Quelques pistes concrètes pour adapter des situations d’apprentissage. Dans Notes remises dans le cadre de la conférence de consensus du Cnesco et de l’Ifé/Ens de Lyon « Différenciation pédagogique : comment adapter l’enseignement pour la réussite de tous les élèves ?», pp.157-165.

Velamazán, M., Santos, P., & Hernández-Leo, D. (2022). Socio-emotional regulation in collaborative hybrid learning spaces of formal–informal learning. In Hybrid Learning Spaces (pp. 95-111). Springer, Cham


30 novembre 2022 à 20:14 (CET)~