Symposium LAVIA sur les systèmes d'intelligence artificielle
12ème Conférence sur les Environnements Informatiques pour l'Apprentissage Humain (EIAH'2025), 10-13 juin 2025 Villeneuve d'Ascq (France)
Atelier/symposium n°9, 10 juin 2025, de 14h00 à 17h30
Des systèmes d'intelligence artificielle pour l'enseignement et apprentissage ancrés dans le paradigme de l'intelligence hybride
Mots-clés : Intelligence artificielle générative, intelligence hybride, apprentissage collectif, technologies positives pour l'apprentissage, résolution collaborative de problèmes.
Responsables
- Jean Heutte, professeur des universités, Univ. Lille, ULR 4354 - CIREL - Centre Interuniversitaire de Recherche en Education de Lille, France. jean.heutte@univ-lille.fr
- Gaëlle Molinari, professeure, TECFA - Technologies de formation et apprentissage, Faculté de Psychologie et des Sciences de l’Education, Université de Genève, Suisse. Gaelle.Molinari@unige.ch
- Michel Desmarais, professeur titulaire au département de génie informatique de l'École Polytechnique de Montréal, Canada. michel.desmarais@polymtl.ca
- Bruno Poellhuber, professeur titulaire, Faculté des sciences de l’éducation, directeur académique, Centre de pédagogie universitaire, Université de Montréal, Canada. bruno.poellhuber@umontreal.ca
Cadrage théorique
| L’intégration rapide des systèmes d’intelligence artificielle générative (SIAg) dans le domaine de l’éducation pourrait reconfigurer le domaine des Environnements Informatiques pour l’Apprentissage Humain (EIAH). Cette évolution technologique exige de la communauté EIAH qu’elle se mobilise autour de plusieurs enjeux théoriques et méthodologiques pour saisir avec justesse les usages et les effets des SIAg sur l’apprentissage et l’enseignement. La conception des EIAH est également à repenser, notamment à la lumière des risques liés à l’utilisation des SIAg comme la réduction de l’autonomie humaine et la perte des compétences (deskilling) du fait d’une dépendance à ces systèmes (Reinmann, 2024). Cela sans compter d’autres défis bien identifiés dans la littérature : confabulations, biais, confidentialité des renseignements personnels, désinformation, manque de transparence, empreinte carbone, etc.
Pour faire face à ces défis, la recherche préconise notamment de concevoir les EIAH en s’appuyant sur différentes configurations humain(s)-IA et en privilégiant des systèmes d’intelligence hybride (Rafner et al., 2021). La notion d’intelligence hybride (hybrid intelligence ; Järvelä et al., 2025), très apparenté à ce qu’on appelle intelligence augmentée depuis assez longtemps (Poellhuber et al., 2024), renvoie à une collaboration humains-SIAg qui permet la conjugaison des forces et capacités de chacun dans la réalisation de tâches complexes. Il est ainsi question de coévolution dans le sens où humains et SIA vont s’influencer et s’adapter mutuellement à travers leurs interactions. Ainsi, la perspective de l’intelligence hybride vient promettre de pallier, ou du moins, d’atténuer plusieurs des défis liés à l’utilisation des SIAg. Par ailleurs, ceux-ci offrent de nombreuses affordances innovantes pour l’enseignement ou l’apprentissage, que celui-ci soit individuel ou collectif. Du côté de l’assistance aux enseignant·e·s, l’utilisation des SIAg pour l’assistance à la conception de cours, de matériel pédagogique ou d’évaluations est l’une des applications les plus prometteuses en éducation. Ce serait d’ailleurs l’application des SIAg que les personnes enseignantes sont les plus prêtes à adopter (Lepage, 2024), bien qu’elles l’aient peu fait jusqu’à présent. Par ailleurs, cette utilisation des SIAg est aussi moins risquée sur le plan éthique car les SIAg s’adressent à des personnes expertes qui peuvent valider la pertinence des suggestions des SIAg. Par exemple, Karpouzis et coll. (2024) ont développé un agent intelligent qui assiste les enseignant·e·s dans la préparation de leçons. Poellhuber et al. (2024) ont développé un assistant pédagogique intelligent pour assister le nouveau personnel enseignant dans la préparation de leurs plans de cours. Plusieurs produits commerciaux voient le jour dans cette perspective. Par ailleurs, les écrits récents sur l’analytique de l’apprentissage (AA, learning analytics) suggèrent maintenant l’intégration de SIAg comme systèmes de feedback pour accompagner les étudiant·e·s et les guider vers les actions pertinentes dans leurs cours. L’idée d’utiliser les traces de l’AA pour alimenter la réingénierie pédagogique des cours (Mangaroska & Giannakos, 2018) pourrait être alimentée par les données d’interactions entre les SIAg et les étudiant·e·s dans les systèmes de tableaux de bord (Yan et al., 2024). Dans le domaine de l’apprentissage, l’intelligence hybride peut se traduire par la conception de dispositifs d’enseignement, d’évaluation, de suivi, d’assistance et de tutorat qui vont s’appuyer sur la collaboration entre humains et SIAg. S’inscrivant pleinement dans le courant des technologies positives pour l’apprentissage (Botella et al., 2012 ; Molinari et al. 2021 ; Riva et al., 2012 ; Sanders, 2011), les SIAg pourraient notamment conforter les feed-back soutenant l’expérience optimale d’apprentissage (Heutte, 2021 ; Peifer et al. 2022). Les SIAg présentent des opportunités nombreuses pour assister les personnes étudiantes dans leur apprentissage ; assistance à l’étude ou à la compréhension de notions difficiles, préparation, révision ou traduction de textes, codage, etc. (Poellhuber et al., 2024), sans compter les possibilités de personnalisation de l’apprentissage, qui évoque l’idée de développer des tuteurs intelligents adaptatifs avec d’autres techniques que celles utilisées historiquement pour le faire, ou du moins, en les revisitant. Les risques éthiques d’utilisation des SIAg avec les étudiant·e·s sont cependant plus conséquents. Comment éviter les confabulations et les réponses trop créatives alors que la recherche d’information est la première utilisation des enseignant·e·s et des étudiant·e·s (Poellhuber et al., 2024) ? Comment permettre à des novices de juger de la pertinence des réponses ou de suggestions des SIAg ? La réponse à ces questions pourrait passer par la configuration technique de ces SIAg, comme le recours à des techniques de rédactique avancée, d’autres de type « chain of thought », qui visent globalement à faire passer les requêtes et les réponses par une base documentaire valide, qui aura été chunkée, toxenisée et indexée dans une base de donnée vectorielle, ou encore en recourant à une approche multi-agents, par exemple à un agent de recherche web pour valider que les réponses citent de véritables sites web existants. Plus spécifiquement dans les situations d’apprentissage collectif, les SIA peuvent jouer le rôle de coéquipiers avec des tâches facilement automatisables comme l’analyse de données et la production de synthèses et/ou le rôle de coachs avec des missions comme susciter la confrontation d’idées ou encourager la régulation au sein du groupe. Par exemple, dans une activité de brainstorming, les SIAg pourrait accroître la divergence des idées (Jorczak, 2011) en permettant aux étudiant·e·s d’explorer plusieurs perspectives ce qui pourrait avoir un impact positif sur l’apprentissage (Cress et Kimmerle, 2023). Les résultats de la recherche menée par Kim et al. (2024) nuancent néanmoins cet enthousiasme. Les chercheurs ont comparé les dynamiques interactionnelles de groupes ayant utilisé un agent conversationnel à celles de groupes ne l’ayant pas fait, et ont montré que l’intégration du SIA dans la collaboration a diminué le nombre d’interactions productives entre les étudiant·e·s, un facteur pourtant clé dans l’apprentissage collaboratif. |
Objectifs du symposium
Ce symposium sera organisé en co-modalité (en présence et en ligne).
Il présentera plusieurs SIAg qui donneront l’occasion de penser la notion d’intelligence hybride dans le contexte de l’apprentissage. Nous nous questionnerons ainsi sur la façon de concevoir des systèmes d’intelligence artificielle pour l’apprentissage humain (SIAAH) dans l’objectif de promouvoir « une relation synergique entre les capacités cognitives humaines et l’intelligence artificielle » (Nguyen et al., 2024, p. 244). Nous interrogerons les pistes qui permettent d’atténuer certains des risques éthiques dont ceux relatifs à la perte de compétences (deskilling).
Cette proposition de symposium s'inscrit dans le cadre des activités du consortium international de chercheurs et chercheuses rattachés au LAVIA, un laboratoire vivant sur les technologies d'apprentissage innovantes en enseignement supérieur, dirigé par Bruno Poellhuber et financé par le Conseil canadien de la recherche en sciences humaines (CRSH), ainsi que par la Fondation canadienne de l’innovation (FCI).
Ce symposium se déroulera en deux temps :
- La présentation de différents SIAg soutenant l’enseignement ou l’apprentissage individuel ou collectif, et leur mise en perspective à travers le prisme de la notion d’intelligence hybride ;
- Une initiation à la rédactique avancée (prompt engineering) et à la génération augmentée par récupération (retrieval-augmented generation ou RAG), via un atelier pratique.
Plusieurs perspectives pourront émerger de ce symposium dont une réflexion collective sur la façon dont le domaine des EIAH peut guider cette transformation technologique vers un futur souhaitable en matière d’éducation.
Les étapes du symposium
4 présentations suivies d'un atelier pratique
- Gaëlle Molinari (TECFA, FPSE, Université de Genève, Suisse) discutera de l'impact des SIAg sur les compétences humaines et présentera la notion d'intelligence hybride.
- Faustine Wawak, Marjolaine Chagrot, Anthony Cherbonnier et Jean Heutte (Equipe Trigone-CIREL, Université de Lille, France) présenteront une proposition de scénario (1ère piste) pour le développement d'un SIAg destiné à soutenir l'expérience optimale d’apprentissage en groupe, en contexte de résolution collaborative de problèmes, notamment via la surveillance métacognitive.
- Michel Desmarais (École Polytechnique de Montréal, Canada) présentera les enseignements tirés de deux expériences avec des SIAg. Une première avec un assistant pédagogique pour l’élaboration de plan de cours et une seconde avec un tuteur intelligent en biologie. La présentation focalisera sur l’approche de développement et les techniques utilisées pour améliorer les systèmes.
- Daniela Rotelli (Équipe MOCAH, LIP6, Université Paris Sorbonne, France) présentera les bases du développement d’un tableau de bord où les étudiant·e·s bénéficieront du soutien d’un SIAg. À partir des traces dans l’environnement Moodle et de l’analyse des interactions avec le SIAg dans une perspective de learning analytics, le SIAg alimentera la réingénierie pédagogique des cours.
- Bruno Poellhuber (Université de Montréal, Canada) animera une activité "travaux pratiques" visant à l’initiation à différentes techniques permettant de pallier certains des défis identifiés plus haut, notamment la rédactique avancée et le RAG, le tout dans une infrastructure AWS Bedrock opérée localement. Dans ce contexte, les participants seront invités à venir avec une idée claire d’un projet de chatbot à développer (en identifiant clairement le public cible, le besoin auquel le chatbot doit répondre, en ayant réfléchi à un petit scénario d’interaction et en ayant réfléchi aux instructions de rédactique à donner). Dans cette perspective, ils sont invités à amener avec eux des documents pertinents comme base de validation du projet pour le RAG, idéalement libres de droits ou pour lesquels ils détiennent ces droits.
Références
- Botella, C., Riva, G., Gaggioli, A., Wiederhold, B. K., Alcaniz, M. et Banos, R. M. (2012). The present and future of positive technologies. Cyberpsychology, Behavior, and Social Networking, 15(2), 78-84.
- Heutte J. (2021). L’expérience autotélique dans les EIAH : genèse socio-historique, épistémologique et critique de l’émergence des technologies positives pour l’apprentissage. Sciences et Technologies de l´Information et de la Communication pour l´Éducation et la Formation (STICEF) 28 (2), 27-60.
- Järvelä, S., Zhao, G., Nguyen, A., & Chen, H. Hybrid intelligence: Human–AI coevolution and learning. British Journal of Educational Technology.
- Jorczak, R. L. (2011). An information processing perspective on divergence and convergence in collaborative learning. International Journal of Computer-Supported Collaborative Learning, 6, 207-221.
- Kim, H. K., Nayak, S., Roknaldin, A., Zhang, X., Twyman, M., & Lu, S. (2024). Exploring the Impact of ChatGPT on Student Interactions. Computer-Supported Collaborative Learning. arXiv preprint arXiv:2403.07082.
- Mangaroska, K., & Giannakos, M. (2018). Learning analytics for learning design: A systematic literature review of analytics-driven design to enhance learning. IEEE Transactions on Learning Technologies, 12(4), 516-534.
- Molinari, G., Fenouillet, F., Lavoué, E. (2021). Les technologies positives pour l'apprentissage. Sciences et Technologies de l´Information et de la Communication pour l´Éducation et la Formation (STICEF) 28 (2), 1-21.
- Nguyen, A., Ilesanmi, F., Dang, B., Vuorenmaa, E., & Järvelä, S. (2024). Hybrid Intelligence in Academic Writing: Examining Self-Regulated Learning Patterns in an AI-Assisted Writing Task. In HHAI 2024: Hybrid Human AI Systems for the Social Good (pp. 241-254). IOS Press.
- Peifer, C., Wolters, G., Harmat, L., Heutte, J., Tan, J., et al. (2022). A Scoping Review of Flow Research, Frontiers in Psychology, section Positive Psychology, 12, 201-227, https://doi.org/10.3389/fpsyg.2022.815665
- Poellhuber, B., Marquis, C., Roy, N et M. Linck (2024, avril). ChatGPT au postseconaire: perceptions et usages. Présentation dans le cadre des webinaires de l’AQPC, le 18 avril 2024.
- Poellhuber, B., Desmarais, M. et F. Ronzon (2024). La conception et la mise à l’essai d’un agent intelligent assistant la conception de plans de cours. Présentation dans le cadre du symposium L'intelligence artificielle en éducation : transformations de l’agir professionnel et perspectives pratiques, colloque du CRIFPE, Genève, décembfre 2024.
- Poellhuber, B., Roy, N. et A. Lepage (2024). Artificial Intelligence in Higher Education: Opportunities, Issues and Challenges, in J.L. Denis, C. Régis, A. Kishimoto, & M. Axente (éd.) Human-Centered AI: Multidisciplinary Perspectives for Policy-Makers, Auditors and Users, Taylor and Francis
- Rafner, J., Dellermann, D., Hjorth, A., Verasztó, D., Kampf, C., Mackay, W., & Sherson, J. (2022). Deskilling, upskilling, and reskilling: a case for hybrid intelligence. Morals & Machines, 1(2), 24-39.
- Reinmann, G. (2023). Deskilling durch Künstliche Intelligenz? Potenzielle Kompetenzverluste als Herausforderung für die Hochschuldidaktik (Deskilling through AI” Potential loss of competencies as challenge for HE didactics)'. Diskussionspapier Nr. 25.
- Riva, G., Baños, R.-M., Botella, C., Wiederhold, B.-K., Gaggioli, A. (2012) Positive technology: using interactive technologies to promote positive functioning. Cyberpsychology, behavior and social networking, 15(2), 69-77
- Sander, T. (2011). Positive computing. In: Biswas-Diener R (ed) Positive psychology as social change. Springer, Heidelberg, pp 309–326
- Yan, L., Martinez-Maldonado, R. et Gasevic, D. (2024). Generative Artificial Intelligence in Learning Analytics: Contextualising Opportunities and Challenges through the Learning Analytics Cycle. Dans Proceedings of the 14th Learning Analytics and Knowledge Conference (p. 101‑111). ACM.