Modèle Human-in-the-loop (HITL)
Cet article est en construction: un auteur est en train de le modifier.
En principe, le ou les auteurs en question devraient bientôt présenter une meilleure version.
Introduction
Le modèle Human-in-the-Loop (HITL) est une approche de conception et de fonctionnement des systèmes où l'intervention humaine joue un rôle central. Dans ce modèle, les décisions et actions humaines sont intégrées dans les boucles de feedback des systèmes automatisés ou des processus informatiques, permettant ainsi une interaction directe homme - machine. Le HITL est particulièrement utilisé dans les domaines du machine learning, de la robotique, de la modélisation et de la simulation. Il vise à améliorer la performance, la précision et la sûreté des machines en tirant parti des capacités de jugement et d'adaptation humaines.
Le modèle HITL dans le machine learning (HITL-ML)
La méta-analyse de Mosqueira-Rey et al. (2022), recense les différentes manières d'intégrer les humains dans les modèles (programmes informatiques qui apprennent à partir des données) de machine learning (enseigner aux machines comment apprendre à partir des données) :
Active Learning ou AL (Settles, 2009)
Ce type de machine learning permet d'identifier activement les exemples de données les plus utiles ou informatifs et demande à l'utilisateur humain de les annoter. Ainsi, cela améliore l'efficacité de l'apprentissage du modèle en se concentrant sur les données les plus pertinentes, ce qui est particulièrement utile lorsque l'annotation des données est coûteuse ou chronophage.
Interactive Machine Learning ou IML (Amershi et al., 2014)
Ce type de machine learning implique une collaboration en temps réel entre l'humain et la machine, où les feedbacks humains sont utilisés pour affiner et ajuster les modèles d'apprentissage en continu. Par exemple, si le programme analyse des données complexes, l'humain peut donner des conseils ou corriger les erreurs au fur et à mesure, aidant le programme à s'adapter et à apprendre plus efficacement.
Machine Teaching ou MT (Simard et al. 2017; Ramos et al., 2020)
Le MT fait référence à l'idée d'optimiser le processus d'apprentissage d'une machine en « enseignant » efficacement au modèle d'apprentissage automatique. Ici, plutôt que de laisser le modèle apprendre uniquement à partir de données, des experts humains interviennent pour guider l'apprentissage du programme, en fournissant des exemples instructifs ou en ajustant les paramètres du modèle pour accélérer et améliorer le processus d'apprentissage de la machine.
Le modèle HITL dans l'éducation
Dans le domaine de l'éducation, l'intégration du modèle Human-in-the-Loop offre une approche plus personnalisée et centrée sur l'apprenant, remettant en question la méthode traditionnelle d'enseignement. Comme le souligne Bhutoria (2022), l'IA et ses capacités de machine learning peuvent être utilisées pour adapter l'enseignement aux besoins spécifiques de chaque étudiant, permettant ainsi une personnalisation de l'éducation qui diffère radicalement de l'approche « one size fits all ». Implémenter ce genre de système nécessite une participation active des éducateurs dans le processus décisionnel de l'IA, pour guider et superviser les systèmes éducatifs automatisés, d'où l'intégration du modèle HITL.
Ninaus et Sailer (2022) renforcent cette vision en mettant en évidence l'importance des humains dans la supervision des systèmes d'IA en éducation. Les décisions prises par l'IA devraient être continuellement surveillées et influencées par les enseignants, qui ajusteraient et personnaliseraient l'interaction de l'IA avec les élèves. Ceci optimise les parcours d'apprentissage des modèles pour répondre aux besoins individuels, promouvant ainsi une expérience éducative qui place véritablement l'humain au centre.
Défis
Automation bias
L'un des principaux défis associés au modèle Human-in-the-Loop est l'automation bias, une tendance des utilisateurs humains à surdépendre des systèmes automatisés. Ce phénomène peut conduire à une confiance excessive dans les recommandations ou les décisions automatisées, même en présence d'erreurs évidentes. Pour contrer cela, il est essentiel de former les utilisateurs à développer un esprit critique capable de reconnaître les limites des systèmes automatisés. De plus, Agudo et al. (2024) concluent sur la base de leur recherche qu'une des solutions pour contrer ce genre de biais serait : « rather than having humans supervising AI decisions, a better strategy could be to let humans make the decisions, while using AI tools to provide a second opinion and to alert humans of possible human error that they may detect; and then having a human auditor or a human committee analyzing any potential human-AI discrepancies.»
Exemples
Domaines d'utilisation du modèle HITL
Médical : « A 2018 Stanford study found that AI models performed better with human-in-the-loop inputs and feedback compared to when an AI model worked unsupervised or when human data scientists worked on the same datasets without automated AI-based support.»
Exemples de systèmes ayant intégré le modèle Human-in-the-loop
Références
Bhutoria, A. (2022) Personalized education and artificial intelligence in the United States, China, and India: A systematic review using a human-in-the-loop model. Computers & Education: Artificial Intelligence. https://doi.org/10.1016/j.caeai.2022.100068
Ninaus, M., & Sailer, M. (2022) Closing the loop – The human role in artificial intelligence for education. Frontiers in Psychology, 13, 956798. https://doi.org/10.3389/fpsyg.2022.956798
Mosqueira-Rey, E., Hernández-Pereira, E., Alonso-Ríos, D., et al. (2023) Human-in-the-loop machine learning: a state of the art. Artif Intell Rev 56, 3005–3054. https://doi.org/10.1007/s10462-022-10246-w
Agudo, U., Liberal, K.G., Arrese, M. et al. (2024) The impact of AI errors in a human-in-the-loop process. Cogn. Research 9, 1. https://doi.org/10.1186/s41235-023-00529-3