learning-e
3.8K views | +0 today
Follow
learning-e
veille sur le e-learning
Your new post is loading...
Your new post is loading...
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Santé Mentale - Unifaf déploie une plateforme universitaire de formation à distance sur l'autisme

Après une expérimentation aux résultats concluants, Unifaf (*) s'apprête à déployer PUFADSA au niveau national à compter de la...
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Pourquoi les MOOC ne tiennent pas leurs promesses

Pourquoi les MOOC ne tiennent pas leurs promesses | learning-e | Scoop.it
S’ils ont suscités un grand nombre d’espoirs à leur apparition, les cours en ligne ouverts et massifs peinent à convaincre. Pourtant, l’éducation ne pourra pas faire l’économie de sa transformation numérique. La transformation numérique du secteur de l’éducation se fait attendre. La plupart des initiatives digitales visant à compléter ou à …
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Autour de « l'économie du savoir » : ses composantes, ses dynamiques et ses enjeux

Autour de « l'économie du savoir » : ses composantes, ses dynamiques et ses enjeux | learning-e | Scoop.it
Cette contribution se propose d’éclairer le concept d’économie du savoir à travers une lecture de ses différentes composantes (ou pôles), le plus souvent insérées dans le cadre d’un espace territorial (économie d’agglomération).
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Revue Sticef.org - Un système d’aide à l’analyse des traces des apprenants dans les jeux sérieux

Revue Sticef.org - Un système d’aide à l’analyse des traces des apprenants dans les jeux sérieux | learning-e | Scoop.it
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Google virtualise les travaux pratiques en laboratoire pour améliorer l’apprentissage en ligne –

Google virtualise les travaux pratiques en laboratoire pour améliorer l’apprentissage en ligne – | learning-e | Scoop.it
L'un des défauts du e-learning est qu'il ne permet pas de faire de travaux pratiques pour les disciplines comme la biologie, qui requièrent des locaux et de l'équipement spécialisé. Google et Labster ont fait cause commune pour pallier ce déficit grâce à la réalité virtuelle.
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Revue Sticef.org - Analyse de connaissances perceptivo-gestuelles dans un Système Tutoriel Intelligent

Revue Sticef.org - Analyse de connaissances perceptivo-gestuelles dans un Système Tutoriel Intelligent | learning-e | Scoop.it
Analyse de connaissances perceptivo-gestuelles dans un Système Tutoriel Intelligent   Ben-Manson TOUSSAINT (SITERE, Port-au-Prince), Vanda LUENGO (LIP6, Paris), Francis JAMBON (LIG, Grenoble)   RÉSUMÉ : Pour couvrir toutes les facettes des connaissances multimodales telles que les connaissances perceptivo-gestuelles, divers périphériques sont exploités. Les traces produites par ces derniers fournissent des informations pertinentes sur l’activité de l’apprenant. Cependant elles sont multi-sources et hétérogènes et, de ce fait, difficiles à traiter automatiquement. Pour faciliter leur traitement, il convient de leur fournir une représentation formelle qui reflète l’activité multimodale à laquelle elles sont liées. Cet article décrit notre proposition de formalisation de ce type de traces enregistrées à partir d’un Système Tutoriel Intelligent dédié à la chirurgie orthopédique percutanée, TELEOS. MOTS CLÉS : Connaissances perceptivo-gestuelles, chirurgie orthopédique percutanée, Système Tutoriel Intelligent, TELEOS Analysis of Perceptual-Gestural Knowledge in an Intelligent Tutoring Systems ABSTRACT : To cover the aspects of multimodal knowledge such as perceptual-gestural knowledge, various devices are required. Traces produced by these devices provide rich information and often accurate on learners’ activity. However, those traces are multi-source and heterogeneous and, thus, difficult to process automatically. To foster their treatment, a formal representation that reflects consistent multimodal activity, to which they are linked, is needed. This paper describes our proposal to formalize this type of traces recorded from TELEOS, an Intelligent Tutoring System dedicated to percutaneous orthopedic surgery. KEYWORDS : Perceptual-gestural knowledge, percutaneous orthopedic surgery, Intelligent Tutoring System, TELEOS 1. Introduction Les connaissances perceptivo-gestuelles sont une combinaison de connaissances théoriques, de connaissances perceptuelles et de connaissances motrices liées aux gestes. Dans les systèmes tutoriels intelligents, ces connaissances s’expriment à travers les interactions de l’apprenant avec le système. Ces interactions se composent de perceptions accompagnant les actions et/ou les gestes exécutés. Les perceptions servent de contrôles pour la validation ou les décisions d’exécution de ces actions/gestes. Nous faisons l’hypothèse, dans notre travail, qu’elles fournissent des indications pertinentes sur les informations prises en compte dans les décisions de l’apprenant et de ce fait, ne sont pas négligeables du point de vue de l’analyse du processus d’apprentissage. Ces connaissances sont cependant empiriques et souvent tacites (Vadcard et al., 2009). Par conséquent, elles sont difficiles à capturer et à modéliser. En fait, la capture des connaissances perceptivo-gestuelles dans les environnements d’apprentissage simulés requiert l’exploitation de différents capteurs capables d’enregistrer les différentes modalités des interactions mises en jeu par l’apprenant. Ces capteurs sont des périphériques indépendants qui produisent des traces d’activités hétérogènes. Dans ce travail, nous nous intéressons à la définition d’une méthodologie pour la formalisation de ce type de traces dans l’objectif d’analyser les interactions multimodales de l’apprenant et les connaissances qu’elles sous-tendent. Notre cas d‘étude est TELEOS, un Système Tutoriel Intelligent orienté simulation, dédié à la chirurgie orthopédique percutanée (Luengo et al., 2011a). Les connaissances du domaine de la chirurgie percutanée sont perceptivo-gestuelles (Ceaux et al., 2009), (Mathews et al., 2012) : ce type d’opérations chirurgicales nécessite une coordination mentale entre les connaissances théoriques en anatomie, l’analyse de radiographies en 2D et la manipulation en 3D d’objets réels tels que le trocart et l’outil de radioscopie (fluoroscope), pour pouvoir assurer la trajectoire correcte des outils chirurgicaux vers la zone anatomique ciblée. Nous cherchons à mettre en lumière comment la prise en compte de ces différents aspects de l’activité chirurgicale est pertinente pour l’analyse de l’activité de l’apprenant. La suite de l’article est organisée comme suit : la section 2 présente un état de l’art sur les travaux adressant des domaines faisant intervenir des connaissances multimodales et des travaux exploitant les perceptions à des fins d’analyses de l’apprentissage ; dans la section 3 nous décrivons le domaine, le déroulement d’un type d’opération chirurgicale percutanée, la vertébroplastie, et le caractère perceptivo-gestuel de l’activité du chirurgien au cours de la réalisation de ce type d’opération ; dans la section 4, nous présentons la méthodologie utilisée pour capter les interactions de modalités différentes au cours des simulations de vertébroplastie sur TELEOS ; dans la section 5, nous faisons une présentation détaillée de notre approche pour l’identification d’interactions de différentes modalités liées à une même activité ; dans la section 6, nous soulignons l’importance de prendre en compte les réponses du système aux actions de l’apprenant ; dans la section 7, nous détaillons notre proposition de formalisation d’interactions multi-sources et hétérogènes en séquences perceptivo-gestuelles reflétant les différentes modalités de ces interactions ; nous présentons, dans la section 8, les expérimentations conduites dans le but d’évaluer cette proposition et nous concluons l’article dans la section 9. 2. Etat de l’art La littérature rapporte beaucoup de travaux de recherche sur la conception de systèmes d’apprentissage dédiés à des domaines faisant intervenir des connaissances perceptivo-gestuelles. Nous pouvons citer les travaux réalisés par (Mulgund et al., 1995) sur le pilotage d’hélicoptères, par (Remolina et al., 2004) sur l’aviation et par (Weevers et al., 2003) et (de Winter et al., 2008) sur la conduite automobile. Plus récemment, le Système Tutoriel Intelligent CanadarmTutor a été proposé pour l’entrainement des astronautes de la Station Spatiale Internationale à la manipulation d’un bras articulé robotisé (Fournier-Viger et al., 2011). Cependant, l’emphase est portée, dans ces travaux, sur les actions et les gestes, et non sur les perceptions accompagnant ces derniers. Par exemple, dans CanadarmTutor, la manipulation du bras robotisé d’une configuration à une autre est guidée par des caméras dans différentes scènes d’opération. Les perceptions visuelles intervenant au cours de la manipulation du bras robotisé jouent probablement un rôle important dans le processus et, de ce fait, leur prise en compte dans l’analyse de l’activité de l’apprenant serait pertinente. D’autres travaux ont été conduits sur l’analyse des perceptions en contexte d’apprentissage. Par exemple, les perceptions visuelles sont capturées et analysées pour inférer les performances cognitives de l’apprenant (Steichen et al., 2013) ou pour inférer leurs capacités métacognitives en apprentissage exploratoire (Conati et Merten, 2007). D’autres chercheurs exploitent de préférence les informations perceptuelles collectées pour mesurer la charge mentale de l’apprenant ou leur effort cognitif en situation d’apprentissage (Lach, 2013) ou encore pour inférer leur comportement au cours du processus d’apprentissage (D’Mello et al., 2012), (Mathews et al., 2012). D’autres études font intervenir des capteurs permettant d’enregistrer les postures physiques, les expressions faciales et corporelles dans le but d’analyser des signaux émotionnels de l’apprenant (Ríos et al., 2000). Dans notre travail, nous faisons l’hypothèse que les prises d’informations perceptuelles peuvent dénoter, à l’instar des actions/gestes qu’elles accompagnent, l’état des connaissances de l’apprenant. De ce fait, nous pensons qu’elles doivent être analysées d’un point de vue épistémique. Spécifiquement, pour notre cas d’étude, les experts ont indiqué l’importance des vérifications de points anatomiques précis sur les radios pour accompagner la décision d’exécuter et de valider les gestes chirurgicaux (Ceaux et al., 2009). En d’autres termes, l’objectif de ce travail est de démontrer la pertinence d’analyser les connaissances perceptivo-gestuelles en considérant chacune de leurs caractéristiques multimodales. Nous décrivons dans la section suivante le déroulement d’un type d’opération orthopédique percutanée, la vertébroplastie, et soulignons les différentes modalités de l’activité du chirurgien au cours de cette opération. 3. La vertébroplastie : une opération chirurgicale percutanée 3.1. Déroulement d’une opération de vertébroplastie La vertébroplastie est une opération chirurgicale mini-invasive réalisée pour traiter les fractures des vertèbres par l’injection d’un ciment osseux dans les vertèbres affectées, grâce à un outil d’insertion (le trocart). Cette opération est dite mini-invasive, car effectuée à travers la peau du patient, contrairement aux opérations classiques nécessitant une ouverture. De ce fait, le chirurgien ne dispose pas d’une visibilité directe de la progression de ses outils à travers le corps du patient. Le guidage s’effectue dans ce type d’opération par le biais d’imageries médicales (scanner ou radiographies) qui renvoient au chirurgien les informations sur la trajectoire de ses outils. En vertébroplastie, les images médicales utilisées sont des radiographies générées tout au long de l’opération grâce à un fluoroscope. Une opération de vertébroplastie se réalise en trois grandes phases : - la phase de réglages du fluoroscope, - la phase de repérage cutané, - la phase d’insertion du trocart. La phase de réglages sert à chercher le positionnement du fluoroscope optimisant la qualité des radiographies (de face et de profil) qui vont guider le chirurgien tout au long de l’opération. La phase de repérage cutané consiste à dessiner, sur la peau du patient, les lignes définissant le repère d’insertion adéquat du trocart. Enfin la phase d’insertion est celle où le trocart est manipulé de manière à atteindre la zone anatomique affectée pour y injecter le ciment osseux. 3.2. Le caractère multimodal d’une opération de vertébroplastie L’interprétation des radiographies à des fins de guidage est une habileté cognitive qui requiert la coordination de la représentation en 2D renvoyée par les radiographies, avec la représentation en 3D dans le monde réel. De manière plus précise, la position d’un instrument chirurgical, relativement à l’environnement anatomique sur sa trajectoire, se conçoit sur trois dimensions. Par exemple, le positionnement complet du trocart est fourni par la combinaison de son positionnement sur l’axe antérieur (la profondeur d’insertion du trocart dans le corps du patient), son positionnement sur l’axe transversal (la position de la pointe de l’outil relativement aux limites droite et gauche du corps du patient) et son positionnement sur l’axe longitudinal (la position de la pointe de l’outil relativement à l’axe défini par la tête et les membres inférieurs du patient). Cependant, les radiographies de guidage ne peuvent fournir qu’une représentation sur deux dimensions du positionnement de l’outil : les radiographies de face indiquent le positionnement sur l’axe transversal et l’axe longitudinal, et les radiographies de profil, sur les axes antéro-postérieur et longitudinal. Le positionnement réel de l’outil tout au long de sa trajectoire percutanée ne peut donc se faire que par le couplage d’au moins deux radiographies, soit au moins une radiographie fournissant une vue du point d’entrée du trocart (radiographie de face) et une radiographie fournissant une vue du point de progression du trocart (radiographie de profil) (cf. Figure 1). Figure 1 • Vue « point d’entrée » (radiographie de face) et vue « progression » (radiographie de profil) du trocart Ainsi, le chirurgien valide ses gestes et ses actions sur la base des contrôles visuels de ces radiographies. Ce travail de validation s’effectue par l’analyse du positionnement de l’outil vis-à-vis de certains points anatomiques précis du patient. De ce fait, les perceptions visuelles constituent une facette de l’ensemble des connaissances à maîtriser par le chirurgien. Les connaissances mises en jeu pour la réalisation du geste chirurgical percutané comprennent une autre facette perceptuelle : les perceptions haptiques ressenties sur la trajectoire de l’outil chirurgical dans le corps du patient. Ces perceptions sont les résistances perçues par le chirurgien au contact de son outil avec les différentes parties de la zone anatomique traversée sur sa trajectoire d’insertion. Ces perceptions renvoient des informations sur la progression de l’outil sur la base desquelles le chirurgien adapte aussi son geste, en complément des informations visuelles recueillies à travers les radiographies. Dans la section suivante, nous présentons la méthodologie utilisée pour capturer chacune des modalités des interactions de l’apprenant au cours des simulations de vertébroplastie dans l’environnement d’apprentissage TELEOS. 4. Capture de traces multimodales dans TELEOS Pour pouvoir capter les différentes facettes des interactions mises en jeu au cours d’une simulation de vertébroplastie, deux périphériques sont utilisés en complément de l’interface de simulation qui enregistre les actions ponctuelles de l’apprenant. Il s’agit d’un oculomètre pour tracer le comportement visuel de l’apprenant et d’un bras à retour d’effort pour capter les gestes effectués et les retours haptiques reçus par l’apprenant. 4.1. Les actions ponctuelles Le simulateur enregistre des traces de manière ponctuelle à l’exécution d’une action. Il s’agit des actions liées aux réglages du fluoroscope, au tracé des repères cutanés et à la manipulation du trocart. Le tableau 1 présente un résumé des actions ponctuelles pouvant être exécutées à partir de l’interface du simulateur. Chaque action est traitée comme une photographie de l’environnement de simulation au moment de son exécution. En effet, à chaque occurrence d’une action du simulateur, les coordonnées des positions des différents outils de l’environnement sont enregistrées. De ce fait, une action est caractérisée non seulement par son nom, mais aussi par les positions des outils de l’environnement de simulation au même moment. Tableau 1 • Actions ponctuelles enregistrées à partir de l’interface de simulation Prise de radios Repérage cutané Manipulation du trocart Definir_Face Contrôle_Face Definir_Profil Contrôle_Profil Radio_Face (avec réglette de repérage cutané) Valider_RepèreGauche Valider_RepèreDroit Valider_RepèreTransversal Placer_Trocart Pousser_Trocart Impacter_Trocart Entrée_CorpsVertebral Sortie_CorpsVertebral Sortie_Osseuse Recommencer_Trajectoire Par exemple, tel qu’illustré dans la Figure 2, deux prises de radio de face seront différentes si le positionnement du fluoroscope a changé entre les deux exécutions. Figure 2 • Radiographies de face d’après deux inclinaisons différentes du fluoroscope Chaque action est représentée par une séquence contenant les paramètres suivants : - un code temporel, - le nom de l’action, - les coordonnées (x, y, z) du modèle 3D du patient, - les coordonnées (x, y, z) de la position du fluoroscope en mode face, - les coordonnées (x, y, z) de la position du fluoroscope en mode profil, - les coordonnées (x, y) de l’affichage de la dernière radiographie prise, - les coordonnées (x, y) de l’affichage de la radiographie précédente, - les coordonnées (x, y, z) de la position du fluoroscope, - les coordonnées (x, y, z) de la position de la pointe du trocart, - les coordonnées (x, y, z) de la position de la poignée du trocart, - les coordonnées (x, y, z) (x’, y’, z’) de l’orientation du trocart, - les coordonnées (x, y), (x’, y’), (x”, y”) des 3 repères cutanés. 4.2. Les gestes et perceptions haptiques Le geste chirurgical inclut les types de préhension des outils chirurgicaux, les niveaux de forces appliquées selon l’étape de progression et les inclinaisons, l’orientation et la direction d’insertion des outils (Luengo et al., 2011b). Le recueil des données nécessaires à la modélisation des gestes chirurgicaux pour la vertébroplastie a été réalisé sur des maquettes de patients. L’instrumentation nécessaire (cf. Figure 4) inclut notamment des dynamomètres positionnés dans les maquettes pour pouvoir recueillir les données relatives aux niveaux de force appliqués sur le trocart et à la vitesse de progression de celui-ci à des points de progression importants. Les principaux points de progression considérés pour une vertébroplastie sont le contact cutané, le contact osseux, l’entrée pédiculaire, la traversée du corps vertébral jusqu’au point de validation de la trajectoire du trocart. La configuration du bras haptique a été réalisée sur la base de ces données. Le matériel utilisé dans l’environnement TELEOS est un Sensable Phantom Omni qui fournit six degrés de liberté avec un retour d’effort sur les trois axes de translation – cf. Figure 3 (iii). Les résistances configurables sur cet appareil sont relativement faibles, mais suffisantes pour simuler des variations de densité du corps humain et des vertèbres sur la trajectoire des outils chirurgicaux (Luengo et al., 2011a). Les traces provenant de cet appareil sont enregistrées en continu toutes les 100 millisecondes. Chaque trace contient les paramètres suivants : - un code temporel, - les coordonnées (x, y, z) de la position de la pointe du trocart, - les coordonnées (x, y, z) de la position du manche du trocart, - les coordonnées (x, y, z) (x’, y’, z’) de l’orientation du trocart, - la vitesse de manipulation du trocart, - la force appliquée sur le trocart. Les paramètres d’orientation, de vitesse et de force sont les résultats d’un traitement préliminaire des traces haptiques (Luengo et al., 2011a). Figure 3 • (i), (ii) Instrumentations pour le recueil des données gestuelles et haptiques relatives à la manipulation du trocart. (iii) Bras haptique et dispositif matériel dans l’environnement de simulation 4.3. Les perceptions visuelles L’interface de simulation est divisée en plusieurs zones d’intérêt (cf. Figure 4) : la zone d’affichage du modèle 3D du patient ; les zones d’affichage des radiographies précédentes et courantes ; le tableau de réglages principal. Ce dernier comprend trois sous-sections : le tableau de réglages de l’appareil de radioscopie ou fluoroscope, le tableau de manipulation de la réglette pour le marquage de repères cutanés destinés à cibler l’os affecté, le tableau de manipulation de l’outil de guidage des instruments chirurgicaux ou trocart. Figure 4 • L’interface du simulateur TELEOS Figure 5 • Identification et annotation des points d’intérêt des vertèbres Figure 6 • Codes des zones et points d’intérêt enregistrés au cours des simulations de vertébroplastie La zone d’intérêt associée à l’affichage de la radiographie courante comporte plusieurs points d’intérêt devant être pris en compte sur la vertèbre pour la validation de la trajectoire d’insertion du trocart. Les points d’intérêt de la vertèbre cible ont été désignés par un chirurgien expert pour chaque cas clinique modélisé et intégré dans la base d’exercices du simulateur. Tel qu’illustré dans la Figure 5, leur identification est effectuée à partir des coupes en deux dimensions du scanner de la colonne vertébrale du patient. Les coordonnées de ces points sont enregistrées dans les métadonnées du cas clinique. Lorsque celui-ci est sélectionné comme exercice, les points enregistrés sont projetés sur les radiographies produites par l’apprenant. Les zones et points d’intérêt de l’interface et de la vertèbre sont illustrés dans la Figure 6. Un outil d’analyse des perceptions visuelles intégré au simulateur permet d’analyser le parcours visuel de l’apprenant (Jambon et Luengo, 2012). Il enregistre les coordonnées des perceptions, les zones et points d’intérêt visualisés ainsi que la durée des visualisations. La Figure 7 illustre un parcours visuel (traces en bleu) à travers certaines zones d’intérêt de l’interface et certains points d’intérêt à l’intérieur de ces zones. Dans cet exemple, le chirurgien débute son exploration de l’interface en visualisant la position du trocart dans la zone 3D (en haut à gauche), puis parcourt certains repères anatomiques sur la dernière radiographie de profil effectuée (en haut à droite). Il s’intéresse ensuite aux repères anatomiques affichés sur la précédente radiographie de face (en bas à droite). Enfin, il termine son parcours visuel par la zone de réglage du fluoroscope (en bas à gauche) avant d’y exécuter la prochaine action. Figure 7 • Zones (en vert) et points (en jaune) d’intérêt de l’interface et parcours visuel de l’apprenant sous forme de données brutes (en gris) et perceptions (en bleu) Pour chaque trace de l’oculomètre, les enregistrements rapportent les paramètres suivants : - un code temporel, - le nom de la zone et/ou des points d’intérêt fixés, - les coordonnées (x, y) de la perception, - le rayon de la perception, - la durée de la perception. 4.4. Hétérogénéité des traces Chaque source enregistrant les interactions de l’apprenant séparément et indépendamment des autres périphériques, l’ensemble des traces obtenues est hétérogène. Cette hétérogénéité se retrouve à plusieurs niveaux. Tout d’abord, les traces sont hétérogènes au niveau du type de leur contenu : les traces envoyées par l’interface du simulateur et les traces de l’oculomètre sont alphanumériques alors que celles envoyées par le bras haptique sont numériques. Elles sont aussi hétérogènes au niveau du format de leur contenu. En effet, chaque trace du logiciel de simulation compte 54 paramètres, celles provenant du bras haptique comptent 15 paramètres et celles provenant de l’oculomètre, 7 paramètres distincts. Enfin, les traces des différentes sources se distinguent au niveau de leur granularité temporelle. Les traces oculométriques sont envoyées et enregistrées en continu toutes les 30 millisecondes ; celles du bras haptique sont aussi envoyées et enregistrées en continu, mais à un intervalle de 100 millisecondes, tandis que celles du simulateur sont discrètes : elles sont produites et enregistrées de manière ponctuelle à l’exécution d’une action. Le principal verrou technique à soulever à ce niveau est de fusionner ces traces de manière à les représenter sous forme de séquences cohérentes. Il s’agit de lier chaque action ou geste aux perceptions qui ont accompagné son exécution. Le verrou scientifique connexe consistera à valider la cohérence de cette représentation relativement à la connaissance multimodale qu’elle est censée traduire. 5. Jonction entre actions, gestes et perceptions Le premier défi de la représentation des traces consiste à identifier les traces de chaque source représentant un aspect de la même interaction. En d’autres termes, il faut parvenir à relier actions, perceptions et gestes exécutés dans le but d’atteindre un même objectif. Pour illustrer par un exemple simple en chirurgie orthopédique percutanée, une prise de radiographie de profil, jointe à la perception de la position de l’épineuse de la vertèbre affectée et à une inclinaison puis un déplacement du trocart sur l’axe postéro-antérieur, permet d’inférer un élément de connaissance relatif au démarrage de la trajectoire d’insertion du trocart. Nous faisons l’hypothèse que les perceptions visuelles sont exploitées comme support pour valider ou vérifier l’exécution d’une action ou la réalisation d’un geste, et que les perceptions haptiques sont exploitées comme support d’adaptation du geste. Il existe, de ce point de vue, plusieurs combinaisons possibles entre les différentes modalités de l’interaction. Nous distinguons ainsi des interactions perceptivo-gestuelles de type « contrôle a priori », « contrôle a posteriori » ou « mixte ». 5.1. Interaction perceptivo-gestuelle de type « contrôle a priori » Une interaction perceptivo-gestuelle de type contrôle a priori fait référence à une interaction multimodale plaçant les contrôles perceptuels avant les actions ou les gestes. Pour illustrer par un exemple simple en chirurgie, le chirurgien vérifie le positionnement du trocart sur les radiographies de face et de profil avant d’amener l’outil au contact de la vertèbre ciblée. Dans ce cas de figure, l’interaction perceptivo-gestuelle est représentée par des items de modalités perceptuelles suivis des items d’action ou de geste. Ce type de perception peut être relatif à une validation avant une action. 5.2. Interaction perceptivo-gestuelle de type « contrôle a posteriori » Une interaction perceptivo-gestuelle est de type « contrôle a posteriori » lorsque les items de modalités perceptuelles se placent après les actions et les gestes. En d’autres termes, les prises d’informations perceptuelles sont réalisées systématiquement après l’exécution des actions et gestes qu’elles accompagnent. Par exemple, une interaction perceptivo-gestuelle de type « contrôle a posteriori » est observée si le chirurgien insère le trocart puis vérifie son positionnement par rapport à la trajectoire prévue sur les radiographies. 5.3. Interaction perceptivo-gestuelle de type « mixte » Une interaction perceptivo-gestuelle de type mixte désigne une interaction où les occurrences des items de différentes modalités sont simultanées. Il s’agit d’une interaction au cours de laquelle les prises d’informations perceptuelles s’effectuent dans le continuum d’un même geste ou en même temps qu’une action. Pour reprendre notre exemple, il s’agirait pour le chirurgien de procéder à une manipulation continue du trocart tout en vérifiant sa progression sur les radiographies prises. 5.4. Différenciation des perceptions Toutes les perceptions ne sous-tendent pas les mêmes objectifs et ne mobilisent pas les mêmes ressources cognitives de l’apprenant. En chirurgie orthopédique percutanée, les perceptions visuelles requièrent du chirurgien la capacité mentale à coordonner les images radio en deux dimensions pour pouvoir se représenter de manière précise la position de ses outils par rapport aux zones anatomiques traversées. Pour leur part, les perceptions haptiques donnent une information moins précise sur la position des outils, mais moins difficile à interpréter quant à la texture de la région anatomique traversée par les outils. Certaines perceptions visent une analyse précise de l’environnement alors que d’autres visent simplement une prise d’informations sur l’état de l’environnement. Par exemple, la visualisation de certains points précis d’une vertèbre sur une radio peut révéler une analyse de la validité du point d’insertion du trocart alors qu’une pression sur l’outil peut constituer une simple sollicitation d’un retour haptique dont le but est d’informer le chirurgien sur la rigidité de la zone anatomique traversée. Dans le cadre de ce travail, nous nous intéressons spécifiquement à la distinction des perceptions visuelles, sous l’hypothèse qu’elles permettent d’inférer avec plus de précision les intentions de l’apprenant ou, d’une manière générale, sa stratégie. Nous proposons de concevoir cette distinction sous deux grandes catégories : les perceptions visuelles de contrôle et les perceptions d’exploration. 5.4.1. Les perceptions visuelles de contrôle Les perceptions visuelles de contrôle sous-tendent une activité cognitive dont le but est d’analyser l’environnement en mobilisant des connaissances précises. Cela rejoint le concept de contrôle du modèle cK¢ (Balacheff, 2013) en l’adaptant aux connaissances perceptivo-gestuelles. Au-delà d’une simple prise d’information visuelle, leur rôle est d’évaluer les actions exécutées. Par exemple, en vertébroplastie, la vérification du positionnement de l’épineuse pour décider du centrage de la vertèbre ciblée repose sur des perceptions de contrôle. En aviation, la lecture des indicateurs d’altitude, de variation d’altitude et de puissance du moteur au cours de la préparation à l’atterrissage repose aussi sur des perceptions de contrôle. Ces perceptions ciblent les points précis de l’environnement qui rendent compte des conséquences des actions ou gestes exécutés et donc des connaissances relatives à ces actions ou gestes. 5.4.2. Les perceptions visuelles d’exploration Les perceptions visuelles dites d’exploration se limitent à une prise d’information sur l’état de l’environnement sans rapport aux connaissances (ici, perceptivo-gestuelles), mais plutôt relatives à la compréhension de l’environnement dans lequel les actions et gestes seront réalisés. Elles sont traduites par des visualisations moins précises que les perceptions de contrôle. Elles ciblent les éléments de l’environnement permettant d’agir sur celui-ci, c’est-à-dire les éléments de l’interface liés à l’exécution des actions telle que la manette de manipulation de l’outil de radioscopie en chirurgie percutanée. Par exemple, dans l’interface de TELEOS (cf. Figure 7), la visualisation dans la zone de réglage du fluoroscope (en bas à gauche) permet d’explorer le rapport entre ces outils de l’interface et le positionnement du fluoroscope. 6. Les « interactions » du système Nous désignons par interactions du système les interactions ne venant pas directement de l’activité de l’apprenant sur l’interface, mais ayant un rapport direct avec celle-ci. En d’autres termes, il s’agit des réactions du système aux actions de l’apprenant. Pour illustrer, prenons l’exemple d’un STI où l’apprenant peut solliciter l’aide du système au cours de la résolution d’un problème. Il peut être pertinent de considérer le contenu et la forme de l’aide envoyée, dans la mesure où la façon dont ces réactions sont prises en compte et exploitées dans l’apprentissage peut avoir une forte corrélation avec les performances de l’apprenant (Paquette et al., 2012). Dans notre cas d’étude, les interactions système considérées sont l’état de la simulation et les résultats du diagnostic de l’apprenant. 6.1. L’état de la simulation L’état de la simulation désigne spécifiquement les positionnements de tous les artefacts de l’environnement de simulation à l’exécution d’une action (Guéraud et al., 1999). Il rend compte de la manière dont l’exécution d’une action affecte l’environnement. Avant l’exécution d’une action, l’état de la simulation est une information exploitée par l’apprenant pour prendre sa décision ; après l’exécution de l’action, l’état de la simulation traduit les conséquences de celle-ci sur l’environnement. L’objectif est non seulement de tracer les conséquences des actions de l’apprenant sur l’environnement d’apprentissage, mais aussi la manière dont cette action a été exécutée. Cette information peut être discrète (par ex. : « Le trocart a une inclinaison caudale »), ou continue (par ex. : « Le trocart est incliné rapidement dans l’axe céphalo-caudal »). L’état de la simulation n’est pas directement tracé par le système, mais résulte d’un traitement dont l’objectif est d’effectuer une « photographie » de l’environnement d’apprentissage à la suite d’interactions directes de l’apprenant. La prise en compte de l’état de la simulation dans les séquences vise à rendre compte de l’ensemble des informations qui sous-tendent les décisions de l’apprenant. Partant du principe que ces décisions ne sont pas restreintes par une marche à suivre prédéfinie, par exemple avec des règles de production, nous faisons l’hypothèse que l’état de la simulation apporte des précisions supplémentaires non négligeables dans l’analyse de l’activité de l’apprenant. 6.2. Evaluation de l’activité de l’apprenant Nous voulons procéder à des traitements automatiques sur les séquences d’interactions des apprenants en prenant en compte des évaluations de leur activité produites à partir de règles expertes (Amershi et Conati, 2007), (Beck, 2007). Les évaluations à partir de règles expertes considérées dans ce travail sont appelées des « variables de situation » calculées par le module « modèle de l’apprenant » (Chieu et al., 2010). Nous considérons les variables de situation comme des interactions du système, car elles constituent des réactions du simulateur directement liées à l’activité de l’apprenant. À titre d’illustration, les évaluations d’une radiographie prise par l’apprenant peuvent être les suivantes : « Le centrage de la vertèbre sur la radiographie de face est correcte. La visibilité des disques vertébraux sur la radiographie de face est incorrecte ». Ces évaluations sont directement liées au positionnement du fluoroscope choisi par l’apprenant pour générer les radiographies qui vont le guider au cours de l’opération. 7. Formalisation des séquences perceptivo-gestuelles Nous décrivons ci-dessous la représentation conceptuelle proposée pour les séquences perceptivo-gestuelles sur la base des caractéristiques décrites dans les sections 5 et 6. Nous faisons une distinction entre séquences perceptivo-gestuelles et séquences perceptivo-gestuelles enrichies. Les séquences perceptivo-gestuelles représentent les interactions impliquant des actions et/ou des gestes et les perceptions accompagnant ceux-ci. Les séquences perceptivo-gestuelles enrichies comportent, en complément des actions/gestes et perceptions, des informations sur l’état de la simulation et des informations sur les évaluations de l’activité de l’apprenant (voir section 6 « Les interactions du système »). 7.1. Séquences perceptivo-gestuelles Définition 1 (séquence perceptivo-gestuelle). Une séquence perceptivo-gestuelle est une liste d’itemsets S, telle que : S : < Ai | Gj ; Pk > Avec : - A : les actions enregistrées dans la séquence ; - G : les gestes enregistrés dans la séquence ; - : une séquence perceptivo-gestuelle comprend au moins une action ou un geste ; - i : les paramètres des actions ; - j : les paramètres des gestes ; - P : les perceptions accompagnant les actions et gestes ; - k : les paramètres des perceptions. Un itemset est un ensemble d’items cooccurrents (Agrawal et Srikant, 1994). Dans notre représentation d’une séquence perceptivo-gestuelle, les points-virgules délimitent les itemsets sur la base de leurs occurrences. « A | G » (A ou G) indique qu’une séquence perceptivo-gestuelle inclut des items d’actions ponctuelles ou de gestes. La Figure 8 illustre par un exemple la représentation d’une séquence perceptivo-gestuelle. Cette séquence rapporte l’exécution de l’action « Impacter_trocart ». Celle-ci traduit l’action du chirurgien d’amener le trocart au contact de la vertèbre au niveau du point d’entrée ciblé. Dans cet exemple, seule l’action ponctuelle (A) est prise en compte, et non ses paramètres (i). Le geste rapporté dans la séquence informe que le trocart a été enfoncé (trocart_translation_antérieure), avec un déplacement vers le côté droit du patient (trocart_translation_droite), dans la direction de ses membres inférieurs (trocart_translation_caudale). Les parenthèses indiquent que ces trois items sont co-occurrents. Dans notre cas d’étude, les gestes sont déduits de la variation des coordonnées du bras haptique traduite selon le système de référence en anatomie (Toussaint et al., 2015b). Les paramètres des perceptions visuelles rapportent les zones d’intérêt de l’interface qui ont été analysées. Par exemple, O_outil_vue3D fait référence à une vérification du positionnement du trocart sur le modèle en 3 dimensions du patient et O_manipReglage_1, à une visualisation du panel de réglage du fluoroscope. Le suffixe « _1 » précise que la visualisation de cette zone a duré moins de 1 000 millisecondes. Figure 8 • Représentation d’une séquence perceptivo-gestuelle 7.2. Séquences perceptivo-gestuelles enrichies Définition 2 (séquence perceptivo-gestuelle enrichie). Une séquence perceptivo-gestuelle enrichie est une liste Se de séquences, telle que : Se: < (Si ; Ʈi) ; (Ѵq(υr))> Avec : - Si : les séquences perceptivo-gestuelles composant la séquence enrichie ; - Ʈj : les états de la simulation enregistrés dans Si ; - Ѵq : des variables d’évaluation à partir de règles expertes ou « variables de situation » évaluant les séquences Si ; - υr: les valeurs des variables d’évaluation. La Figure 9 illustre la représentation formelle décrite dans la Définition 2, par un exemple de notre cas d’étude. Figure 9 • Représentation d’une séquence perceptivo-gestuelle enrichie La séquence illustrée ci-dessus représente une action de prise de radio de face suivie par le traçage des repères cutanés. Pour rappel, les repères cutanés servent à marquer le point d’entrée du trocart sur la peau du patient. L’item sur l’état de la simulation, AmpliFace_inclinaison_craniale, précise que l’appareil de radioscopie est incliné vers la tête du patient. Les états de la simulation sont déduits de la sémantisation des paramètres des actions ponctuelles. En effet, lorsqu’une action ponctuelle, telle que « Definir_Face » est exécutée, le simulateur prend une « photographie » de l’interface de simulation. En d’autres mots, le simulateur capte les coordonnées de tous les outils de l’interface au moment de l’exécution de l’action et les enregistre, dans les traces brutes, comme les paramètres de cette action. Ensuite, ces traces sont analysées pour donner du sens vis-à-vis du problème. Enfin, les évaluations contenues dans chaque séquence perceptivo-gestuelle enrichie indiquent la conformité de cette action au regard d’un ensemble de règles expertes. Dans notre exemple, l’affichage de la radio prise lors de l’exécution de l’action « Définir_Face » est évaluée par trois variables. RF_centrageVertebre-correct rapporte que le centrage de la vertèbre ciblée sur la radio de face est correct, alors que RF_disquesVisibles-incorrect indique que la visibilité des disques des vertèbres affichées sur la radio est incorrecte ; et RF_symetriePedicEpineuse-incorrect, que la symétrie de l’épineuse par rapport aux pédicules de la vertèbre ciblée est incorrecte. 8. Réification du modèle de représentation des séquences perceptivo-gestuelles Pour réifier le modèle décrit dans la section précédente, nous avons développé le framework PeTRA (PErceptual-gestural TRAces treatment framework) (Toussaint et al., 2015b). PeTRA offre un ensemble d’outils permettant, d’une part, de représenter des traces multi-sources hétérogènes en séquences perceptivo-gestuelles et, d’autre part, de procéder à des analyses de l’apprentissage et à l’extraction de motifs de connaissances fréquents sur la base de ces séquences. Le framework est développé sous la forme d’un processus exploitant une chaîne de logiciels ; ces logiciels sont des outils à fonction unique que nous appelons des « opérateurs » (Mandran et al., 2015). Cette structure, schématisée dans la Figure 10, a été choisie dans un souci de rendre le processus flexible et évolutif. En effet, cette structure facilite les manipulations qui consistent à écarter au besoin les opérateurs jugés non pertinents pour les objectifs de traitement visés, à agencer les opérateurs que l’on veut exploiter et à en intégrer de nouveaux si nécessaire. Dans cet article, nous nous concentrons sur les opérateurs de fusion, de sémantisation et d’annotation. Ces opérateurs font partie de la phase « Transformation de traces » du processus de traitement. Ce sont les principaux opérateurs permettant de transformer les traces brutes multi-sources de notre cas d’étude en séquences perceptivo-gestuelles et séquences perceptivo-gestuelles enrichies. L’ensemble du framework et les opérateurs qui le composent sont décrits in extenso dans (Toussaint, chap. 7, 2015). Figure 10 • Schéma du framework PeTRA 8.1. L’opérateur de fusion L’opérateur de fusion ou « fusionneur » a pour rôle de synchroniser les traces multi-sources se référant à une interaction multimodale, sur la base de leur correspondance séquentielle. L’objectif est de lier les actions et gestes aux perceptions qui les accompagnent sans perdre la séquentialité des occurrences des différentes modalités. L’opération de fusion est réalisée en deux phases. Dans un premier temps, les traces des différentes sources sont jointes dans un même ensemble et ordonnées séquentiellement. Dans un deuxième temps, l’opérateur fusionne les actions, les gestes et les perceptions sur la base de la configuration de fusion choisie. En fonction du domaine, ou de l’analyse didactique ou pédagogique ciblée, la configuration de fusion entre les traces perceptuelles et une action ou un geste peut être établie sur la base d’un lien de type « contrôle a priori », de type contrôle « a posteriori » ou bien « mixte » (voir section 5 « Jonction entre actions, gestes et perceptions »). En d’autres termes, les perceptions seront considérées comme liées à une action (ou à un geste) si elles précèdent, suivent ou bien sont simultanées à cette action (ou ce geste). Dans notre cas d’étude, chaque action exécutée à partir de l’interface du simulateur TELEOS est associée à plusieurs traces de l’oculomètre et du bras haptique. Les interactions sont considérées de type « contrôle a posteriori » (voir section 5). Par exemple, si l’interne cherche à positionner le trocart, l’action Placer_Trocart va être envoyée par le simulateur. Les différentes manipulations (déplacements, force, vitesse) destinées à placer l’outil dans la position et l’inclinaison idoines sont enregistrées par le bras haptique. Les points visualisés sur la radiographie prise et sur le modèle 3D sont enregistrés par l’oculomètre. Plusieurs points de fixation et plusieurs gestes correspondent donc à une occurrence de l’action Placer_Trocart. 8.2. L’opérateur de sémantisation L’opérateur de sémantisation ou « sémantisateur » a été implémenté dans l’optique de traduire les coordonnées brutes des objets de l’environnement de simulation en dénominations sémantiques. Dans notre cas d’étude, les traces ne rapportent que les nouvelles coordonnées des positions des outils quand ceux-ci sont manipulés. Pour caractériser les changements résultant de ces manipulations, l’opérateur de sémantisation prend en entrée les traces fusionnées dans l’étape précédente et la liste des dénominations sémantiques correspondant aux différents changements de coordonnées possibles pour chaque objet de l’environnement. Les dénominations sémantiques utilisées sont tirées du système de référence en anatomie illustré dans la Figure 11. Figure 11 • Qualificatifs d’orientation et de mouvement dans le système de référence en anatomie L’opérateur utilise les coordonnées de la séquence courante rapportant les nouvelles positions des outils, et les coordonnées de la séquence précédente par rapport auxquelles le changement effectué sera caractérisé. Les séquences produites à cette étape traduisent, non seulement les conséquences de la manipulation des outils sur leur positionnement, mais aussi la manière dont cette manipulation a été effectuée. Cette information peut être discrète (par ex. « Le trocart a une inclinaison caudale ») ou continue (par ex. « Le trocart est incliné rapidement dans l’axe cranio->caudal »). Le Tableau 2 présente un exemple de séquences de traces avec des coordonnées brutes et le résultat de la sémantisation. Par souci de simplification, seules les coordonnées du trocart sont présentées dans cet exemple. Tableau 2 • Sémantisation des coordonnées des outils Traces fusionnées Actions simulateur Coordonnées manche et pointe du trocart Perceptions, (durées en ms) S1 Controle_Face (150.126, -115.484, 114.948) (153.729, 6.744, 153.264) manipReglage, 1109 (outil_vue3D vue3D, 2757) S2 Placer_Trocart (150.126, -115.484, 114.948) (153.729, 6.744, 153.264) (outil_vueRadio vueRadioFace, 359) vueRadioFace, 3717 S3 Controle_Face (141.384, -114.981, 120.160) (153.729, 6.744, 153.264) (O_outil_vue3D O_vue3D, 280) O_manipReglage, 14284 S4 Impacter_Trocart (141.454, 114.009, 120.119) (153.801, 7.740, 153.208) O_manipReglage, 1199 O_vueRadioFace, 809 Séquences sémantisées Actions simulateur Actions trocart Etats des outils Perceptions, (durée en ms) S2-S1 Placer_Trocart Aucune AmpliProfil_inclinaison_craniale* Trocart_inclinaison_droite* Trocart_nonInsere (O_outil_vueRadio O_vueRadioFace) O_vueRadioFace S3-S2 Controle_Face Trocart_translation_droite Trocart_translation_anterieure AmpliProfil_inclinaison_craniale Trocart_nonInsere (O_outil_vue3D O_vue3D) O_manipReglage_1 S4-S3 Impacter_Trocart Trocart_translation_droite Trocart_translation_anterieure Trocart_translation_caudale AmpliProfil_inclinaison_craniale Trocart_nonInsere O_manipReglage O_vueRadioFace * Dernier état connu du fluoroscope et du trocart. **Suffixe traduisant une fixation prolongée relativement au domaine. On peut remarquer que le dernier état connu de tous les outils est rapporté d’une séquence à l’autre. En effet, dans l’exemple du tableau, le dernier état connu du fluoroscope ainsi que le dernier état connu du trocart sont mentionnés dans la séquence sémantique S2-S1, même si la séquence ne rapporte aucune manipulation de ce dernier entre S1 et S2. De plus, si cela est jugé nécessaire dans les traitements visés, l’opérateur permet aussi de caractériser les perceptions visuelles sur la base de leur durée en visualisations brèves, normales ou prolongées. Dans ce travail, le seuil pour une visualisation brève est de moins de 200 millisecondes ; pour une visualisation normale, entre 200 millisecondes et 2 secondes ; et pour une visualisation longue, au-delà de 2 secondes. Ces seuils sont dépendants du domaine. Ils ont été déterminés à partir de l’observation de la conduite d’une opération par un chirurgien expert en situation réelle et l’interview de cet expert, après l’opération, sur son comportement lié aux perceptions visuelles. 8.1. L’opérateur d’annotation L’opérateur d’annotation ou « annotateur » permet d’intégrer automatiquement des évaluations calculées à partir de règles expertes dans les séquences perceptivo-gestuelles et de produire des séquences perceptivo-gestuelles enrichies. Dans le cas de TELEOS, des évaluations, appelées variables de situation, sont calculées à partir de règles expertes tout au long d’une session de simulation (Chieu et al., 2010). Chaque variable de situation évalue une action ou un groupe d’actions ; plusieurs variables de situation peuvent évaluer une même action ou un même groupe d’actions. Figure 12 • Schéma de l’opération d’annotation des séquences dans TELEOS Tel que schématisé dans la Figure 12, l’annotateur reçoit en entrée les séquences sémantisées et les variables de situation calculées au cours d’une session de simulation. L’annotateur identifie ensuite les séquences pour lesquelles elles ont été calculées et les intègre dans ces séquences sous forme d’itemsets. 9. Expérimentations Notre proposition de formalisation des séquences perceptivo-gestuelles a été de représenter celles-ci sous forme d’itemsets. Chaque itemset regroupe des items de différentes modalités ayant été identifiés comme cooccurrents. Les séquences sont étendues avec les interactions du STI en réponse à l’activité de l’apprenant. Il s’agit concrètement d’intégrer dans ces séquences les états de la simulation et les évaluations des actions de l’apprenant générées par le STI. Nous avons émis l’hypothèse (H1) : « l’intégration des interactions multimodales de l’apprenant dans des séquences perceptivo-gestuelles améliore la précision de l’analyse de ses activités dans un contexte d’apprentissage ». Nous évaluons cette hypothèse dans cette première partie de nos expérimentations. Les questions de recherche conduisant notre démarche expérimentale pour cette première partie sont les suivantes : QR1 : La représentation multimodale des interactions de l’apprenant est-elle pertinente d’un point de vue didactique ? QR2 : Quelle est la cohérence entre les actions/gestes de l’apprenant et ses perceptions ? Les réponses recherchées visent à estimer l’intérêt de cette proposition et, par là même, l’utilité générale du framework PeTRA proposé pour l’implémenter. En effet, les questions précédentes nous conduisent à celles de l’implémentation du modèle et à la possibilité de l’analyser et de l’exploiter. Elles nous mènent, plus spécifiquement, à celles de l’efficacité des outils proposés pour prendre en charge ces traitements. QR3 : Les outils proposés permettent-ils d’implémenter le modèle proposé ? QR4 : Les outils proposés permettent-ils de modéliser l’activité de l’apprenant en intégrant les différentes facettes de ses interactions ? Ces questions sous-tendent l’hypothèse (H2) stipulant que « l’implémentation du modèle de représentation avec les outils informatiques proposés permet de structurer le traitement et l’analyse de l’activité de l’apprenant en adéquation avec la nature perceptivo-gestuelle de ses connaissances ». 9.1. Méthodologie Pour l’évaluation des hypothèses formulées (H1 et H2), nous mettons à l’épreuve, dans notre cas d’étude, la possibilité d’analyser le rapprochement entre les erreurs des internes et leurs perceptions visuelles, représentées dans les séquences perceptivo-gestuelles selon le modèle proposé. Tout le processus de traitement des traces a été réalisé avec le framework PeTRA. Une présentation détaillée du framework PeTRA peut être retrouvée dans les articles suivants : (Toussaint et al., 2015a), (Toussaint et al., 2015b). Pour pouvoir analyser le rapprochement entre les différentes parties de l’activité multimodale des internes, nous avons utilisé l’opérateur d’analyse du parcours de résolution du framework PeTRA. Le parcours de résolution ciblé intègre trois types de comportements qui constituent les points de décisions définissant le parcours de l’apprenant au cours d’une simulation. Pour rappel, la vertébroplastie se réalise en trois phases et le STI TELEOS permet à l’apprenant de circuler librement entre les phases. En effet, l’apprenant peut choisir de commencer par n’importe quelle phase et peut revenir sur des phases déjà considérées comme validées s’il le souhaite. Dans le parcours qu’il définit ainsi tout au long d’une session de simulation, nous identifions (1) les validations de phase, (2) les retours sur phase et (3) les actions correctives. Les validations de phase sont définies par la décision de passer à la phase suivante ; les retours sur phase sont définis par les passages à une phase antérieure motivés par une erreur de validation identifiée par l’apprenant ; enfin, les actions correctives constituent toutes les actions effectuées lors d’un retour sur phase dans le but de corriger l’erreur de validation identifiée. 9.2. Protocole et données Les traces utilisées pour cette étude proviennent de 9 sessions de simulation de vertébroplastie réalisées par 5 internes et 1 chirurgien expert du département d’Orthopédie Traumatologie du CHU de Grenoble. Hormis l’expert aucun des sujets n’avait utilisé le simulateur auparavant. Les exercices de simulation consistaient à traiter une fracture de la 11e et/ou 12e vertèbre thoracique. Avant de commencer, chaque sujet a visionné une vidéo de présentation du simulateur puis effectué une session de prise en main. Le Tableau 3 détaille les données recueillies et traitées. Tableau 3 • Traces collectées et traitées Profil N° Session #Traces brutes #Séq. p-g enrichies #Visualisations #VS incorrectes #Erreurs validation #Séq. correction Interne S01 2702 113 2033 750 9 11 Interne S02 1636 37 885 178 4 4 Interne S03 1118 33 690 208 3 5 Interne S04 5107 128 2482 644 10 3
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Diplôme d’Université Concevoir un dispositif de Formation à Distance

Diplôme d’Université Concevoir un dispositif de Formation à Distance | learning-e | Scoop.it
Ce DU, peut être qualifié, selon les typologies reconnues, de formation hybride.Il est basé sur le référentiel qui propo...
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

FUN - Initiation à la conception orientée objet

FUN - Initiation à la conception orientée objet | learning-e | Scoop.it
Higher Education Excellence.Online, Free and Open Courses...
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

L'offre de formation continue à distance de l'université Jean Moulin Lyon 3 - sup-numerique.gouv.fr

L'offre de formation continue à distance de l'université Jean Moulin Lyon 3 - sup-numerique.gouv.fr | learning-e | Scoop.it
La formation continue est devenue un enjeu majeur des universit&eacute;s tant sur le plan socio-&eacute;conomique que sur leur capacit&eacute; &agrave; d&eacute;velopper de nouvelles ressources. Emilien Sanchez et Yann Bergeault abordent l'offre de formation continue &agrave; l'universit&eacute;...
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

La classe virtuelle dans l'apprentissage des langues, bonnes et mauvaises pratiques

La classe virtuelle dans l'apprentissage des langues, bonnes et mauvaises pratiques | learning-e | Scoop.it
La classe virtuelle est un dispositif technico-pédagogique à distance qui offre à un groupe d’apprenants une expérience p...
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Campus d'avenir : un guide pour concevoir des espaces de formation à l'heure du numérique - sup-numerique.gouv.fr

Campus d'avenir : un guide pour concevoir des espaces de formation à l'heure du numérique - sup-numerique.gouv.fr | learning-e | Scoop.it
Comment r&eacute;habiliter ou &eacute;tendre des locaux universitaires adapt&eacute;s &agrave; un enseignement collaboratif int&eacute;grant le num&eacute;rique ? Quels seront l'amphith&eacute;&acirc;tre, les salles de cours et les laboratoire de demain ?
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Journée d'étude : valorisation pédagogique des archives numériques - sup-numerique.gouv.fr

Journée d'étude : valorisation pédagogique des archives numériques - sup-numerique.gouv.fr | learning-e | Scoop.it
L'objectif global de cette journ&eacute;e consiste &agrave; r&eacute;unir les acteurs impliqu&eacute;s afin d'imaginer de nouveaux modes de mise en sc&egrave;ne des ressources documentaires et des moyens d'interaction entre les &eacute;tudiants et les enseignants.
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Diplôme d’Université Concevoir un dispositif de Formation à Distance

Diplôme d’Université Concevoir un dispositif de Formation à Distance | learning-e | Scoop.it
Ce DU, peut être qualifié, selon les typologies reconnues, de formation hybride. Il est basé sur le référentiel qui proposent tous : des temps de regroupem
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Découvrez les lauréats du 2ème IA Santé Challenge organisé par Pierre Fabre - Intelligence artificielle

Découvrez les lauréats du 2ème IA Santé Challenge organisé par Pierre Fabre - Intelligence artificielle | learning-e | Scoop.it
Le 2ème IA Santé Challenge, organisé par Pierre Fabre les 4 et 5 juillet derniers  sur le campus universitaire de Castres dans le cadre de la 12e édition...
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Oculus lance un programme pilote d'utilisation de la réalité virtuelle pour l'éducation

Oculus lance un programme pilote d'utilisation de la réalité virtuelle pour l'éducation | learning-e | Scoop.it
La réalité virtuelle peut-elle devenir un véritable outil éducatif ? Oculus le croit.L'entreprise lance trois pilotes à Seattle, à Taïwan et[...]...
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Revue Sticef.org - Une typologie de MOOC de France Université Numérique (FUN) : méthode et enjeux

Revue Sticef.org - Une typologie de MOOC de France Université Numérique (FUN) : méthode et enjeux | learning-e | Scoop.it
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Pourquoi y a t-il si peu de MOOCs pour apprendre les langues ?

Pourquoi y a t-il si peu de MOOCs pour apprendre les langues ? | learning-e | Scoop.it
Alors que les offres de MOOCs se structurent et se diversifient, un domaine d'apprentissage reste remarquablement absent : celui des langues vivantes. Ceci...
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Revue Sticef.org - Simulation et validation de tests adaptatifs dans les MOOC

Revue Sticef.org - Simulation et validation de tests adaptatifs dans les MOOC | learning-e | Scoop.it
Simulation et validation de tests adaptatifs dans les MOOC   Jill-Jênn VIE (RIKEN AIP, Tokyo, Japon), Fabrice POPINEAU (LRI, Orsay), Éric BRUILLARD (ENS Paris-Saclay, Cachan), Yolaine BOURDA (LRI, Orsay)   RÉSUMÉ : Les MOOC accueillent des apprenants de compétences très diverses. Afin de connaître leurs multiples besoins, il est possible de leur faire passer un test d'élicitation de connaissances, en profitant du fait que l'évaluation se fasse en ligne pour choisir la question suivante en fonction des réponses précédentes. Le test est alors dit adaptatif, il permet un diagnostic fin des connaissances de l'apprenant tout en réduisant le nombre de questions à poser. Nous montrons comment il est possible de réutiliser des réponses d’apprenants lors d'une session de MOOC pour valider un modèle de test adaptatif empiriquement, et testons notre approche sur un jeu de données réelles provenant d'un MOOC de mathématiques. MOTS CLÉS : Tests adaptatifs, Modélisation de l'apprenant, MOOC, Adaptation, Évaluation, Diagnostic cognitif, Retour à l’apprenant, Fouille de données pour l'éducation. Simulation and validation of adaptive assessments in MOOCs ABSTRACT : MOOCs receive learners from really diverse backgrounds. In order to address their needs, it is possible to extract their knowledge using adaptive tests, that choose the next question to ask according to the previous performance. Such tests can diagnose effectively the knowledge of the learner while reducing the number of questions asked. We show how it is possible to use questions from a MOOC session in order to validate an adaptive test model empirically, and illustrate it over a real dataset from a mathematical MOOC. KEYWORDS : Adaptive testing, Learner modeling, MOOC, Adaptation, Assessment, Cognitive diagnosis, Student feedback, Educational data mining. 1. Introduction 1.1. Contexte Dans les cours en ligne, particulièrement les MOOC, la diversité des profils des apprenants et leur nombre sont tels qu'il est difficile pour un enseignant de répondre aux besoins de chacun d'entre eux. En effet, les étudiants qui se rendent sur un MOOC proviennent de différents pays, ont différents âges et parcours, et ont ainsi emmagasiné une variété de connaissances susceptible de diversifier leurs usages. Contrairement à un cours en classe, où les professeurs ont conscience des connaissances que les élèves sont censés avoir accumulées dans le passé, la pluralité des profils rend cette tâche impossible dans un MOOC. Or, lorsqu’ils arrivent sur un MOOC, nombre de ces apprenants se posent plusieurs questions initiales : 1) Que dois-je savoir pour commencer ce cours (c'est-à-dire, est-ce que je maîtrise tous les prérequis) ? 2) Existe-t-il d'éventuelles parties du cours dont je n’ai pas besoin ? Ainsi, alors que le cours est construit de façon séquentielle, il peut arriver que certains apprenants le parcourent dans un ordre qui leur est propre (Cisel, 2016). Afin que l'apprenant puisse répondre lui-même à ces questions initiales, le cours comprend habituellement sur la page d'inscription une section qui inclut la liste des prérequis à maîtriser afin de bénéficier de ce cours, ainsi que le programme du cours. Mais les élèves ne sont pas ceux qui sont le plus à même d'évaluer leurs connaissances (Eva et al., 2004), ainsi il serait préférable d’évaluer ces connaissances au moyen d'un test. Afin de ne pas solliciter l'apprenant avec trop de questions dès son arrivée sur le MOOC, il est préférable de poser aussi peu de questions que possible. C'est pourquoi il nous semble particulièrement utile de proposer un diagnostic adaptatif pour éliciter les connaissances de l'apprenant, afin de déterminer et lui indiquer les composantes de connaissances qu'il connaît déjà, mais aussi celles qui lui font défaut et qu'il doit maîtriser pour pouvoir bénéficier du cours. Une fois ces lacunes identifiées, il est envisageable de les fournir à un système de recommandation intégré à la plateforme de MOOC qui proposerait à l’apprenant des ressources pour les combler. Construire un tel diagnostic manuellement serait coûteux pour le professeur qui doit déjà préparer ses cours et les tests de validation pour obtenir le certificat. Nous préférons tirer parti du travail déjà fourni par le professeur et d’une représentation minimale du cours pour automatiser cette tâche. De plus, a priori, rien ne permet à l’enseignant d’affirmer qu’un test adaptatif réalise un diagnostic vraisemblable de l’apprenant. Nous montrons ainsi dans cet article qu'il est possible de construire des modèles de tests adaptatifs avec la simple donnée d'une représentation du cours, et de la valider à partir d’un historique de réponses à un test classique, selon une approche de crowdsourcing (Doan et al., 2011). Ainsi, une session du MOOC permet de récolter des données à partir desquelles on peut valider un diagnostic adaptatif automatique d'élicitation des connaissances, qui pourra être proposé aux apprenants s'inscrivant sur la session suivante du MOOC. Nous commençons par exposer nos hypothèses de recherche, puis nous expliquons ce qu'est un modèle de test adaptatif ainsi que les données qu'il requiert dans notre contexte. Enfin, nous proposons une méthodologie de validation d’un modèle de test adaptatif dans un MOOC et, à titre d'exemple, nous l'appliquons aux données d'un MOOC de mathématiques de Coursera. 1.2. Hypothèses Nous supposons que le niveau de l’apprenant n’évolue pas après qu’il a répondu à une question. Sur les plateformes de MOOC usuelles (edX, Coursera), l’apprenant ne reçoit son feedback qu’à l’issue du test, ce qui rend cette hypothèse raisonnable. Nous supposons également que les questions sont posées une par une à l’apprenant, et qu’il ne peut pas modifier ses réponses précédentes. Nous prenons en compte le fait que l’apprenant puisse faire des erreurs d’inattention, ou deviner une bonne réponse par chance. En effet, les réponses des candidats à un test ne reflètent pas nécessairement leur maîtrise du sujet. 2. Tests adaptatifs 2.1. Principe Les modèles de tests adaptatifs profitent du fait que les questions (aussi appelées items) sont administrées par une machine électronique (ordinateur, téléphone) afin de choisir la question suivante en fonction des réponses précédentes. Ils reposent sur deux fonctions : - un critère de terminaison, indiquant la fin du test ; - un critère de sélection de l'item suivant. Ainsi, le processus d'un test adaptatif peut se décrire de la façon simple suivante : - Tant que le critère de terminaison n'est pas vérifié, • Choisir la question maximisant le critère de sélection de l’item suivant ; • La poser au candidat ; • Enregistrer le résultat du candidat. Les tests adaptatifs permettent de garantir une bonne mesure tout en réduisant le nombre de questions (Lan et al., 2014). Par exemple il est plus économique de ne pas poser des questions trop difficiles tant que les questions plus faciles n'ont pas été résolues, et de ne pas poser de questions dont les composantes requises semblent déjà maîtrisées. C'est en effet un moyen d'obtenir des tests plus courts et plus personnalisés, parfois même capables de faire un retour à l'apprenant sur les points à retravailler. Cette manière d'administrer des tests n'est pas nouvelle. Les travaux sur les tests adaptatifs remontent à (Kingsbury et Weiss, 1983) et sont aujourd'hui utilisés en pratique par des tests tels que le GMAT (Graduate Management Admission Test) (Rudner, 2010) ou le GRE (Graduate Record Examination) pouvant accueillir des centaines de milliers d'étudiants (GMAC, 2013). Ils reposent sur un modèle de l'utilisateur qui permet de calibrer automatiquement le niveau des questions étant donné un historique de réponses. Ainsi, il est possible d'utiliser tout l'historique du passage du test pour poser des questions de façon adaptative. On distingue alors les tests à vocation sommative, qui ne renvoient généralement à l'apprenant qu'un score à l'issue du test, des tests à vocation formative, qui font un retour plus riche permettant à l'apprenant de s'améliorer. Ce n'est que depuis récemment (Huebner, 2010) que l'on s'intéresse à faire des tests formatifs adaptatifs, qui font un retour à l'apprenant à l'issue du test sous la forme de points maîtrisés ou non. Différents modèles de tests adaptatifs ont été proposés dans diverses communautés, ils sont comparés dans (Vie et al., 2017). Certains modèles requièrent un historique de passage pour être administrés, d’autres non. Dans cet article, la problématique qui nous intéresse est la suivante : quels modèles de tests adaptatifs choisir dans le cadre d’un MOOC, et comment les valider empiriquement sur des données existantes ? 2.2. Tests formatifs basés sur une Q-matrice, lien entre questions et composantes de connaissance Définie par (Tatsuoka, 1983), la q-matrice est une représentation minimale des composantes mises en œuvre dans un test. Chaque question est liée à une ou plusieurs composantes de connaissances mises en œuvre pour la résoudre. On peut donc la représenter par une matrice binaire de taille , où les questions sont en ligne, les composantes de connaissances en colonne, et l’élément de la q-matrice vaut 1 si la question fait intervenir la composante de connaissance , 0 sinon. Il peut être fastidieux de remplir la q-matrice lorsqu'un test comporte beaucoup de questions. Certaines approches tentent de la calculer automatiquement, par exemple un algorithme de factorisation de matrices positives est utilisé par (Desmarais, 2011) pour extraire des paquets de questions qui semblent appartenir à un même groupe, afin de permettre une interprétation a posteriori. Cette méthode était déjà couramment utilisée afin d'extraire automatiquement des thèmes interprétables d'un corpus de texte, d'où sa pertinence appliquée à notre problème. À partir d’une q-matrice, il est possible de proposer des modèles de diagnostic formatif. Par exemple, le modèle DINA (Junker et Sijtsma, 2001) consiste à ajouter à la q-matrice des paramètres d’inattention (slip) et de chance (guess) à chaque question . L’apprenant est modélisé par un état latent sous la forme d’un vecteur de bits : L’ensemble des états latents possibles C est inclus dans , le produit cartésien de K exemplaires de l’ensemble {0, 1}. Pour toute composante de connaissance k, }, si et seulement si l’apprenant maîtrise cette composante de connaissance. La probabilité qu’il réponde correctement à la question est s’il maîtrise toutes les composantes de connaissances requises par la question , spécifiées dans la q-matrice, et sinon. Ainsi, chaque observation d’une réponse de l’apprenant permet de mettre à jour une estimation de son état latent, de façon bayésienne. Le modèle DINA a été mis en œuvre dans des tests adaptatifs (Cheng, 2009) où tout au long du test on met à jour une distribution de probabilité sur les états latents possibles dans lesquels pourrait se trouver l’apprenant au vu de ses premières réponses. Cette distribution est initialisée à la distribution uniforme : pour tout , (désignant le cardinal de ), c’est-à-dire que tous les états latents possibles ont la même probabilité d’apparaître. Pour le modèle DINA, , le cardinal de C est donc , mais dans d’autres variantes de ce modèle que nous allons voir, peut être un sous-ensemble strict de . Si après questions on présente la question à l’apprenant, on met à jour la distribution, selon sa réponse correcte ou incorrecte , de la façon suivante. Pour tout état latent , on a où est un coefficient de normalisation pour garantir que la somme des probabilités sur tous les états latents soit 1, et où est défini par : Par exemple, si l’apprenant a les connaissances requises, il peut soit donner la bonne réponse en ne faisant pas d’erreur d’inattention (résultat avec probabilité ), soit faire une erreur d’inattention (résultat avec probabilité ). Cette mise à jour bayésienne permet de renforcer la masse de probabilité pour les états latents qui concordent avec les observations faites à chaque réponse de l’apprenant. Le critère de terminaison est déclenché lorsqu’on a identifié un état latent avec probabilité supérieure à un certain seuil , par exemple 95 %, c’est-à-dire qu’il existe un tel que . Pour choisir la question suivante, il est possible de quantifier formellement l'information que chaque question peut apporter, de façon à choisir la question la plus discriminante. En théorie de l'information, une manière de représenter l'incertitude est l'entropie. Pour une variable aléatoire pouvant prendre des valeurs avec des probabilités pour , l’entropie vaut : Par exemple, une pièce parfaitement équilibrée peut prendre la valeur Pile avec probabilité 50 % et Face avec la même probabilité, ainsi son entropie est de 11, tandis qu'une autre pièce pouvant prendre la valeur Pile avec une probabilité de 90 % aura une entropie de 0,472. La pièce équilibrée est donc celle d'incertitude maximale. On notera également la valeur de . Ainsi, désigne l’incertitude du système sur l’état latent de l’apprenant après qu’il a répondu à questions. désigne l’incertitude obtenue après mise à jour, selon que l’apprenant a répondu correctement () ou non () à la question . Dans notre cas, en choisissant la question faisant le plus abaisser l'entropie en moyenne, on vise à converger rapidement vers l'état mental de l'apprenant. Le critère de sélection de l’item suivant consiste donc à choisir la question telle que la valeur soit la plus faible. Cette quantité correspond à l’entropie moyenne après réponse de l’apprenant : connaissant la distribution à l’instant , l’apprenant a une probabilité de répondre correctement à la question égale à : où désigne le fait que les connaissances dans l’état latent sont suffisantes pour une réponse correcte à la question et désigne le contraire. En effet, il peut répondre correctement s’il a les connaissances suffisantes et qu’il ne fait pas d’erreur d’inattention (avec probabilité ), ou s’il ne les a pas et qu’il devine la bonne réponse (avec probabilité ). Ainsi, avec cette probabilité, l’entropie va être mise à jour en prenant en compte la réponse correcte de l’apprenant. Avec la probabilité c’est l’autre mise à jour qui sera effectuée. Le modèle DINA a ainsi été mis en œuvre pour des tests adaptatifs, mais le nombre d’états latents possibles est , ce qui est impraticable pour de grandes valeurs de . D’autres modèles ont été proposés pour remédier à cette limitation. 2.3. Représentation minimale des connaissances par un graphe de prérequis La théorie des espaces de connaissances (Falmagne et al., 2006) suppose que l'on a accès à une donnée du cours qui est une représentation hiérarchique des composantes de connaissance. Celle-ci est sous la forme d'un graphe où est l'ensemble des composantes de connaissance et où une arête de désigne la relation de prérequis : « la maîtrise de  est un prérequis à la maîtrise de  ». Cette structure permet de réduire drastiquement le nombre d’états latents possibles () dans lesquels l’apprenant peut se trouver. Par exemple, s’il y a deux composantes de connaissance et que la relation de prérequis est , alors l’apprenant peut se trouver dans 3 états : , et . Il n’y a pas , car pour maîtriser la 2e composante , il faut maîtriser la 1re composante . Les critères de sélection de l’item suivant et de terminaison pour le test adaptatif sont identiques à ceux présentés dans la section précédente, c’est seulement l’ensemble des états possibles qui a changé. L’exploitation du graphe de prérequis nous a permis de diminuer le nombre d’états latents possibles jusqu’à rendre praticable la complexité d’une mise à jour après observation d’une réponse de l’apprenant. Ce modèle de tests adaptatifs a été utilisé dans la plateforme ALEKS (Kickmeier-Rust et Albert, 2015) et (Desmarais et Baker, 2012) et dans le MOOC RealizeIt (Lynch et Howlin, 2014). Toutefois, il ne considère pas de paramètres d’inattention et de chance. Le modèle de hiérarchie sur les attributs (Leighton et al., 2004) permet de combiner q-matrice (dont paramètres d’inattention et de chance) et graphe de prérequis, et c’est donc celui que nous avons retenu pour notre expérience. Il est possible de calibrer les paramètres d’inattention et de chance à partir d’un historique de réponses, ou de les spécifier manuellement. L’observation du graphe de prérequis fournit une intuition géométrique sur le fait que certaines questions sont plus informatives que d'autres. Par exemple, poser une question reliée à une composante qui n'a pas d'arc sortant mais beaucoup de nœuds prérequis est peu avantageux car la probabilité que l'étudiant la maîtrise est faible, ainsi l’apprenant a de fortes chances de ne pas y répondre correctement et cela apportera peu d’information sur son état latent. Afin d'illustrer cette approche, nous présentons deux exemples de test adaptatif, pour lesquels on supposera que pour toute question , . Exemple 1. Supposons que l’on ait, dans notre représentation du domaine, trois composantes de connaissance A, B, et C liées par les relations de prérequis A→B et B→C. Ainsi, l’ensemble des états possibles parmi lesquels peut se trouver l’apprenant est soit 000 (il ne maîtrise rien), soit 100 (seulement A), soit 110 (seulement A et B) soit 111 (il maîtrise tout). Il n’y a pas d’autre état latent possible, étant donné les relations de prérequis. Il y a autant de chances pour que l’apprenant se trouve dans chacun de ces cas, donc est uniforme à 0,25 et son entropie vaut 2. Supposons que nous hésitions à lui poser 3 questions, chacune faisant appel à seulement une composante de connaissance : A, B ou C. Par commodité, on appellera ces questions A, B et C. Au début du test, il y a 75 % de chances pour que l’apprenant réponde correctement à la question A (s’il est 100, 110 ou 111), 50 % de chances qu’il réponde correctement à la question B (s’il est 110 ou 111) et 25 % de chances qu’il réponde correctement à la question C (seulement s’il est 111). Ainsi, si on lui pose la question A : - on a 75 % de chance d’observer une réponse correcte et de déduire qu’il maîtrise la composante A, et alors il ne reste plus que 3 états possibles (100, 110, 111) avec même probabilité 0,33, soit une entropie de 1,6 ; - on a 25 % de chance d’observer une réponse incorrecte et déduire qu’il ne maîtrise rien : 000, avec probabilité 1, soit une entropie de 0. L’entropie moyenne procurée par le fait d’administrer la question A est donc . Par un raisonnement similaire et par symétrie, on aboutit à la même entropie pour la question C. En revanche, si on lui pose la question B, soit il répond correctement (50 % de chance) et on hésite alors entre 110 et 111 (entropie 1), soit il ne répond pas correctement (50 % de chance) et on hésite entre 000 et 100 (entropie 1). Donc l’entropie moyenne procurée par le fait d’administrer la question B est . Ainsi, poser la question B réduit le plus l’entropie, donc apporte plus d’information, et c’est cette question qui sera posée au début du test. Exemple 2. Si l'on considère le graphe de prérequis de la figure 1 et que l'apprenant maîtrise toutes les notions sauf Banach et Hilbert, un test minimisant l'entropie à chaque étape et s'arrêtant lorsque l’état latent de l’apprenant a été identifié avec une probabilité de 95 % se déroulera comme suit : - Q1. Est-ce que l'apprenant maîtrise « Produit scalaire » ?3 - Oui. - Q2. Est-ce que l'apprenant maîtrise « Convergence » ? - Oui. - Q3. Est-ce que l'apprenant maîtrise « Espace métrique » ? - Oui. À cet instant du test, la distribution de probabilité vaut 0 pour chaque état latent, sauf pour les quatre suivants qui ont la même probabilité 0,25 : • l’apprenant maîtrise tout ; • l’apprenant maîtrise tout sauf Banach, Complétude, Hilbert ; • l’apprenant maîtrise tout sauf Banach, Hilbert (il s’agit du bon état latent à identifier) ; • l’apprenant maîtrise tout sauf Hilbert. Si la suite du test est : - Q4. Est-ce que l'apprenant maîtrise « Banach » ? - Non. - Q5. Est-ce que l'apprenant maîtrise « Complétude » ? - Oui. Alors, l'apprenant maîtrise Produit scalaire, Distance, Norme, Ouvert/fermé, Complétude, Produit scalaire, mais pas Banach, Hilbert : c’est l’état latent le plus probable étant donné les réponses qu’il a données, ainsi que le graphe de prérequis. Ainsi, 5 questions ont été posées au lieu de 9 afin de déterminer l'état mental de l'apprenant et lui faire un retour. Figure 1 • Un exemple de graphe de prérequis 3. Méthodologie de simulation et de validation d’un test adaptatif dans un MOOC Tous les modèles de tests adaptatifs présentés précédemment sont habituellement validés sur des données simulées. Dans cet article, nous proposons une méthode automatisée pour valider des tests adaptatifs sur des données réelles issues d’un MOOC. Un MOOC se compose habituellement de chapitres constitués de sections au terme desquelles un quiz est proposé pour que l’apprenant puisse vérifier ses connaissances. Le plus souvent, l'apprenant peut en cas d'échec repasser le quiz, de façon limitée ou illimitée. Pour pouvoir faire un retour utile à l’apprenant, il faut considérer des modèles formatifs de test, qui s’appuient sur une q-matrice. Il faut donc spécifier le lien entre chaque question et les différentes composantes de connaissances développées dans le cours qu’elle évalue. Un test adaptatif basé sur le modèle DINA peut donc être initié. S’il y a un grand nombre de composantes de connaissances, il faut spécifier des relations de prérequis entre les composantes de connaissances, potentiellement à l’aide du squelette du cours, afin de réduire la complexité du problème. Nous suggérons donc le modèle de hiérarchie sur les attributs dans ce cas. 3.1. Données mises en œuvre pour la validation Afin de valider un modèle de test adaptatif formatif à partir de données réelles, nous avons besoin des éléments suivants : - le passé des notes des utilisateurs sur la plateforme : un ensemble de motifs de réponse binaires (vrai ou faux), sous la forme où est le nombre de questions posées à tous les apprenants ; - une représentation des composantes de connaissances mises en œuvre dans le cours ; - la q-matrice : un lien entre chaque question et les composantes de connaissances qu'elle requiert. En cours de test, les informations que nous avons sur un apprenant sont : - le résultat (vrai ou faux) à chaque question que le système lui a posée ; - une estimation de la maîtrise par le candidat de chaque composante de connaissance. 3.2. Simulation et validation Le but est de poser un minimum de questions à chaque apprenant, c’est-à-dire révéler certaines composantes de son motif de réponse de façon adaptative, et de prédire les composantes restantes du motif de réponse. Deux métriques nous permettent de valider le modèle de test adaptatif que nous avons choisi. La première est le nombre moyen de questions avant arrêt du test (appelé temps de convergence moyen), c'est-à-dire avant que le critère de terminaison soit validé. La deuxième est le nombre de prédictions incorrectes (appelé erreur de prédiction), car il faut vérifier que le test converge vers un diagnostic qui est vraisemblable. Une fois le test terminé, à partir de l’état latent identifié, on compte le nombre de prédictions incorrectes du modèle de test adaptatif sur les questions non posées à l’apprenant pendant le test, afin d'évaluer si le diagnostic effectué par le modèle en peu de questions correspond bien aux données observées. 3.3. Ajustements Cependant, sur un MOOC, les apprenants ne répondent pas à toutes les questions : comment considérer les entrées manquantes ? De plus, lorsque plusieurs essais sont enregistrés pour un couple apprenant/question, on peut choisir de considérer le premier ou celui de score maximum (Bergner et al., 2015). Dans notre cas, nous avons considéré à chaque fois le premier essai, pour minimiser le risque que l’apprenant devine la bonne réponse. Si l’apprenant n’a pas essayé de répondre à la question, nous comptons une réponse fausse. Dans les données des cours en ligne, on peut en effet supposer que si un apprenant a répondu à une question d’un quiz mais pas à d’autres questions issues du même quiz, c’est qu’il n’en connaît pas la réponse. 4. Mise en œuvre sur des données réelles de MOOC Nous avons testé, sur de véritables données de MOOC issues d'un cours d'analyse fonctionnelle4, un modèle de test adaptatif basé sur le modèle de hiérarchie sur les attributs.. 4.1. Quelques données quantitatives Le cours a accueilli 25354 inscrits. À partir de toute la base de données SQL du MOOC, nous avons pu extraire les tests présentés dans le tableau 1. Tableau 1 • Tests extraits du MOOC d’analyse fonctionnelle Etape Thème Réponses Questions Remarques Quiz 1 Topologie 5770 6 3672 étudiants Quiz 2 Espaces métriques et normés 3296 7 2123 étudiants Quiz 3 Espaces de Banach et fonctions linéaires continues 2467 7 1384 étudiants et une question est à réponse ouverte Quiz 4 Espaces de Hilbert 1807 6 1101 étudiants Quiz 5 Lemme de Lax-Milgram 1624 7 943 étudiants Quiz 6 Espaces Lp  1504 6 831 étudiants Quiz 7 Distributions et espaces de Sobolev 1358 9 749 étudiants Quiz 8 Application à la simulation d’une membrane 1268 7 691 étudiants Examen 599 10 576 étudiants Le nombre d’étudiants – et donc de réponses aux questions – a diminué par abandon au fil du temps. Afin de simplifier l'étude tout en conservant un grand nombre de réponses, nous avons considéré le graphe de prérequis de la figure 1 et nous avons choisi un sous-ensemble de 9 questions tirées des quiz 1 à 4 du MOOC. Cela nous a permis de construire une matrice de motifs de réponse binaires de 37135 étudiants sur ces 9 questions portant sur les 9 composantes de connaissance Banach, Complétude, Convergence, Distance, Espace métrique, Hilbert, Norme, Ouvert et fermé, Produit scalaire. Chaque question a été choisie pour couvrir une composante de connaissance (et toutes celles qui sont nécessaires à sa maîtrise), ainsi chaque question correspond à un nœud du graphe de prérequis. Le nombre de motifs de réponse de chaque type est donné dans le tableau 2 et sa non-uniformité laisse entendre qu'il existe des corrélations entre les réponses aux questions (sinon, le nombre d'occurrences serait le même d'un motif de réponse à un autre). Tableau 2 • Les 30 motifs de réponse les plus fréquents pour le jeu de données extrait du MOOC d'analyse fonctionnelle Motif Fréquence 000000010 000000000 010110110 110111111 010110010 111111111 110111011 110110110 110110010 010010010 010110000 110111110 010010110 111111011 111110110 010110100 000110010 010100010 111110010 010010000 110111001 110011111 100010001 110111101 000010000 111011111 111110011 000010010 111111101 010100110 1129 460 271 263 122 116 77 70 42 41 40 38 37 36 35 34 27 26 21 21 21 21 20 19 18 17 16 15 15 15 4.2. Validation Le modèle n’ayant pas besoin de données existantes pour administrer des tests adaptatifs, il n’y a pas de données d’entraînement : tous les apprenants du jeu de données sont des apprenants de test. Pour simplifier notre analyse, nous avons initialisé tous les paramètres d’inattention et de chance à une unique valeur de robustesse , qui correspond donc à la probabilité de deviner la bonne réponse alors que la composante de connaissance correspondante n'est pas maîtrisée, ainsi qu'à la probabilité de se tromper devant une question qui requiert une composante de connaissance maîtrisée. Pour chaque étudiant de notre jeu de données, nous simulons une interaction avec le modèle de test adaptatif qui consiste à choisir la question réduisant le plus l’incertitude (entropie) sur cet étudiant. Dès qu'on aboutit à une distribution de probabilité pour laquelle un état latent a une probabilité supérieure ou égale à 95 %, le test s'arrête. Cela permet de déterminer le nombre moyen de questions avant arrêt, ainsi que le nombre de prédictions incorrectes. Les résultats sont donnés dans le tableau 3. Tableau 3 • Métriques principales pour la validation du modèle de test adaptatif sur les données du MOOC d'analyse fonctionnelle  Valeur de robustesse Temps de convergence moyen Erreur de prédiction moyenne 0 5,009 ± 0,003 1,075 ± 0,04 0,01 5,43 ± 0,016 1,086 ± 0,041 0,02 6,879 ± 0,019 1,086 ± 0,041 0,03 7,671 ± 0,027 0,956 ± 0,037 0,04 7,807 ± 0,023 1,086 ± 0,041 0,05 8,671 ± 0,027 0,956 ± 0,037 4.3. Discussion La valeur de robustesse correspond à un test où l'on suppose que si l'apprenant répond correctement à une question, alors il maîtrise la composante de connaissance correspondante. Un tel test converge en 5 questions en moyenne, et prédit correctement 8 des 9 réponses du motif de réponse. Ainsi, en ne posant que 55 % des questions du test en fonction des réponses précédentes, il obtient un succès de 89 %. Une plus grande valeur de robustesse donne un modèle qui requiert plus de questions pour converger car plus prudent à chaque étape dans ses déductions. Sur notre jeu de données, les prédictions ne sont pas améliorées pour autant, ce qui peut être expliqué par le faible nombre d'états possibles (35), étant donné la structure de la figure 1. Le graphe des prérequis est très rudimentaire, et n'est sans doute pas suffisant pour exprimer les connaissances d'un tel domaine des mathématiques. Toutefois, notre expérience a montré que même avec cette représentation simple du domaine évalué, le nombre de questions pouvait être réduit de moitié sans trop affecter la qualité de l’évaluation, et tout en permettant de faire un retour à l’apprenant sur ses points forts et faibles. Pour administrer un tel test, seul le graphe de prérequis est nécessaire, il n'y a pas besoin d’avoir déjà accès à des réponses d’apprenants. En revanche, pour vérifier si un modèle de test adaptatif fonctionne, il faut avoir accès aux réponses des apprenants. De telles traces peuvent également permettre de calibrer les paramètres d’inattention et de chance (donc de robustesse) des questions, et éventuellement de déceler des erreurs d’énoncé ou des questions trop faciles, à cause des réponses proposées en QCM par exemple. 5. Conclusion et perspectives Dans cet article, nous avons fait un état de l’art des modèles de tests adaptatifs et présenté une méthode pour les valider sur des données réelles. Nous l’avons mise en œuvre sur des données réelles issues d’un MOOC pour montrer que le modèle de hiérarchie sur les attributs (Leighton et al., 2004) peut réduire le nombre de questions posées tout en garantissant la fiabilité du test. Ce modèle se distingue de ceux utilisés en psychométrie, tels que le modèle de Rasch, car il ne nécessite pas de données existantes pour fonctionner et permet de faire un retour à l'étudiant sur les points non maîtrisés. À la fin du test, il est ainsi possible d’indiquer à l’apprenant : « Voici les prérequis qui semblent vous faire défaut », et éventuellement le rediriger vers des contenus qui peuvent l’aider à y remédier. Le fait de nommer ce que l’apprenant ne sait pas lui permet de pouvoir choisir comment acquérir ses connaissances, sur le cours ou par d’autres moyens. Il est également possible d’identifier les points forts des apprenants et de leur permettre de sauter d’éventuelles parties du cours consistant en des rappels. Afin d’étendre la recherche présentée dans cet article, il faudrait étudier le nombre de questions nécessaires à l’arrêt du test, ainsi que la pertinence du diagnostic obtenu en fonction de différentes valeurs du seuil pour le critère de terminaison (ici, nous n’avons considéré que 95 %). C’est l’objet de nos travaux futurs. Nous avons montré comment un modèle simple tel que celui de hiérarchie sur les attributs où tous les paramètres d’inattention et de chance sont rassemblés en un unique paramètre de robustesse permettait déjà de réduire le nombre de questions de façon satisfaisante. Pour aller plus loin, il faudrait essayer de calibrer automatiquement les paramètres d’inattention et de chance à partir d’une partie de la population de l’historique afin de voir si le modèle résiste davantage aux erreurs des apprenants. Dans certains domaines moins procéduraux que les mathématiques, comme les langues, le graphe de prérequis peut être difficile à construire. Il serait bon de pouvoir, à partir des données des apprenants, suggérer des modifications du graphe. Un modèle de diagnostic de connaissances permettant d’exprimer le fait qu’une composante de connaissances puisse intervenir plus ou moins dans la résolution d’une question est présenté dans (Vie et al., 2016). La représentation des composantes de connaissances à diagnostiquer sous la forme d'un graphe de prérequis peut être vue comme une ontologie minimale. D'autres modèles de tests non adaptatifs considèrent des ontologies pour la représentation des connaissances, tels que (Mandin et Guin, 2014). Des variantes adaptatives pourraient être développées pour réduire le nombre de questions, et de tels modèles permettraient d’enrichir le diagnostic rendu à l’apprenant à l’issue du test. Remerciements Nous remercions John Cagnol de nous avoir communiqué la base de données de son cours sur la plateforme Coursera et Benoît Choffin pour ses commentaires. Ce travail est soutenu par l'Institut de la Société Numérique de Paris-Saclay, financé par l'IDEX Paris-Saclay, ANR-11-IDEX-0003-02. À propos des auteurs Jill-Jênn Vie est chercheur postdoctoral en apprentissage automatique (machine learning) dans l’équipe Human Computation du laboratoire RIKEN AIP de Tokyo. Sa recherche porte sur l’interaction avec des systèmes d’apprentissage automatique (active learning) et sur la prise de décision avec des données incertaines (crowdsourcing). Il a effectué sa thèse sur les tests adaptatifs avec Fabrice Popineau, Yolaine Bourda et Éric Bruillard. Ses travaux s’appliquent à l’analytique de l’apprentissage (learning analytics, comment utiliser les traces d’apprenants pour améliorer l’apprentissage) et aux systèmes de recommandation. Il est consultant pour le projet PIX de certification des compétences numériques lancé par le ministère de l’Éducation, et contribue au code libre de la plateforme. Adresse : RIKEN AIP – Nihonbashi 1-4-1 – Mitsui Building 15F – Chuo-ku, Tokyo 103-0027, Japan Courriel : jill-jenn.vie@riken.jp Toile : http://jill-jenn.net Fabrice Popineau est professeur en informatique à CentraleSupélec et chercheur permanent au Laboratoire de Recherche en Informatique (UMR8623 de l’Université Paris-Saclay et du CNRS). Ses recherches portent depuis une quinzaine d’années sur les apports de l’intelligence artificielle aux plateformes éducatives en ligne. Il s’intéresse en particulier à divers aspects de la personnalisation : que peut apporter l’analytique de l’apprentissage en termes de construction de profil ? Comment recommander efficacement des ressources pédagogiques individuellement ? Comment accompagner l’apprenant et remédier à ses difficultés ? Adresse : CentraleSupélec/LRI – Université Paris-Saclay – Bât 650 Ada Lovelace – rue Noetzlin, 91190 Gif-sur-Yvette Courriel : fabrice.popineau@centralesupelec.fr, fabrice.popineau@lri.fr Toile : http://fabrice.popineau.net/ Éric Bruillard est professeur des universités au laboratoire EDA, université Paris Descartes Ses recherches portent, depuis plus d'une trentaine d'années, sur les questions de conception et d'usage des technologies issues de l'informatique dans l'éducation. Elles ont été menées d'abord avec le Centre mondial de l'informatique (années 80), puis en relation avec l'INRP (institut national de recherche pédagogique) avec le département TECNE, au LIUM (laboratoire d'informatique de l'université du Maine) et au Greyc (équipe IsLand), puis au sein de l'UMR STEF (ENS Cachan). Elles s'inscrivent à l'articulation entre l'informatique, les sciences de l'éducation et les sciences de l'information et de la communication. Elles couvrent des questions de didactique de l'informatique, de didactique des progiciels et de formation des enseignants aux technologies issues de l'informatique, de Mooc et d’usages des ressources éducatives. Adresse : Laboratoire EDA, Université Paris Descartes, 45 rue des Saints-Pères, 75270 Paris cedex 06 Courriel : eric.bruillard@parisdescartes.fr Toile : http://www.stef.ens-cachan.fr/annur/bruillard.htm Yolaine BOURDA est professeure d’informatique et directrice du département informatique de CentraleSupélec. Elle est chercheuse au Laboratoire de Recherche en Informatique (UMR 8623). Ses recherches portent sur les Environnements Informatiques pour l’Apprentissage Humain (EIAH) et plus particulièrement sur leur personnalisation. Elle est aussi experte auprès du comité de normalisation ISO/IEC JTC1/SC36 « Technologies de l’Information pour l'apprentissage, l'éducation et la formation ». Adresse : CentraleSupélec/LRI – Université Paris-Saclay – Bât 650 Ada Lovelace – rue Noetzlin, 91190 Gif-sur-Yvette Courriel : Yolaine.Bourda@centralesupelec.fr, Yolaine.Bourda@lri.fr REFERENCES Bergner, Y., Colvin, K. et Pritchard, D. E. (2015). Estimation of ability from homework items when there are missing and/or multiple attempts. Dans Proceedings of the fifth international conference on learning analytics and knowledge (LAK 2015) (p. 118–125). ACM. Cheng, Y. (2009). When cognitive diagnosis meets computerized adaptive testing: CD-CAT. Psychometrika, 74(4), 619–632. Cisel, M. (2016). Utilisations des MOOC : éléments de typologie. Retour sur la diversité des formes d’attrition (Thèse de doctorat, ENS Paris-Saclay). Disponible sur internet. Desmarais, M. C. (2011). Conditions for effectively deriving a q-matrix from data with non-negative matrix factorization. Dans Proceedings of the 4th international conference on educational data mining (EDM 2011) (p. 41–50). Desmarais, M. C. et Baker, R. S. (2012). A review of recent advances in learner and skill modeling in intelligent learning environments. User Modeling and User-Adapted Interaction, 22(1-2), 9–38. Doan, A., Ramakrishnan, R. et Halevy, A. Y. (2011). Crowdsourcing systems on the world-wide web. Communications of the ACM, 54(4), 86–96. Eva, K. W., Cunnington, J. P., Reiter, H. I., Keane, D. R. et Norman, G. R. (2004). How can i know what i don’t know? Poor self-assessment in a well-defined domain. Advances in Health Sciences Education, 9(3), 211–224. Falmagne, J.-C., Cosyn, E., Doignon, J.-P. et Thiéry, N. (2006). The assessment of knowledge, in theory and in practice. Dans R. Missaoui et J. Schmidt (dir.), Formal concept analysis (p. 61–79). Berlin, Allemagne : Springer. GMAC (2013). Profile of GMAT® Candidates – Executive Summary. Disponible sur internet. Huebner, A. (2010). An overview of recent developments in cognitive diagnostic computer adaptive assessments. Practical Assessment, Research et Evaluation, 15(3). Disponible sur internet. Junker, B. W. et Sijtsma, K. (2001). Cognitive assessment models with few assumptions, and connections with nonparametric item response theory. Applied Psychological Measurement, 25(3), 258-272. Kickmeier-Rust, M. D. et Albert, D. (2016). Competence-based knowledge space theory. Dans P. Reimann et al. (dir.), Measuring and Visualizing Learning in the Information-Rich Classroom, 109—120. Routledge. Kingsbury, G. et Weiss, D. (1983). New horizons in testing: Latent trait test theory and computerized adaptive testing. New York, NY : Academic Press. Lan, A. S., Waters, A. E., Studer, C. et Baraniuk, R. G. (2014). Sparse factor analysis for learning and content analytics. The Journal of Machine Learning Research, 15(1), 1959-2008. Leighton, J. P., Gierl, M. J. et Hunka, S. M. (2004). The attribute hierarchy method for cognitive assessment: a variation on tatsuoka’s rule-space approach. Journal of Educational Measurement, 41(3), 205–237. Lynch, D. et Howlin, C. P. (2014). Real world usage of an adaptive testing algorithm to uncover latent knowledge. Dans Proceedings of the 7th International Conference of Education, Research and Innovation (ICERI 2014) (p. 504-511). IATED. Mandin, S. et Guin, N. (2014). Basing learner modelling on an ontology of knowledge and skills. Dans Proceedings of 14th international conference on Advanced learning technologies (ICALT 2014) (p. 321–323). IEEE. Rudner, L. M. (2010). Implementing the graduate management admission test computerized adaptive test. Dans W. J. van der Linden, C. A.W. Glas (dir.), Elements of adaptive testing (p. 151–165). Springer Nature. Tatsuoka, K. K. (1983). Rule space: an approach for dealing with misconceptions based on item response theory. Journal of Educational Measurement, 20(4), 345–354. Vie, J.-J., Popineau, F., Bourda, Y. et Bruillard, É. (2016). Adaptive testing using a general diagnostic model. Dans European conference on technology enhanced learning (EC-TEL 2016) (p. 331–339). Springer. Vie, J.-J., Popineau, F., Bourda, Y. et Bruillard, É. (2017). A review of recent advances in adaptive assessment. Dans A. Pena-Ayala (dir.), Learning analytics: fundaments, applications, and trends: a view of the current state of the art to enhance e-learning. Berlin, Allemagne : Springer. 1 Dans ce cas 2 3 Il s’agira d’une question permettant d’évaluer si l’apprenant maîtrise la composante de connaissance « Produit scalaire » ou non. Idem pour les questions suivantes. 4 Ce cours a été donné par John Cagnol, professeur à CentraleSupélec, sur la plateforme Coursera en 2014. 5 Certains étudiants ont répondu au second quiz sans avoir répondu au premier. Il n’y a pas d’inclusion stricte à ce niveau.
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Revue Sticef.org - Abstraction des fonctionnalités d'une plateforme de formation pour la mise en œuvre de langages de scénarisation

Revue Sticef.org - Abstraction des fonctionnalités d'une plateforme de formation pour la mise en œuvre de langages de scénarisation | learning-e | Scoop.it
Abstraction des fonctionnalités d'une plateforme de formation pour la mise en œuvre de langages de scénarisation   Esteban LOISEAU, Pierre LAFORCADE (LIUM, Le Mans-Laval), Nour EL MAWAS (Télécom Bretagne, Brest), Sébastien IKSAL (LIUM, Le Mans-Laval)   RÉSUMÉ : Le projet GraphiT vise à aider les enseignants à spécifier des scénarios pédagogiques pertinents qui puissent être opérationnalisés en tant que cours sur un Learning Management System cible. Nous nous intéressons à l’abstraction des aspects opérationnalisation afin de mettre l’accent sur la dimension spécification de la scénarisation. Nous proposons une approche centrée Moodle pour abstraire les usages des fonctionnalités du LMS et spécifier des briques de conception pédagogique de plus haut-niveaux. Nous proposons un langage et un éditeur de scénarisation pédagogique graphique. MOTS CLÉS : Informatique, Scénario pédagogique, Méta-modélisation, Outil auteur, Système de gestion de cours Designing Visual Instructional Design Language from the ab-straction of Learning Management System functionnalities. ABSTRACT : The GraphiT project aims to help teachers in specifying of pedagogically sound learning scenarios that can be executed for automatically setting-up the related Learning Management System course. We intend to provide teachers with LMS-specific instructional design languages and editors. To achieve this goal, we have to raise the LMS semantics in order to enrich the pedagogical expressiveness of the produced models. We propose a specific LMS-centered approach for abstracting the low-level concepts and turning these semantics into higher-level pedagogical building blocks. We present and illustrate our propositions focused on the Moodle LMS. KEYWORDS : Computer science, Pedagogical Scenario, Learning Scenario, Meta-modelling, Authoring Tool, Learning Management System   1. Introduction De nos jours, les plateformes de formation ou Learning Management Systems (LMS) sont répandues dans les institutions académiques. Leur usage n'est plus limité à des formations à distance, mais s’est étendu aux formations mixtes comme aux formations en présentiel (Garrisson et Kanuka, 2004). Néanmoins, les résultats d'une enquête et d'entretiens que nous avons menés en 2014 auprès de 208 enseignants mettent en avant de nombreuses difficultés quant à l’appropriation et l’utilisation de ces plateformes (Podvin et Laforcade, 2014). S'ils souhaitent mettre en place des activités pédagogiques complexes, les enseignants doivent développer des compétences de haut niveau quant à l'utilisation du LMS : comment et quand utiliser les différentes fonctionnalités de la plateforme afin de supporter l'objectif pédagogique fixé ? Ces compétences peuvent être acquises au cours de formations professionnelles, qui se concentrent davantage sur les aspects techniques liés aux fonctionnalités de la plateforme qu'à la conception de scénarios pédagogiques cohérents et adaptés à cette plateforme. Etant donné la multiplicité des théories éducatives (Ormrod, 2011) et des approches de conception, ainsi que l'absence d'outils et de méthodes de scénarisation spécifiques aux LMS, les enseignants développent, de façon ad-hoc, leurs propres méthodes et outils de conception. Dans un tel contexte, il semble pertinent d'aider les enseignants-concepteurs à mieux exploiter les LMS à leur disposition plutôt que de leur proposer des outils de conception, indépendants des plateformes, pédagogiquement expressifs, mais ayant des difficultés à faciliter la mise en œuvre des modèles de conception produits (tels que (Alario-Hoyos et al., 2012) et (Katsamani et al., 2012)) pour les travaux récents sur ce domaine). Notre approche consiste ainsi à s’intéresser à une plateforme donnée et à identifier son potentiel en termes d’expressivité pédagogique (c.-à-d. que l’on saura mettre en œuvre sans perte d’information). Nous cherchons donc à produire des langages de scénarisation, et leurs outils-auteurs associés, dédiés à la spécification et la mise en œuvre de situations d’apprentissage pour une plateforme donnée. A l’aide de tels outils nous cherchons à ce que les enseignants puissent plus facilement s’approprier leur plateforme et ainsi concevoir et mettre en œuvre des situations d’apprentissage plus évoluées sur le plan pédagogique. Le projet GraphiT (financé par l'Agence Nationale de la Recherche) suit cette approche de conception centrée plateforme. Son objectif principal est d'étudier les techniques liées à l'Ingénierie Dirigée par les Modèles (IDM) et le Domain Specific Modeling (DSM) afin d’expliciter le métier de conception des plateformes, puis de l’abstraire afin de concevoir des langages de scénarisation pédagogique graphiques de plus haut niveau d'expressivité sans perte d'information lors de la mise en œuvre. Des précédents travaux se sont intéressés à la méta-modélisation pour identifier et expliciter le métier de conception de plusieurs plateformes (Abedmouleh et al., 2008). Cet article s'intéresse quant à lui à l’exploitation de techniques de méta-modélisation afin de traiter l’abstraction du métier de conception de la plateforme et d'augmenter ainsi l’expressivité pédagogique. La proposition d'abstraction que nous présentons dans cet article concerne uniquement la plateforme Moodle. 2. Contexte de recherche 2.1. Plateforme de formation et scénarisation pédagogique Un Learning Management System (LMS) est un environnement logiciel qui permet la mise en œuvre et le déroulement de processus d'apprentissage ou de parcours pédagogiques. A l’origine il s’agissait de plateformes dédiées à la formation ouverte et à distance. Ces dispositifs avaient pour premières finalités la consultation à distance de contenus pédagogiques, l'individualisation de l'apprentissage et le télétutorat. De nos jours, ces LMS (pour les plus répandus : Moodle, Claroline, Sakaï, Dokeos...) sont largement déployés et utilisés dans les institutions de formation pour tous types d’apprentissage : à distance, en blended learning, comme en présentiel. Les LMS fournissent actuellement de nombreuses fonctionnalités et outils pour l’hébergement des contenus pédagogiques, le contrôle de l'accès aux ressources, la réalisation des activités pédagogiques, la mise en place et le suivi des apprentissages, ou des activités de tutorat, le pilotage de la formation, la gestion des communautés d'apprenants et d’enseignants, la gestion administrative des formations, la gestion technique de la plateforme, etc. Le développement d'un LMS suit, explicitement ou non, certains courants éducatifs et intègre des approches pédagogiques spécifiques. Par exemple, Moodle adopte officiellement une approche socio-constructiviste (Dougiamas et Taylor, 2003). Globalement, les LMS proposent une approche de conception exploitant l’agrégation et le séquencement de nombreux types d’outils (aussi appelées fonctionnalités ou, avec plus d’ambiguïté, activité pour la plateforme Moodle) et de ressources. Les enseignants-concepteurs ont alors la charge de combiner ces divers éléments pour mettre en œuvre des activités pédagogiques à différents grains selon leurs besoins, leurs approches de conception, et leurs connaissances et compétences vis-à-vis de la plateforme (par exemple : simple consultation de ressource, mise en œuvre d'auto-évaluation, résolution de situations-problèmes collaboratives complexes, etc.). Les standards centrés activités, tel que IMS-Learning Design (IMS-LD), n'ont pas réussi à s'intégrer dans les LMS actuels. Des travaux menés (Burgos et al., 2007) ont montré que, en plus du coût d’ingénierie, cela nécessitait de faire évoluer le métier même de conception de la plateforme en lui ajoutant un « moteur d’exécution » dédié au standard. Les approches les plus récentes (Berggren et al., 2005) (Katsamani et al., 2012), ayant cherché à proposer des langages opérationnalisables sur les plateformes existantes sans les dénaturer, n'ont pas réussi à fournir de solutions robustes pour éviter d’appauvrir les modèles conçus lors du passage à la mise en œuvre. Moodle propose son propre format d'import pour les quiz. Notre idée est de généraliser cette approche à tous les aspects de la conception pédagogique (spécification et opérationnalisation). Le projet GraphiT part de l’hypothèse que si les LMS étaient capables d’expliciter formellement leur « format opérationnel » de scénarisation pédagogique, et par extension d’importer des modèles conformes à ce format, alors cela permettrait d’élaborer des langages de conception, dédiés à tel ou tel aspect de conception, à divers degrés d’abstraction selon les objectifs et le positionnement du langage développé. 2.2. Outils et langages de scénarisation pédagogique pour Moodle L'objectif à gros grain du projet est d'explorer les limites, en termes d’expressivité pédagogique, de langages de scénarisation pédagogique opérationnalisables pour un LMS cible. D'après la classification des Visual Instructional Design Modeling Languages proposée par (Botturi et al., 2006), nous visons des langages de scénarisation de type formels (scénarios interprétables par la machine), comprenant un ensemble fini de concepts et de règles de construction des scénarios pédagogiques, aux niveaux spécification (description de la tâche sans prendre en compte la plateforme cible) et/ou implémentation (description de la mise en œuvre de la tâche sur la plateforme cible), et qui proposeront une notation visuelle (scénarios compréhensibles par l’humain). Se pose donc la question de l'expressivité que peuvent offrir des langages de scénarisation permettant de s'abstraire de la dimension implémentation de la plateforme cible, tout en garantissant le fait que les scénarios produits soient bien implémentables sur cette plateforme. Le travail de recherche présenté dans cet article ne répond pas complètement à cette question, mais présente un premier résultat d’abstraction mis en œuvre pour la plateforme Moodle. Nous nous sommes intéressés aux langages de scénarisation existants dont les propriétés sont proches de celles que l'on recherche. Le système Glue! associé à l'éditeur Glue!PS (Alario-Hoyos et al., 2012) ainsi que l'éditeur de scénarios CADMOS (Katsamani et al., 2012) sont deux exemples récents de travaux partageant nos objectifs. Ils proposent tous deux une solution indépendante de la plateforme, mais avec la possibilité de déployer les scénarios produits vers la plateforme la plus courante : Moodle. Dans les deux cas le déploiement se fait concrètement en exploitant la fonction de restauration de cours de Moodle. Ils génèrent des fichiers conformes au format d'un cours de la plateforme ; chaque concept du langage est associé à un équivalent dans le modèle de données de la plateforme (subjectif à chaque approche). Avec CADMOS, cette phase de traduction est réalisée par l’éditeur. Elle s’appuie sur des correspondances non modifiables, fixées par les auteurs. Glue! propose une approche différente où les scénarios produits sont traduits (via des adaptateurs dédiés) vers un langage pivot intermédiaire (non accessible aux enseignants-concepteurs) pour être indépendant du langage de scénarisation d’origine. Cette correspondance abstraite est alors à nouveau traduite (via de nouveaux adaptateurs spécifiques) en scénario spécifique à une plateforme telle que Moodle. Ce type d’approches mène à des adaptations et des pertes sémantiques durant les phases de « traduction » des scénarios spécifiés par les concepteurs. Ces pertes sémantiques sont liées à la trop grande dissimilarité entre le langage de conception et le modèle de données (et par extension, les fonctionnalités) de la plateforme. De plus, ces correspondances ne peuvent pas être adaptées par le concepteur (CADMOS) ou difficilement (pour Glue! cela revient à développer un nouvel adaptateur). Le projet Flexo (Dodero et al., 2010) propose également un langage de scénarisation pédagogique intégrant des éléments sémantiques liés à la description des activités ainsi qu’à leur séquencement. Sa particularité est de proposer une représentation des scénarios sous une forme textuelle annotable par le concepteur (langage pivot spécifique à Flexo, contrairement au langage pivot abstrait de Glue!). Les spécifications du scénario et les moyens de les opérationnaliser sur Moodle sont explicités et modifiables (approche scripts). Mais pour cela le concepteur devra maitriser ce nouveau langage textuel. Les approches actuelles ont donc : - (1) une expressivité limitée (types d'activités très proches des notions d’outils, structure du scénario, ...) qui ne représente pas des pratiques spécifiques à une communauté d’enseignants-concepteurs, - (2) une prise en charge de l’opérationnalisation des scénarios faible (pas de considérations du paramétrage fin des outils et services de Moodle), s'appuyant sur des correspondances pas ou difficilement adaptables par un enseignant. D'autres travaux (Abdallah et al., 2008) ont montré que les techniques issues de l'Ingénierie Dirigée par les Modèles (IDM), telles que les transformations de modèles, peuvent permettre de transformer un modèle de scénario centré concepteur en un modèle spécifique à une plateforme. Néanmoins, ils mettent en avant la complexité des transformations en jeu, et donc le coût de leur conception, ainsi que la perte sémantique inhérente. 2.3. Le projet GraphiT d'un point de vue IDM et DSM La méthodologie du projet consiste à explorer comment l'Ingénierie Dirigée par les Modèles (IDM) et particulièrement le Domain Specific Modeling (DSM) (Kelly et Tolvanen, 2008) peuvent permettre de développer des éditeurs de scénarios pédagogiques ayant les caractéristiques suivantes : - spécifiques à un LMS ; - suffisamment expressifs pour pouvoir s'abstraire du métier de conception du LMS ; - opérationnalisables, i.e. pouvoir être exécutables. L'IDM est une méthodologie d'ingénierie logicielle qui privilégie la définition et l'exploitation de modèles et de méta-modèles, plutôt que la production manuelle de code source (Schmidt, 2006). Les travaux de recherche en IDM s'intéressent notamment à la spécification, l'exécution, la transformation, la composition de ces (méta-) modèles et proposent de nombreux outils et langages pour supporter ces activités. Le DSM (Kelly et Tolvanen, 2008) peut être considéré comme un processus issu de l'IDM, il vise à systématiser la conception et l'utilisation de langages de modélisation spécifiques à un domaine métier. Ces langages visent la plupart du temps des modèles formels à haut-niveau d'abstraction, le plus proche possible des constructions et de la sémantique du domaine métier visé, en opposition aux langages semi-formels dits généralistes, comme UML (Unified Modeling Language, qui demandent aux concepteurs un effort de spécification supplémentaire. Notre approche originale est de proposer une architecture directement dépendante du LMS considéré, afin de concevoir un langage de scénarisation tout en prenant en compte, dès son élaboration, des problématiques de correspondances entre le métier de conception, à niveau spécification (à construire), et le métier de conception du LMS, à niveau implémentation (à expliciter et formaliser). Nous ne cherchons pas à étendre les fonctionnalités du LMS avec de nouveaux plugins qui ajouteraient de nouveaux outils pédagogiques ou de nouveaux « moteurs d'exécution ». Notre objectif est de supporter la spécification de scénarios pédagogiques en accord avec le métier de conception du LMS, à niveau implémentation : ce métier est réifié au travers de certains outils/services, de certaines interfaces et paramétrages, du workflow ou learning flow sous-jacent, etc. Ce métier de conception doit être dans un premier temps identifié et formalisé sous forme de méta-modèle. Ce dernier servira alors de base à l'élaboration d'un schéma XSD (XML Schema Definition) qui définit le format de fichier compatible avec l'API d'import à développer. Cette API sera accessible aux enseignants-concepteurs à travers l'interface utilisateur de leur espace-cours sur la plateforme. Elle a pour fonction de traiter le fichier XML (eXtensible Markup Language) du scénario (issu de l'éditeur) afin d'ajouter les données adéquates à la base de données du LMS. Dans le cadre du projet GraphiT, des travaux précédents se sont intéressés à la formalisation du méta-modèle de la plateforme (Abedmouleh et al., 2008), expérimentée sur plusieurs plateformes dont Moodle. L’API a également été développée pour Moodle 2.4. Nous considérons dorénavant ces éléments comme existants et exploitables. Egalement, des résultats de travaux précédents (Loiseau et Laforcade, 2013) ont montré que la solution présentant le meilleur compromis entre expressivité pédagogique et compatibilité avec le LMS est d'étendre le méta-modèle de la plateforme. Cette solution a l'inconvénient de nécessiter une expertise importante en méta-modélisation afin de limiter le coût de développement induit par la nécessité de rendre les modèles conformes au méta-modèle de la plateforme (i.e. rétablir la compatibilité). En effet, en étendant le méta-modèle de la plateforme, nous modifions la syntaxe abstraite de notre langage de modélisation et donc perdons la conformité avec le format d'import de la plateforme. La figure 1 schématise : - (1) notre approche par extension du méta-modèle de Moodle pour élaborer le méta-modèle d’un Visual Instructional Design Language (VIDL), - (2) la nécessité de contrôler les correspondances vers Moodle pour les nouveaux éléments, et - (3) le besoin de remise en conformité du scénario produit. Malgré le fait que notre approche soit spécifique à un LMS cible, l’abstraction du métier d’implémentation doit être dirigée vers des pratiques et besoins au niveau spécification que l’on cherche à couvrir. La prochaine section traite de cette collecte. Figure 1 • Schématisation de notre approche et des verrous à considérer 3. Collecte et analyse des besoins Afin d'orienter nos propositions, nous avons mené à la fois une étude théorique sur plusieurs sources, notamment (Conole et al., 2004), et une étude plus pratique en interrogeant des ingénieurs pédagogiques ainsi que des enseignants universitaires. Nous avons également conduit une enquête à plus grande échelle, à l'aide d'un questionnaire en ligne, suivie d'entretiens avec certains des répondants. L'objectif était de vérifier nos hypothèses et de recueillir des avis sur les orientations du projet. Cela fut également l'occasion de collecter des informations sur les pratiques, en termes d'usage des LMS, et les besoins concernant les outils de conception pédagogique de nos potentiels utilisateurs finaux. 3.1. Analyse des résultats de l'enquête L'enquête (Podvin et Laforcade, 2014) a été réalisée sous la forme d'un questionnaire en ligne, diffusé au sein de la communauté francophone des enseignants du supérieur, sur une durée de quatre semaines. L'enquête visait en particulier les enseignants et ingénieurs pédagogiques utilisateurs de LMS. Le questionnaire comprenait 21 questions, permettant pour la plupart des réponses multiples. Les 8 premières questions (portant sur la conception globale des cours) étaient indépendantes du LMS utilisé par le répondant. Les autres questions n'étaient accessibles qu'aux personnes déclarant utiliser Moodle. Nous avons reçu et analysé 208 réponses. Voici quelques-uns des points les plus remarquables et pertinents dans le contexte de cet article. Sur le contexte d'enseignement : - 74 % des répondants utilisent un LMS en complément de leurs cours en présentiel (32 % uniquement pour cet usage) ; - 52 % l'utilisent pour des cours à distance ; - 37 % l'utilisent pendant les sessions en présentiel. Sur les types d'usage de la plateforme : - 91 % des répondants utilisent le LMS pour de la transmission de documents ; - 52 % pour recueillir des devoirs ; - 47 % pour supporter des activités collaboratives ; - 47 % pour des évaluations ; - 58 % pour des pratiques pédagogiques innovantes. La moitié des répondants a déclaré avoir expérimenté sur la plateforme par eux-mêmes. Parmi ceux qui ne se considèrent pas comme novices (56 %), 73 % déclarent avoir amélioré leurs compétences par eux-mêmes quant à l'utilisation de la plateforme. Bien que la moitié des utilisateurs de Moodle ayant répondu au questionnaire considèrent que l'interface utilisateur d'un cours est facile à manipuler, seuls 33 % pensent que les écrans de paramétrage à base de formulaires sont compréhensibles. D'un point de vue conception pédagogique, 38 % conçoivent entièrement (37 % partiellement) leur scénario avant de mettre en place le cours équivalent sur Moodle. 43 % de cette sous-population déclare rencontrer des difficultés lors de cette étape de transition et se sont sentis contraints à modifier leur scénario initial et leurs intentions (12 % déclarent ne pas réussir à adapter leur scénario). La majorité des utilisateurs de Moodle exploitent les fonctionnalités de base de la plateforme telles que l'indentation (64 %) ou le paramètre de visibilité (84 %). La moitié des répondants utilisent la fonctionnalité de notation des devoirs, ainsi que les groupes et groupements si nécessaire. 62 % utilisent la restriction d'accès, mais seulement 34 % le suivi d'achèvement. 15 des 22 fonctionnalités standards de Moodle ne sont pas bien connues par au moins 50 % des répondants. Le forum est largement préféré au chat pour les activités de communication. Pour mettre en œuvre des exercices, le devoir (47 %) et le test (37 %) sont préférés à Hot Potatoes (15 %) ou à la leçon (19 %). Le wiki est l'outil collaboratif le plus utilisé (23 %) (journal 8 %, atelier 8 %). 3.2. Analyse des entretiens Parmi les répondants ayant accepté de participer à un entretien complémentaire (téléphonique ou par visioconférence) à l’enquête, nous avons sélectionné 20 personnes en fonction de leur expertise quant à la scénarisation pédagogique et à l'utilisation de Moodle. Les personnes interrogées validaient la pertinence de Moodle pour des besoins pédagogiques simples, mais reconnaissaient que, pour des situations d'apprentissage plus complexes, l'activité de conception devenait chronophage. Les écrans de paramétrage leur paraissaient complexes et difficiles à manipuler, notamment à cause d'un mélange entre paramètres d'ordre pédagogique et d'autres purement techniques. Il leur était nécessaire de tester des combinaisons de paramètres différentes et de vérifier le résultat afin de pouvoir atteindre leur objectif. La plupart des personnes interrogées validaient l'idée d'un éditeur de scénario externe spécifique à Moodle et l'utilisation d'un bloc pour importer les scénarios dans l'interface du cours (l'aspect externe permettant de concevoir des scénarios en dehors de la plateforme, hors-ligne, et l'aspect graphique permettant de mieux visualiser le scénario dans son ensemble lors de la conception). Ils ont approuvé l'approche que nous proposions, en insistant sur l'intérêt de pouvoir manipuler des exemples d'usage d'outils de Moodle dans l'éditeur. Ils ont également mis en avant le besoin d'utiliser un langage/outil de conception qui couvre différents usages pédagogiques sans devenir pour autant trop générique. Certains ont exprimé le besoin de pouvoir continuer la conception avec l'éditeur après l'import afin d'adapter le scénario, même s'ils avaient conscience que la modification de celui-ci à la fois avec l'éditeur et directement sur Moodle risquait de poser problème. Cette étude a également montré que les enseignants n'ont pas de pratiques complexes communes, à cause de l'hétérogénéité de leurs niveaux d'expertises et de leurs approches pédagogiques. Néanmoins, ils ont en commun de réfléchir aux outils de la plateforme qu'ils vont employer en fonction de l'usage pédagogique qu'ils visent. En effet, un grand nombre d'entre eux ont pointé le problème d'interface utilisateur de Moodle : le nombre de paramètres nécessaires à la mise en place d'une activité est trop élevé. Il leur a semblé nécessaire d'avoir une vue plus abstraite en termes d'usages pédagogiques afin de les guider dans le choix du bon outil et des bons paramètres pour mettre en place l'activité pédagogique qu'ils conçoivent. 3.3. Analyse des besoins En ce qui concerne les besoins fonctionnels pour un outil-auteur graphique dédié à Moodle, les enseignants ont évoqué le besoin de ne pas être contraints dans leur méthode de scénarisation : une approche top-down, de la spécification vers l'implémentation, ne doit pas être imposée. Ainsi, ils souhaitent pouvoir mixer les concepts de spécification (des briques pédagogiques abstraites) et ceux d'implémentation (les briques de base issues du métier de la plateforme comme les outils, ressources, etc.). Un autre besoin identifié était de pouvoir visualiser une implémentation possible (traduite dans le métier de conception de Moodle) d'une brique pédagogique sans avoir à la spécifier eux-mêmes (implémentation par défaut), tout en ayant la possibilité de la modifier manuellement (adaptation de l'implémentation). Cette approche de conception devrait aider les concepteurs à s'approprier les concepts pédagogiques et à maîtriser leurs traductions en éléments de la plateforme. Un autre point soulevé concernait la possibilité de déclarer dans le scénario des informations qui n'ont pas d'implémentation directe sur la plateforme ou qui ne seront pas visibles par les étudiants : indications pour une session en présentiel, précisions sur des objectifs pédagogiques, informations sur les étudiants, précisions sur les activités durant le déroulement de la session d'apprentissage, etc. Enfin, un besoin de conception que nous avons identifié est celui de pouvoir séquencer les activités au sein de structures avancées (séquences, activités au choix, etc.) pour lesquelles le contenu ne serait dévoilé qu'après la réalisation de l'activité précédente. Cette possibilité est offerte par Moodle dans sa version actuelle, mais nécessite un travail de paramétrage assez complexe (suivi d'achèvement et restriction d'accès) que les enseignants apprécieraient de ne pas avoir à faire manuellement. 4. Abstraction du méta-modèle de scénarisation Nous avons étudié comment abstraire le métier de conception pédagogique d'un LMS sous deux angles : l'un théorique, applicable à différents LMS, l'autre pratique, centré sur Moodle. Nous avons suivi une approche bottom-up en nous concentrant d'abord sur notre cas d'étude : Moodle. A partir des besoins des enseignants-concepteurs présentés précédemment, une abstraction possible est de s'appuyer sur des usages récurrents de fonctionnalités de la plateforme pour une activité pédagogique donnée. Du point de vue de la théorie de l'activité (Engeström, 1987) (Benson et al., 2008), les activités pédagogiques impliquent de traduire également sur la plateforme les concepts de sujet, objet, outils/artefacts, communauté, division du travail, et règles. Les résultats des enquêtes et entretiens mettant davantage en avant le besoin de faciliter le paramétrage des outils sur la plateforme, nous avons décidé de nous concentrer sur cette problématique sous l’angle de la relation sujet ↔ outils/artefacts. Les sections suivantes décrivent ces abstractions et leur formalisation dans le cas de la plateforme Moodle. Les éléments importants constituant ce méta-modèle sont expliqués dans les sous-sections suivantes. Nous reviendrons ensuite sur la vue générale en 4 niveaux du méta-modèle. 4.1. L’activité pédagogique comme abstraction des outils Nous définissons une activité pédagogique comme une abstraction du paramétrage d'un outil de la plateforme dans le cadre d'un usage pédagogique spécifique. A l'aide d'un seul « outil », par exemple un forum, il est possible de concevoir plusieurs usages pédagogiques, qui dépendent de la configuration de l'outil : forum de nouvelles aux étudiants, mise en place de groupes, activité de revue par les pairs, etc. Du fait de la multiplicité des outils disponibles pour un même usage, il est nécessaire de trouver des critères discriminants qui permettent d'identifier l'implémentation la plus adéquate pour une activité pédagogique. L'instanciation d'une activité pédagogique nécessite de renseigner un nom, une description (textuelle) et l'ensemble des critères au moment de la conception du scénario. Ces derniers seront utiles à l'identification de l'implémentation par défaut. Par exemple, une activité de type échange entre étudiants pourrait être implémentée à l'aide d'un chat ou d'un forum, le choix dépendant du caractère synchrone/asynchrone de la communication envisagée. 4.2. Structures d'activités Selon (Gedera et Williams, 2013), la mise en place d'un cours en ligne nécessite un séquencement minutieux des activités, intégrant différents types de structures lors de la conception. Afin d'aider les enseignants-concepteurs à mettre en place des combinaisons d'activités et de ressources complexes, nous proposons d'ajouter des éléments structurels, habituels dans les VIDL (séquence, sélection, etc.). Ces structures peuvent être composées d'activités ou d'autres structures. Dans le cas de Moodle ces structures se traduiront par une combinaison d'étiquettes, indiquant son nom et son type, et d'indentation du contenu de la structure. Au moment de l'export, les paramètres des éléments contenus liés au suivi d'achèvement, à la restriction d'accès, à la visibilité, etc. seront fixés en fonction du type de structure. Les correspondances (spécification vers implémentation) de ces éléments sont fixées et non adaptables. Bien que celles-ci soient discutables, car issues de notre expertise de Moodle, l’intérêt est davantage porté sur la manière dont nous formaliserons et exploiterons ces correspondances dans la conception de l’éditeur final plutôt que sur leur pertinence objective. 4.3. Retour sur la résolution des verrous de remise en conformité Les modèles produits (scénarios) par l'éditeur doivent être conformes au méta-modèle initial de la plateforme pour pouvoir être importés via l’API que nous avons développée. Nous proposons de restaurer cette compatibilité à l'aide de deux phases de transformation de modèles. La première est exécutée durant l'utilisation de l'éditeur à une granularité fine : elle propose à l'utilisateur des correspondances pour les activités pédagogiques en termes de fonctionnalités de la plateforme. La seconde transformation agit comme un système d'export, dans une phase post-conception du scénario. Elle permet la production d'un modèle parfaitement conforme au méta-modèle de la plateforme. Tous les éléments du méta-modèle du VIDL qui ne sont pas des activités pédagogiques sont concernés par cette traduction. Les correspondances seront donc prises en compte dès l’identification et l’ajout de ces éléments, de manière similaire aux correspondances évoquées dans la section précédente pour les structures d’activités. Le propos de cette communication concerne davantage l’identification, la formalisation et l’exploitation des correspondances des activités pédagogiques. Les autres correspondances seront toutefois évoquées, ainsi que leur mise en œuvre technique (cf. section sur l’éditeur). Figure 2 • Les deux types de transformations La section suivante présente le méta-modèle du VIDL que nous proposons pour Moodle. 4.4. Une syntaxe abstraite à quatre niveaux La syntaxe abstraite que nous proposons pour le langage de scénarisation centré sur Moodle est composée de quatre niveaux. Figure 3 • Syntaxe abstraite (partielle) du langage de scénarisation intégrant le méta-modèle de Moodle La figure 3 illustre notre proposition à l'aide d'une représentation graphique du modèle Ecore du domaine (le format utilisé par Eclipse Modeling Framework pour les méta-modèles). Le niveau 1 correspond au méta-modèle de Moodle. Les éléments de niveau 1, limités aux outils Moodle, peuvent être directement instanciés dans le scénario par le concepteur qui devra ensuite remplir les paramètres associés (utilisation partielle directe). Ce niveau comprend également les concepts de cours et de sections, groupes/groupements, objectifs, indispensables à l'opérationnalisation du scénario. La transformation post-conception (lors de l’export du scénario) prendra en charge la création et l’ordonnancement de ces éléments Moodle afin de produire un scénario cohérent et compatible avec l'API que nous avons développée (génération complète indirecte). Le niveau 2 comprend les briques abstraites du langage : les activités pédagogiques. Elles sont composées d'éléments de niveau 1 (outils et ressources de Moodle) qui seront dynamiquement déduits, instanciés et ajoutés pendant l’utilisation de l’éditeur. La figure 3 illustre seulement quelques exemples pour ces activités. La version complète du méta-modèle contient l’ensemble des activités pédagogiques que nous avons identifiées (cf. section suivante) et leurs propriétés pédagogiques discriminantes. Le niveau 3 propose les structures d'activités (séquence, au choix, etc.), qui sont reliées aux éléments de niveau 2 ou 1 afin que les concepteurs puissent pendant la scénarisation regrouper sans distinction activités pédagogiques et outils Moodle. Enfin, le niveau 4 est d'ordre organisationnel et correspond au découpage global de la session d'apprentissage en sessions plus fines de natures diverses. Ces sessions contiennent les éléments des niveaux 1 à 3. Elles se traduiront en sections dans Moodle, qui est le seul concept qui permette la structuration. Néanmoins, la fonctionnalité d'indentation du contenu dans Moodle (la position horizontale des éléments) sera exploitée pour représenter visuellement la notion de contenance entre les éléments de niveaux 4 et les autres niveaux, ainsi qu’entre les structures d'activités et leurs contenus (éléments de niveau 3 composés d’éléments de niveaux 1 et 2). Ces correspondances seront réalisées lors de l’export du scénario afin de positionner tous les éléments du scénario, quel que soit leur niveau, en éléments inter-reliés conformes à l’unique niveau 1 (celui précisant comment implémenter des scénarios spécifiques, les espaces-cours de Moodle). Les méta-classes en fin d'arbre d'héritage (sur le diagramme de la figure 3), sont des exemples d'éléments de chacun des niveaux ; leurs attributs ne sont pas représentés ici, mais chacun possède des propriétés. Concrètement, dans l'éditeur, l'utilisateur aura accès dans un premier temps aux éléments de niveau 4 dans la palette d'outil. Ces éléments, équivalents aux sections de Moodle, sont indispensables à la structure du cours. Il est également possible d'intégrer des sessions qui ne reposent pas sur le LMS, spécifiables à l'aide d'un attribut booléen operationnalisable, afin de pouvoir représenter un cours complet au sein du scénario. Lorsque l'utilisateur double-cliquera sur un élément de niveau 4 opérationnalisable, un sous-diagramme s'ouvrira, permettant alors d'ajouter des éléments des niveaux 1 à 3 disponibles dans la palette. Ainsi, le concepteur a toute liberté de choisir son approche et le niveau de description désiré lors de la sélection des différents éléments. A l'exception des structures, tous les autres éléments des niveaux 2 et 3 ouvriront un sous-diagramme présentant une implémentation par défaut correspondant à l'élément parent et à son paramétrage. Cette implémentation peut alors être modifiée librement. Les 4 niveaux présentés dans le diagramme représentent donc les 4 niveaux d’éléments proposés inter-reliés par 3 relations de « contenance » possibles (spécifiées par des relations de composition dans la figure 3). Le niveau des sessions peut contenir des éléments issus des 3 autres niveaux, le niveau des structures d'activités peut contenir également des éléments des niveaux 1 à 3 (une structure d’activité peut contenir d’autres structures d’activités). Le niveau des activités pédagogiques contient les éléments de niveau 1 traduisant la correspondance associée au paramétrage actuel des activités pédagogiques. Nous proposons pour les spécifications de l’éditeur graphique (cela reste discutable) : - (1) qu’il y ait un diagramme pour spécifier les éléments de niveau 4 (les sessions), - (2) que chaque session puisse avoir un diagramme dans lequel seront spécifiés, à la convenance du concepteur, les structures activités, les activités pédagogiques, et les outils Moodle, - (3) que chaque activité pédagogique puisse être « ouverte » pour visualiser un diagramme spécifiant, en termes d’éléments de Moodle, la correspondance (modifiable) qui est réalisée dynamiquement pendant la scénarisation. Le méta-modèle que nous avons présenté décrit la structure d’imbrication de nos 4 niveaux. Pour autant, les correspondances des éléments de niveaux 4 (sessions) et 3 (structures d’activités) ne sont pas capturées dans ce méta-modèle. Ces spécifications ont été directement formalisées et mises en œuvre sous la forme d'un modèle de transformation à l’aide du framework ATL (ATLAS Transformation Language) (Jouault et al., 2006), elles ne sont pas davantage présentées dans cet article. En revanche, les correspondances entre activités pédagogiques et implémentation Moodle ne sont pas triviales à identifier et capturer. 5. Un concept central : l'activité pédagogique 5.1. Identification des activités pédagogiques et de leurs correspondances Afin d'identifier les outils les plus appropriés à l'implémentation d'une activité pédagogique, nous avons suivi une méthode en trois étapes : - analyse, pour chacun des outils proposés par Moodle, de ses usages récurrents (méthode bottom-up) ; - identification d'outils permettant des usages identiques (top-down) ; - spécification des critères discriminants permettant la sélection de l'outil le plus adéquat. Moodle, dans sa version 2.4, propose 7 types de ressources (Livre, Page, Étiquette, Paquetage IMS, Fichier, Dossier et URL) et 13 activités (Forum, Base de données, Glossaire, Devoir, Leçon, Test, Atelier, Paquetage SCORM, Outil externe, Sondage, Consultation, Wiki et Feedback). Après avoir étudié les usages récurrents de chacun de ces outils, nous avons remarqué que certains d'entre eux pouvaient avoir des usages détournés. Par exemple, un forum peut être utilisé pour discuter autour d'une thématique, mais peut également servir de Foire Aux Questions (FAQ), ou permettre aux étudiants de partager des fichiers. Dans un second temps, nous avons identifié quels outils avaient des usages en commun, par exemple, pour une FAQ il est possible d'utiliser un forum, un wiki, ou un glossaire. Nous avons pu alors définir des critères discriminants afin d'aider l'enseignant à décider quel outil utiliser lorsque le choix se présente. Il est possible de représenter ces critères dans une matrice de décision qui se construit selon les règles suivantes : - R1. Le nom de l'activité pédagogique est formulé du point de vue de l'étudiant (sauf si l'activité leur est invisible, et dans ce cas c’est le point de vue de l’enseignant qui est pris), exemple : « Répondre à un sondage » plutôt que « Créer un sondage ». - R2. Les outils permettant de mettre en œuvre l'activité pédagogique considérée sont représentés sur les colonnes. - R3. Les critères discriminants sont représentés sur les lignes. - R4. Les critères discriminants doivent exprimer, le plus possible, une caractéristique pédagogique et doivent être formulés comme des questions fermées (oui/non). - R5. Les cellules à l'intersection d'un outil et d'un critère doivent contenir toutes les valeurs possibles de critères qui permettent de choisir cet outil. - R6. Un critère discriminant doit permettre de discriminer au moins un outil. - R7. La matrice est complète s’il n'y a pas de combinaisons de critères parfaitement identiques menant à deux outils. Une matrice incomplète nécessite d'ajouter des critères supplémentaires, jusqu'à satisfaire la règle R7. Le tableau 1 ci-dessous présente un exemple pour l'activité « Répondre à un sondage », pour laquelle quatre outils sont disponibles : test (O1), sondage (O2), feedback (O3) et consultation (O4). Nous proposons 7 critères discriminants : - (C1) Il y a-t-il plusieurs questions ? - (C2) Il y a-t-il uniquement des questions à choix multiples ? - (C3) Voulez vous utiliser des questionnaires prédéfinis ? - (C4) Est-ce en temps limité ? - (C5) Est-ce anonyme ? - (C6) Est-ce noté ? - (C7) Il y a-t-il un feedback après la validation du sondage ? Selon la matrice du tableau 1, l'outil consultation (O4) par exemple, permet de sonder sur plusieurs questions, proposant des choix multiples et des questionnaires prédéfinis. Pour cet outil, il n'est pas possible d'imposer une limite de temps pour répondre, ni d'anonymiser les réponses ou de les noter. On ne peut pas non plus donner de feedback à l'apprenant. Tableau 1 • Exemple de matrice de décision Cette matrice doit également être complétée par des informations sur les paramètres de l'outil sélectionné, qu'ils soient généraux (peu importe les valeurs des critères), ou contextuels (la valeur du paramètre dépend d'une réponse à un des critères). Ces précisions optionnelles sont importantes pour encapsuler, dans les correspondances, l’implémentation Moodle détaillée de l’activité pédagogique considérée. 5.2. Formalisation des correspondances par tissage de modèles Conformément à notre approche dirigée par les modèles, nous exploitons les transformations de modèles pour mettre en œuvre le mécanisme d'implémentation par défaut. Ces transformations sont exécutées à la demande, durant le processus de modélisation du scénario lorsque le concepteur double-clique sur une activité pédagogique qu’il a paramétrée. Cela permet d'ajouter automatiquement au scénario des éléments d'implémentation (niveau 1) qui seront représentés graphiquement dans un sous-diagramme. Ces transformations de modèles sont coûteuses à produire, en raison notamment du nombre d'éléments à implémenter et de la complexité des règles de correspondance. Afin de pallier ce problème nous proposons d'utiliser le tissage de modèles, présenté dans (Loiseau et al., 2014), afin de formaliser les règles de correspondances à l'aide d'un modèle de tissage et de générer le code source des transformations de modèles. D'un point de vue pratique, à l'aide de la matrice construite par un expert de la plateforme telle que présentée dans la section 5.1, un ingénieur modélise les règles de correspondances entre une activité pédagogique et des outils de la plateforme afin de produire un modèle de tissage. Il utilise ensuite une transformation de haut niveau (une transformation de modèle spécifique) afin de générer le code des transformations de modèle permettant effectivement d'opérer les correspondances. Ces dernières peuvent alors être intégrées à l'éditeur et s'exécuteront à la demande, pendant l'utilisation de l'éditeur par l'enseignant-concepteur. Le modèle de tissage peut être spécifié à l'aide d'un langage de tissage utilisant un méta-modèle de tissage générique que nous proposons. Ce méta-modèle de tissage définit la syntaxe du modèle de tissage (de correspondances). Chaque correspondance (ou binding) référence un élément source (l'activité pédagogique) et un ou plusieurs éléments cibles (l'outil) tous issus du méta-modèle du langage de scénarisation. Il est possible de poser des conditions sur « l'instanciation » d'une cible et de donner des valeurs à ses attributs (également avec des conditions). La figure 4 présente un exemple de modèle de tissage issu de la matrice de décision du tableau 1. Ce modèle définit les valeurs des critères pour lesquelles un outil Moodle doit être instancié en les combinant avec des opérateurs ET/OU/NON. Les informations sur les paramètres des outils doivent être déduits des indications données par l'expert (non représentés sur la figure 4). Figure 4 • Exemple de modèle de tissage Nous exploitons les outils et langages du projet Epsilon (Paige et al., 2009) afin de construire un framework de tissage de modèles correspondant à nos besoins. Nous utilisons le format Ecore, comme précédemment pour formaliser les méta-modèles. Les modèles de tissage sont édités à l'aide de ModeLink, un éditeur de modèles à trois panneaux qui permet de présenter les méta-modèles nécessaires au tissage sur les côtés gauche et droit, tandis que le modèle de tissage sera spécifié au centre. Les transformations de modèles exécutées pendant l'utilisation de l'éditeur afin de réaliser les correspondances sont exprimées à l'aide de l'Epsilon Object Language (EOL) et sont générées par une transformation Model to Text, faisant office de transformation de haut niveau, à l'aide du langage Epsilon Generation Language (EGL). Notre approche de spécification des correspondances exploite pour le moment l’outillage technique de l’IDM. Cette proposition technique montre que le codage des correspondances n’est plus nécessaire : leur formalisation peut être réalisée sous la forme d’un modèle simple spécifié en se basant sur les données décrites dans les matrices d’identification précédemment exposées. Il serait donc envisageable prochainement de déduire automatiquement ces modèles sur la base d’un éditeur dédié réifiant la sémantique des matrices d’identification. 6. Exemple de scénario pédagogique Nous proposons d'illustrer notre approche en formalisant un scénario pédagogique simple, mais représentatif, visant le LMS Moodle. Nous présentons dans un premier temps une description textuelle du scénario puis illustrons sa formalisation à l'aide du méta-modèle présenté dans la section 4. La figure 5 est une capture d'écran du scénario exemple, ouvert dans un éditeur en arbre EMF (il ne s’agit pas de l’éditeur graphique final, mais d’un éditeur de base permettant de spécifier des modèles conformes, par construction, avec leur méta-modèle). Figure 5 • Exemple de scénario pédagogique composé d'éléments des quatre niveaux 6.1. Description et formalisation Le scénario exemple est composé de deux sessions d'apprentissage. La première est un cours magistral pour lequel l'enseignant souhaite donner accès aux ressources utilisées en présentiel (Resource consultation). Cette activité pédagogique possède un attribut quantity valant one et un attribut location valant local (une seule ressource qui sera disponible directement sur le LMS). Ces propriétés permettront au mécanisme d'implémentation par défaut de sélectionner l'outil File (fichier) et de l'ajouter au scénario (voir la figure 6). La seconde session d'apprentissage est de type travaux pratiques et se déroulera en présentiel dans une salle équipée d'ordinateurs. L'enseignant souhaite utiliser Moodle pour supporter une séquence d'activités comprenant quatre éléments. Le premier est une autre activité Resource consultation, dont les attributs quantity et location valent respectivement many et local. L'implémentation choisie cette fois est le dossier (folder). Le second élément de cette séquence est une activité de brainstorming qui, selon son attribut orientation, sera implémentée à l'aide d'un forum. De façon similaire, l'activité suivante (Report Writing) exploitera un wiki à cause de la dimension collaborative. Le dernier composant de cette séquence, Guidance, permet à l'enseignant de créer un mémo lui rappelant d'évaluer les productions des étudiants. Selon sa propriété public valant tutor, il se traduira sur Moodle en une étiquette (Label) ayant la propriété visible à faux, de manière à n'être visible que par l'enseignant. La figure 6 présente le scénario une fois les implémentations de chacune des activités pédagogiques ajoutées automatiquement. Figure 6 • Exemple de scénario pédagogique intégrant les implémentations automatiques Cette représentation en arbre permet de bien illustrer la hiérarchie de « nœuds » du modèle : - le scénario est la racine, il est composé de sessions ; - les sessions contiennent soit des activités pédagogiques (comme resource consultation), soit des structures d’activités (comme sequence), soit directement un outil Moodle (comme le premier Label visible) ; - les structures d’activités peuvent à nouveau être composées de ces 3 types d'éléments (1 seul visible dans l’exemple) ; - les activités pédagogiques sont composées d’outils Moodle (comme File sous Resource Consultation). La figure 7 présente un modèle de tissage spécifiant les correspondances des 5 activités pédagogiques impliquées dans l’exemple du scénario. Figure 7 • Exemple de modèle de tissage spécifiant les correspondances des activités pédagogiques impliquées dans l’exemple de scénario 6.2. Prototype d'éditeur de scénarios réifiant les propositions Nous avons développé un prototype d’éditeur de scénarios. Il réifie notre proposition de langage et intègre la mise en œuvre des correspondances (celles au runtime, pour visualiser les implémentations Moodle des activités pédagogiques, et celles à l’export du scénario, pour restaurer sa conformité avec Moodle). Ce prototype nous permettra de vérifier la spécification d’un scénario en conformité avec les besoins identifiés par le travail exploratoire (enquête et entretiens) et la bonne exécution des différentes transformations de modèles. Pour mettre en œuvre l’éditeur nous avons tout d’abord spécifié une notation graphique (syntaxe concrète au sens DSM) sur la base du méta-modèle de scénarisation présenté dans la section 4. Cette notation décrit les représentations graphiques souhaitées pour les éléments du méta-modèle (concepts, propriétés et relations). Nous avons pour cela utilisé l'outillage DSM du projet Sirius (Sirius, 2016) qui permet de créer des éditeurs de modèles de façon plus rapide et demandant moins de compétences techniques qu'avec d’autres outillages comme GMF (Graphical Modeling Framework) (Eclipse Modeling Project, 2016), traditionnellement utilisé pour ce type de besoin. La syntaxe concrète est définie dans Sirius à l'aide d'un seul modèle (Viewpoint Specification Model) qui sera ensuite « interprété » à l'exécution par un plugin Eclipse dédié. Cette méthode sans génération de code permet de réduire significativement les coûts de développement d'un éditeur graphique et favorise le prototypage. Plusieurs diagrammes peuvent être spécifiés et articulés ensemble (support pour des langages en couches). Un élément de modèle peut avoir plusieurs représentations visuelles dans  un même diagramme (support pour des représentations multiples). Sirius prend en charge également la spécification des palettes d’outils présentant, à côté d’un diagramme, les éléments de modélisation disponibles, des menus contextuels, des actions réalisables sur les éléments de modèle, etc. Sirius propose un mécanisme pour appeler un service externe : nous l’avons exploité afin d’intégrer à l'éditeur les transformations de modèle nécessaires aux mécanismes d'implémentation par défaut et de remise en conformité finale. Figure 8 • Capture d'écran d'un diagramme de sessions d'apprentissage Cette notation graphique n’a pas fait l’objet d’une étude approfondie, au sens des préconisations d’étude de (Moody, 2009). Elle vise simplement à permettre de distinguer les éléments composant les diagrammes (couleurs, formes, emboitements). Elle reste subjective et discutable. Nous présentons ci-après cette notation à travers les 3 types de diagrammes que nous proposons. Le premier diagramme est celui des sessions d’apprentissage (voir figure 8). Il permet de spécifier un premier niveau de découpage du scénario nécessaire, étant donné que chaque session correspondra à une Section dans l’espace-cours de Moodle. Lorsque l'utilisateur double-clique sur l’une des sessions d'apprentissage de ce diagramme, un nouveau diagramme des activités s’ouvre, dans lequel il est possible d’a
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Revue Sticef.org - Comprendre les processus de construction et de régulation des EPA par des étudiants universitaires

Revue Sticef.org - Comprendre les processus de construction et de régulation des EPA par des étudiants universitaires | learning-e | Scoop.it
Comprendre les processus de construction et de régulation des EPA par des étudiants universitaires   Joris FELDER (Université de Fribourg)   RÉSUMÉ : Cet article situe les processus de construction et de régulation de l’environnement personnel d’apprentissage par l’étudiant en tant qu’objet de recherche. Il développe un modèle qui conceptualise l’EPA comme le produit d’une activité d’apprentissage dans laquelle des processus de construction et de régulation de l’EPA sont réalisés par l’étudiant en interaction avec sa perception du dispositif de formation et la définition de son projet d’apprentissage. Ce modèle, utilisé de manière exploratoire pour analyser les cas de cinq étudiants universitaires, permet de décrire ces processus. Nous en discutons l’intérêt heuristique, les limites et les perspectives. MOTS CLÉS : Environnement Personnel d’Apprentissage, autorégulation environnementale, stratégies, instruments. Understanding construction and regulation processes of university student's personal learning environment ABSTRACT : This article positions the construction and regulation process of personal learning environment as a research object. It develops a model which conceptualise the PLE as the products of a learning activity, in which construction and regulation processes of the PLE are conducted by the student in interaction with the student’s perception of the learning system and his own definition of his learning project. This model is used to analyse five cases of university students, and allows to describe the construction and regulation process of the PLE. We discuss the heuristic value, as well as the limits and perspectives. KEYWORDS : personal learning environment, self-regulation, strategies, instruments. 1. Introduction Considérer que l’étudiant utilise des outils, des ressources et des personnes qui n’ont pas été prévus initialement par les concepteurs d’un dispositif d’apprentissage et qu’il constitue ainsi son Environnement Personnel d’Apprentissage (EPA), c’est renouveler la compréhension de l’apprentissage aujourd’hui. Les dispositifs d’apprentissages ouverts tels que les MOOCs (Massive Open Online Courses) laissent, par leur conception de l’apprentissage, percevoir le plein potentiel des EPA (Henri, 2014). Mais ce potentiel s’exprime également dans des dispositifs de formation, qu’ils soient à distance, hybrides, traditionnels (en classe), ou encore dans l’apprentissage au-delà des frontières des contextes formels de formation (Charlier, 2014). En effet, si la notion d’EPA n’est pas nouvelle en soi – les étudiants ont toujours dû construire et organiser leur environnement – c’est avec l’émergence du web 2.0 et des changements dans nos rapports au savoir et à l’apprentissage, ainsi que dans l’abondance et la diversification des ressources d’apprentissage, que l’environnement de l’étudiant se complexifie et se transforme. Afin de soutenir les étudiants, les formateurs et autres acteurs impliqués dans l’ingénierie pédagogique, il est nécessaire de développer une compréhension solide des processus de construction et de régulation de l’EPA par l’étudiant. Prendre conscience de ces processus doit permettre à l’apprenant de mettre en œuvre des actions métaréflexives et métacognitives orientées vers son EPA, facteur de réussite d’un projet d’apprentissage. Au formateur, la connaissance de ces processus doit permettre de prévoir des interventions pédagogiques en connaissance de cause et d’agir au niveau méthodologique. Enfin, la compréhension de ces processus doit permettre aux concepteurs pédagogiques d’anticiper les divergences entre EPA des étudiants et environnements prescrits au regard des objectifs pédagogiques ciblés. A notre connaissance, la littérature ne définit pas les processus de construction et de régulation de l’EPA par l’étudiant en tant qu’objet de recherche au sens de Davallon (Davallon, 2004), ou ne l’est du moins encore qu’à un stade exploratoire. Or, pour rendre intelligible ce processus, il est nécessaire de disposer d’un cadre d’analyse solide. Pour combler cette lacune, nous proposons tout d’abord une construction de cet objet de recherche à partir d’éléments théoriques (partie 2), reprenant des pistes apportées par divers auteurs, notamment celles rassemblées en 2014 dans un numéro spécial de la revue STICEF (Peraya et al., 2014). Sur cette base, nous développons un modèle conceptuel (partie 3) qui explicite des variables individuelles cognitives et socio-cognitives, ainsi que des variables contextuelles et instrumentales considérées comme déterminantes dans ces processus. Ce faisant, nous formulons l’hypothèse que les processus de construction et de régulation de l’EPA par l’étudiant sont déterminés par son projet d’apprentissage (objectifs et critères d’évaluation), le dispositif de formation (artefacts pédagogiques, didactiques, techniques et sociaux), des variables personnelles (approches d’apprentissage, schèmes d’utilisation, stratégies de régulation de l’EPA) et par l’EPA lui-même (instruments et systèmes d’instruments qui le composent). Pour contribuer à une meilleure compréhension des processus de construction et de régulation de l’EPA par l’étudiant, nous avons mené une recherche empirique à partir de notre hypothèse, appliquant notre modèle conceptuel comme cadre d’analyse. Les objectifs et la méthode sont exposés dans la partie 4. Nous analysons l’évolution des EPA et des interactions entre les variables de notre modèle, les effets des instruments eux-mêmes sur le processus, ainsi que des conduites et des stratégies de régulation orientées vers l’EPA. Les résultats sont présentés dans la cinquième partie et discutés à la partie 6. Il convient ici de relever la dimension itérative de notre démarche : le modèle conceptuel constitue un cadre d’analyse menant aux résultats et ces résultats ont permis de réviser le modèle conceptuel. 2. Construction de l’objet de recherche Dans ce chapitre, nous construisons l’objet de recherche en concevant l’EPA comme un phénomène qui se caractérise par sa nature subjective (Väljataga et Laanpere, 2010), par le recours aux technologies (mais pas exclusivement) et par la mise en œuvre d’un nouveau paradigme pédagogique (partie 2.1). Nous postulons dans les parties suivantes que l’EPA est l’un des produits d’une activité d’apprentissage (partie 2.2), activité dans laquelle ont lieu des processus de construction de l’EPA (partie 2.2.1) et de régulation de cet EPA (partie 2.2.2). 2.1. L’EPA, entre technologie, approche pédagogique et réalité subjective Le travail que nous entreprenons dans cette recherche est tributaire de la complexité de la notion d’EPA. À l’origine de la notion d’EPA se trouvent trois éléments problématiques : (1) les plateformes d’e-learning conçues de manière monolithique et centralisatrice ne sont pas adaptées aux possibilités des technologies et aux pratiques sociales actuelles ; (2) l’apprenant doit pouvoir se responsabiliser en prenant le contrôle de ses apprentissages et en choisissant librement les technologies avec lesquelles il apprend ; (3) l’apprentissage tout au long de la vie doit être soutenu et valorisé (Henri, 2014, p. 5). Selon la problématique à laquelle ils s’intéressent, les auteurs appréhendent l’EPA comme un assemblage d’outils technologiques, comme une des composantes à prendre en compte dans les conceptions pédagogiques, ou encore comme une réalité subjective (Henri, 2014). Or, c’est dans leur caractère complémentaire que ces diverses approches peuvent répondre aux problématiques qui sont à leur origine. Ainsi, notre conception de l’EPA reprend aux approches technologiques (Gillet et Li, 2014), (Ivanova et Chatti, 2011), (Alharbi et al., 2013) la définition de l’environnement comme : « une composition spontanée et éventuellement éphémère de canaux de communication, de ressources distribuées du cloud, d’applications web et de réseaux sociaux, assemblée de manière agile et partagée en ligne ; définissant un contexte d’interaction pour une activité d’apprentissage ou de gestion de connaissance donnée (...) » (Gillet, 2013, p. 1). Cette définition limitant l’environnement à sa dimension technologique, il est nécessaire de l’étendre en considérant également les ressources non-numériques et humaines que l’apprenant utilise dans son activité d’apprentissage (Väljataga et Laanpere, 2010), (Roland, 2014), (Charlier, 2014). Si cette définition a le potentiel d’être adaptée aux possibilités des technologies et des pratiques sociales actuelles, elle ne suffit pas, selon nous, à distinguer les EPA des autres environnements numériques d’apprentissage. Pour que la notion d’EPA puisse correspondre au deuxième élément problématique mentionné plus haut, il nous paraît nécessaire de concevoir l’EPA comme un environnement d’apprentissage et subjectif, au sens de Väljatage et Laanpere, c’est-à-dire « un environnement (...) qui est personnel si l’individu exerce un contrôle sur celui-ci, (...), qu’il a l’opportunité de le concevoir, d’y accéder, de l’utiliser, de le modifier et d’y attacher du sens » (Väljataga et Laanpere, 2010, p. 282). En d’autres termes, l’EPA est un environnement propre à chaque apprenant, susceptible de varier d’un individu à un autre, conçu au moins en partie par l’apprenant ou par le groupe, comme le proposent (Charlier, 2014) et (Heutte, 2014). Enfin, cette notion d’EPA exprime selon nous son plein potentiel si et seulement si nous l’appréhendons comme une composante à considérer dans les approches pédagogiques, tant du point de vue de l’enseignant et des concepteurs que du point de vue de l’apprenant désireux de diriger son apprentissage. C’est donc au regard de la finalité qu’est l’apprentissage que nous nous intéressons dans cette recherche à l’EPA propre à chaque étudiant, composé de ressources technologiques numériques, non numériques et humaines, construit et régulé par l’étudiant. 2.2. L’EPA : le produit d’une activité d’apprentissage Après avoir défini notre conception de la notion d’EPA, il s’agit maintenant d’établir l’appareil notionnel soutenant notre conceptualisation des processus de construction et de régulation de l’EPA par l’étudiant. Comme d’autres, nous proposons qu’il y a construction de l’EPA par l’étudiant (partie 2.2.1) (Peraya et Bonfils, 2014), (Roland et Talbot, 2014), (Charlier, 2014), (Henri, 2014) et qu’il y a régulation de cet EPA (partie 2.2.2) (Drexler, 2010), (Dabbagh et Kistansas, 2011), (Kravcik et Klamma, 2012), (Charlier, 2014), (Jézégou, 2014), (Heutte, 2014). Tout d’abord, nous situons ces processus de construction et de régulation de l’EPA dans un système d’activité, au sens de la théorie de l’activité (Engeström, 1999). Il est composé de six éléments placés en interaction dans une représentation bi-triangulaire : le sujet, l’objet, les artefacts médiateurs, les règles, la communauté, la division de la tâche. Ce système, qui prend en compte « la fondamentale nature culturelle et sociétale de l’activité humaine » (Engeström, 1999, p. 22), fournit en effet un cadre pour étudier les processus de construction et de régulation de l’EPA. Il amène à analyser l’action du sujet en distinguant ses différentes composantes. Ainsi, l’analyse ne se focalise pas sur les ressources numériques, non-numériques et humaines que le sujet utilise, mais privilégie l’observation de l’activité dans son ensemble. De plus, le système d’activité permet de « mettre en lumière les contradictions et les tensions entre les différentes composantes » de l’activité (Henri, 2014). Buchem, Attwell et Torres ont utilisé la théorie de l’activité pour identifier les composants des EPA en tant que système (Buchem et al., 2011). Ces composants ont été catégorisés selon les six pôles du modèle d’activité. Toutefois, leur application de la théorie de l’activité ne convient pas à l’étude de la construction et de la régulation de l’EPA. Selon nous, il est plus pertinent de modéliser l’activité d’apprentissage en tant que système (figure 1) dont les composantes sont définies de la manière suivante. Le sujet est l’étudiant ; les artefacts médiateurs sont les ressources numériques, non-numériques et humaines utiles à l’activité d’apprentissage ; l’objet est le projet d’apprentissage ; les règles sont celles du contexte d’apprentissage dans lequel l’étudiant évolue, la communauté est constituée du groupe-classe et de la communauté d’intérêt correspondant à l’objet d’apprentissage ; enfin, la division du travail résulte de l’organisation de la situation d’apprentissage en question. Dans ce système, l’EPA est défini comme l’un des produits de l’activité d’apprentissage. Figure 1 • Application du modèle d’Engeström à l’activité d’apprentissage conceptualisée comme un système 2.2.1. Un processus de construction d’un système d’instruments Le processus de construction d’un EPA se conceptualise par l’approche instrumentale (Rabardel, 1995), ce que d’autres avant nous ont également soutenu (Perraya et Bonfils, 2014), (Roland et Talbot, 2014), (Charlier, 2014). Dans cette perspective, les ressources sont des artefacts. Ils deviennent des instruments lorsque le sujet leur associe des schèmes d’utilisation, par des processus d’instrumentation (processus orientés vers le sujet qui font évoluer les schèmes d’utilisation) et d’instrumentalisation (processus dirigés vers l’artefact qui le font évoluer). L’instrument, constitué d’un artefact et de schèmes d’utilisation, est « considéré comme une entité intermédiaire, voire un univers intermédiaire entre deux entités que sont le sujet, l’acteur, l’utilisateur de l’instrument et l’objet sur lequel porte l’action » (Rabardel, 1995, p. 89). L’artefact est un médiateur potentiel des relations entre le sujet et l’objet « existant dans une activité et étant constamment transformés par l’activité » (Rabardel, 1995, p. 34), l’objet étant ici le projet d’apprentissage de l’étudiant. Ces instruments sont regroupés en systèmes d’instruments (Rabardel et Bourmaud, 2005). L’individu les utilise pour remplir les fonctions prévues par les concepteurs, mais aussi pour les fonctions qu’il aura développées lui-même. Le système d’instruments se développe donc dans l’usage. Roland et Talbot ont bien rendu compte de l’organisation de l’EPA de l’étudiant comme un système d’instruments (Roland et Talbot, 2014). 2.2.2. Un processus de régulation de l’EPA En plus du processus de construction de l’EPA en tant que système d’instruments, nous concevons qu’il existe, au sein de l’activité d’apprentissage, un processus de régulation de l’EPA. Par ce postulat, nous invoquons, comme d’autres (Drexler, 2010), (Dabbagh et Kistansas, 2011), (Kravcik et Klamma, 2012), (Charlier, 2014), (Jézégou, 2014), (Heutte, 2014), le champ thématique de l’autorégulation de l’apprentissage, qui propose en effet que les étudiants « initient des stratégies personnelles pour renforcer les produits et les environnements d’apprentissages » (Zimmermann, 2008, p. 1). L’ensemble d’instruments construits par l’étudiant évolue donc au cours de l’activité d’apprentissage. Cette évolution n’est pas uniquement due aux facteurs externes à l’étudiant, comme le dispositif d’apprentissage ou l’intervention du formateur, mais elle est également mise en œuvre par l’étudiant. Comment l’étudiant procède-t-il alors à l’autorégulation de son EPA ? Nous pouvons le concevoir à partir du mécanisme de la boucle de rétroaction négative. Comme le rappelle Cosnefroy, ce mécanisme issu des études en cybernétique est utilisé pour étudier le fonctionnement humain et en dégager des modèles. Le champ de l’autorégulation de l’apprentissage, mais aussi plus largement les champs de la psychologie du travail et des organisations, de la psychologie de la santé ainsi que de la psychologie de l’éducation s’appuient sur ce mécanisme (Cosnefroy, 2011). Selon la boucle de rétroaction négative, un agent contrôle un système en comparant son état à un moment T à un état souhaité. En cas d’écart entre l’état actuel et l’état souhaité, une action est entreprise afin de le réduire. Ainsi, l’étudiant, constatant par des conduites métacognitives (Zimmermann, 2008) que son environnement ne lui permet pas de réaliser la tâche comme il le souhaite, est amené à mettre en œuvre une stratégie pour ajuster son EPA. 3. Modélisation de l’objet de recherche À partir de nos conceptions de l’EPA et des processus de construction et de régulation de l’EPA qui précèdent, nous avons développé un modèle conceptuel (figure 2) permettant d’expliciter ces processus dans leur complexité. Le modèle s’articule en trois composantes principales : dispositif de formation, projet d’apprentissage personnel et activité d’apprentissage. Les processus de construction et de régulation de l’EPA sont représentés par des flèches. Ces derniers ont pour acteur le sujet (étudiant) et pour produit l’environnement personnel d’apprentissage. Pour opérationnaliser les objectifs de description et de compréhension de ces processus, nous faisons appel à des variables individuelles cognitives et sociocognitives : les approches d’apprentissage (Marton et Säljö, 2005), les schèmes d’utilisation (Rabardel, 1995) et les stratégies de régulation (Zimmerman, 2008). Nous faisons également appel à des variables contextuelles de dispositif et instrumentales : les artefacts pédagogiques, didactiques, techniques (Marquet, 2005) et sociaux (notre apport) ; les instruments et les systèmes d’instruments (Rabardel, 1995). Le projet d’apprentissage tel que le conçoit le sujet (étudiant) est représenté par les objectifs et les critères d’évaluation que l’étudiant définit pour lui-même. Ces variables, et peut-être d’autres encore, interagiraient dans les processus de construction et de régulation de l’EPA par l’étudiant. Dans les parties 3.1 à 3.3, nous décrivons le modèle et expliquons les variables invoquées. Figure 2 • Modèle conceptuel des processus de construction et de régulation de l'EPA 3.1. Dispositif de formation Le dispositif de formation est représenté par un ensemble d’artefacts qui le constituent et que le sujet (étudiant) doit s’approprier dans le cadre de son activité d’apprentissage. En effet, l’étudiant s’approprie les artefacts pédagogiques, didactiques, techniques du dispositif de formation, selon la proposition de Marquet (Marquet, 2005), et les artefacts sociaux (notre apport, voir partie 5.1.3), se créant ainsi un instrument d’apprentissage. La double-flèche entre le dispositif de formation et l’environnement personnel d’apprentissage représenterait en ce sens les processus d’instrumentalisation et d’instrumentation « des objets particuliers de la culture que sont les contenus d’enseignement et de formation » (Marquet, 2005, p. 115). Nous séparons les artefacts du dispositif de formation et l’encart EPA puisque ces artefacts ne font pas partie de l’environnement d’apprentissage du sujet (étudiant) tant que celui-ci ne se les est pas approprié. 3.2. Activité d’apprentissage L’activité d’apprentissage est à la base de ce modèle, elle en est le fondement. La construction et la régulation de l’EPA sont deux processus qui interviennent dans l’activité d’apprentissage qui a pour objet le projet d’apprentissage. Influencés par le dispositif de formation, ils sont mobilisés en support à ce projet et donnent lieu à l’EPA, l’un des produits de l’activité d’apprentissage (voir partie 2.2). 3.2.1. Sujet (étudiant) Pour les besoins de l’analyse, nous distinguons le sujet (étudiant) de l’activité d’apprentissage, ce qui est représenté par le décalage entre ces deux encarts. Nous postulons que les approches d’apprentissage activées par l’étudiant dans un cours sont en interaction avec les instruments et systèmes d’instruments qu’il construit. Elles le seraient également avec les stratégies de régulation de l’EPA qu’il applique. Par ailleurs, il a été démontré que les approches d’apprentissage sont en interaction avec les objectifs et les critères d’évaluation que l’étudiant définit pour son projet d’apprentissage (Marton et Säljö, 2005). Les schèmes d’utilisation que le sujet (étudiant) met en œuvre dans son utilisation des instruments ont à leur tour une influence sur les choix qu’il fait en regard de son EPA. Finalement, le dispositif de formation interagit avec les variables du sujet (étudiant), tout comme son projet d’apprentissage. En d’autres termes, les variables du sujet (étudiant) évoluent au cours de l’activité et sont situationnelles. 3.2.2. Environnement personnel d’apprentissage De même que le sujet (étudiant) se distingue de son activité, nous considérons que l’EPA est construit et régulé pour une activité d’apprentissage donnée, mais qu’il n’est pas pour autant purement ponctuel et limité à cette activité. Ainsi, le sujet (étudiant) est amené à réutiliser son EPA en tout ou en partie dans d’autres activités d’apprentissage. L’EPA est donc conceptualisé comme un environnement propre au sujet (voir partie 2.1), dont une instance existe pour une situation d’apprentissage spécifique. Ceci est représenté par le décalage entre les deux encarts Environnement personnel d’apprentissage et Activité d’apprentissage. Parmi les variables intervenant dans la construction et la régulation de l’EPA se trouvent les instruments et les systèmes d’instruments construits par le sujet (étudiant) au fil de son activité d’apprentissage (Roland et Talbot, 2014), (Flückiger, 2014), (Charlier, 2014). Les artefacts faisant partie de ces instruments sont liés au contexte de l’activité d’apprentissage et sont, dans une certaine mesure, influencés par les prescriptions du dispositif de formation. Nous postulons également que les instruments constitués par le sujet (étudiant) ont eux-mêmes une influence sur l’évolution de l’EPA. Deux notions permettraient de le concevoir : la notion de conflit instrumental et la notion de contrainte. Marquet propose la notion de conflit instrumental pour « rendre compte de l’impossibilité pour l’apprenant d’instrumenter et d’instrumentaliser l’ensemble des artefacts » (Marquet, 2010, p. 127). Ainsi, le sujet (étudiant), confronté à une difficulté d’appropriation d’un artefact didactique, pédagogique ou technique de la situation d’apprentissage, serait amené à faire évoluer son EPA, afin de tendre vers la réussite de son activité. Rabardel aborde quant à lui les effets des instruments sur l’activité par la notion de contrainte : les instruments opposent des contraintes en un sens et ouvrent des possibles en un autre (Rabardel, 2005). 3.3. Le projet d’apprentissage personnel Finalement, le projet d’apprentissage est représenté par les objectifs et les critères d’évaluation que définit l’étudiant. En d’autres termes, nous considérons que l’étudiant s’approprie les objectifs et les critères d’évaluation prescrits par le dispositif de formation et qu’il en définit d’autres, qui lui sont propres. L’activité de l’étudiant a pour objet son projet d’apprentissage, qui est donc en interaction avec les variables du sujet (étudiant) et celles de l’EPA. 4. Objectifs et méthode de recherche Notre premier objectif est de décrire les variables du modèle conceptuel des processus de construction et de régulation de l’EPA par l’étudiant et leurs interrelations. Nous entendons ainsi mieux comprendre ces processus. Notre deuxième objectif est d’éprouver la valeur heuristique du modèle que nous proposons. Pour atteindre ces deux objectifs, nous avons mené une étude empirique exploratoire. Nos données sont issues d’une étude de cas auprès de cinq étudiants de cycle master évoluant dans un même cours universitaire d’un programme en Sciences de l’éducation. Le cours se déroulait sur un semestre, en partie en présence et en partie à distance. Les étudiants y réalisaient un projet authentique, dans le sens où le scénario du cours reproduisait une situation professionnelle, à savoir la conception d’un devis de dispositif de formation à distance (Henri, 2013). Le choix du contexte et des sujets est motivé par la possibilité d’accéder à un discours d’étudiants habitués à utiliser les technologies et à parler de leurs apprentissages. Deux entretiens semi-dirigés d’explicitation (Albarello, 2007) espacés dans le temps ont été menés avec chacun des cinq étudiants. Lors du premier entretien, nous leur avons demandé de représenter schématiquement leur EPA. À cette occasion, nous leur avons expliqué la notion d’EPA et nous les avons encouragés à représenter leurs ressources numériques, non numériques et humaines qu’ils utilisent dans le cadre du cours, illustrant nos propos par des exemples et en les questionnant sur la manière et les buts de leurs emplois. Cette gestion des entretiens est voulue pour pallier le manque de représentation commune et formelle de la notion d’EPA et pour favoriser une description la plus exhaustive possible. Entre les deux entretiens, les étudiants ont apporté des modifications à leur schéma initial, afin de refléter l’évolution de leur EPA. L’espacement dans le temps entre les deux entretiens allait permettre de déceler une évolution dans les EPA et de permettre au chercheur d’obtenir du sujet des précisions. Nos analyses ont été faites à partir des verbatim en mettant en œuvre la technique d’analyse catégorielle (L’Ecuyer, 1990). Un système de catégories a été élaboré en appliquant une démarche mixte. Ainsi, certaines catégories sont déduites du cadre théorique et d’autres sont élaborées de manière inductive. Les résultats d’analyse ont été proposés séparément pour lecture aux cinq sujets de l’étude. Cette démarche ne constitue pas pour autant une validation de nos interprétations par les acteurs. 5. Résultats Dans la suite, nous mettons en lumière les relations entre les éléments de notre modèle conceptuel, en présentant les résultats de nos analyses des cinq cas étudiés selon les quatre étapes suivantes : - décrire la singularité et l’évolution des EPA des étudiants au regard du dispositif de formation et l’interprétation qu’ils en font, selon les raisons qu’ils donnent à l’inclusion et à l’exclusion d’une ressource, ainsi qu’en rapport avec leur projet d’apprentissage (partie 5.1) ; - identifier les approches d’apprentissage que les étudiants activent dans le cours et leurs relations avec les configurations distinctes d’EPA (partie 5.2) ; - expliciter l’influence des instruments construits par l’apprenant sur la construction et la régulation de l’EPA à partir de la notion de contraintes qu’ils opposent à l’étudiant (Rabardel, 1995) et par la notion de conflit instrumental (Marquet, 2005) (partie 5.3) ; - décrire les conduites d’autorégulation ainsi que les stratégies spécifiques de construction et de régulation de l’EPA mises en œuvre par les étudiants au cours de l’activité d’apprentissage et comment elles interviennent (partie 5.4). 5.1. Des environnements évolutifs et subjectifs dans un dispositif de formation contraignant 5.1.1. Prescriptions du dispositif de formation Nous avons analysé le guide de cours (Henri, 2013), l’environnement médiatique utilisé et la retranscription d’un entretien réalisé avec la professeure dispensant le cours, afin de repérer quels artefacts didactiques, pédagogiques et techniques sont prescrits par le dispositif du cours. Au rang des artefacts didactiques, nous relevons trois thèmes principaux : les fondements de la formation à distance, l’ingénierie pédagogique et le concept d’environnement d’apprentissage à distance. Les objectifs formulés sont : « comprendre les fondements pédagogiques et organisationnels de la formation à distance ; appliquer une démarche d’ingénierie pédagogique pour la conception d’un environnement d’apprentissage à distance ; utiliser la technique de modélisation des connaissances comme support à la conception d’un environnement d’apprentissage » (Henri, 2013, p. 1). Les artefacts pédagogiques sont multiples. Le cours propose aux étudiants de s’approprier les contenus et d’atteindre les objectifs formulés par la réalisation d’un projet intégrateur simulé (Prégent et al., 2009) authentique. Les étudiants, en tandem, jouent le rôle de jeunes concepteurs pédagogiques, travaillant au sein d’un bureau d’experts-conseils. Ils doivent répondre au besoin de formation d’un client fictif. Le résultat de ce travail prend la forme d’un devis de formation. Le devis est réalisé de manière itérative : les étudiants produisent une version du devis, la professeure, qui joue le rôle de mentor dans l’entreprise, retourne des commentaires, les étudiants produisent une nouvelle version. En guise de préparation, les nouveaux concepteurs entreprennent des lectures spécifiques à l’ingénierie pédagogique et à la formation à distance. Ils réalisent également un billet d’opinion personnel à propos de la formation à distance. Dans le but d’engendrer le débat et la réflexion, chacun commente les billets de deux autres étudiants. De plus, dans une démarche réflexive, chaque étudiant réalise au terme du cours un bilan de ses apprentissages (Henri, 2013). Finalement, des artefacts techniques sont prévus par la conceptrice du cours et par l’institution de formation. Sur la plateforme Moodle de l’Université, un espace pour ce cours est à disposition des étudiants. Un guide d’étude, une feuille de route, des présentations PPT, des textes, un canevas de devis, un outil de planification du travail, des exemples de devis et le logiciel de modélisation MOT+ sont mis à disposition. Trois forums internes au Moodle sont prévus, dans lesquels les étudiants devront déposer un billet d’opinion et débattre de la formation à distance. Lors des phases à distance, la communication avec la professeure se fait par le courrier électronique, les forums de l’espace du cours sur la plateforme Moodle de l’Université et Skype. Au cours de l’activité, la professeure prescrira encore aux étudiants de lui transmettre leurs documents réalisés sous format Word. Les prescriptions portent exclusivement sur des artefacts techniques numériques. 5.1.2. Interprétation du dispositif de formation par l’étudiant Nous avons demandé aux étudiants de schématiser leur EPA et d’expliciter l’utilisation qu’ils en font, ainsi que leur évolution. Illustrons par le cas d’Alice. En décrivant la situation d’apprentissage dans laquelle elle se trouve, Alice mentionne la présence d’artefacts didactiques et d’artefacts pédagogiques, au sens de (Marquet, 2005) : « C’est un cours hybride, une partie qui se donne à distance, une partie en présence (artefact pédagogique), qui porte sur l’enseignement à distance (artefact didactique). Initialement, ce cours est donné dans une télé-université. Le contenu principal a trait à l’e-learning : les dispositifs d’apprentissage dans un contexte d’e-learning... (artefact didactique), nous avons pour tâche de réaliser un devis, de réaliser un dispositif de formation, enfin, de simuler un dispositif de formation dans un contexte d’enseignement à distance, avec une analyse préliminaire, une conception préliminaire (artefact pédagogique) ». En décrivant son EPA et en expliquant sa manière de travailler, Alice mentionne également la présence d’artefacts techniques (Marquet, 2005) numériques et non numériques, ainsi qu’humains : SMS, Skype, Google Drive, e-mail, Moodle, notes de cours, contenu du cours, lectures de cours, contenus d’autres cours, Word, Power Point, PDF, l’ordinateur, internet, calendrier, le forum et MOT+. Dans son EPA, des ressources humaines sont également présentes : la professeure, la partenaire de travail, les collègues de classe. Le discours sur son EPA est plus complet que le schéma de son EPA lui-même (figure 3). Ce constat se retrouve dans les cinq cas que nous avons étudiés. Figure 3 • Schéma de l’EPA d’Alice 5.1.3. Des artefacts sociaux en sus des artefacts didactiques, pédagogiques et techniques De notre analyse ressort un quatrième type d’artefact : des artefacts sociaux. Prenons l’exemple des règles de collaboration. Alice a mentionné utiliser Google Doc pour élaborer le devis de formation. L’utilisation de Google Doc (artefact technique) pour rédiger (artefact didactique : méthode d’apprentissage) le devis de formation (artefact didactique : contenu, savoirs, compétences) en fait un instrument médiateur de son activité d’apprentissage. Néanmoins, cet instrument n’est pas complet. En effet, Alice dit plus loin : « les idées, je les soumettais à Valérie ». Il s’agit là d’une règle de collaboration qu’elle et sa collègue se sont fixées et qui influe sur leur processus d’apprentissage. Si dans un tandem, les étudiants se répartissaient les tâches sans confronter leurs idées mutuellement, le processus d’apprentissage serait en effet autre. L’instrument permettant à Alice d’apprendre est ainsi constitué d’un artefact pédagogique, d’un artefact didactique, d’un artefact technique et d’un artefact social. Ce type d’artefact se retrouve dans chacun des cinq cas que nous avons analysés. Nous avons relevé la présence de règles de collaboration, d’une règle sociale impliquant qu’un étudiant sentant avoir trop de lacunes n’ose pas faire appel à un professeur (« Il y avait beaucoup de choses que je n’avais pas compris, alors je me sentais plus à mon aise si je demandais aux collègues plutôt qu’à la professeure », Eric), d’une règle portant sur la reconnaissance de la qualité d’un artefact (« Bon ça paraît naturel de faire des présentations PowerPoint, mais ce n’est pas obligatoire. Mais on le fait parce que les étudiants le font et on se dit que si on ne le fait pas, voilà, ce sera un petit peu minimaliste », Alice) et d’une règle impliquant qu’un étudiant ne fasse appel à un professeur qu’après avoir essayé d’autres démarches (« On peut contacter la professeure. On peut lui poser des questions. (...) On pouvait lui écrire, mais c’était pas la première chose qu’on pouvait faire », Béatrice). Dès lors, nous proposons de compléter le schéma de l’emboîtement des artefacts en situation d’apprentissage avec les TIC de Marquet (Marquet, 2010), en intégrant les artefacts sociaux (figure 4). Figure 4 • Emboîtement des artefacts en situation d'apprentissage avec les instruments, adapté de Marquet (Marquet, 2010, p. 126) 5.1.4. Singularité des EPA Les EPA des étudiants présentent, d’une manière générale, de grandes similitudes. Tous les étudiants utilisent un outil de messagerie courte (SMS, Whatsapp ou iMessenger), l’e-mail, la plateforme Moodle, les lectures de cours, Word, un lecteur PDF, le guide de cours, les exemples de devis, les travaux des autres groupes, le forum, le logiciel MOT+, l’ordinateur, ainsi que les ressources humaines que sont la professeure, le partenaire de travail et les autres étudiants du cours. Toutefois, les EPA comportent certaines différences tant par les artefacts dont ils sont constitués que par les schèmes d’utilisation particuliers des étudiants. Par exemple, bien que le tableau de planification individuelle et le tableau de planification de groupe soient une exigence du cours, seule une étudiante, Béatrice, en parle explicitement. Une autre particularité se trouve chez cette même étudiante, qui a eu recours à un appareil photo pour transmettre un document de travail à sa partenaire, alors que le logiciel (en l’occurrence MOT+) intègre un outil de transfert : « Je ne voulais pas utiliser mon ordinateur avec le logiciel MOT, sinon elle [la collègue de tandem] n’arrivait pas à l’ouvrir. Donc je préparais sur papier, je le photographiais et puis je lui envoyais par Whatsapp ». Eric, pour sa part, est le seul à mentionner l’aide des amis et de la famille. Il est également le seul à ne pas utiliser Google Drive pour la rédaction en collaboration du devis. Alice, quant à elle, utilise Google Drive, mais sans pour autant utiliser l’outil de messagerie instantanée interne, contrairement aux trois autres étudiantes qui utilisent Google Drive. De même, relevons qu’Alice utilise Google Drive et Skype lorsqu’elle collabore avec sa partenaire, alors que Béatrice et Chloé utilisent Google Drive et des outils de communication écrite. Nous noterons encore que seule une étudiante a utilisé l’outil de présentation de Google Drive, alors que trois autres personnes utilisent l’outil de traitement de texte de Google Drive. Enfin, nous constatons que quatre des cinq étudiants ont utilisé des outils non numériques à certains moments pour analyser, structurer, synthétiser, s’approprier ou schématiser des connaissances. Utiliser des ressources non-numériques dans un dispositif pourtant fortement numérisé paraît répondre à des besoins des étudiants : « J’ai l’impression que je m’approprie mieux la matière quand je réécris à la main » (Alice). Passer par le « papier-crayon » est notamment justifié par les étudiants pour un apprentissage jugé plus efficace, pour réaliser différentes fonctions (analyser, structurer, obtenir des connaissances) ou par habitude d’usage : « Je stabilobosse et puis j'écris des mots-clés. J'ai besoin des mots-clés car si je dois revenir sur un concept, je cherche le mot-clé. Ah oui, c'était là, alors je recherche encore » (Béatrice). De même, on relève la place importante accordée aux ressources humaines dans les EPA des étudiants : « Si je ne savais pas quelque chose, si j’avais des doutes, je lui [la professeure] demandais » (Chloé). 5.1.5. Dynamique des choix dans l’évolution de l’EPA Afin de décrire l’évolution des EPA des étudiants, nous leur avons demandé d’expliciter la raison de la présence (respectivement de la non présence) d’une ressource dans leur EPA. Nous avons analysé ces discours à l’aide du schéma de quête (Piret et al., 1996) qui permet de visualiser les relations entre l’objet convoité, le sujet et les actions qu’il mène, ainsi que de représenter adjuvant et opposant aux actions. La figure 5 illustre le cas de Chloé. L’étudiante intègre une ressource à l’EPA, afin de satisfaire les raisons fonctionnelles (« Je dois faire des schémas, des sortes de maps conceptuelles »), qualitatives (« Je suis toujours sur l’ordinateur, pour gagner du temps »), de contraintes (« Quand on était à distance, on utilisait le chat de Google Drive » ; « J’utilise Word parce que la professeure le demande ») et de pratiques personnelles (« Dropbox, c’est toujours celle que j’utilise »). L’efficacité pour le travail de groupe (« C’est plus facile [de partager] si ce sont des notes électroniques ») et l’habitude d’usage personnelle ou communautaire sont des éléments adjuvants à cette action. Chloé exclut une ressource de son EPA si elle préfère se débrouiller par elle-même ou par économie de temps (« on n’a pas discuté avec la professeure [par Skype] parce qu’on s’est laissées prendre un petit peu par le temps »). L’habitude d’usage personnelle ou communautaire, le fait de ne pas penser à la ressource, ne pas oser demander ou encore le fait d’éviter de compliquer le travail sont des éléments renforçant la décision d’exclure une ressource. On notera encore que ces catégories de raisons ne sont pas mutuellement exclusives. Nous avons identifié des dynamiques similaires dans les quatre autres cas. Figure 5 • Dynamique de la décision de Chloé d'inclure et d’exclure une ressource à l'EPA 5.1.6. Un projet d’apprentissage personnel Un projet d’apprentissage comporte minimalement des objectifs et des critères pour en évaluer l’atteinte. Dans le tableau 1, nous avons réuni les objectifs personnels que les étudiants ont explicités lors des entretiens, en cherchant à respecter leurs formulations. Nous avons classé ces objectifs selon qu’ils correspondent à des savoirs, des savoir-faire ou des savoir-être. Il n’est pas exclu que les étudiants aient poursuivi, même temporairement, d’autres objectifs. Notons qu’il n’est pas forcément aisé de conscientiser ses objectifs, comme le souligne Alice : « au début du cours, on n’a pas forcément d’objectif, on attend que le cours se déroule et que les objectifs apparaissent au fil du cours ». Dans le tableau, les initiales entre parenthèses correspondent aux étudiants qui ont mentionné ces objectifs. Tableau 1 • Objectifs personnels des étudiants Savoirs Savoir-faire Savoir-être •Comprendre les notions liées à l’apprentissage à distance (A) •Apprendre la méthode d’ingénierie pédagogique (B) •Concevoir un dispositif de formation à distance (A, B, C, D, E) •Utiliser les notions liées à l’apprentissage à distance (A) •Modéliser des connaissances selon le langage MOT (C) •Développer les compétences TIC (A) •Gérer son temps (C) •Mettre en pratique des habilités d’étudiants (C) •Être critique (C) •Questionner (C) •Apprendre dans la collaboration (A, D) •Se distancer du rôle d’étudiant pour s’approprier celui d’ingénieur pédagogique (C, D) •Apporter un complément à son partenaire (A) •Être autonome (C) •Vivre une expérience de formation à distance et juger des avantages et des difficultés (E) •Comprendre les émotions et les frustrations des étudiants en formation à distance (E) Formuler des critères d’évaluation de son travail se révèle également être une tâche peu évidente. Ainsi, Alice et Eric parlent essentiellement de leurs rôles respectifs et de celui de la professeure dans l’évaluation de la qualité du travail. Eric estime avoir la légitimité concernant le contenu d’apprentissage qu’il propose dans son dispositif de formation, alors qu’il se réfère entièrement à la professeure pour ce qui est de la qualité du devis lui-même. Chloé et Delphine se rejoignent en ayant pour critère la cohérence du contenu du devis. Béatrice, quant à elle, a pour critère de satisfaction la maîtrise des concepts et la capacité à comprendre les devis de dispositifs de formation à distance. 5.2. Approches d’apprentissage et types d’EPA La deuxième étape de notre analyse a consisté à identifier les approches d’apprentissage que les étudiants activent dans le cours et leurs relations avec les configurations distinctives d’EPA. Aux approches en profondeur et en surface (Marton et Säljö, 2005) s’ajoute l’approche stratégique (Entwistle, 2009). Nous illustrons dans un premier temps le cas d’Alice et nous complétons par une analyse inter-cas. En reprenant ses études, Alice poursuit le projet de changer de voie professionnelle. D’une manière générale, elle cherche à « apprendre pour l’avenir » (il s’agirait là d’une approche inédite, ce que nous discutons à la partie 6.3.1). En effet, elle mentionne : « j’essaie toujours de me projeter », de « prendre tout ce que je juge utile, réutilisable pour la suite ». Dans le contexte du cours retenu pour cette recherche, cette volonté d’apprendre pour l’avenir la pousse à essayer de « bien comprendre toutes ces notions par rapport à l’apprentissage à distance, pour pouvoir être capable de les utiliser ». Cela se manifeste par des objectifs d’apprentissage concrets et par des conduites métacognitives : « Et je me dis : j’aimerais bien pouvoir le réaliser, utiliser ce modèle au delà du cours. Si j’ai l’occasion de l’utiliser au delà du cours. Parce qu’il est très pertinent ». Cette réflexion l’amène à activer une approche d’apprentissage, renforçant son intérêt pour la tâche. Si l’approche « apprendre pour l’avenir » est nettement dominante, Alice la complète par une approche stratégique, manifestée par la poursuite de l’objectif pragmatique de réussir le cours : « Mes objectifs, déjà assez terre-à-terre, c'est déjà de réussir le cours ». Ces manifestations d’engagement fort dans l’apprentissage peuvent toutefois être affaiblies sous certains aspects, notamment lorsqu’il s’agit de déterminer des attentes envers un cours, ce qui semble indiquer une approche en surface : « Et puis ce n’est pas trop mon style d'aller regarder dans le détail l'intitulé des cours sur Gestens (et les objectifs). J'ai pas cette curiosité là... j'attends de voir un peu. Je pense qu'il y a des étudiants qui sont plus scrupuleux et puis qui ont des attentes très précises par rapport à un cours. Moi, ce n’est pas vraiment mon cas ». Parmi les cinq cas étudiés, quatre d’entre eux activent différentes approches au fil du cours. En effet, selon l’aspect du cours ou des apprentissages, le discours varie fortement. Ainsi, Delphine dit « pour la première partie, pour l’analyse, c’était pour moi plus intéressant, donc je me suis plus engagée. ». Mais plus loin elle dit « (...) sur les parties de conception médiatique, c’était assez technique, donc je ne suis pas allée vraiment en détail à comprendre pourquoi, j’ai écrit ce que je pouvais écrire et voilà, je me suis limitée à ça ». Un étudiant semble n’adopter que l’approche en surface « on n’était pas vraiment motivé à aller encore plus loin dans les détails. (...) Et puis on a envoyé [le travail], on n’a même pas tout relu, parce qu’on était... pas fatigué, mais on voulait vraiment envoyer et terminer le travail » (Eric). Enfin, dans le cas de Chloé, aucune donnée ne semble indiquer qu’une des trois approches qu’elle a invoquées ne soit plus présente qu’une autre. Le tableau 2 indique les approches d’apprentissage activées par les étudiants. Les prénoms marqués en gras renseignent sur l’approche prédominante de l’étudiant. Tableau 2 • Approches d'apprentissage activées par les étudiants Apprendre pour l’avenir Approche en profondeur Approche stratégique Approche en surface Alice Béatrice Béatrice Chloé Delphine Alice Chloé Alice Chloé Delphine Eric 5.3. De l’influence des instruments dans l’évolution de l’EPA Pour la troisième étape de notre analyse, nous avons cherché à expliciter l’influence des instruments construits par les étudiants sur la construction et la régulation de l’EPA selon deux perspectives : le conflit instrumental (Marquet, 2010) et les contraintes (Rabardel, 1995). 5.3.1. Conflits instrumentaux Nous avons identifié un conflit instrumental résultant de l’incompatibilité de l’un des artefacts pédagogiques et techniques prévus par le cours avec un artefact social propre au groupe d’étudiants. Le scénario pédagogique prévoyait en effet que les étudiants commentent les billets d’opinion de leurs collègues sur la formation à distance dans le forum de la plateforme Moodle. Or, ce groupe d’étudiants n’est pas habitué à interagir au sein d’un forum en ligne (« C’était pas le premier réflexe, de se dire on va dans le forum », Béatrice). Ils se rencontrent régulièrement en présence dans le cadre des cours et à la cafétéria où ils échangent régulièrement (« on se voit [à la cafétéria, dans d’autres cours]. Dans une situation où on ne se voit pas du tout, peut-être que le forum aurait marché spontanément », Chloé). Il semble que les étudiants aient donc essentiellement adapté leur EPA en réalisant cette activité en présence, constituant ainsi un instrument différent. 5.3.2. Contraintes des instruments Nous avons également analysé l’influence des instruments sur l’évolution de l’EPA à partir de la notion de contrainte. En partant des catégories proposées par Rabardel, nous retrouvons dans notre analyse, des contraintes sur les modalités d’existence (« on a beaucoup travaillé avec l’ordinateur de Béatrice, parce que le mien c’est un Mac, donc je n’ai pas la possibilité de créer des sous-groupes [dans le logiciel MOT+] », Chloé), des contraintes de finalisation (« Avec Word, on doit choisir des moments pour travailler dessus, tandis qu’avec Drive on peut être plus flexible. Mais on utilise Word parce que sinon ça prend trop de temps par la suite pour changer la mise en page », Chloé) et des contraintes de structuration (« Maintenant on travaille sur le scénario avec Google Drive. Mais dans deux ou trois semaines, on doit l’envoyer à la professeure. Elle nous envoie les feedbacks », Chloé). Ces contraintes que les instruments opposent à l’étudiant l’amèneraient à considérer l’état de fonctionnement de son EPA comme inadéquat et donc, à mettre en œuvre une stratégie pour effectuer un ajustement sur l’EPA, le rendant ainsi à nouveau fonctionnel. Delphine explique par exemple qu’elle devait utiliser pour ce cours le logiciel MOT+ pour modéliser un scénario pédagogique et ainsi acquérir les connaissances de ce langage de modélisation et développer la compétence de modélisation. Elle n’a pas pu utiliser ce logiciel en raison de problèmes techniques et d’affinités et a décidé de modéliser son scénario sur du papier (« J’ai pas bien aimé la modélisation, donc j’ai préféré faire avec mes petites flèches, comme ça »). On peut considérer que l’artefact lui a opposé une contrainte et qu’en réaction, elle a développé un nouvel instrument en utilisant un autre artefact technique, adaptant ainsi son système d’instruments. Chacun des cinq étudiants fait face à des contraintes issues des instruments. Les artefacts concernés varient. 5.4. Régulation de l’EPA La quatrième étape de notre analyse a consisté à décrire les conduites métacognitives mises en œuvre par les étudiants, ainsi que les stratégies de régulation spécifiquement orientées vers l’EPA. 5.4.1. Des conduites métacognitives En se remémorant l’élaboration de son EPA, Alice se rappelle avoir réalisé que les ressources fournies sur Moodle ne suffiraient pas (conduite d’orientation). Elle ne pense toutefois pas avoir mené de conduite de planification de son EPA : « je pense que je ne devais pas avoir une idée précise de mon EPA ». À la fin du dernier entretien, elle partage une réflexion démontrant d’autres conduites de stratégies métacognitives, orientées directement vers son EPA, ainsi qu’une stratégie de régulation de l’EPA qu’elle aurait pu mettre en œuvre (se faire une image mentale de son EPA) : « J’avais l’impression de naviguer un petit peu en aveugle dans ce cours (conduite d’évaluation). Et je n’avais pas une image mentale très claire des ressources que j’avais à disposition pour ce cours ou les ressources que je voulais me donner pour ce cours. Et il aurait peut-être été utile (conduite d’élaboration), par souci de clarté, au début du cours pour moi, de me faire cette image mentale, en me disant mais tiens, de quoi est-ce que je dispose pour mener à bien ce travail ? (conduite de planification) ». Mener ces conduites ne se ferait pas de manière systématique par chaque étudiant. En effet, Alice mentionne par exemple qu’après réflexion, elle aurait trouvé pertinent de se faire une image mentale de son EPA au début du cours (conduite de planification), alors que Chloé aurait réellement mené une telle conduite en se faisant la réflexion que, s’agissant d’une situation de travail en collaboration à distance, l’outil Google Drive serait l’outil idéal. 5.4.2. Des stratégies de régulation de l’EPA Les étudiants ont également mis en œuvre des stratégies amenant à un ajustement de l’EPA. De notre analyse, nous recensons cinq stratégies initiées par les étudiants, ainsi qu’une stratégie non initiée par l’étudiant lui-même, que nous illustrons ci-après. La stratégie d’activation de systèmes d’instruments habituels correspondrait à des actions entreprises par l’étudiant qui le mènent à sélectionner des ressources qu’il a utilisées auparavant. Ces res
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

De la ressource pédagogique à la ressource éducative libre - sup-numerique.gouv.fr

De la ressource pédagogique à la ressource éducative libre - sup-numerique.gouv.fr | learning-e | Scoop.it
Ressource p&eacute;dagogique, ressource p&eacute;dagogique num&eacute;rique ou encore ressource &eacute;ducative libre, autant de termes qui restent flous pour beaucoup. Perrine de Co&euml;tlogon, expert num&eacute;rique Europe et International pour la MIPNES  vous propose une d&eacute;finition de...
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

La formation initiale et continue des enseignants et des formateurs à distance : enjeux, usages et ressources

La formation initiale et continue des enseignants et des formateurs à distance : enjeux, usages et ressources | learning-e | Scoop.it
Numéro thématique coordonné par Pascal Marquet Thème de l’appel à contributions La formation des enseignants en France, comme ailleurs, a connu depuis le début du 21e siècle des évolutions institutionnelles importantes, telles que pour la France, la réforme LMD (Licence Master Doctorat),...
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Rentrée 2018 à l’université : ce qui change pour vous

Rentrée 2018 à l’université : ce qui change pour vous | learning-e | Scoop.it
Comment le Plan Etudiant va-t-il concrètement impacter votre première année à l’université ? Réponses de Gilles Roussel, président de la CPU.
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Rencontres de la formation tout au long de la vie dans l'Enseignement supérieur - sup-numerique.gouv.fr

Rencontres de la formation tout au long de la vie dans l'Enseignement supérieur - sup-numerique.gouv.fr | learning-e | Scoop.it
Le 15 juin 2018, l'universit&eacute; de Versailles-Saint-Quentin-en-Yvelines accueillera la 5&egrave;me journ&eacute;e d'&eacute;changes sur les mod&egrave;les organisationnels de la F.T.L.V. Ces rencontres sont organis&eacute;es par le M.E.S.R.I., avec le concours de l'universit&eacute; de...
more...
No comment yet.
Scooped by Doc-Ifsi-Narbonne
Scoop.it!

Les badges numériques, outils d'implication et de valorisation des compétences - sup-numerique.gouv.fr

L'I.A.E. Caen - Universit&eacute; de Caen Normandie exp&eacute;rimente cette ann&eacute;e les badges num&eacute;riques. Ces badges ont pour objectif d'&eacute;viter le d&eacute;crochage dans l'apprentissage en ligne et de valoriser les soft skills que les &eacute;tudiants d&eacute;veloppent dans...
more...
No comment yet.