Les nouvelles technologies pour l’enseignement des mathématiques
Intégration des TICE dans l’enseignement des mathématiques

MathémaTICE, première revue en ligne destinée à promouvoir les TICE à travers l’enseignement des mathématiques.

Un exemple d’analyse d’une plateforme d’aide en mathématiques

L’objet de cet article est de décrire le travail réalisé pour la conception des modules d’un SPOC (Small Private On line Course) et l’analyse de leurs effets sur les apprentissages des étudiants. Nous avons proposé une méthodologie d’évaluation de cette plateforme en alliant une approche didactique dans la conception et l’analyse des contenus et une approche ergonomique.

Article mis en ligne le 7 décembre 2018
dernière modification le 10 mai 2020

par Corinne Raffin, Gilles Aldon

NDLR. Les lecteurs de cet article ont accès à la plateforme du cours en ligne analysé ci-dessous (mais leur progression n’est pas conservée entre 2 sessions différentes). Ils peuvent ainsi tester ce cours et faire retour de leurs impressions et de leurs suggestions au moyen de la rubrique « Réagir à cet article », au bas de ce document.
Voici le lien d’accès au cours : http://chamilo.univ-grenoble-alpes.fr/courses/UGA002847/index.php
Nous remercions vivement les responsables de la plateforme de l’ENEPS qui ont rendu possible cet accès.

Dans le cadre de l’appel à projet Initiatives D’Excellence en Formations Innovantes (IDEFI) soutenue par l’Agence Nationale de la Recherche (ANR) et par le Ministère de l’Éducation Nationale, de l’Enseignement Supérieur et de la Recherche, l’ENEPS (École Nationale de l’Enseignement Professionnel Supérieur [1]) a fait appel à l’équipe EducTice pour accompagner la création d’un SPOC (Small Private On line Course) de mise à niveau en mathématiques à destination des élèves de terminale Bac Pro intégrant l’IUT de Grenoble. Le point de départ de ce travail repose sur le constat des difficultés rencontrées par certains étudiants à suivre les cours de première année du fait de concepts mathématiques ou de techniques mal ou pas maîtrisés. L’objectif de cette plateforme est ainsi de permettre à ces étudiants de tester leurs connaissances mathématiques, de s’auto-évaluer et de comprendre ces notions mathématiques suffisamment pour qu’elles ne soient pas un obstacle à la compréhension des cours de physique, notamment de mécanique et de génie civil. Depuis trois ans, en relation étroite avec les enseignants de l’ENEPS, nous avons donc participé à l’analyse et à la réalisation des modules de ce SPOC. Les difficultés repérées par les enseignants, puis analysées ont été à l’origine des différents modules. Des étudiants en thèse à l’IUT de Grenoble ont ainsi en collaboration avec l’équipe de l’IFÉ, pensé, réalisé et mis en œuvre les contenus de ces modules qui sont actuellement disponibles pour les étudiants de l’ENEPS.

L’objet de cet article est de décrire le travail réalisé pour la conception de ces modules et l’analyse de leurs effets sur les apprentissages des étudiants. Nous avons proposé une méthodologie d’évaluation de cette plateforme en alliant une approche didactique dans la conception et l’analyse des contenus et une approche ergonomique. En effet, cet outil a pour principal objectif des apprentissages en mathématiques, mais étant un outil numérique, nous pensons qu’une analyse seule de l’aspect didactique des contenus reste insuffisante. D’un point de vue ergonomique nous nous appuyons sur les dimensions d’Utilité, d’Utilisabilité et d’Acceptabilité (Tricot et al., 2003) d’un EIAH (Environnement Informatique pour l’Apprentissage Humain). Les questions visées sont alors liées à l’écart entre l’utilisation attendue et réelle des étudiants et aux apprentissages effectifs ; Cet outil est-il utile pour les étudiants, acceptable par les étudiants et les enseignants ?

Dans un premier temps, nous décrivons la méthodologie de création des modules fondée sur une méthodologie de « Design-Based Research » (Swan, 2014) qui notamment insiste sur les cadres théoriques sous-jacents à la construction, au design, d’une ressource ; il s’ensuivra l’explicitation des cadres théoriques et de la méthodologie d’analyse utilisée. Puis dans un deuxième temps, notre étude sur la plateforme de l’ENEPS exemplifiera cette méthodologie avec quelques conclusions qui en découlent.

Cadres d’analyse et méthodologie

1. Création des modules de la plateforme de l’ENEPS

Le travail en collaboration étroite avec les enseignants instigateurs du projet pour la conception et le suivi de la mise en place du dispositif s’appuie sur une méthodologie de recherche orientée par la conception ou « Design-Based Research ».

« Design-based research is a formative approach to research, in which a product or process (or “tool”) is envisaged, designed, developed, and refined through cycles of enactment, observation, analysis, and redesign, with systematic feedback from end users. » (Swan, 2014, p. 148)

C’est ainsi une approche méthodologique qui permet d’articuler les visées pragmatiques des acteurs de terrain avec les moyens que le chercheur se donne pour comprendre les conditions de leur réalisation. Chercheurs et praticiens conçoivent ensemble les situations d’apprentissages et pensent leurs mises en œuvre, des phases de conception s’articulent ainsi avec l’analyse des résultats observés dans le cycle décrit ci-dessus par Swan. Ce travail débouche sur la création de la plateforme et sur le modèle d’analyse qui pourrait être utilisé dans d’autres conditions.

Les enseignants souhaitent que ce SPOC soit accessible aux étudiants avant la rentrée afin que ceux-ci puissent vérifier leurs acquis. Mais ils imposent aux 70 étudiants concernés d’avoir finalisé les 5 modules ouverts avant le 5 novembre. L’objectif est donc de concevoir une plateforme, d’autoévaluation et répondant au besoin de remise à niveau en cas de difficultés des étudiants, et en libre accès.
Dans un premier temps, il s’agit de trouver un découpage d’un module qui favorisera les apprentissages des étudiants en les rendant actifs dans leur progression, qui les renseignera sur leurs acquis ou les éléments à améliorer. Des vidéos, des interactions, des QCM en cours d’apprentissages sont alors pensés afin de mettre en place une évaluation formative au sein des ces modules.

La construction des contenus et leur analyse s’appuient sur la théorie des situations didactiques (TSD) (Brousseau, 1986) et sur la théorie anthropologique du didactique (TAD) (Chevallard, 1984). Selon Brousseau, Le professeur a pour tâche essentielle d’établir les conditions les plus favorables à la mise en action de l’élève, et propose les conditions pour que l’élève, dans la confrontation au milieu de la situation construite, rencontre le savoir visé. Le choix de présenter en introduction du module la notion par une situation pertinente en découle. L’analyse des tâches demandées aux étudiants étudiera les divers types d’obstacles qu’ils pourraient rencontrer. Pour ce faire une analyse des activités selon la TAD est nécessaire ; ce modèle a pour but de décrire et d’expliquer les savoirs en fonctionnement ; un savoir est en fait un discours permettant de justifier, de produire, de rendre intelligible des techniques en relation à des types de tâche. Ainsi, toute activité mathématique met en œuvre une organisation que Chevallard (1998) nomme praxéologie. La praxis réfère à la pratique, aux savoir-faire, tandis que le logos fait référence à la théorie, aux discours qui décrivent, légitiment, expliquent la praxis. Des vidéos ont été construites en tenant compte de cette théorie, la justification de la technique est autant que possible décrite.

Ce SPOC se décompose ainsi en 6 modules, chacun consacré à une notion mathématique et tous se présentent suivant un même format (Figure 1 ci-dessous) :
 Présentation du module : une première accroche problématique pour faire percevoir aux étudiants la pertinence du concept ou de l’outil qui est travaillé dans le module.
 Des cours en vidéo permettant de détailler et d’expliquer les contenus qu’il s’agit de maîtriser.
 Des exercices corrigés en vidéo pour s’entraîner.
 Une évaluation “intermédiaire” sous forme de quiz permettant aux étudiants d’auto-évaluer leurs connaissances. Les rétroactions suite au score visent à faire état des progrès des étudiants et à leur permettre de comprendre la nature de leurs erreurs et des difficultés rencontrées.
 Des exercices supplémentaires pour s’entraîner, donnés sous forme de PDF.
 Une évaluation finale sous forme de quiz.

Figure 1 : plan du module 2

2. Cadres d’analyses

Une fois implémentée sur la plateforme, il s’agit d’étudier l’ergonomie de l’environnement réalisé pour voir s’il y a adéquation entre les objectifs annoncés et l’usage effectif : d’où la mise en œuvre de deux approches complémentaires, dans un premier temps une analyse par inspection, puis une analyse empirique avec une observation des étudiants en contexte. La première est réalisée par un « expert », ici en didactique des mathématiques, lors de la conception ou a posteriori. Cela consiste à parcourir la plateforme en appliquant une grille d’observation provenant du cadre théorique considéré. Les cadres théoriques en didactiques des mathématiques précédents peuvent permettre alors de justifier les apprentissages offerts par la plateforme. Cette évaluation sera confrontée à l’évaluation empirique reposant sur des observations et des entretiens des étudiants. Cette deuxième évaluation permet de voir comment les étudiants s’approprient cette plateforme et si celle-ci est en adéquation avec leurs besoins et leurs attentes.
Au cours de ces deux inspections, les trois dimensions d’un EIAH seront examinées. L’évaluation de l’utilité relève du domaine des didactiques : y-a-t-il adéquation entre l’objectif d’apprentissage et l’atteinte de cet objectif ? Une analyse didactique des tâches mathématiques permet de comprendre comment ces contenus peuvent être construits dans des buts d’apprentissages bien précis. Comme nous l’avons décrit précédemment, dans notre exemple, cette analyse a été réalisée lors de la conception même des modules. L’utilisabilité désigne la facilité d’utilisation de la plateforme, sa cohérence entre la navigation et ses objectifs. Elle relève donc plus du domaine de l’ergonomie. L’acceptabilité concerne la compatibilité de la plateforme avec les valeurs, la culture, l’organisation dans lesquelles on veut l’insérer.
Une telle plateforme propose aux étudiants des modules d’apprentissage pendant lesquels ils sont confrontés à un environnement particulier qui, de part ses rétroactions, permet d’apprendre les contenus mathématiques proposés par les auteurs. La présentation du module en vidéo est en soit un élément d’un milieu d’une situation didactique dans laquelle l’enseignant met l’étudiant face à un problème, dont la résolution sera facilitée par la mise en œuvre de la notion mathématique cible du module. Les questions des apprentissages effectifs sont bien sûr posées et mettent en avant à la fois les contenus et la pertinence de ces contenus pour l’apprentissage des mathématiques mais aussi les institutionnalisations qui pourront en être faites : qu’est-ce que les étudiants pourront considérer comme acquis une fois les modules conduits ? Ces questions pourront être examinées en prenant comme base des observations et des entretiens avec les étudiants. Les exercices proposés, tout comme les activités des différents modules seront analysés en s’appuyant sur une analyse praxéologique des contenus. Pour les contenus mathématiques des modules, il est essentiel de vérifier que la technique de réalisation des tâches proposées soit associée à une justification afin de faciliter la transposition de cette tâche dans d’autres contextes d’application.

3. Méthodologie d’observation

L’analyse empirique se fonde sur des observations en situation ainsi que des entretiens conçus, ici, comme des « q-sorting interviews » décrits ci-dessous. Cette analyse permet de voir les stratégies d’apprentissage mises en place par les étudiants avec cet outil et si celui-ci répond à leurs difficultés et leur apporte l’aide attendue.

La méthodologie d’observation se déroule en trois phases distinctes :
1. une analyse des logs (un log est l’historique des événements du compte d’un étudiant) des étudiants pour constituer des types de comportement sur la plateforme. Une telle plateforme propose en général un bilan individuel sur le parcours réalisé par l’étudiant : scores, temps passé, nombre de connexions …
2. une observation d’un groupe d’étudiants choisis sur cette typologie en condition de travail : à notre demande, ces étudiants ont travaillé sur un module qu’ils ne connaissaient pas. Deux observateurs ont étudié les comportements et le travail des étudiants. Des écrans d’ordinateurs ont été enregistrés ainsi que les dialogues des étudiants. Ces observations peuvent nous donner des indications :
2.1. sur l’utilisabilité de cet outil : est-il aisé à manipuler ? des invariants d’utilisation apparaissent-ils ? ,
2.2. sur l’utilité : quelles stratégies de travail sont mises en place ? du brouillon est-il utilisé ? de l’entre-aide ? les vidéos sont-elles visionnées ? …
3. un entretien sous forme de q-sorting : il s’agit de proposer à des groupes d’étudiants des avis sous forme de phrases exprimant une position tranchée sur les sujets à débattre et de demander à chaque groupe de se mettre d’accord sur le degré d’acceptation de cette phrase : Tout à fait d’accord, d’accord, plutôt pas d’accord, pas du tout d’accord. Cette phase de travail de groupe a été enregistrée (son et images). Ces affirmations sont liées aux connaissances en jeu, aux questions d’étude et aux trois dimensions évaluées. Elles sont construites en lien avec ce qui est proposé sur la plateforme. L’objectif étant de dégager suite aux discussions dans les groupes, des renseignements sur les méthodologies des étudiants et de voir si cette plateforme répond à leurs besoins et à leurs habitudes de travail. En d’autres termes, est-elle acceptable, utile pour les étudiants ?

Exemple : Analyse de la plateforme de l’ENEPS

1. Évaluation par inspection

L’intention des auteurs est d’offrir aux étudiants des contenus adaptés à leur niveau, scientifiquement irréprochables et réfléchis didactiquement. Lors de la conception des modules, une analyse didactique des contenus mathématiques a donc été réalisée conjointement avec les auteurs des modules. Nous ne proposerons pas dans cet article une évaluation complète qui a fait l’objet d’un rapport à destination des enseignants et de la direction de l’ENEPS, mais des extraits pour illustrer la méthodologie utilisée, ainsi que les résultats assez représentatifs de notre évaluation.

Utilité

La construction de la structure des modules s’est appuyée sur la volonté de mettre en adéquation d’une part l’objectif défini et l’apprentissage effectif et d’autre part l’adéquation entre le dispositif et les connaissances à acquérir. Ainsi l’objectif de maîtrise de techniques calculatoires (développement, factorisation, résolution d’équations, parenthésages, etc.) résulte de la structure des modules conçus dans la perspective d’un entraînement suffisant aux techniques à maîtriser. Mais aussi en donnant une justification de ces techniques par un exemple introductif suffisamment probant pour que les étudiants comprennent le sens des calculs à apprendre. Ainsi par exemple, parler d’exponentiation passe à la fois par la maîtrise des règles usuelles de calcul mais aussi par la compréhension de cette opération et son lien avec les opérations usuelles ; l’exemple de la feuille pliée (Encadré 1) est paradigmatique de cette compréhension des objets sur lesquels les étudiants vont ensuite entraîner leur compétences calculatoires. Le résultat paradoxal montre bien la croissance très rapide des puissances d’un nombre et donne une idée de la différence de l’exponentiation et de la multiplication ou de l’addition.


Une feuille de papier de 80g a une épaisseur de 0,1mm. On la plie en deux, puis on plie la feuille pliée encore en deux, etc. Combien de fois devriez vous la plier en deux pour atteindre la hauteur de la Tour Eiffel (312m=312 000 mm) ?
Répondez à la question de façon intuitive, sans faire de calculs
a) 22 fois b) 100 fois, c) 3120000 fois d) beaucoup plus !


Encadré 1 : Introduction au module Puissances


Par ailleurs, les tâches proposées prennent en compte les dimensions techniques et technologiques des praxéologies liées aux types de tâches du module. Ainsi, les différentes compétences nécessaires à la compréhension et la maîtrise des contenus ont été analysées et participent à la diversification des tâches. Par exemple, l’analyse des compétences travaillées dans ce même module conduit à la proposition des différents exercices et en particulier la remarque finale a permis l’élaboration de la situation d’introduction.


Si on essaye de considérer les types de tâches* qui peuvent apparaître dans l’étude des puissances on peut les décrire comme :
T0 : Transformer un nombre écrit en produit de puissances d’entiers en un nombre écrit sous forme décimale.
T’0 : Déterminer le signe d’un produit de puissances d’entiers.
T1 : Écrire un nombre décimal bien choisi en produit de puissances d’entiers. Exemple : 125
T2 : Écrire un nombre décimal non nul en écriture scientifique.
T3 : Écrire un nombre en écriture scientifique sous une forme décimale.
T4 : Écrire un nombre écrit avec des puissances de 10 en notation scientifique.
Pour le calcul :
T5 : Calculer un produit de puissances.
T6 : Calculer un quotient de puissances.
T7 : Calculer une puissance de puissances.
Pour les problèmes
T8 : Interpréter et reconnaître une situation qui relève d’un modèle multiplicatif répété par une puissance (Guerrin, 2012)
Le type de tâche T’0 est ajouté à la publication.
Tout ce qui relève de l’écriture scientifique ne concerne pas ce cours (T2, T3, T4).
Exercice 1 T1
Exercice 2 T0
Exercice 3 T5, T6
Exercice 4 T1, T7
Exercice 5 T’0
Exercice 6 T5, T6, T7
T7 n’apparaît pas beaucoup (1 fois dans l’exercice 3 et 2 fois dans l’exercice 6 et pourtant c’est sûrement une grande difficulté dans les calculs.)
Le seul type de tâche non représenté est T8 qui donne du sens à la notion de puissance et qui pourrait permettre de mieux intégrer les propriétés des puissances. Il me semble que ce serait bien de penser un exercice issu du domaine de compétence des étudiants mettant en jeu un principe d’itération de multiplications.

* La description de ces tâches s’adresse aux enseignants, et les tâches ne sont nullement des consignes prévues pour les étudiants.


Encadré 2 : un exemple d’analyse pour la construction d’un module


D’autre part, l’idée sous-jacente à la réalisation des modules est celle de l’évaluation formative, possible, notamment, grâce aux QCM intermédiaires, la possibilité de visionner les vidéos à son rythme et de construire un parcours d’apprentissage adapté à ses habitudes et à ses besoins.
En particulier, les QCM sont conçus de manières à ce que les réponses proposées reposent sur des erreurs dues à l’usage de techniques mal appropriées, comme l’illustre l’exemple ci-dessous (figure 2), Dans cet exemple, parmi les techniques énoncées dans l’encadré 2, sont travaillées T0, T’0, T5, T6 et T7. Les corrections apportées suite aux scores sont censées aider l’étudiant à comprendre sa méprise. Celui-ci pourra tenter d’autres essais sans tomber sur les mêmes questions et vérifier ainsi sa bonne compréhension. Il pourrait être judicieux de détailler les solutions en donnant par exemple la technique sous-jacente en commentaire.

Figure 2 : QCM intermédiaire

Utilisabilité

Les contraintes de l’université de Grenoble font que la plateforme utilisée a été la plateforme Chamilo développée et utilisée par l’université Joseph Fourier. Par conséquent, la création des cours a dû être faite en tenant compte de ces contraintes et sans pouvoir agir sur la gestion des erreurs, sur la facilité de navigation et sur l’ergonomie même des cours proposés.
Et même si l’utilisabilté de cette plateforme est passable, son utilité et le fait qu’elle soit acceptable, la rend utilisable par les étudiants. Ce lien entre les dimensions, mis en évidence dans l’article de Tricot & al. (2003) apparaît dans l’analyse par inspection et sera confirmée dans les observations avec les étudiants en situation.

Acceptabilité

La forme même donnée aux cours et les incitations envoyées aux étudiants pour travailler sur la plateforme est a priori acceptable pour les étudiants. Dans les logs de la plateforme, on peut voir les temps de connexion, les heures d’entrée et de sortie et les parties des modules qui ont été visitées (Figure 3 et 4). Ces éléments permettent de construire des profils d’utilisation de la plateforme et constituent une première approche de l’étude de l’acceptabilité. Les connections nombreuses, les quiz réalisés, la motivation des étudiants tendent à montrer que, du point de vue des utilisateurs, la plateforme est acceptable.
La volonté de l’institution de créer, de suivre, d’alimenter et d’inciter les étudiants à l’utiliser est du point de vue de l’institution un gage d’acceptabilité. Ces premiers éléments doivent être confirmés et vérifiés dans la partie suivante.

Figure 3 : détails de l’apprenant dans le cours
Figure 4 : détails d’un parcours sur le module 2

3. Evaluation empirique

Après que la majorité des modules ait été implémentée, nous avons voulu observer le comportement des étudiants confrontés à la plateforme et recueillir leurs avis quant à l’utilisation qu’ils en ont faite. Les étudiants « sélectionnés » pour les observations et les entretiens l’ont été sur la base des stratégies de travail qui découlent de nos observations des parcours d’apprentissage (figures 3 et 4). Les scores, le nombre de tentatives aux quiz, le temps de visionnage des vidéos, les téléchargements des documents PDF sont des indicateurs des stratégies mises en place.

Observations : nous avons demandé à un groupe d’étudiants de travailler sur un module qui n’avait pas été encore mis en place sur la plateforme. Deux observateurs ont étudié les comportements et le travail des étudiants à l’aide d’une grille de critères (figure 5). Des écrans d’ordinateurs d’étudiants « sélectionnés » ont été enregistrés ainsi que les dialogues des étudiants. Ceci a permis une analyse plus fine de leurs stratégies de travail. Cette situation était décalée de l’utilisation prévue de la plateforme (travail individuel, à son rythme, en dehors du temps de cours) mais elle constituait un compromis acceptable pour la méthodologie d’observation mis en place dans notre étude et nous a permis de recueillir des données importantes quant à l’utilisation individuelle de la plateforme.

Figure 5 : Exemple de grille d’observation

Q-sorting interview : Nous avons proposé aux étudiants sélectionnés 21 affirmations sur les contenus des cours. Une discussion entre eux et avec les chercheurs a suivi (Figure 6).
Cette phase de travail de groupe a été enregistrée (son et images). En croisant les réponses des groupes (figure 7) et leurs commentaires, une analyse des interviews a pu être effectuée. Ci-dessous dans l’encadré (Encadré 3), l’analyse faite sur les deux premières affirmations montre qu’il est utile de la croiser avec des renseignements obtenus lors de l’évaluation par inspection de la plateforme.

Figure 6 : Discussion au sein d’un groupe
Figure 7 : Résultats d’un des groupes

1. L’introduction de chaque module est intéressante parce que c’est une situation surprenante.
Les groupes semblent unanimes pour ne pas voir l’intérêt de cette introduction, ou même comme certains étudiants l’ont déclaré de ne pas l’avoir vu.
 Est-ce que ça t’a surpris ?
 Ben non, parce que je savais déjà
2. je n’ai jamais regardé l’introduction du module.
Cette deuxième affirmation qui complète et précise la première reçoit des avis divergents et entre en contradiction avec les observations à distance ou en présence. En effet, un groupe se déclare pas d’accord du tout, les deux autres plutôt d’accord.
Les avis sont plutôt contre :
pas « surprenant » : cette vidéo ne les a pas marqués et ne savent pas s’ils l’ont regardée
certains la zappent : 6 élèves passent moins de 20s dessus
pourtant certains restent longtemps dessus : 5 élèves s’attardent plus de 6 mn dessus
KA reste 9 min (idem pour E) : des arrêts de 30s environ car écrit et fait sur papier en même temps (mais ne le fait pas savoir lors du questionnaire)
On peut penser que les vidéos de cours et les exercices sont plus attractifs parce que dans la continuité des cours du lycée alors que l’introduction, peut-être pas assez mise en valeur n’apparaît pas nécessaire. Il n’empêche que nous maintenons son importance didactique et qu’une recommandation serait peut-être de la mettre plus en valeur.


Encadré 3 : Analyse des deux premières affirmations


4. Conclusion de notre évaluation

Les observations tant du point de vue ergonomique que didactique ont clairement montré les apports de ces modules de cours pour les étudiants même si quelques éléments sont encore à améliorer comme on le précisera dans la partie encadrée “Résultats des observations en 6 remarques” (encadré 4). L’expérience de conception et de réalisation peut alors être reproduite pour des modules futurs qui pourraient être développés sur le modèle et avec la méthodologie utilisée dans la conception des six premiers modules. Il est important de garder en tête la nécessité d’un travail approfondi de didactique des mathématiques de façon à offrir aux étudiants un contenu adapté à leurs besoins, scientifiquement irréprochable et utile pour les enseignements de l’ENEPS.
Les observations réalisées à distance et en présence montrent que les étudiants sont globalement satisfaits de ce qui est proposé dans ces modules et pour la plupart indiquent que les contenus sont des points de repère importants pour pouvoir se situer par rapport aux connaissances attendues en mathématiques pour commencer l’année avec confiance. Le fait de pouvoir se situer, s’auto-évaluer avant les cours est certainement un atout important de la plateforme. Dans les perspectives de travail et d’amélioration, on pourrait imaginer une évaluation diagnostique préalable à l’utilisation des modules. Cette évaluation pourrait dispenser certains étudiants qui maîtrisent les contenus de l’un ou de l’autre des modules et les diriger vers les modules dans lesquels l’évaluation montrerait les difficultés rencontrées. Cette évaluation pourrait certainement encore mieux participer à l’acceptabilité de la plateforme par les étudiants.


Remarque 1
La plateforme dans sa diversité d’approches (cours, exercices, auto-évaluation, explication plus particulière, évaluation) est suffisamment flexible pour s’adapter aux besoins très divers des étudiants.
Du point de vue des contenus des modules :
• la possibilité de voir des vidéos avec des explications données, ou de télécharger les cours, ou les corrections d’exercices,
• la possibilité de s’auto-évaluer avec des QCM intermédiaires participe à la flexibilité de la plateforme
Du point de vue des besoins des étudiants
• les exercices nombreux,
• les QCM permettent aux étudiants d’adapter leur apprentissage en fonction de leurs connaissances initiales.
Remarque 2
Les modules sont utiles pour les étudiants pour :
• se conforter dans les connaissances nécessaires pour la suite de leur intégration en leur donnant un point de référence initial.
• revoir quelques notions qui sont fondamentales dans la suite de leurs cursus
Remarque 3
Il apparaît que les vidéos sont utiles pour les étudiants mais que les utilisations qu’ils en font sont diverses et adaptées à leurs stratégies d’apprentissage :
• lecture continue de la vidéo, ce qui souvent provoque le sentiment de longueur
• lecture avec des arrêts pour vérifier ou faire les exercices lecture avec des accélérés au moment des parties supposées connues
Il est donc intéressant de garder ce format de vidéos qui permet à chacun d’utiliser ce support de cours à sa façon.
Remarque 4
Les exercices sont adaptés et fondamentaux pour l’entraînement des étudiants. Même lorsque le sujet paraît simple, c’est à travers la réalisation effective de l’exercice qu’ils confortent leur assurance à savoir résoudre des problèmes. D’une façon générale, les exercices, les QCM et les exemples utilisés dans les modules sont acceptables par les étudiants qui les ont expérimentés.
Remarque 5
L’ergonomie générale rend la plateforme utilisable et n’est pas un frein à l’acceptabilité des contenus. Cependant, les observations et les entretiens montrent que des progrès pourraient être faits pour que l’accès aux modules soit simplifié.
Remarque 6
Les étudiants sous-estiment l’importance des connaissances contenues dans les modules. En particulier, ils sous-utilisent la capitalisation des travaux réalisés dans ces modules pour en faire une référence initiale pour les disciplines qu’ils vont rencontrer. Il pourrait être intéressant de demander aux étudiants de constituer un port-folio pour mettre en évidence les connaissances acquises mais aussi les difficultés rencontrées.


Encadré 4 : Résultats en 6 remarques


Conclusion de l’article

L’objet d’étude étant un EIAH concernant des apprentissages de contenus mathématiques, il nous a semblé essentiel que la méthodologie utilisée conjugue les deux aspects, didactique pour une évaluation des apprentissages et ergonomique pour une évaluation de l’outil numérique. L’étude des trois dimensions, l’utilité, l’utilisabilité et l’acceptabilité confrontée à des cadres théoriques en didactique des mathématiques a permis une analyse croisée de ces deux aspects. Il nous semble que cette méthodologie est transposable à d’autres EIAH liés aux mathématiques, même si la demande de l’ENEPS d’un suivi de la mise en place de cette plateforme a impacté la méthodologie d’analyse utilisée dans notre exemple. Celle-ci s’est en effet élaborée en partie pendant la conception de cet outil. L’analyse didactique des contenus s’est déroulée a priori et a permis une réflexion sur les contenus des modules avant de les mettre à disposition des étudiants. Les vidéos, les exercices mis en ligne tiennent compte en général de cette analyse. Cette analyse de l’utilité réfléchie en amont croisée avec l’évaluation empirique de, notamment, l’acceptabilité a permis de vérifier si ces deux dimensions étaient en adéquation pour une utilisation aboutie par les étudiants.
Faite a posteriori, une telle évaluation permet malgré tout d’envisager des évolutions pour rendre l’outil étudié plus efficace. Tenir compte de l’utilisation qu’en feront les usagers et de leurs attentes pourrait rendre l’outil plus acceptable et l’utilité pourrait en être d’autant plus renforcée. Ces trois dimensions sont liées et un changement de l’une peut impacter les autres. Tricot (2003) le formule ainsi :« quel que soit l’objet finalisé à évaluer, toute relation entre Utilisabilité (possibilité de mettre en œuvre les moyens), Utilité (possibilité d’atteindre le but) et Acceptabilité, est possible ».
Lors de cette étude, il nous a paru intéressant de voir en quoi la plateforme permet aux étudiants d’accomplir une tâche de différentes façons en maintenant une cohérence avec les intentions des auteurs (Aldon et al., 2017). Et de la même façon, en quoi les modules proposés permettent à tous les étudiants de trouver des éléments suffisants pour s’adapter à leurs apprentissages. Ce constat se réfère à une autre dimension , la flexibilité, dont nous avons tenu compte dans la conception de cet outil. La flexibilité peut être considérée du point de vue de l’EIAH lui-même et en ce sens renvoie à l’utilisabilité ou bien du point de vue des possibilités offertes aux utilisateurs pour adapter l’environnement à leurs propres intentions d’apprentissage.

The criterion flexibility refers to the means available to the users to customize the interface in order to take into account their working strategies and/or their habits and the task requirement. Flexibility is reflected in the number of possible ways of achieving a given goal” (Bastien & Scapin, 1993, page 30).

Bibliographie

Aldon, G., Front, M., Gardes, M.-L. (2017). Entre élaboration et usage, comment poser la question de la cohérence des ressources ?, Education & didactique, Vol. 11-3, 9-30.
Bastien, J. C., & Scapin, D. L. (1993). Ergonomic criteria for the evaluation of human-computer interfaces (Doctoral dissertation, Inria).
Brousseau, G. (1986). Théorisation des phénomènes d’enseignement des mathématiques (Doctoral dissertation, Université Sciences et Technologies-Bordeaux I).
Chevallard, Y. (1985). La transposition didactique (Vol. 95). Grenoble : La pensée sauvage.
Chevallard,Y . (1998). Analyse des pratiques enseignantes et didactique des mathématiques : l’approche anthropologique. Actes de l’UE de la Rochelle, 1998.
Guerrin, L. (2012). La démarche d’investigation à travers un Parcours d’Étude et de Recherche, l’exemple des puissances en classe de 4ème, IREM de Clermont-Ferrand.
Swan , M- Encyclopedia of mathematics education, 2014 - Springer
Tricot, A., Plégat-Soutjis, F., Camps, J. F., Amiel, A., Lutz, G., & Morcillo, A. (2003). Utilité, utilisabilité, acceptabilité : interpréter les relations entre trois dimensions de l’évaluation des EIAH. In Environnements Informatiques pour l’Apprentissage Humain 2003 (pp. 391-402). ATIEF ; INRP.

Réponses aux questions concernant notre article

Voici quelques éléments de réponses à vos différentes remarques :

1- Il faudrait que l’on ait les vidéos dont il est question dans l’article, cela me semble indispensable pour publier cet article qui sinon risque d’intéresser trop peu de lecteurs.
Ce SPOC est un SPOC privé dont le propriétaire est l’ENEPS. Tous les contenus leur appartiennent et ne sont pas disponibles. Nous ne pouvons donc pas joindre de vidéo de cours.

2- A défaut d’avoir ces vidéos si on avait un accès en test ça serait le top du top !!!
Pour la même raison l’accès est réservé seulement aux étudiants inscrits et à l’équipe de conception. Nous ne pouvons pas personnellement procurer un compte visiteur comme vous le suggérez ; en revanche il vous est possible de faire la demande à l’ENEPS.

3-Page 6 : « T1 : Transformer un nombre décimal bien choisi sous la forme d’une écriture avec une puissance » : Pour pinailler, je dirai que 1,759 = 1,759^1. Je trouve ce type de tâches mal écrit, surtout à cause du « bien choisi » qui est une tâche dévolue au rédacteur de l’exercice, pas à l’apprenant.

Les tâches ainsi décrites ne sont pas des consignes destinées aux étudiants. Il s’agit là d’une étude des praxéologies, ces descriptions de tâches s’adressent aux enseignants et chercheurs concernés par l’analyse.
Tenant compte de votre remarque, nous l’avons précisé dans le texte.

4- Page 11 : « On peut penser que les vidéos de cours et les exercices sont plus attractifs parce que dans la continuité des cours du lycée ». Ca me fait bizarre, alors qu’on montre, au collège ou au lycée, des probleme Dudu et du Mythbuster pour motiver l’apprentissage de nouvelle notions.

Nous voulons dire par cette remarque, que les vidéos apportent le côté humain que l’on perd avec un tel outil. Les étudiants provenant de Bac Pro ont besoin d’être rassuré, Ils se retrouvent seuls face à ce SPOC et face à leurs apprentissages. Proposer des vidéos est un moyen de leur soumettre des contenus plus vivants que des cours écrits. Ils peuvent ressentir la « présence d’un enseignant » par ce biais.

5- Il manque, je trouve, quelques éléments décrivant le contexte : nombre d’étudiants, temps disponible pour faire les modules, obligation de passer ces modules…

En effet, nous en avons tenu compte dans le texte.

6- Est-ce que ces modules correspondent aux mises à niveau suggérées dans Parcoursup ?

Ce SPOC a été mis en place bien avant les mises à niveau suggérées dans Parcoursup.
Ce SPOC est destiné aux étudiants de provenant de BAC Pro. L’ENEPS leur propose un parcours adapté et intégré en IUT.
Pour plus de détails : https://eneps.univ-grenoble-alpes.fr/eneps/presentation


7- Qu’apporte le numérique dans la résolution du problème de départ (la remise à niveau des élèves ) ?

Il nous semble bien avoir donné ces réponses dans les 6 remarques de notre conclusion de l’analyse de notre exemple,
Il est vrai que l’on ne s’attarde peut-être pas trop sur cette conclusion car ce n’est pas le fond de notre article. La présentation de cette plateforme ne sert qu’à exemplifier notre méthodologie d’évaluation d’un tel outil.

8- Une matinée dans une salle de cours aurait-elle été possible ? Avec un prof qui montre des vidéos, qui fait des QCM au bout d’une heure, et qui distribue des pdf imprimés ?

Nous n’avons sans doute pas été assez précis dans le contexte. Cet outil est utilisé en libre service par les étudiants et n’a pas pour but d’être utilisé en classe par un enseignant. Il a été conçu en tenant compte de cet objectif.
Nous l’avons donc précisé dans le contexte.

9- Les IUT ayant une plateforme de ressources numériques, j’aurais bien aimé savoir pourquoi elle a été écartée : http://www.iutenligne.net/catalog/thematique/mathematiques ?

La plateforme Chamilo est la plateforme déployée officiellement à l’université Grenoble-Alpes depuis 2017. Comme l’ENEPS est un institut de cette université, et que les aides techniques étaient disponibles sur le campus, les responsables de l’ENEPS ont fait le choix de l’utilisation de cette plateforme. C’est bien d’ailleurs un point important de notre analyse puisque nous n’avions en aucune façon la main sur l’ergonomie de la plateforme. C’est donc bien une analyse externe que nous avons pu faire.

10-Beaucoup d’images sont illisibles : je suggère d’afficher dans SPIP des vignettes à ouvrir par le lecteur par clic. cf. http://revue.sesamath.net/spip.php?article1055

Nous joignons les images à intégrer en pièce jointes avec notre article.Nous espérons que la qualité sera suffisante.