L’usage du stylo numérique pour un test d’évaluation ordonné

Télécharger le fichier original (Mémoire de fin d’études)

L’usage du stylo numérique pour un test d’évaluation ordonné

Introduction

Dans le cadre de notre étude exploratoire, nous avons participé à l’expérimentation d’usage de la technologie du stylo numérique pour la passation des tests d’évaluation de connaissances en tableur. Notre objectif est d’aider le chercheur en sciences de l’éducation à recueillir les données à l’aide de cette technologie et de proposer le traitement et la visualisation des données temps issues de la trace d’écriture des répondants.
A cette fin, nous avons organisé, en collaboration avec des collègues du laboratoire STEF, la passation de tests d’évaluation de connaissances sur le tableur auprès des étudiants de niveau licence.
Après l’analyse des besoins globaux de cette étude, nous avons produit un prototype permettant le traitement et la manipulation de différents types « d’indicateurs » à travers une interface interactive permettant de visualiser des représentations de ces données.
Enfin, nous avons établi une analyse de l’expérience basée sur l’évaluation des chercheurs et sur nos observations de la phase d’instrumentation ainsi que les fonctionnalités et les représentations offertes par ce prototype.

Analyse préalable

Dans ce cas d’usage du stylo numérique, l’utilisateur est un étudiant, ou bien un répondant, qui est dans une situation particulière de passation de test. Pour cela, nous avons précédé cette étude par cette une petite expérience pour mieux comprendre la situation de passation d’un test sur papier. Cette expérience (voir annexe A) consiste à observer et filmer des étudiants au cours d’un test de 15 minutes sur papier ordinaire. Nous avons demandé à 3 étudiants, de niveau licence 3, de faire ce test dans un cadre non académique (hors séance de cours). Le test était suivi d’un entretien semi directif avec les étudiants à propos de leur stratégie de réponse à un test.
L’analyse des observations et des entretiens avec ces étudiants nous permet de déterminer trois profils de répondants en terme de stratégie de réponse :
(1) Lire la totalité du test puis commencer à répondre du début question par question et revenir sur les questions difficiles à la fin.
(2) Lire la totalité du test puis commencer par les questions les plus faciles aux plus difficiles.
(3) Lire et répondre au fur et à mesure question par question et revenir sur les questions difficiles à la fin.
Nous avons également effectué une analyse chronologique des enregistrements vidéo de ces étudiants au cours du test (voir annexe). Cette analyse révèle les constats suivants :
o Les tâches observables qui se manifestent sont notamment l’écriture et la lecture des questions. En outre, nous pouvons observé l’hésitation ou une réflexion après une écriture. Cependant, ces moments sont plus courts.
o Il existe un temps de lecture à considérer au début de chaque test qui précède l’instant de la première écriture de réponses.
o La tâche d’écriture est généralement précédée d’une tâche de lecture.
o La durée de lecture est plus importante que la durée d’écriture (l’écriture : allant de 1 seconde à 15 secondes ; la lecture : allant de 3 secondes à 2 minutes et 15 secondes).
o Il existe des temps de lecture passés sur des questions « difficiles » auxquelles l’étudiant n’a pas forcément répondu.
o Du chevauchement peut exister entre lecture et écriture des questions, par exemple, lecture d’une question, puis lecture et écriture dans une autre question, puis écriture de la première question.
Même si ces constats semblent être évidents, ils constituent une réflexion sur la façon de mener cette expérience avec le stylo numérique par rapport à la conception des tests et au traitement des données recueillies. Par ailleurs, quoique les données du stylo numérique auront une spécificité nécessitant une méthodologie autre que l’analyse des vidéos, les deux outils fournissent des données temps plus fines (instant de début et de fin d’écriture). Autant d’informations qui permettent d’envisager de répondre aux questions suivantes :
• Sur le processus de résolution des tests, quels sont les parcours individuels des répondants ?
• Y a t-il des parcours particuliers ou des tendances de parcours ?
• Dans quel ordre chacun a-t-il répondu ?
• Quelle question a été traitée en premier ou en dernier ?
• Sur le temps passé sur chaque question, quelle est la durée d’écriture et la durée de lecture ou autres ?
• Il y a t-il des relations entre les données temps (durée et ordre) et la difficulté des questions ?
• Il y a t-il des relations entre les données temps (durée et ordre) et le résultat du test ?
La réponse à ces questions constitue, dans notre démarche, les besoins auxquels doit répondre notre solution à partir du traitement des données recueillies avec le stylo numérique.

Contexte et objectif de l’expérience

En éducation, nous avons remarqué (voir le chapitre 1) que l’usage de cette technologie a concerné essentiellement le travail collaboratif (Maldonado et al., 2006) en classe et le partage des notes manuscrites (Miura et al., 2007), d’une part, et le tutorat et l’évaluation en classe (Lee et al., 2008; Oviatt et al., 2006), d’autre part.
Cependant, aucune étude, à notre connaissance, ne s’est intéressée à l’analyse de la trace d’écriture de l’élève enregistrée par le stylo numérique. Ces données contiennent, en plus de la note écrite, des données temps. L’analyse de ces données, comparable à l’analyse des traces numériques issues des environnements informatique d’apprentissage humain, permet d’observer et de construire des analyses intéressantes sur le comportement des élèves au cours d’un test d’évaluation.
Des travaux antérieurs réalisés au STEF, dans le cadre du projet DIDATAB13, avaient porté sur l’administration de tests pratiques sur le logiciel tableur, sur ordinateur. Ces travaux ont révélé que la façon dont les élèves procèdent lors de la résolution de tests sur le tableur est tout aussi intéressante que leur production. Afin d’étudier ces processus, des enregistrements vidéo des interactions des élèves avec le tableur ont été exploités (Tort, Blondel, & Bruillard, 2009). L’analyse qualitative de ces enregistrements révèle d’autres informations sur les processus de résolution des problèmes et les comportements des élèves au cours du test pratique, notamment les comportements consistant à explorer systématiquement l’interface du logiciel.
A la différence des tests sur ordinateur, les questionnaires papier présentent l’intérêt de pouvoir poser des questions sur les concepts et principes du logiciel, et de centrer les élèves sur ce qu’ils savent, sans qu’ils aient recours à une quelconque aide du logiciel. De plus, ils peuvent être administrés à une plus large population. Toutefois, ils ne donnent aucune indication sur le processus de réponse au questionnaire.
L’instrumentation de questionnaires sur papier tramé, en permettant l’enregistrement des temps d’écriture des réponses avec le stylo numérique, fournit un moyen de collecte des données sur le processus de résolution du test. Par cette étude, nous voulons exploiter ces données collectées dans le cas d’un test d’évaluation ordonné.
Pour avoir des cas concrets de tests d’évaluation, nous avons collaboré avec Françoise Tort, en tant que chercheur qui a participé au projet DIDATAB, d’une part, et en tant qu’enseignante à l’ENS Cachan qui fait des cours de formation sur le tableur destinés à des étudiants de L3 – économie et gestion, d’autre part.
De plus, Pascale Aoudé, qui était doctorante en Sciences de l’éducation à l’Université Paris Descartes, a été intéressée par l’utilisation de la technologie du papier et stylo numérique pour l’administration des tests d’évaluation dans le cadre de son projet de thèse intitulé « Les futurs enseignants du primaire face aux TIC: Questions de compétences et de formation : Le cas du tableur ».
Avec leurs participations, nous avons commencé par analyser les besoins méthodologiques du chercheur de la situation de collecte des données avec le stylo numérique jusqu’à l’exploitation et la visualisation des données recueillies. En outre, en tant qu’étude exploratoire, certains besoins ont été déclarés a priori par les chercheurs, alors que d’autres besoins, notamment ceux liés aux données temps, sont nés au fur et à mesure du traitement des données recueillies.

Organisation de l’expérience

Les tests d’évaluation de compétences en tableur ont été conçus dans le cadre méthodologique établi lors du projet DIDATAB visant à évaluer les acquis en connaissances sur le tableur des élèves de niveau collège et lycée. Une base de données de questions d’évaluation de compétences a été élaborée. Ces compétences étaient classés en cinq grandes catégories qui sont : Entités (Identification des entités, choix de leurs paramètres d’affichage et manipulation), Formules (Ecriture des formules), Graphiques (Traduction des données en graphiques), Modélisation (conception de tableaux de données pour résoudre un problème), et Tables (Gestion des données en tables).
Au cours de cette étude du cas d’usage de la technologie du papier et stylo numériques, nous avons instrumenté à l’aide de la technologie Anoto des tests conçus par les chercheurs et administrés auprès d’étudiants dans deux contextes concrets de tests d’évaluation en classe.
Le premier concerne trois tests destinés à des étudiants de Licence 3 en économie et gestion à l’ENS Cachan, et qui suivaient un cours de formation sur le tableur. Le deuxième contexte concerne deux tests destinés à des étudiants de niveau licence provenant de 3 institutions de formation en Ile-de-France (l’IUT de Rambouillet, l’université de Paris 5 et l’Université Paris 8-Saint Denis), et qui suivaient une formation en C2i.
La conception et l’instrumentation des formulaires étaient différentes pour chaque cas. Dans la suite, nous présentons la spécification de conception et d’instrumentation de chaque cas selon le contexte et le besoin du chercheur.

La conception et l’instrumentation des tests

Dans le cadre de notre étude, la même base de données du projet DIDATAB a été utilisée par les chercheurs pour la conception du contenu des tests ordonnés. Il s’agissait de tests comportant la description d’une situation initiale avec présentation de données sur une feuille de calcul. Puis, chaque test, disposé sur deux pages, proposait 10 questions ouvertes ou fermées successives mais indépendantes demandant de résoudre un problème simple correspondant à une compétence (écrire une formule, éditer un graphique, trier une table, etc.).
Concernant l’instrumentation des tests avec la technologie du papier et stylo numérique, nous avons conçu la structure des formulaires en projetant sur la lisibilité des données recueillies et dans la limite des exigences de la technologie. Pour cela, pour chaque formulaire, nous avons prévu une zone « identifiant » dans laquelle l’étudiant notera au début du test un identifiant composé de ses initiales (voir Figure 13). Cette valeur permet d’identifier les répondants au cours de la phase de traitement, mais aussi, le premier instant d’écriture dans cette zone représente le temps zéro à partir du quel nous allons calculer les données temps d’écriture dans les autres zones de réponses. Figure 13 : Illustration de la zone « identifiant » depuis le premier test destiné aux étudiants de L3 Economie et Gestion de l’ENS Cachan.
Deux types de questions constituent le test à savoir ; les questions ouvertes et les questions fermées. Pour les questions ouvertes, qui concernent généralement l’écriture de formules, nous avons aménagé des zones de type texte (voir l’exemple Figure 14) pour que le répondant ait un espace suffisant à l’écriture de la formule attendue.
Figure 14 : un exemple de question ouverte depuis le premier test destiné aux étudiants de L3 Economie et Gestion de l’ENS Cachan.
Les questions fermées peuvent être soit à choix unique soit à choix multiple. La technologie d’instrumentation permet de reconnaître chaque type différemment. Les questions à choix unique sont représentées par l’objet bouton radio (voir Figure 15). Pendant la phase d’instrumentation, une valeur est attribuée à chaque bouton comme étant la réponse voulue. Le système de reconnaissance renvoie cette valeur une fois le répondant note une marque sur ce bouton avec le stylo.
Figure 15 : exemple de question fermé à choix unique depuis le premier test destiné aux étudiants de L3 Economie et Gestion de l’ENS Cachan.
De la même façon, dans la phase d’instrumentation, une valeur réponse doit être attribuée à chaque choix pour une question fermée à choix multiple (voir Figure 16). Cependant, le système de reconnaissance va renvoyer chaque valeur où le répondant a noté une marque. Pour cela, nous allons avoir la valeur et les données temps de chaque réponse coché.
Figure 16 : exemple de question fermé à choix multiple depuis le deuxième test destiné aux étudiants de L3 Economie et Gestion de l’ENS Cachan.
Concernant les tests destinés aux étudiants suivant une formation en C2i, un besoin spécifique au contexte de la recherche a nécessité d’ajouter devant chaque question une case pour manifester la sûreté du répondant de sa réponse. Si le répondant pense être sûr de sa réponse, il va mettre une marque dans cette case (voir Figure 17).
Nous avons représenté ce choix dans l’instrumentation par un groupe « sûreté » de cases à cocher, sous forme de question fermée à choix multiple où chaque case correspond à une question. Ainsi, le système de reconnaissance, de la technologie Kayentis, renvoie le numéro de la question et le temps d’écriture, si une case de sûreté a été cochée par le répondant.
Figure 17 : illustration depuis le premier test de C2i des cases à cochés pour marquer la sureté à propos des réponses aux questions.
A l’issue d’une phase de vérification et de validation du contenu et de l’instrumentation des tests avec les chercheurs, nous importons la structure du formulaire dans la plateforme de Kayentis et nous imprimons des exemplaires pour la préparation à la phase d’administration des tests.

L’administration des tests

Pendant la phase d’administration des tests, nous disposions d’une dizaine de stylos numériques disponibles. Pour cela, une partie des tests était imprimée sur papier ordinaire. Pour les chercheurs, ils ont recueilli les réponses de l’ensemble des étudiants, sans avoir les données temps de tous.
Pour les tests qui étaient destinés à des étudiants de L3 économie et gestion à l’ENS Cachan, chacun des tests portait sur des connaissances vues au cours des séances de TP sur le logiciel Excel. Trois tests ont été administrés au cours de l’année de formation (toutes les 4 séances de TP). 37 élèves ont effectué les tests, 9 d’entre eux ont utilisé les stylos numériques pour répondre. Chaque test a duré entre 10 et 15 minutes.
La note obtenue à ces tests était prise en compte dans l’évaluation finale des élèves pour l’obtention de leur diplôme, mais pour une part inférieure à l’examen final. La notation appliquée n’était pas à point négatif : 1 pour une bonne réponse, 0 pour une absence de réponse ou une mauvaise réponse. Les étudiants étaient donc plutôt incités à participer correctement au test et à répondre aux questions posées.
Pour les tests passés à des formés en C2i, les répondants proviennent de 3 institutions : 41 % sont en première année de Gestion Administrative et Commerciale à l’IUT de Rambouillet, 45 % sont en L3 de sciences de l’éducation à Paris 5, et 14 % des répondants préparent une L1 en Sciences de l’Éducation à l’Université Paris 8- Saint Denis.
Deux tests ont été administrés auprès de ces étudiants. Le test 1 a été passé deux séances après le début de l’explication du module « tableur » et le test 2 a été passé deux séances plus tard. Il y a eu 58 répondants avec stylo numérique (sur 128 répondants) au Test 1 et 59 répondants avec stylo numérique (sur 98 répondants) au Test 2.
Une fois les tests administrés, une phase de vérification et de validation de la reconnaissance de l’écriture sur la plateforme de Kayentis était nécessaire. En effet, dans les questions ouvertes l’écriture des formules n’a pas était facile à valider par le système de reconnaissance de l’écriture. Même pour les questions fermées, il arrive que le répondant change d’avis sur un choix unique par exemple lorsqu’il rature avec le stylo une case et coche une autre, dans ce cas le système exige de ne valider qu’un seul choix. Pour cela, les chercheurs avaient comme tâches supplémentaires la vérification et la validation de certaines productions de leurs étudiants sur la plateforme de Kayentis.
Après la validation, nous effectuons l’exportation d’un fichier XML contenant les réponses et les données temps de tous les répondants correspondant à chaque test. C’est ce fichier qui sera traité par notre application afin de fournir les informations souhaitables en format lisible (sous forme de tableau xls ou bien en graphique) pour le chercheur.

Le traitement des données

Pour ce cas d’usage du stylo numérique, nous avons voulu approfondir le traitement des données recueillies afin de pouvoir mettre en évidence l’apport de l’analyse des données temps par rapport aux autres données relatifs à un test d’évaluation. De plus, ces traitements permettent d’analyser le parcours d’écriture des répondants à un test.
Notre démarche consiste à exploiter ces données temps pour en fournir des « indicateurs temps » permettant au chercheur d’enrichir ses analyses.
D’autre part, le chercheur, dans le cadre de son étude, a besoin de définir un certain nombre « d’indicateurs » qui sont en relation avec les données relatives aux questions et aux réponses aux questions. Ce sont des données qui qualifieront les réponses obtenues aux tests, et permettront une analyse qualitative des réponses.
Nous distinguons donc deux types de traitement : le calcul automatique des « indicateurs temps », relatifs à la trace d’écriture avec le stylo numérique en général, et les « indicateurs » personnalisés relatifs au contexte d’une étude, et que le chercheur peut ajouter à son corpus de données à partir d’une interface utilisateur.

Les indicateurs temps

En tenant compte de l’expérience décrite dans le paragraphe 2 plus haut (Analyse préalable), nous rappelons que le processus de résolution d’un test, constitué essentiellement de deux tâches qui sont l’écriture et la lecture sur des durées variées, est différent pour chaque répondant. Nous voulons savoir l’apport de l’analyse de ces processus et de ces données temps dans le domaine d’évaluation en éducation pour un test ordonné. Pour cela, nous avons exploré quelques recherches, qui s’intéressent à l’analyse des données temps, notamment dans l’analyse des questionnaires et en psychologie cognitive.

Exploration théorique

Des travaux portant sur l’analyse des questionnaires d’enquêtes par téléphone ont étudié le facteur temps de réponse, appelé « latence », pour comprendre les comportements et les attitudes politiques des répondants (Bassili & Fletcher, 1991). Plus récemment, (Mulligan, Grant, Mockabee, & Monson, 2003) ont couplé les enquêtes par téléphone à une technique informatisée de recueil des temps. L’analyse de ces temps de latence a été utilisée pour tester l’efficacité et la bonne formulation des questions (Bassili & Scott, 1996). Elle a été exploitée comme un indicateur d’erreurs pour (Draisma & Dijkstra, 2004). Enfin, dans l’analyse d’une enquête web effectuée auprès de demandeurs d’emploi d’une part et d’employés d’autre part, (Callegaro, Yang, Bhola, & Dillman, 2004) ont utilisé la mesure de la latence comme indicateur de la motivation du répondant. La latence est donc considérée comme un indicateur important pour connaître l’efficacité et la difficulté des questions, mais aussi l’exactitude des réponses, l’attitude et la motivation du répondant.
Des travaux, en psychologie cognitive, s’intéressant principalement à la tâche d’écriture, ont étudié particulièrement les durées des pauses (Foulin, 1995). Ils ont montré que les durées de pauses étaient des indicateurs d’un traitement cognitif. Leur durée est révélatrice d’une tâche cognitive riche : recherche des savoirs, structuration syntaxique et grammaticale de la phrase, conception de la phrase (Olive, Alves, & Castro, 2008).
Dans le cas de questionnaires sur le web ou sur papier où le répondant doit écrire lui même la réponse, la mesure de la latence commence à partir du moment de lecture de la question. Le processus cognitif du répondant comprend la formulation syntaxique et logique de la réponse. Pour cela, le temps de pause avant l’écriture d’une réponse fait partie de la durée totale de traitement d’une question.
Nous souhaitons instrumenter le calcul de durée d’écriture et de pause pour aider à analyser finement le comportement d’un répondant à un test sur papier dans le cadre de notre étude. Ainsi, la durée d’écriture, qui correspond à la tâche effective durant laquelle le répondant donne la réponse brute, et la durée de pause, qui correspond à une tâche cognitive durant laquelle le répondant lit et réfléchit sur la réponse, ces durées constituent la durée de traitement de la tâche.

Analyse de la trace

En pratique, le stylo numérique enregistre tous les instants d’écriture d’un tracé dans chaque zone. Cependant, le fichier de trace XML fourni par la société Kayentis, ne restitue que les instants de début d’écriture (appelés FirstStroke dans le fichier XML) et les instants de fin d’écriture (appelés LastStroke dans le fichier XML), de chaque question pour chaque répondant. Nous n’avons pas le détail de ce qui s’est passé entre ces deux moments. Nous avons donc utilisé ces données pour calculer les durées d’écriture des réponses et les durées de non écriture.
Rappelons que dans une situation de test sur papier, sans observation directe et sans enregistrement vidéo du répondant, nous ne pouvons pas avoir exactement les moments de lecture d’une question. Notamment lorsque le répondant fait du chevauchement au niveau de lecture et écriture entre les questions. Ainsi, nous supposant que le temps qui précède l’instant d’écriture d’une réponse à une question c’est un temps de pause, ou de non écriture, qui contient un temps de lecture ou de réflexion sur, le plus probable, la question répondu, ou bien sur une autre question.
Dans le cas le plus simple (voir Figure 18 -a), où le répondant écrit dans chaque champ de réponse successivement et ne revient pas les modifier, la suite chronologique des temps collectés forme une suite des couples de FirstStroke et LastStroke de chaque champ de réponse. Ainsi, si le temps d’écriture pour une question (k) va correspondre à l’intervalle entre son « firstroke » et son « laststroke », le temps de latence pour la question (k) correspond à l’intervalle entre le « laststroke » d’une question (j) et le « firstroke » de la question (k).
Dans le cas du chevauchement de lecture et d’écriture entre les questions, les instants de temps concernant une question ne se suivent plus dans la chronologie des temps collectés (voir Figure 18 -b). Dans ce cas, un retraitement des temps collectées est nécessaire pour déterminer les temps passés à écrire chaque réponse ainsi que les temps de latence passé ou de non écriture.
Pour toutes les situations, nous avons choisi d’attribuer la durée passée entre un premier instant correspondant à un champ de réponse (i-1) et un autre qui le suit correspondant à un champ de réponse (i) à ce dernier champ de réponse (i). Di = Ti – Ti-1
Si Ti-1 correspond à un LastStroke, dans ce cas nous supposons que Di est une durée d’écriture Dei. Sinon, nous supposons que Di est une durée de « non écriture » (ou latence) Dnei. Nous recueillons ainsi pour chaque champ de réponse deux valeurs de durées (Dei et Dnei). La durée totale consacrée à ce champ de réponse (i) est donc la somme des deux durées ainsi estimées.
DTi = Dnei+Dei
Compte tenu de ces calculs proposés, ces durées demeurent des approximations.

Les données traitées

Au moment de l’importation de la trace, l’application permet d’automatiser le traitement de certains paramètres, notamment relatifs aux données temps comme le moment de début de l’écriture, le moment de fin de l’écriture et les durées calculées comme décrit précédemment.
Pour le rang de traitement des questions, nous avons attribué par défaut le rang de traitement d’une question au rang du premier instant d’écriture dans le champ de réponse de la question.
Ces traitements ont constitué les transformations automatisées pour avoir un ensemble
« d’indicateurs » pour chaque champ de réponse et chaque répondant :
• Le début d’écriture (FirstStroke)
• La fin de la dernière écriture (LastStroke)
• La durée d’écriture
• La durée de non écriture – ou latence
• La durée totale (écriture + latence)

Table des matières

Chapitre 1. Contextes et problématique
1.1. Introduction
1.2. Contexte technologique
1.2.1. Les dispositifs de capture
1.2.2. L’encre numérique
1.2.3. Systèmes de reconnaissance
1.2.4. Traitement et visualisation de l’encre
1.2.5. La technologie Anoto et son fonctionnement
1.2.6. Les outils Kayentis
1.2.7. La plateforme de Kayentis Forms2.0
1.3. Contexte scientifique : usage du stylo et papier numériques
1.3.1. Interface utilisateur interactive
1.3.2. En éducation
1.3.3. Prise de note pour l’observation scientifique
1.4. Synthèse
1.5. Objectifs de la recherche
1.6. Méthodologie et outil de la recherche
1.7. Organisation du mémoire
Chapitre 2. L’usage du stylo numérique pour un test d’évaluation ordonné
2.1. Introduction
2.2. Analyse préalable
2.3. Contexte et objectif de l’expérience
2.4. Organisation de l’expérience
2.5. La conception et l’instrumentation des tests
2.5.1. L’administration des tests
2.6. Le traitement des données
2.6.1. Les indicateurs temps
2.6.2. Exploration théorique
2.6.3. Analyse de la trace
2.6.4. Les données traitées
2.6.5. Les « indicateurs » personnalisés
2.7. La visualisation des données
2.7.1. Les représentations individuelles
2.7.2. Les représentations collectives
2.7.3. Exemple d’analyse
2.8. Feedback de l’expérience
2.8.1. Instrumentation des formulaires
2.8.2. L’interface d’utilisation
2.9. Conclusion
Chapitre 3. L’usage du stylo numérique pour des tests non ordonnés
3.1. Introduction
3.2. L’expérience EUSPRIG
3.2.1. Contexte et objectif de l’expérience
3.2.2. Conception et instrumentation
3.2.3. Administration du test
3.2.4. Traitement des données
3.2.5. Les représentations graphiques
3.2.6. Feedback de l’expérience
3.3. L’expérience RJC
3.3.1. Contexte et objectif de l’expérience
3.3.2. Conception et instrumentation du test
3.3.3. Administration du test
3.3.4. Traitement des données
3.3.5. Les représentations graphiques
3.3.6. Feedback de l’expérience
3.4. Conclusion
Chapitre 4. L’usage du stylo numérique pour la prise de notes d’observation
4.1. Introduction
4.2. L’objectif et le contexte de l’expérience
4.3. L’analyse des besoins
4.4. La conception et l’instrumentation des grilles d’observation
4.5. Le traitement des données
4.6. Les représentations graphiques
4.7. Feedback de l’expérience
4.8. Conclusion
Chapitre 5. L’implémentation et l’analyse de la plateforme SEGELL
5.1. Introduction
5.2. Spécification fonctionnelle
5.2.1. Le but
5.2.2. Le principe de la solution
5.2.3. Les processus de fonctionnement
5.3. Scénario d’utilisation
5.4. Modélisation de l’architecture et de la base des données
5.4.1. L’architecture de l’application
5.4.2. La base des données
5.4.3. Calcul des indicateurs temps
5.5. Caractéristiques de l’interface d’utilisation
5.6. Conclusion
Chapitre 6. Méthode d’analyse et modèle générique
6.1. Introduction
6.2. La méthode d’analyse
6.2.1. L’instrumentation et le recueil des données
6.2.1.1. Contexte d’usage
6.2.1.2. L’instrumentation
6.2.1.3. Les données recueillies
6.2.2. Le système de traitement et de visualisation
6.3. Notre modèle
6.4. Conclusion
Chapitre 7. Conclusion et perspectives
7.1. Résumé des résultats
7.1.1. Contribution théorique
7.1.2. Outil développé
7.2. Réalisations futures et perspectives
Références bibliographiques
Annexe A
Annexe B
Table des illustrations

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *