La technologie éducative aide-t-elle les élèves à apprendre ?

Une analyse du lien entre appareils numériques et apprentissage

Mai 2019

Synthèse

L’essor des nouvelles technologies éducatives alimente de vives discussions, et pose une question : ces technologies sont-elles utiles ou néfastes aux élèves ?

Pour certains observateurs, la technologie éducative nuit à l’apprentissage. Ils mettent en avant des recherches démontrant que la technologie est source de distraction, nuit au développement social et crée des problèmes d’attention. Un certain nombre d’études ont en effet montré que l’apprentissage s’appuyant sur la technologie pouvait conduire à de moins bons résultats scolaires, une analyse récente ayant même prouvé que les élèves du second degré qui suivaient des cours en ligne avaient des notes largement inférieures à celles de leurs pairs.(1)

Sur l’autre plateau de la balance, certains citent des recherches sur la manière dont les machines permettent de personnaliser les expériences éducatives, de structurer les heures de cours plus efficacement et de faciliter l’apprentissage actif. Ces partisans de la technologie disposent d’un nombre considérable de travaux, dont des études récentes sur le soutien scolaire informatisé prouvant que des logiciels d’éducation pouvaient être tout aussi efficaces qu’un tuteur humain.(2)

Le débat sur la technologie éducative n’est en fait pas aussi tranché. Le contexte crée une énorme différence, et les élèves peuvent utiliser leur tablette ou internet de tant de manières différentes qu’il est difficile de dire si la technologie les aide ou pas à apprendre. Les machines sont-elles utilisées pour faire des recherches ? Pour prendre des notes ? Pour jouer ? Pour participer à des simulations en réalité virtuelle ? En ce sens, les technologies éducatives ne sont que des outils, utilisés à bon ou mauvais escient.

La Fondation Reboot, dont la vocation est la promotion du raisonnement critique, s’interroge à son tour : les outils technologiques utilisés en classe favorisent-ils des formes de raisonnement plus riches ? Les investissements en informatique (ordinateurs ou tablettes) ont-ils porté leurs fruits ? Quelles sont la fréquence ou la durée d’exposition à la technologie en cours les plus efficaces ?

Pour tenter de répondre à ces questions, la fondation a analysé deux grands fichiers de données. Le premier est celui de PISA (Programme International de Suivi des Acquis des élèves), qui évalue les performances scolaires dans plus de 90 pays. Le deuxième est celui de l’étude américaine NAEP de 2017 (National Assessment of Educational Progress), une évaluation au niveau national également appelée « le bulletin scolaire du pays ».

Voici les principaux enseignements :

  • Au niveau international, le lien est faible entre technologie et résultats. Nous n’avons pas pu établir de manière claire une relation positive entre les résultats des élèves aux tests PISA et leur usage déclaré de la technologie, et nous avons trouvé des preuves d’un effet négatif. En moyenne, les élèves qui déclarent un usage de faible à modéré de la technologie à l’école ont tendance à obtenir de meilleurs résultats aux tests PISA que les non-utilisateurs, mais ceux qui déclarent un usage élevé ont à l’inverse des résultats inférieurs à ceux des élèves déclarant peu ou pas d’utilisation de la technologie.

    Par exemple, les élèves français qui ont déclaré utiliser internet à l’école de quelques minutes à une demi-heure par jour obtiennent 13 points de plus au test de mathématiques PISA que les élèves qui ont dit ne pas utiliser du tout internet en cours. Mais ceux qui ont déclaré passer plus d’une demi-heure par jour sur internet en cours ont obtenu de manière constante des résultats plus bas que leurs pairs ayant déclaré ne pas l’utiliser. Quant à ceux, toujours en France, qui disent utiliser internet plus de six heures par jour à l’école, ils obtiennent 140 points de moins au test de lecture PISA que les non-utilisateurs.Nous avons également observé une relation négative entre le résultat national aux tests PISA et l’usage déclaré de la technologie par les élèves du pays, après avoir contrôlé un ensemble de facteurs tels que les évaluations précédentes ou la richesse du pays. Ces résultats sont constants quelles que soient les matières évaluées (mathématiques, lecture ou sciences). Il est à noter que les Etats-Unis et le Canada ont été exclus de cette analyse, car nous ne disposons pas d’assez de données sur l’exposition des élèves à l’informatique et à internet en cours

  • Aux Etats-Unis, le lien entre technologie et résultats est contrasté. Les résultats de l’analyse que nous avons menée sur les données de l’étude NAEP varient largement en fonction du niveau de classe, des évaluations et des technologies déclarées. Dans certains cas, nous avons trouvé des résultats positifs, l’utilisation de l’informatique pour mener des recherches pour des projets de lecture étant positivement liée aux performances de lecture. Mais pour d’autres activités informatisées, comme des exercices de grammaire ou d’orthographe, l’effet positif est difficile à prouver. Nous avons également observé un effet plafond des technologies éducatives dans certains domaines, un usage de faible à modéré pouvant être bénéfique tandis qu’un usage élevé se révèle plutôt néfaste.

    Les résultats liés à l’utilisation des tablettes par les élèves de « 4th grade » (équivalent du CM1) sont particulièrement inquiétants, et les données montrent une relation clairement négative avec les résultats au test. Les élèves de « 4th grade » qui disent utiliser leur tablette dans « tous ou presque tous » leurs cours obtiennent 14 points de moins au test de lecture que les élèves déclarant ne « jamais » utiliser de tablette en classe. Cette différence de points est l’équivalent d’un niveau scolaire entier, soit d’une année entière d’apprentissage.

Ces résultats ont leurs limites. Au cours de notre analyse, nous avons contrôlé certaines variables extérieures telles que le revenu ou les performances précédentes, mais cela est insuffisant pour établir des relations de causalité. Nous ne pouvons donc pas affirmer que la technologie ait réellement changé quelque chose dans les apprentissages. En outre, il serait intéressant de mener des recherches plus fines qui tiennent compte de manière plus précise des contextes particuliers dans lesquels la technologie est utilisée. Pour plus de détails sur ces réserves, consultez les parties « Méthodologie » et « Limites de l’étude » de ce document.

Cette étude s’appuie également sur des travaux antérieurs, et notre équipe a reproduit une analyse de l’OCDE (Organisation de Coopération et Développement Economiques) qui montrait que la présence de technologie en classe était associée à de moins bons résultats aux tests PISA, ce que notre analyse a confirmé.(3) 

Notre étude fait donc émerger des questions au sujet de la technologie à l’école. S’il est prouvé que celle-ci peut améliorer les résultats de l’apprentissage, nos données suggèrent que la façon dont elle est utilisée ne suscite pas toujours des formes d’apprentissage plus riches. Il apparaît également que les écoles et les enseignants devraient se montrer plus prudents sur le moment et la manière dont la technologie éducative est utilisée en cours.

Dans ce rapport, nous avons également fait une synthèse des meilleures pratiques suggérées par des recherches récentes. Il semble par exemple que le plus efficace pour les jeunes élèves soit un usage modéré de la technologie, et que l’utilisation d’appareils par les jeunes enfants, selon les experts, doive être limitée.(4) La technologie semble peu utile lorsqu’il s’agit d’apprendre à lire à de jeunes élèves, et les outils non-numériques sont plus efficaces pour l’acquisition des bases de la langue.(5) Mais la recherche suggère également que les outils numériques qui permettent un retour pédagogique immédiat sont très efficaces, et que la technologie peut être particulièrement bénéfique pour promouvoir des formes de pensée plus riches chez les élèves plus âgés.(6)

Dans une société qui peine à préparer ses enfants à un avenir incertain, il semble donc nécessaire d’être prudent dans la mise en place des outils numériques et d’approfondir les études sur ce lien entre technologie et apprentissage.

Introduction

Les innovations technologiques dans le domaine de l’éducation ont toujours inspiré de grandes déclarations, et cela bien avant l’avènement de notre ère de l’informatique. Socrate, parmi les premiers, annonça que les outils d’écriture allaient altérer les capacités de mémorisation.(7) Quelques siècles plus tard, quand le tableau noir fit son apparition au milieu des années 1850, ses partisans le présentèrent comme l’outil qui allait révolutionner les salles de classe, en permettant de présenter quelque chose à tous les élèves en même temps.(8)

Les technologies éducatives actuelles sont différentes, et, au moins en principe, elles offrent des expériences d’apprentissage sans précédent. Ainsi, la réalité virtuelle permet aux élèves de se plonger dans des environnements immersifs, d’expérimenter les effets de l’acidification des océans ou de la gravité sur une autre planète par exemple.(9) Les systèmes d’apprentissage adaptatif modèlent les connaissances dans l’esprit des élèves en leur soumettant de nouveaux problèmes juste au bon niveau de difficulté.(10) Ou encore, les laboratoires à distance permettent aux élèves de procéder à des expériences sur des micro-organismes vivants via leur ordinateur.(11)

Mais en même temps, de plus en plus de résultats d’études attestent que la technologie peut avoir des effets négatifs. Le temps passé devant les écrans diminue les interactions directes, et avec elles une des meilleures occasions d’apprendre pour les jeunes enfants. C’est ainsi que les programmes télévisés destinés à accélérer les apprentissages chez les petits peuvent au contraire les retarder. Une étude menée sur la gamme de produits « Baby Einstein », par exemple, montre que les enfants connaissent six à huit mots de vocabulaire de moins pour chaque heure supplémentaire par jour passée devant le programme.

Une partie du problème est due au fait que les appareils numériques distraient facilement les gens. Des études ont montré que l’on explore plus en profondeur et que l’on comprend mieux un texte lu sur papier que sur écran.(12) De même, les élèves se concentrent plus facilement sur des documents papier que sur du contenu numérique.(13) Un certain nombre d’études vont même jusqu’à suggérer que l’approche douce et ludo-éducative de certaines technologies éducatives peut empêcher les élèves de réfléchir à leur propre processus d’apprentissage, se privant ainsi d’un aspect important de l’apprentissage.(14)

De ce point de vue, ordinateurs portables et tablettes sont particulièrement problématiques, en offrant la tentation de faire plusieurs choses à la fois (« multi-tasking »). Une étude, en particulier, a montré que lorsque les étudiants apportaient leur ordinateur portable en amphi, ils l’utilisaient à tout autre chose les deux tiers du temps.(15) Cette dispersion a un impact négatif sur l’apprentissage, car on estime que le « multi-tasking » fait perdre aux étudiants environ 11% de leur compréhension du cours.(16) Qui plus est, cette même étude montre que l’ordinateur portable non seulement nuit aux étudiants qui l’utilisent, mais affecte également la compréhension de ceux qui sont assis à côté.(17) Les chercheurs ont supposé que ces étudiants étaient distraits par la dispersion de leurs voisins, et tiraient donc moins profit du cours.(18)

Bien que les ordinateurs puissent être source de distraction, il n’en reste pas moins que les appareils peuvent aussi être des instruments d’apprentissage puissants. Un certain nombre d’études récentes démontrent notamment qu’ordinateurs, tablettes et autres appareils numériques peuvent améliorer les résultats de l’apprentissage quand ils sont bien utilisés, en particulier en sciences et en mathématiques.(19) Une méta-analyse a trouvé qu’en moyenne la technologie informatique avait un effet modeste mais clairement positif sur les résultats en mathématiques.(20) Une autre étude a montré que certaines applications de maths pouvait améliorer les connaissances des élèves de « 1st grade » (équivalent du CP) dans cette matière de plusieurs mois, seulement avec un usage limité.(21)

L’un des avantages de l’utilisation de la technologie en cours vient de la possibilité d’adapter le programme aux connaissances préalables des élèves, et de suivre la progression de leur maîtrise de la matière étudiée. Une méta-analyse récente indique que les systèmes tutoriels intelligents surpassent les autres formes d’enseignement, telles que les cours donnés par un professeur devant un grand groupe d’élèves, les manuels scolaires, ou les autres formes d’enseignement par ordinateur(22)

Les nouvelles technologies d’apprentissage peuvent aussi favoriser la collaboration, répondre aux pénuries de matériel et soulager les professeurs surchargés.(23) Les défenseurs de la technologie éducative mettent également en avant que l’utilisation d’appareils prépare les élèves à l’avenir. Après tout, le monde auquel ils appartiennent est un monde de technologie, ne devraient-ils pas apprendre à se familiariser avec elle dès leur plus jeune âge ?

La Fondation Reboot s’inquiète particulièrement de la manière dont la technologie éducative peut être utilisée pour développer les capacités de raisonnement desélèves. D’un côté, certaines technologies d’apprentissage poursuivent clairement ce but. Ainsi les logiciels de cartographie argumentaire permettent de percevoir les liens entre des affirmations et les justifications qui les soutiennent, par exemple.(24) De même, grâce aux technologies de simulation, les élèves peuvent comparer et tester des modèles avec des données numériques, et les nouveaux logiciels multimédias leur permettent de participer à la création de récits historiques.(25)

Mais ces exemples excitants qui font les gros titres et suscitent de l’enthousiasme pour le sujet ne peuvent faire oublier que la réalité des salles de classe est bien plus prosaïque. Alors que ces nouvelles technologies pourraient être utilisées de manière novatrice, les enseignants s’en servent bien souvent pour remplacer plutôt que pour transformer les approches existantes de l’enseignement. De telles transformations nécessiteraient que les professeurs soient formés non seulement à mettre en oeuvre les nouvelles technologies, mais également à les adapter au contexte particulier de leur classe. Beaucoup de logiciels éducatifs utilisés dans le primaire et le secondaire favorisent la répétition d’exercices, par exemple, au lieu de tirer profit des possibilités offertes par l’enseignement informatisé, et les élèves disent plus fréquemment utiliser la technologie pour des tâches machinales plutôt que pour d’autres plus exigeantes.(26) À cet égard, les promesses de la technologie éducative semblent bien peu souvent tenues.

Études antérieures

Un certain nombre d’études réalisées précédemment ont tenté d’établir une relation entre les résultats scolaires et la technologie en s’appuyant sur les bases de données des évaluations réalisées à grande échelle.

Dans leur rapport publié en 2015, « Connectés pour apprendre ? Les élèves et les nouvelles technologies », les chercheurs de l’OCDE ont étudié le lien entre l’exposition des élèves à la technologie en classe et leurs performances aux tests PISA, à l’aide des données des pays membres. Ils ont mesuré l’accès à l’informatique ainsi que son usage par les élèves de différentes manières, incluant pour chaque pays le ratio ordinateur/élève et la part des élèves ayant déclaré utiliser internet pour du travail scolaire au moins une fois par semaine. Ils ont trouvé que les pays de l’OCDE ayant investi lourdement dans les technologies informatiques avaient de moins bonnes progressions de leur score aux évaluations PISA que les pays ayant fait des investissements moins importants. Ils ont également observé une relation négative entre les scores de 2012 et l’utilisation d’ordinateurs déclarée par les élèves, une fois contrôlés les niveaux de revenu des pays ainsi que les résultats initiaux aux tests PISA. « L’impact de la technologie sur les prestations éducatives reste sous-optimal », conclut dans ce rapport Andreas Schleicher, Directeur de l’Éducation et des compétences à l’OCDE.

D’autres chercheurs ont examiné la relation entre la technologie en classe et les scores au test américain NAEP, et y ont trouvé des résultats plus positifs. Ainsi, il y a près de 10 ans, le chercheur Harold Wenglisky a réalisé une série d’analyses corrélant les performances des élèves à NAEP et leur usage déclaré d’ordinateurs à l’école, à partir des données des élèves de « 4th grade » (équivalent du CM1) et des élèves de « 8th grade » (équivalent de la 4ème). Il a trouvé que les effets de la technologie scolaire dépendaient de la manière dont les enseignants choisissaient de l’intégrer dans leur classe. « Les résultats des évaluations NAEP en mathématiques, sciences et lecture des élèves de « 4th grade » et « 8th grade » indiquent que la qualité du travail sur ordinateur a plus d’importance que la quantité », explique-t-il dans un article de 2006 intitulé «Technology and Achievement: The Bottom Line »
(« Technologie et réussite : le bilan »).(28)

Dans son étude, Harold Wenglisky a trouvé, en corrélant les résultats des élèves de « 12th grade » (équivalent de la terminale) au test d’histoire des Etats-Unis du NAEP de 2001 à leur utilisation déclarée d’ordinateurs, que les ordinateurs avaient plutôt tendance à améliorer les acquis des élèves quand ces derniers disaient les utiliser à la maison plutôt qu’en cours. D’autres études sur la relation entre l’accès à l’informatique à la maison et les résultats au test NAEP ont également montré que l’utilisation de la technologie en dehors de l’école était un facteur positif de performance scolaire.(29)

 

Méthodologie

Dans le cadre de cette étude, nous avons examiné les résultats des élèves à des évaluations standardisées, en relation avec leur exposition à l’informatique à l’école. Nous avons utilisé les données de deux évaluations.

La première est l’enquête PISA (Programme International pour le Suivi des Acquis des élèves), menée dans plus de 90 pays auprès d’élèves de 15 ans, qui évalue leurs compétences en mathématiques, lecture et sciences.(30) Nous avons répliqué l’analyse de l’OCDE en utilisant les données du test PISA de 2015, en nous appuyant sur deux des mesures de l’OCDE de l’exposition à la technologie, et en ajoutant une troisième mesure intermédiaire de l’exposition à internet :

  • le ratio moyen ordinateur/élève par pays
    (une moyenne nationale des ratios ordinateur/élève par école)
  • la part des élèves qui déclarent utiliser internet pour du travail
    scolaire au moins une fois par semaine
  • la part des élèves qui disent passer une heure ou plus
    par jour sur internet à l’école

Nous avons pris en compte la taille des économies des pays en utilisant le PIB par habitant de 2015 fourni par la Banque mondiale, ainsi que les résultats précédents des pays aux tests PISA sur la base des résultats 2003 en mathématiques et lecture, et des résultats 2006 en sciences.

Une limite importante de notre analyse est la taille de notre échantillon, constitué de 30 pays. Nous avons exclu les pays de l’OCDE qui soit ne disposaient pas de données suffisantes sur l’exposition à l’informatique, soit n’avaient pas participé aux évaluations de 2003 et 2006. Cela nous a conduit à exclure, faute de données suffisantes, des pays aussi importants que les Etats-Unis ou le Canada.

Pour tenir compte des différences dans le niveau de richesse des pays et dans les scores précédents, nous avons intégré d’autres variables dans notre modèle : le PIB par habitant, et les anciens résultats à PISA. Nous avons obtenu ces données de la Banque mondiale et de la base de données PISA de l’OCDE.

Nous avons envisagé d’augmenter la taille de notre échantillon et d’utiliser d’autres méthodes pour rendre nos résultats plus solides, mais ces approches posaient d’autres problèmes. Par exemple, nous avons effectué une analyse séparée en utilisant les scores 2011 du TIMSS (Trends in Mathematics and Science Study) et du PIRLS (Progress in International Reading Literacy Study), pour contrôler les résultats précédents en remplacement des résultats PISA 2003 et 2006, ce qui aurait eu comme avantage immédiat de nous permettre de faire une analyse de cohorte. Plus concrètement, les élèves qui ont été évalués dans les tests TIMSS et PIRLS de 2011 sont susceptibles d’appartenir à la même classe d’âge que ceux qui ont participé au test PISA en 2015 ; ainsi les scores TIMSS et PIRLS de 2011 auraient pu nous servir de mesure intermédiaire des résultats des élèves ayant participé à PISA 2015 dans les séquences précédentes de leur scolarité. Mais le problème de cette approche était le nombre limité de pays pour lesquels les données TIMSS et PIRLS 2011 étaient disponibles, ce qui nous aurait donc conduits à trop réduire la taille de notre échantillon pour générer des conclusions statistiquement significatives.

Nous avons également envisagé d’étendre notre échantillon en incluant les données des régions sous-nationales. Cinq des 30 pays de l’OCDE disposent de données à ce niveau, parmi lesquels la Belgique, l’Espagne, les Emirats Arabes Unis, le Royaume-Uni et les Etats-Unis (pour les Etats-Unis, ces régions sont le Massachussetts, la Caroline du Nord et Porto-Rico). En incluant ces régions dans notre échantillon, la taille de celui-ci serait passé de 30 à 54. Mais alors ces cinq pays auraient été significativement sur-représentés dans les données. De ce fait, nous avons considéré qu’il était préférable de conserver la méthode initialement décrite dans le rapport de l’OCDE.

Nous avons également examiné les données de l’enquête NAEP (National Assessment of Educational Progress) de 2017, plus précisément celles qui concernaient les évaluations de lecture et mathématiques du « 4th grade » (équivalent du CM1) et du « 8th grade » (équivalent de la 4ème). Dans ce cadre, nous avons étudié les données issues des déclarations des élèves sur différentes mesures de l’usage de l’informatique à l’école, parmi lesquelles :

  • l’utilisation d’ordinateurs de bureau ou d’ordinateurs portables en cours
  • l’utilisation de tablettes en cours
  • l’utilisation d’ordinateurs ou d’appareils numériques pour des activités ayant trait aux mathématiques, telles que s’entraîner ou réviser des sujets de maths, faire des devoirs de maths ou faire des recherches sur des sujets de maths sur internet
  • l’utilisation d’ordinateurs ou d’appareils numériques pour des activités liées à la lecture, telles que consulter des sites web sur la lecture, acquérir des capacités de compréhension écrite ou de lecture courante, enrichir son vocabulaire, faire des exercices de grammaire et d’orthographe ou faire des recherches pour des projets de lecture
  • le temps passé chaque jour sur ordinateur pour des travaux d’anglais ou de langue.

Nous avons ensuite comparé les réponses des élèves à leurs acquisitions, mesurées en valeurs d’échelle moyennes. Nous avons également tenté de rendre compte de la préparation de l’enseignant dans ces résultats en incluant les données déclaratives des enseignants sur la formation à l’intégration de la technologie en classe reçue au cours des deux années précédant l’évaluation NAEP.

Nous avons extrait les données de la base de données du NCES (National Center for Education Statistics, centre américain des données statistiques en éducation) en janvier et février 2019, et nous les avons analysées à différents niveaux : pays, Etat et selon différentes variables démographiques telles que l’éligibilité des élèves au National School Lunch Program ou le pourcentage de leurs camarades de classe éligibles à ce programme.

Les données déclaratives des élèves sur leur usage de l’informatique en classe varient pour chaque évaluation ; par exemple, les résultats d’étude sur l’utilisation déclarée de tablettes n’étaient pas disponibles dans la base de données publique des évaluations de mathématiques.

Il est important de noter que la relation entre les mesures de technologie en classe et les performances au test NAEP étaient constantes même lorsque nous avons tenté de prendre en compte les variations dans les profils des élèves, des professeurs ou des écoles. Ainsi, au sein d’un groupe de même niveau de revenu, les élèves de
« 4th grade » ayant déclaré ne jamais utiliser de tablette en classe ont tous obtenu de meilleures notes aux tests NAEP que ceux qui ont déclaré un usage modéré ou fréquent.

Il existe cependant de petites différences en ce qui concerne l’amplitude. Par exemple, les éléves éligibles au National School Lunch Program ayant déclaré ne « jamais » utiliser de tablette en classe ont obtenu 15 points de plus à l’examen de lecture de « 4th grade » que les élèves éligibles qui ont déclaré utiliser des tablettes « tout le temps ou presque tout le temps ». Pour les élèves non-éligibles au programme, ceux qui ont déclaré ne « jamais » utiliser de tablette en classe ont obtenu seulement six points de plus que leurs pairs ayant déclaré utiliser des tablettes « tout le temps ou presque tout le temps ».(31)

De plus, les connaissances et la formation de l’enseignant à l’intégration de la technologie ne sont pas un facteur significatif de la force de la corrélation entre technologie et résultats. Par exemple, dans le groupe des élèves de « 4th grade » dont les enseignants ont déclaré avoir reçu une formation sur l’intégration des technologies, les élèves ayant déclaré utiliser l’informatique peu fréquemment pour des travaux scolaires ont encore surpassé leurs pairs ayant déclaré un usage très fréquent.

 

Limites de l’étude

Notre analyse présente des limites. Ainsi, nous avons étudié les associations entre l’utilisation de l’informatique à l’école et les résultats, mais cela ne nous permet pas d’établir de relation de cause à effet, ni de conclure avec certitude que les outils utilisés en classe sont à l’origine des différences de résultats que nous avons observées.

De plus, nous nous sommes appuyés sur les données déclaratives issues des questionnaires NAEP ou PISA remplis par les élèves au sujet de leur utilisation de technologie en classe, or il est établi que les outils d’auto-évaluation ne sont pas parfaitement fiables, les participants ne fournissant pas toujours de réponses sincères ou exactes.(32)

Les données de PISA sont sources d’autres limites. Par exemple, beaucoup de pays ont connu de très grands changements démographiques au cours de la dernière décennie. Ces mutations introduisent potentiellement une variable confusionnelle lorsque l’on compare les résultats sur plusieurs années. Mais, du fait du manque de données sur des populations spécifiques ou sur des cohortes d’élèves dans le temps, nous n’avons pas pu tenir compte de ces changements dans les données démographiques.

En ce qui concerne les données de NAEP, il existe encore d’autres limites. Ainsi, les résultats de l’enquête NAEP n’incluent pas toujours l’information sur l’utilisation de certains appareils numériques ou certaines technologies au cours des activités d’apprentissage, ni la durée exacte du temps passé sur ces technologies.

 

Résultats

Voici les résultats des analyses que nous avons effectuées sur deux grandes bases de données de résultats scolaires.

Résultats internationaux.

Nous avons analysé les données de 30 pays membres de l’OCDE pour étudier au niveau de chaque pays la relation entre les résultats des élèves à l’enquête PISA de 2015 et leur exposition à l’informatique et à internet à l’école. Nous avons effectué des corrélations simples et à deux variables sur plusieurs pays entre une mesure de l’exposition à l’informatique en classe et une mesure des résultats des élèves. Nous avons également étudié ces relations en prenant en compte les variations de PIB selon les pays et les performances précédentes à PISA.

La relation entre technologie et résultats scolaires est apparue tout d’abord comme positive en utilisant un modèle de régression simple. Mais le tableau 1.1. montre que seulement quelques unes de ces associations sont statistiquement significatives. En contrôlant la variable de PIB par habitant comme dans l’étude originelle, la plupart des résultats restent statistiquement non significatifs, mais certains font apparaître une relation légèrement négative, comme on peut le voir dans le tableau 1.2. Après avoir contrôlé les résultats aux tests PISA 2003 et 2006 – comme l’ont fait les auteurs précédents – presque toutes les associations se sont révélées légèrement négatives. Ces résultats sont significatifs d’un point de vue statistique, ce que montre le tableau 1.3.

Tableau 1.1. Coefficients de corrélation des scores PISA 2015, au niveau des pays de l’OCDE

 MathématiquesLectureSciences
Ratio moyen ordinateur/élève0.280.370.39
Part des élèves utilisant internet pour du travail scolaire au moins une fois par semaine-0.050.020.03
Part des élèves passant une heure ou plus sur internet à l’école chaque jour0.0030.010.05

Note: Un coefficient de corrélation est une valeur comprise entre -1 et +1, qui représente la force de la relation entre deux variables. Les valeurs inférieures à -0,4 et supérieures à +0,4 sont considérées comme des associations fortes ; les valeurs marquées en gras sont significatives d’un point de vue statistique et indiquent une valeur-p inférieure à 5%

Tableau 1.2. Coefficients de corrélation partielle des scores PISA 2015, après contrôle du PIB par habitant, au niveau des pays de l’OCDE

 MathématiquesLectureSciences
Ratio moyen ordinateur/élève0.090.220.27
Part des élèves utilisant internet pour du travail scolaire au moins une fois par semaine-0.12-0.04-0.03
Part des élèves passant une heure ou plus sur internet à l’école chaque jour-0.06-0.04<0.01

Note: Un coefficient de corrélation partielle représente la force de la relation entre deux variables après avoir contrôlé les effets de variables confusionnelles possibles. Les valeurs inférieures à -0,4 et supérieures à +0,4 sont considérées comme des associations fortes ; les valeurs marquées en gras sont significatives d’un point de vue statistique et indiquent une valeur-p inférieure à 5%

Tableau 1.3. Coefficients de corrélation partielle de la performance à PISA et de l’exposition à la technologie en classe, en tenant compte du PIB par habitant et des performances moyennes en mathématiques, lecture et sciences en 2003 et 2006, au niveau des pays de l’OCDE

 MathématiquesLectureSciences
Ratio moyen ordinateur/élève-0.22-0.15-0.06
Part des élèves utilisant internet pour du travail scolaire au moins une fois par semaine-0.19-0.17-0.1
Part des élèves passant une heure ou plus sur internet à l’école chaque jour-0.13-0.14-0.08

Note: Un coefficient de corrélation partielle représente la force de la relation entre deux variables après avoir contrôlé les effets de variables confusionnelles possibles. Les valeurs inférieures à -0,4 et supérieures à +0,4 sont considérées comme des associations fortes ; les valeurs marquées en gras sont significatives d’un point de vue statistique et indiquent une valeur-p inférieure à 5%

Le temps passé sur internet à l’école fait également une différence au niveau du pays. Dans la plupart des pays étudiés, un usage de faible à modéré de technologie scolaire est généralement associé à une meilleure performance en comparaison des élèves déclarant ne pas utiliser du tout l’informatique. Mais les élèves qui ont déclaré un usage élevé de technologie à l’école accusent du retard par rapport à leurs pairs ayant déclaré un usage modéré. Ces différences sont particulièrement visibles dans l’évaluation de lecture, comme le montre le tableau 1.4.

Par exemple, les élèves français qui ont déclaré utiliser internet à l’école de quelques minutes à une demi-heure chaque jour obtiennent 13 points de plus à l’évaluation de lecture PISA que les élèves qui ont déclaré ne pas passer de temps sur internet à l’école. Mais les élèves français qui disent passer plus d’une demi-heure sur internet chaque jour ont systématiquement obtenu de moins bonnes notes que leurs pairs déclarant y passer moins d’une demi-heure. Plus précisément, les élèves français qui déclarent utiliser internet plus de six heures chaque jour ont obtenu presque 140 points de moins au test de lecture PISA que ceux qui disent l’utiliser de une à 30 minutes.

Tableau 1.4. Performance moyenne sur l’échelle de lecture PISA 2015, par temps passé sur internet chaque jour à l’école, pour les pays de l’OCDE.

 Jamais1-30 minutes31-60 minutesDe 1 à 2 heuresDe 2 à 4 hoursDe 4 à 6 heuresPlus de 6 heures
Allemagne
Australie468503508515524519453
Autriche500514487474468450420
Belgique522528506476462452415
Canada
Chili469475471455460450414
Corée525529505487465436
Danemark482519507513506513468
Espagne503502513488472473424
Estonie523543528517507488470
Etats-Unis
Finlande518551538526505479451
France517530514468457424393
Grèce501484468444427429399
Hongrie494487480463430415398
Irlande527530523497489461429
Islande486511489467464426419
Israel493510498476456455435
Italie504510488468464453415
Japon529523511494478457436
Lettonie484503492475471483440
Luxembourg511498490466460437396
Mexique429427433419431417414
Norvège
Nouvelle-Zélande505529534516508495435
Pays-Bas529531516505488472453
Pologne524519502481484454455
Portugal508524503487477466445
République Tchèque497513507486483463437
Royaume-Uni503525511491475430425
Slovaquie463479473456450438418
Slovénie513528509495481456453
Suède480523516511510495450
Suisse502511492477461441408
Turquie
Moyenne de l’OCDE500512500483474458430

Note: Le signe « ‡ » indique que les données n’étaient pas disponibles dans la base publique IDE (International Data Explorer).

Résultats pour les Etats-Unis

Les données issues de l’enquête NAEP soulignent la relation nuancée entre la performance des élèves et la technologie en classe, et des relations différentes sont apparues suivant les activités d’apprentissage informatisées rapportées dans les questionnaires.

Ainsi, nous avons trouvé que les élèves qui déclarent utiliser l’informatique à l’école obtiennent généralement des notes plus élevées, ce que montrent les tableaux 1.5. et 1.6. En « 4th grade » (équivalent du CM1), les élèves qui déclarent utiliser des ordinateurs portables ou de bureau « dans certains cours » dépassent de 13 points à l’examen de lecture ceux qui disent ne « jamais » utiliser ces appareils en classe, soit l’équivalent d’une année entière d’apprentissage. Nous avons également trouvé que les élèves de « 4th grade » qui disent utiliser les ordinateurs (portables ou de bureau) « dans plus de la moitié » ou « tous » les cours obtiennent 10 points de plus que les élèves qui disent ne « jamais » utiliser ces appareils en classe. Ces différences persistent même après ventilation en fonction des caractéristiques des élèves.

Une tendance similaire est observable pour les élèves de « 8th grade » (équivalent de la 4ème). Les élèves qui disent utiliser leurs ordinateurs portables ou de bureau « dans certains cours » dépassent de deux points à l’examen de lecture ceux qui disent ne « jamais » utiliser ces appareils en classe ; ceux qui disent utiliser les ordinateurs « dans tous ou presque tous » les cours obtiennent 10 points de plus que les élèves qui disent ne les utiliser que « dans certains cours », soit l’équivalent d’un niveau scolaire entier. Là aussi, ces différences persistent en tenant compte des différentes caractéristiques des élèves.

Tableau 1.5. Scores NAEP 2017 moyens à l’examen de lecture de « 4th grade », en fonction de l’utilisation d’un ordinateur portable ou de bureau en cours et des caractéristiques démographiques.

PopulationJamaisDans certains coursDans environ la moitié des coursDans plus de la moitié des coursDans tous ou presque tous les cours
Tous214227224221221
Élèves éligibles à la gratuité du déjeuner dans le « National School Lunch Program »201213209205208
Élèves non éligibles au « National School Lunch Program »228239237237237
Élèves présentant un handicap180196191186184
Élèves ne présentant pas de handicap221231228226226
Élèves dont l’anglais n’est pas la langue maternelle (« English Language Learner »)183196191188191
Élèves dont l’anglais est la langue maternelle219231228226225

Tableau 1.6. Scores NAEP 2017 moyens à l’examen de lecture de « 8th grade », en fonction de l’utilisation d’un ordinateur portable ou de bureau en cours et des caractéristiques démographiques.

PopulationJamaisDans certains coursDans environ la moitié des coursDans plus de la moitié des coursDans tous ou presque tous les cours
Tous263263266269273
Élèves éligibles à la gratuité du déjeuner dans le « National School Lunch Program »248251252254258
Élèves non éligibles au « National School Lunch Program »272275278280282
Élèves présentant un handicap221230234237240
Élèves ne présentant pas de handicap269268271274277
Élèves dont l’anglais n’est pas la langue maternelle (« English Language Learner »)216225226230234
Élèves dont l’anglais est la langue maternelle266266269272274

Cependant, notre étude a aussi révélé des relations clairement négatives entre technologie et apprentissage. Ainsi, le temps passé sur ordinateur en classe est corrélé négativement avec les performances de lecture. Plus le nombre d’heures déclarées passées sur ordinateur par jour pour des travaux d’anglais ou de langue est élevé, plus la note moyenne obtenue à l’évaluation de lecture NAEP est basse. Ces résultats sont constants pour les élèves de « 4th grade » comme de « 8th grade », et quel que soit le niveau de revenu.

Tableau 1.7. Scores NAEP 2017 moyens à l’examen de lecture de « 4th grade », en fonction du nombre d’heures passées chaque jour sur informatique à l’école pour des travaux d’anglais ou de langue, et du niveau de revenu.

Pourcentage d’élèves
éligibles au « National School Lunch Program »
Moins de 30 minutesEnviron 30 minutesEnviron 1 heureEnviron 2 heuresEnviron 3 heures4 heures ou plus
0-25%246241240230234219
26-50%234230228223217199
51-75%226222220216204192
76-100%213211206200188180
Moyenne nationale231226222216206192

Tableau 1.8. Scores NAEP 2017 moyens à l’examen de lecture de « 8th grade », en fonction du nombre d’heures passées chaque jour sur informatique à l’école pour des travaux d’anglais ou de langues, et du niveau de revenu.

Pourcentage d’élèves
éligibles au « National School Lunch Program »
Moins de 30 minutesEnviron 30 minutesEnviron 1 heureEnviron 2 heuresEnviron 3 heures4 heures ou plus
0-25%284282282279273264
26-50%275269269270267249
51-75%266259259261256250
76-100%255248250252246237
Moyenne nationale272266266267262251

Il existe des effets plafonds en ce qui concerne l’usage de la technologie, et un usage modéré semble présenter la meilleure association avec les résultats de tests. Cela s’est vérifié pour plusieurs niveaux de classe, sujets et activités sur ordinateur déclarées. Comme le montre le tableau 1.9., les élèves de « 8th grade » qui disent utiliser un ordinateur ou un appareil numérique « chaque jour ou presque » pour étudier ou réviser des sujets de mathématiques à l’école, par exemple, obtiennent quatre points de moins à l’examen de mathématiques que les élèves qui disent utiliser l’informatique pour cette activité « une à deux fois par an » ; quant à ces derniers, ils obtiennent cinq points de plus à l’examen de maths que ceux qui disent ne « jamais » utiliser d’ordinateur ou d’appareil numérique pour étudier ou réviser des sujets de maths à l’école.

Une tendance similaire peut être observée chez les élèves dont les enseignants ont déclaré avoir reçu une formation à l’enseignement utilisant la technologie. Le tableau 1.10 montre que les élèves qui ont déclaré ne « jamais ou presque jamais » utiliser d’ordinateur pour faire des recherches sur internet sur un sujet de maths obtenaient trois points de moins à l’examen de maths que leurs pairs ayant déclaré y avoir recours « une à deux fois par an ». Les non-utilisateurs continuent cependant d’obtenir cinq points de plus que les élèves déclarant utiliser internet dans ce cadre « chaque jour ».

Tableau 1.9. Scores NAEP 2017 moyens à l’examen de mathématiques de « 8th grade », en fonction de l’activité dans laquelle l’informatique est utilisée et de la fréquence déclarée

Activité d’apprentissage informatiséeJamais ou presque jamaisUne à deux fois par anUne à deux fois par moisUne à deux fois par semaineChaque jour ou presque
S’entraîner ou réviser des sujets de maths284286286281281
Faire des recherches sur internet sur des sujets de maths283286281281281
Activités d’enrichissement en maths282287285281278

Tableau 1.10. Scores NAEP 2017 moyens à l’examen de mathématiques de « 8th grade », en fonction de l’activité dans laquelle l’informatique est utilisée et de la formation de l’enseignant à l’intégration de l’informatique dans son enseignement

Activité d’apprentissage informatiséeJamais ou presque jamaisUne à deux fois par anUne à deux fois par moisUne à deux fois par semaineChaque jour ou presque
Faire des recherches sur internet sur des sujets de maths
L’enseignant a déclaré avoir été formé283286281282278
L’enseignant a déclaré ne pas avoir été formé mais dispose déjà des compétences285287282280286
L’enseignant a déclaré ne pas avoir été formé283285280276283
S’entraîn er ou réviser des sujets de maths
L’enseignant a déclaré avoir été formé284286285282281
L’enseignant a déclaré ne pas avoir été formé mais dispose déjà des compétences285285290281283
L’enseignant a déclaré ne pas avoir été formé286287285276278
Activités d’enrichissement en maths
L’enseignant a déclaré avoir été formé282286285281277
L’enseignant a déclaré ne pas avoir été formé mais dispose déjà des compétences285289286281281
L’enseignant a déclaré ne pas avoir été formé281287284277275

Les activités d’apprentissage informatisées présentent également une relation non-linéaire avec les performances en mathématiques et en lecture des élèves de « 4th grade », comme le montrent les tableaux 1.11. et 1.12.

Tableau 1.11. Scores NAEP 2017 moyens à l’examen de mathématiques de « 4th grade », en fonction de l’activité dans laquelle l’informatique est utilisée et de la fréquence déclarée

Activité d’apprentissage informatiséeJamais ou presque jamaisUne à deux fois par anUne à deux fois par moisUne à deux fois par semaineChaque jour ou presque
Faire des recherches sur internet sur des sujets de maths239242242242239
Activités d’enrichissement en maths237241241240241
S’entraîner ou réviser des sujets de maths239244241241240

Note: Les apparentes différences dans les notes en fonction du type d’activité ne sont pas forcément significatives d’un point de vue statistique.

Tableau 1.12. Scores NAEP 2017 moyens à l’examen de lecture de « 4th grade », en fonction de l’activité dans laquelle l’informatique est utilisée et de la fréquence déclarée

Activité d’apprentissage informatiséeJamais ou presque jamaisUne à deux fois par anUne à deux fois par moisUne à deux fois par semaineChaque jour ou presque
Consulter des sites web sur la lecture224226225222218
Acquérir des capacités de lecture courante226228227222218
Acquérir des capacités de compréhension écrite226228227222220
Enrichir son vocabulaire226226225222219
Faire des recherches pour des projets de lecture215223224224223
Faire des exercices de grammaire et d’orthographe224227224222220

Note: Les apparentes différences dans les notes en fonction du type d’activité ne sont pas forcément significatives d’un point de vue statistique.

Tableau 1.13. Scores NAEP 2017 moyens à l’examen de lecture de « 8th grade », en fonction de l’activité dans laquelle l’informatique est utilisée et de la fréquence déclarée

Activité d’apprentissage informatiséeJamais ou presque jamaisUne à deux fois par anUne à deux fois par moisUne à deux fois par semaineChaque jour ou presque
Consulter des sites web sur la lecture269270268266264
Faire des recherches pour des projets de lecture261267267269269
Acquérir
des capacités de
compréhension écrite
272271268266265
Acquérir des capacités de lecture courante272270268265263

Note: Les apparentes différences dans les notes en fonction du type d’activité ne sont pas forcément significatives d’un point de vue statistique.

Plus inquiétant encore, nous avons pu clairement établir que l’utilisation de tablettes en cours était associée à de moins bonnes performances chez les élèves d’école élémentaire. Au niveau national, les élèves de « 4th grade » qui disent utiliser des tablettes « dans certains cours » obtiennent un point de moins au test de lecture que ceux qui disent ne « jamais » utiliser de tablettes en cours ; et les élèves de « 4th grade » qui déclarent utiliser des tablettes dans « tous ou presque tous » les cours obtiennent 14 points de moins que ceux qui disent ne « jamais » utiliser de tablettes en classe.

Tableau 1.14. Scores NAEP 2017 moyens à l’examen de lecture de « 4th grade » et « 8th grade », en fonction de l’utilisation de tablettes pendant le cours

NiveauJamaisDans certains coursDans environ la moitié des coursDans plus de la moitié
des cours
Dans tous ou presque
tous les cours
« 4th grade »
(équivalent CM1)
226225215209212
« 8th grade »
(équivalent 4ème)
267264258259267

Dans certains Etats, les différences de scores sont encore plus importantes. Les élèves de « 4th grade » de l’Arizona qui ont déclaré utiliser des tablettes en cours « tout le temps ou presque » ont obtenu 26 points de moins que ceux qui déclarent ne « jamais » utiliser de tablettes. Les élèves du New-Jersey qui déclarent ne « jamais » utiliser de tablettes en cours obtiennent 29 points de plus que ceux qui disent utiliser les tablettes dans « tous ou presque tous » les cours. Ces différences correspondent à près de trois niveaux de classe.

Nous n’avons pas observé de relation significative entre performance et utilisation des tablettes chez les élèves de « 8th grade ». Dans la plupart des cas, les scores étaient pratiquement identiques, et les différences perçues ne sont pas significatives d’un point de vue statistique.

Il nous faut rappeler là encore que nos résultats n’indiquent pas de relation de cause à effet. Nous ne pouvons pas affirmer que les ordinateurs, tablettes et autres appareils numériques sont à l’origine de baisses dans les scores aux tests. Il est possible que la fraction d’élèves qui déclarent utiliser ces appareils fréquemment soient les élèves présentant les besoins éducatifs les plus importants. Par exemple, un pourcentage légèrement plus élevé d’élèves de « 4th grade » présentant un handicap ont déclaré utiliser des tablettes dans « tous ou presque tous » les cours (9% contre 7% pour la moyenne nationale).

De plus, nous avons peut-être surestimé le problème, sachant que seulement une partie des élèves déclarent réellement utiliser des ordinateurs ou des appareils numériques très fréquemment. Par exemple, seulement 7% des élèves américains de « 4th grade » et « 8th grade » disent utiliser des tablettes dans « tous ou presque tous » les cours, alors que 54% des élèves de « 4th grade » et 57% des élèves de « 8th grade » déclarent ne « jamais » utiliser de tablette en cours.

Tableau 1.15. Utilisation déclarée de tablettes en cours aux Etats-Unis, en « 4th grade ». En pourcentages

 JamaisDans certains coursDans environ la moitié des coursDans plus de la moitié
des cours
Dans tous ou presque
tous les cours
Tous5428747
Élèves éligibles à la gratuité du déjeuner dans le « National School Lunch Program »5327848
Élèves non éligibles au « National School Lunch Program »5429746
Élèves présentant un handicap5027959
Élèves ne présentant
pas de handicap
5428747
Élèves dont l’anglais
n’est pas la langue maternelle
(« English Language Learner »)
48291068
Élèves dont l’anglais
est la langue maternelle
5528747

Note: Ces chiffres sont issus de l’évaluation de lecture NAEP 2017, pour les élèves de « 4th grade »

Tableau 1.16. Utilisation déclarée de tablettes en cours aux Etats-Unis, en « 8th grade ». En pourcentages
 JamaisDans certains coursDans environ la moitié des coursDans plus de la moitié
des cours
Dans tous ou presque tous les cours
Tous5726547
Élèves éligibles à la gratuité du déjeuner dans le « National School Lunch Program »5627646
Élèves non éligibles au « National School Lunch Program »5826538
Élèves présentant un handicap5428747
Élèves ne présentant
pas de handicap
5826548
Élèves dont l’anglais n’est pas
la langue maternelle (« English
Language Learner »)
4832857
Élèves dont l’anglais
est la langue maternelle
5826548

Note: Ces chiffres sont issus de l’évaluation de lecture NAEP 2017, pour les élèves de « 8th grade ».

Résultats pour la France

Parmi tous les pays de l’OCDE, la France se place au 5ème rang de l’équipement en informatique, avec un ratio estimé à 23 ordinateurs pour 100 élèves soit environ un ordinateur pour cinq élèves, alors que la moyenne de l’OCDE est de 14 pour 100 soit un peu plus d’un ordinateur pour 10 élèves.

Tableau 1.17. Ratio ordinateur/élève pour les pays de l’OCDE, par ordre décroissant. Chiffres PISA 2015

PaysRatio ordinateur/élève (nombre moyen
d’ordinateurs scolaires pour 100 élèves)
Royaume-Uni31
Etats-Unis27
Australie25
Norvège24
France23
Canada21
Suède19
Suisse18
Finlande17
Islande16
Luxembourg15
Moyenne de l’OCDE14
République tchèque14
Belgique14
Hongrie14
Slovaquie14
Pays-Bas12
Japon12
Irlande11
Pologne11
Corée11
Danemark10
Italie9
Grèce7
Allemagne7
Lettonie7
Espagne7
Mexique6
Portugal4
Turquie3

Mais malgré ce chiffre élevé, la part des élèves qui déclarent utiliser internet pour du travail scolaire se situe en-dessous de la moyenne : 41% des élèves français déclarent une utilisation au moins une fois par semaine alors que la moyenne de l’OCDE est de 47%.

Tableau 1.18. Utilisation d’internet pour du travail scolaire au moins une fois par semaine, pour les pays de l’OCDE. En pourcentages, par ordre décroissant. Chiffres PISA 2015

PaysPart des élèves qui déclarent utiliser internet pour du travail scolaire au moins une fois par semaine
Danemark87
Suède81
Australie80
Pays-Bas75
Nouvelle-Zélande72
Royaume-Uni70
Islande58
Autriche55
République Tchèque54
Lettonie50
Finlande49
Moyenne de l’OCDE47
Slovaquie46
Italie45
Pologne45
Espagne44
France41
Hongrie41
Portugal41
Luxembourg40
Grèce39
Mexique38
Suisse37
Belgique33
Allemagne32
Irlande29
Corée17
Japon14

Note: données non disponibles pour le Canada, la Norvège et les Etats-Unis

En ce qui concerne les résultats scolaires, il apparaît que les élèves français qui déclarent un usage de faible à modéré de l’informatique et d’internet à l’école obtiennent les meilleurs résultats.

Ainsi, ceux qui déclarent ne « jamais ou presque jamais » passer de temps sur internet à l’école pour des travaux scolaires obtiennent 40 points de moins à l’évaluation de maths que ceux qui déclarent le faire une à deux fois par mois. Puis les résultats commencent à baisser lorsque cette fréquence dépasse une à deux fois par mois. Par exemple, ceux qui déclarent utiliser internet pour des travaux scolaires « tous les jours » ont un score inférieur de 74 points au test de maths par rapport à ceux qui ne le font qu’une à deux fois par mois. Quant aux utilisateurs quotidiens, ils obtiennent 34 points de moins que les élèves qui déclarent ne « jamais ou presque jamais » utiliser internet pour des travaux scolaires en classe.

Cet écart de performance est encore plus important pour le test de lecture, et les élèves qui disent surfer sur internet tous les jours pour des travaux scolaires obtiennent 99 points de moins que ceux qui se contentent d’une utilisation mensuelle. Ils obtiennent également 53 points de moins que les non-utilisateurs. Cette tendance s’observe également pour l’évaluation de sciences.

Tableau 1.19. Valeurs d’échelles moyennes par matière et par fréquence d’utilisation déclarée d’internet pour des travaux scolaires. Chiffres France PISA 2015

MatièreJamais ou presque jamaisUne ou deux fois par moisUne ou deux fois par semainePresque tous les joursTous les jours
Mathématiques488528511485454
Lecture495541523491442
Sciences489530518484450

Il faut cependant noter que la plupart des élèves français déclarent n’utiliser internet pour des travaux scolaires que peu souvent : 28% des élèves ne l’utilisent « jamais ou presque jamais », et 31% « une à deux fois par mois ». Seulement 5% des élèves français déclarent pratiquer cette activité « tous les jours ».

Tableau 1.20. Distribution de l’usage déclaré d’internet pour des travaux scolaires. En pourcentages. Chiffres France PISA 2015 test de mathématiques

Au cours de notre analyse, nous avons trouvé que la part des élèves qui reportaient utiliser internet à l’école au moins une heure par jour était corrélée négativement avec le résultat du pays au test PISA, une fois contrôlés la performance précédente et le PIB par habitant.

En France, la part des élèves qui disent utiliser internet pendant de longues périodes de temps est inférieure à celle des autres pays de l’OCDE : la proportion moyenne d’élèves déclarant utiliser internet à l’école au moins une heure par jour est de 30% pour les pays de l’OCDE et de seulement 19% en France.

Tableau 1.21. Proportion d’élèves déclarant passer au moins une heure par jour sur internet à l’école, par pays de l’OCDE. En pourcentages, par ordre décroissant. Chiffres PISA 2015

PaysProportion d’élèves déclarant passer une heure ou plus par jour sur internet à l’école
Danemark63
Australie55
Suède52
Pays-Bas41
Nouvelle-Zélande39
Slovaquie35
Islande34
Portugal34
Royaume-Uni34
République tchèque33
Autriche32
Moyenne de l’OCDE30
Finlande30
Hongrie30
Grèce29
Italie28
Luxembourg27
Lettonie25
Pologne24
Espagne24
Belgique22
France19
Mexique19
Suisse19
Japon15
Irlande12
Corée12

Note: Données non disponibles pour le Canada, la Norvège et les Etats-Unis

Comme pour la fréquence d’utilisation d’internet, le temps passé sur internet à l’école semble présenter un effet plafond sur les résultats : les scores culminent parmi les utilisateurs modérés, et déclinent considérablement pour les gros utilisateurs. Ainsi, en France, les performances de lecture augmentent parmi les élèves qui déclarent passer jusqu’à une demi-heure par jour sur internet à l’école, et baissent chez ceux qui déclarent y passer plus d’une demi-heure. La différence de points entre ceux qui disent passer de une à 30 minutes sur internet à l’école et ceux qui déclarent y passer plus de six heures est de 137 à l’examen de lecture et 113 pour le test de maths, par exemple, une tendance qui se vérifie de la même manière pour l’évaluation de sciences.

Tableau 1.22. Valeurs d’échelles moyennes par matière et par temps déclaré passé chaque jour sur internet à l’école. Chiffres France PISA 2015

 AucunDe 1 à 30 minutesDe 31 à 60 minutesDe 1 à 2 heuresDe 2 à 4 heuresDe 4 à 6 heuresPlus de 6 heures
Maths505522501464450443409
Lecture517530514468457424393
Sciences510521508464454443405

Il faut encore une fois relativiser car seulement 3% des élèves français âgés de 15 ans déclarent passer plus de six heures par jour sur internet en cours, près d’un tiers disent ne pas y passer de temps du tout, et la plus grande part, 37%, déclarent y passer de une à 30 minutes.

Tableau 1.23. Distribution de l’utilisation quotidienne déclarée d’internet à l’école. En pourcentages. Chiffres France PISA 2015, test de mathématiques

 

Conclusion

Nos résultats mettent en évidence la complexité de la relation entre l’utilisation de la technologie à l’école et les résultats scolaires. Différents facteurs influent sur le degré avec lequel l’informatique peut avoir un lien positif, négatif ou négligeable avec les performances des élèves. L’accès à certains appareils, la fréquence de l’exposition à ces appareils en classe comme le temps d’exposition pendant la journée de classe impactent le sens et la force de cette relation entre technologie et réussite.

En ce qui concerne les mesures générales d’accès des élèves, comme le ratio ordinateur/élève, les pays de l’OCDE ne paraissent pas enregistrer d’amélioration des résultats d’apprentissage avec une augmentation de l’investissement technologique. Une croissance de l’informatique à l’école semble même avoir une relation légèrement négative avec la performance du pays au test PISA, lorsque l’on tient compte de la taille de l’économie et de l’historique des performances.

Bien que ces résultats réflètent ceux des études précédentes, notre étude ouvre également de nouvelles perspectives. Nous avons ainsi trouvé que la relation entre technologie et performance était rarement linéaire, et les élèves du monde entier semblent mieux réussir les tests lorsqu’ils déclarent un usage de faible à modéré de l’informatique à l’école.

Plus précisément, lorsque les élèves déclarent avoir accès à des ordinateurs en classe et les utiliser peu souvent, ils obtiennent de meilleures notes. Mais lorsque les élèves disent utiliser ces appareils tous les jours et pendant plusieurs heures de la journée de classe, leur performance chute de manière spectaculaire. Aux Etats-Unis, cette tendance est confirmée indépendamment du profil de l’élève, comme le niveau de revenu de sa famille ou un éventuel handicap. Cela vaut aussi quels que soient le profil de l’enseignant et sa formation à un enseignement s’appuyant sur la technologie.

Nous avons également observé qu’une relation potentiellement négative entre technologie et résultats était plus évidente dans les petites classes, par exemple quand les tablettes sont utilisées pour l’apprentissage de la lecture chez les élèves américains à l’école primaire. Ce résultat est conforme aux études précédentes qui avaient montré que lire sur des appareils électroniques était moins susceptible d’améliorer les compétences de lecture des jeunes élèves.(33)

Que dit la recherche au sujet des meilleures pratiques ?

Notre étude n’est ni la première ni la dernière sur la techologie éducative, et bien que notre analyse présente des limites, elle offre aussi quelques indications de meilleures pratiques. Mais des indications ne suffisent pas, et nous avons donc épluché la littérature existante pour mieux comprendre ce qui est prouvé en matière de meilleures pratiques et l’intégrer dans notre étude.

Voici ce que nous pouvons en retirer :

  • En ce qui concerne les résultats scolaires, l’utilisation de la technologie est plus importante que l’accès à celle-ci, et les mesures destinées à accroître la mise à disposition d’ordinateurs scolaires ne garantissent pas une amélioration des résultats.(34) Même si les projets de technologie éducative peuvent avoir un effet positif sur la réussite des élèves, le contenu, la forme et l’utilisation de la technologie font une différence considérable.(35) Les études suggèrent que l’accès des élèves à la technologie devrait être ciblé et lié à des objectifs d’apprentissage clairs.(36) Une utilisation des ordinateurs non structurée et non supervisée est susceptible de diminuer les niveaux d’engagement, d’attention et de performance des élèves.(37)

  • En ce qui concerne les politiques publiques, les responsables de l’enseignement devraient se concentrer sur l’utilisation ciblée des appareils numériques.Au lieu d’adopter des programmes globaux et uniformisés, tels que « un ordinateur par élève », les décideurs devraient favoriser des technologies visant des objectifs pédagogiques sur-mesure plus restreints, comme par exemple s’équiper d’une technologie qui aide les professeurs à noter les dissertations ou d’une autre qui permette aux élèves de participer à des simulations de réalité virtuelle des fonds marins. Des programmes plus ciblés permettront plus facilement de s’assurer que les technologies améliorent les résultats. Concrètement, cela veut dire que la technologie doit être considérée moins comme une dépense en capital fixe que comme une dépense pédagogique ou administrative, destinée à résoudre les problèmes spécifiques et bien définis des établissements.

  • Les experts recommandent de limiter l’usage de la technologie chez les élèves les plus jeunes.Les premiers stades du développement d’un individu reposent sur un apprentissage fourni par des interactions directes avec les enseignants, les parents et les pairs, et les médias numériques peuvent avoir un effet négatif sur le développement social, physique, émotionnel et cognitif des enfants pendant les premières années. Les agences de santé mettent en garde contre une exposition précoce à l’informatique, que ce soit à l’intérieur ou hors de l’école, et les directives élaborées par les Instituts américains de la santé indiquent que le temps passé par les enfants sur des écrans numériques devrait être limité à deux heures par jour.(38)

    L’enseignement en primaire, en particulier, devrait faire l’objet de vigilance, et les responsables politiques devraient veiller à ne pas inonder de technologie les écoles qui accueillent les enfants les plus jeunes. Alors que l’utilisation du numérique par les enseignants à des fins administratives se justifie parfaitement, les recherches récentes sur le potentiel impact négatif de ces appareils devraient nous inciter à freiner le lancement de grands projets technologiques à destination des très jeunes élèves.

  • Les programmes informatiques peuvent être des outils efficaces de diagnostic et d’évaluation formative des élèves.(39) Les logiciels pédagogiques peuvent en effet aider les enseignants à diagnostiquer les besoins d’apprentissage des élèves, tout comme les systèmes informatiques peuvent s’avérer efficaces pour des évaluations formatives, en traitant rapidement et en stockant les informations sur les progrès des élèves en fonction desquelles le professeur pourra modifier son enseignement.(40)

    Pour les investissements dans la technologie, les responsables politiques devraient donc donner la priorité aux outils qui aident les professeurs à gérer leur classe, suivre les résultats d’apprentissage, et qui permettent de réduire les coûts administratifs. Il est prouvé que les investissements en outils de diagnostic sont particulièrement efficaces pour améliorer la réussite des élèves et réduire les coûts.

  • Les logiciels qui aident les élèves à exercer leurs capacités de réflexion d’ordre supérieur peuvent améliorer leurs performances.(41) Les études montrent que l’informatique s’avère efficace pour des activités d’apprentissages exigeantes telles que rédiger une dissertation ou mener des projets de recherche.(42) Si l’on prend l’exemple du raisonnement critique, il est largement prouvé que les logiciels de cartographie argumentaire stimulent des formes de raisonnement plus riches chez les élèves.

Même si nos résultats sont loin de mener à des conclusions définitives sur la technologie éducative, certains points sont quand même déjà clairs. Tout d’abord, les systèmes scolaires du monde entier n’ont pas encore exploité tout le potentiel de la technologie éducative. Des décennies de travaux ont montré un net avantage de la technologie en classe lorsqu’elle est utilisée pertinemment. L’utilisation des manipulations en mathématiques, par exempe, s’est révélée être un outil pédagogique très utile.(43) Les études montrent également que les systèmes tutoriels intelligents, ces programmes informatiques qui fournissent un retour pédagogique immédiat aux élèves, sont aussi efficaces pour enseigner un sujet que l’enseignement dispensé dans une classe traditionnelle.(44)

La technologie éducative peut aussi avoir plus d’impact lorsqu’elle est utilisée pour enseigner aux élèves des compétences de raisonnement d’ordre supérieur. Les études montrent que même de simples exercices comme les cartes conceptuelles encouragent les élèves à raisonner de manière critique plus rapidement que l’enseignement formel.(45) Les logiciels éducatifs forment un environnement idéal pour que les élèves exercent ces capacités de raisonnement d’ordre supérieur, et il existe déjà des produits qui favorisent cette pratique en classe.(46) On peut citer MindMup, par exemple, un outil numérique gratuit pour pratiquer la cartographie argumentaire (principe qui consiste à transformer en diagrammes les étapes d’une argumentation).

D’autres technologies peuvent aussi rendre le temps d’apprentissage plus efficace, même si elles n’entraînent pas de gains d’apprentissage manifestes. Les systèmes de devoirs en ligne, par exemple, peuvent faire gagner aux éducateurs un temps précieux qu’ils auraient sinon passé à corriger et noter les travaux rendus.

Globalement, il revient aux chefs d’établissements et aux éducateurs de prendre des décisions prudentes et éclairées sur la manière d’introduire la technologie en classe, en particulier pour les jeunes élèves. Une trop grande dépendance à l’informatique sans un plan réfléchi sur la manière de l’utiliser pour stimuler l’apprentissage et cultiver les capacités de raisonnement critique pourrait produire plus de mal que de bien.

Quant aux parents, nous leur recommandons de se poser des questions sur le rôle d’une technologie avant de l’intégrer dans la vie d’un enfant. Quel type d’apprentissage est fourni par cette technologie ? Quel est le lien entre cette activité et le contenu que les enfants sont censés apprendre ? Combien de temps les enfants doivent-ils passer avec cet outil par jour ou par semaine ? Cette dernière question en particulier est très importante, dans la mesure où une relation négative a été prouvée entre de hauts niveaux de technologie et l’apprentissage dans un certain nombre de domaines.

Notre étude suggère également que certains des logiciels présentés comme
« éducatifs » ont une valeur pédagogique limitée. Les avis publiés sur ces logiciels, comme ceux que l’on trouve sur Common Sense Media, peuvent aider les parents à identifier les programmes qui aideront réellement les élèves à apprendre, et à savoir les utiliser efficacement. Les meilleurs logiciels sont ceux qui favorisent l’interaction, la réflexion, le raisonnement critique et la démarche logique.

À l’école, nous recommandons d’établir des objectifs d’apprentissage clairs, ainsi qu’un plan de la manière dont des technologies spécifiques aideront à atteindre ces objectifs, avant d’investir dans une nouvelle technologie. Une étude récente portant sur 49 écoles primaires aux Etats-Unis a montré que plus d’un tiers des achats technologiques faits par les écoles n’étaient jamais utilisés, et que les écoles n’atteignaient leurs objectifs d’utilisation de ces produits que dans 5% des cas.(47) Nous suggérons donc aux responsables des établissements de commencer par des programmes pilotes et d’évaluer leur efficacité avant de s’engager dans des déploiements à grande échelle.

Pour être efficaces, les mises en place de nouvelles technologies doivent tirer parti des possibilités novatrices offertes par celles-ci plutôt que de les utiliser simplement pour imiter des pratiques existantes. Les logiciels de cartographie argumentaire, par exemple, peuvent aider les élèves à identifier les lacunes dans leurs propres raisonnements et à analyser les arguments complexes.(48) Les systèmes tutoriels intelligents peuvent être utilisés pour favoriser une collaboration active et l’interaction entre élèves, plutôt que de les isoler dans une simple approche de répétition d’exercices.(49)

Plus largement, nous avons besoin de mieux intégrer la recherche avec la pratique, et la collaboration entre chercheurs, enseignants, administrateurs et concepteurs de technologie est essentielle. Des plateformes telles qu’EDUSTAR favorisent ce type de collaborations en permettant à la fois aux chercheurs et aux enseignants de créer des essais contrôlés randomisés des activités d’apprentissage. Ce genre de collaboration permettrait également de mener des recherches plus fines et contextualisées, donnant aux enseignants les moyens d’identifier où la technologie est une aide, et où elle est au contraire une entrave. L’évaluation continue doit faire partie de toute mise en oeuvre de technologie éducative.

Au final, il est difficile de trancher si la technologie éducative représente un bénéfice ou un risque pour l’apprentissage des élèves. Mais la technologie est destinée à rester dans les salles de classe dans un avenir prévisible, et comprendre ses forces, ses promesses et ses faiblesses doit donc rester une priorité.

 

Remerciements

Nous remercions
Francesco Avvisati de l’OCDE pour l’examen qu’il a fait de nos méthodes de recherche et pour ses commentaires très utiles ; Matthew Di Carlo de l’Institut Albert Shanker et Kinga Wysienska-Di Carlo de l’Institut de philosophie et sociologie de l’Académie des sciences polonaise, qui ont également relu ce rapport et apporté des commentaires sur notre présentation des résultats.

 

Annexes

Tableau 1.1. Coefficients de corrélation des scores PISA 2015

 MathématiquesLectureSciences
Ratio moyen ordinateur/élève0.280.370.39
Part des élèves utilisant internet pour du travail scolaire au moins une fois par semaine-0.050.020.03
Part des élèves passant une heure ou plus sur internet à l’école chaque jour0.0030.010.05

Note: un coefficient de corrélation est une valeur comprise entre -1 et 1, qui représente la force de la relation entre deux variables. Les valeurs inférieures à -0,4 et supérieures à +0,4 sont considérées comme des associations fortes ; les valeurs marquées en gras sont significatives d’un point de vue statistique et indiquent une valeur-p inférieure à 5%

Tableau 1.2. Coefficients de corrélation partielle des scores PISA 2015, après contrôle du PIB par habitant

 MathématiquesLectureSciences
Ratio moyen ordinateur/élève0.090.220.27
Part des élèves utilisant internet pour du travail scolaire au moins une fois par semaine-0.12-0.04-0.03
Part des élèves passant une heure ou plus sur internet à l’école chaque jour-0.06-0.04<0.01

Note: Un coefficient de corrélation partielle représente la force de la relation entre deux variables après avoir contrôlé les effets de variables confusionnelles possibles. Les valeurs inférieures à -0,4 et supérieures à +0,4 sont considérées comme des associations fortes ; les valeurs marquées en gras sont significatives d’un point de vue statistique et indiquent une valeur-p inférieure à 5%

Tableau 1.3. Coefficients de corrélation partielle de la performance à PISA et de l’exposition à la technologie en classe, en tenant compte du PIB par habitant PISA et des performances moyennes en mathématiques, lecture et sciences en 2003 et 2006

 MathématiquesLectureSciences
Ratio moyen ordinateur/élève-0.22-0.15-0.06
Part des élèves utilisant internet pour du travail scolaire au moins une fois par semaine-0.19-0.17-0.1
Part des élèves passant une heure ou plus sur internet à l’école chaque jour-0.13-0.14-0.08

Note: Un coefficient de corrélation partielle représente la force de la relation entre deux variables après avoir contrôlé les effets de variables confusionnelles possibles. Les valeurs inférieures à -0,4 et supérieures à +0,4 sont considérées comme des associations fortes ; les valeurs marquées en gras sont significatives d’un point de vue statistique et indiquent une valeur-p inférieure à 5%

Tableau 1.4. Performance moyenne sur l’échelle de lecture PISA 2015, par temps passé sur internet chaque jour à l’école, pour les pays de l’OCDE.

 Jamais1-30 minutes31-60 minutesDe 1 à 2 heuresDe 2 à 4 hoursDe 4 à 6 heuresPlus de 6 heures
Allemagne
Australie468503508515524519453
Autriche500514487474468450420
Belgique522528506476462452415
Canada
Chili469475471455460450414
Corée525529505487465436
Danemark482519507513506513468
Espagne503502513488472473424
Estonie523543528517507488470
Etats-Unis
Finlande518551538526505479451
France517530514468457424393
Grèce501484468444427429399
Hongrie494487480463430415398
Irlande527530523497489461429
Islande486511489467464426419
Israel493510498476456455435
Italie504510488468464453415
Japon529523511494478457436
Lettonie484503492475471483440
Luxembourg511498490466460437396
Mexique429427433419431417414
Norvège
New Nouvelle-Zélande505529534516508495435
Pays-Bas529531516505488472453
Pologne524519502481484454455
Portugal508524503487477466445
République Tchèque497513507486483463437
Royaume-Uni503525511491475430425
Slovaquie463479473456450438418
Slovénie513528509495481456453
Suède480523516511510495450
Suisse502511492477461441408
Turquie
Moyenne de l’OCDE500512500483474458430

Note : Le signe « ‡ » indique que les données n’étaient pas disponibles dans la base publique IDE (International Data Explorer).

Tableau 1.5. Scores NAEP 2017 moyens à l’examen de lecture de « 4th grade », en fonction de l’utilisation d’un ordinateur portable ou de bureau en cours et des caractéristiques démographiques

PopulationJamaisDans certains coursDans environ la moitié des coursDans plus de la moitié
des cours
Dans tous ou presque
tous les cours
Tous214227224221221
Élèves éligibles à la
gratuité du déjeuner dans
le « National School Lunch Program »
201213209205208
Élèves non éligibles au
« National School Lunch
Program »
228239237237237
Élèves présentant
un handicap
180196191186184
Élèves ne présentant
pas de handicap
221231228226226
Élèves dont l’anglais n’est
pas la langue maternelle
(« English Language
Learner »)
183196191188191
Élèves dont l’anglais
est la langue maternelle
219231228226225

Tableau 1.6. Scores NAEP 2017 moyens à l’examen de lecture de « 8th grade », en fonction de l’utilisation d’un ordinateur portable ou de bureau en cours et des caractéristiques démographiques.

PopulationJamaisDans certains coursDans environ la moitié des coursDans plus de la moitié des coursDans tous ou presque tous les cours
Tous263263266269273
Élèves éligibles à la
gratuité du déjeuner dans le « National School Lunch
Program »
248251252254258
Élèves non éligibles au « National School Lunch Program »272275278280282
Élèves présentant un handicap221230234237240
Élèves ne présentant pas de handicap269268271274277
Élèves dont l’anglais n’est pas la langue maternelle (« English Language Learner »)216225226230234
Élèves dont l’anglais est la langue maternelle266266269272274

Tableau 1.7. Scores NAEP 2017 moyens à l’examen de lecture de « 4th grade », en fonction du nombre d’heures passées chaque jour sur informatique à l’école pour des travaux d’anglais ou de langue, et du niveau de revenu.

Pourcentage d’élèves
éligibles au « National School Lunch Program »
Moins de 30 minutesEnviron 30 minutesEnviron 1 heureEnviron 2 heuresEnviron 3 heures4 heures ou plus
0-25%246241240230234219
26-50%234230228223217199
51-75%226222220216204192
76-100%213211206200188180
Moyenne nationale231226222216206192

Tableau 1.8. Scores NAEP 2017 moyens à l’examen de lecture de « 8th grade », en fonction du nombre d’heures passées chaque jour sur informatique à l’école pour des travaux d’anglais ou de langues, et du niveau de revenu.

Pourcentage d’élèves
éligibles au « National School Lunch Program »
Moins de 30 minutesEnviron 30 minutesEnviron 1 heureEnviron 2 heuresEnviron 3 heures4 heures ou plus
0-25%284282282279273264
26-50%275269269270267249
51-75%266259259261256250
76-100%255248250252246237
Moyenne nationale272266266267262251

Tableau 1.9. Scores NAEP 2017 moyens à l’examen de mathématiques de « 8th grade », en fonction de l’activité dans laquelle l’informatique est utilisée et de la fréquence déclarée

Activité
d’apprentissage
informatisée
Jamais ou presque jamaisUne à deux fois par anUne à deux fois par moisUne à deux fois par semaineChaque jour ou presque
S’entraîner ou réviser des sujets de maths284286286281281
Faire des recherches
sur internet sur des sujets de maths
283286281281281
Activités
d’enrichissement
en maths
282287285281278

Tableau 1.10. Scores NAEP 2017 moyens à l’examen de mathématiques de « 8th grade », en fonction de l’activité dans laquelle l’informatique est utilisée et de la formation de l’enseignant à l’intégration de l’informatique dans son enseignement

Activité d’apprentissage informatiséeJamais ou presque jamaisUne à deux fois par anUne à deux fois par moisUne à deux fois par semaineChaque jour ou presque
Faire des recherches sur internet sur des sujets de maths
L’enseignant a déclaré avoir été formé283286281282278
L’enseignant a déclaré
ne pas avoir été formé mais dispose déjà
des compétences
285287282280286
L’enseignant a déclaré
ne pas avoir été formé
283285280276283
S’entraîner ou réviser des sujets de maths
L’enseignant a déclaré avoir été formé284286285282281
L’enseignant a déclaré
ne pas avoir été formé mais dispose déjà
des compétences
285285290281283
L’enseignant a déclaré
ne pas avoir été formé
286287285276278
Activités d’enrichissement en maths
L’enseignant a déclaré avoir été formé282286285281277
L’enseignant a déclaré
ne pas avoir été formé mais dispose déjà
des compétences
285289286281281
L’enseignant a déclaré
ne pas avoir été formé
281287284277275

Tableau 1.11. Scores NAEP 2017 moyens à l’examen de mathématiques de « 4th grade », en fonction de l’activité dans laquelle l’informatique est utilisée et de la fréquence déclarée

Activité
d’apprentissage
informatisée
Jamais ou presque
jamais
Une à deux fois par anUne à deux fois par moisUne à deux fois par semaineChaque jour ou presque
Faire des recherches sur internet sur des sujets de maths239242242242239
Activités d’enrichissement en maths237241241240241
S’entraîner ou réviser des sujets de maths239244241241240

Note: Les apparentes différences dans les notes en fonction du type d’activité ne sont pas forcément significatives d’un point de vue statistique.

Tableau 1.12. Scores NAEP 2017 moyens à l’examen de lecture de « 4th grade », en fonction de l’activité dans laquelle l’informatique est utilisée et de la fréquence déclarée

Activité
d’apprentissage
informatisée
Jamais ou presque
jamais
Une à deux fois par anUne à deux fois par moisUne à deux fois par semaineChaque jour ou presque
Consulter
des sites web
sur la lecture
224226225222218
Acquérir
des capacités
de lecture courante
226228227222218
Acquérir
des capacités
de compréhension écrite
226228227222220
Enrichir
son vocabulaire
226226225222219
Faire des recherches pour des projets
de lecture
215223224224223
Faire des exercices
de grammaire
et d’orthographe
224227224222220

Note: Les apparentes différences dans les notes en fonction du type d’activité ne sont pas forcément significatives d’un point de vue statistique.

Tableau 1.13. Scores NAEP 2017 moyens à l’examen de lecture de « 8th grade », en fonction de l’activité dans laquelle l’informatique est utilisée et de la fréquence déclarée

Activité
d’apprentissage informatisée
Jamais ou presque jamaisUne à deux fois par anUne à deux fois par moisUne à deux fois par semaineChaque jour ou presque
Consulter des sites web sur
la lecture
269270268266264
Faire des
recherches
pour des projets
de lecture
261267267269269
Acquérir
des capacités de
compréhension écrite
272271268266265
Acquérir
des capacités
de lecture
courante
272270268265263

Note: Les apparentes différences dans les notes en fonction du type d’activité ne sont pas forcément significatives d’un point de vue statistique.

Tableau 1.14 Scores NAEP 2017 moyens à l’examen de lecture de « 4th grade » et « 8th grade », en fonction de l’utilisation de tablettes pendant le cours

NiveauJamaisDans certains coursDans environ la moitié des coursDans plus de la moitié des coursDans tous ou presque tous les cours
« 4th grade »
(équivalent CM1)
226225215209212
« 8th grade »
(équivalent 4ème)
267264258259267

Tableau 1.15. Utilisation déclarée de tablettes en cours aux Etats-Unis, en « 4th grade ». En pourcentages

 JamaisDans certains coursDans environ la moitié des coursDans plus de la moitié des coursDans tous ou presque tous les cours
Tous5428747
Élèves éligibles à la gratuité du déjeuner dans le « National School Lunch Program »5327848
Élèves non éligibles au « National School Lunch Program »5429746
Élèves présentant un handicap5027959
Élèves ne présentant
pas de handicap
5428747
Élèves dont l’anglais
n’est pas la langue maternelle
(« English Language Learner »)
48291068
Élèves dont l’anglais
est la langue maternelle
5528747

Note: Ces chiffres sont issus de l’évaluation de lecture NAEP 2017, pour les élèves de « 4th grade ».

Tableau 1.16. Utilisation déclarée de tablettes en cours aux Etats-Unis, en « 8th grade ». En pourcentages

 JamaisDans certains coursDans environ la moitié des coursDans plus de la moitié des coursDans tous ou presque tous les cours
Tous5726547
Élèves éligibles à la gratuité du déjeuner dans le « National School Lunch Program »5627646
Élèves non éligibles au « National School Lunch Program »5826538
Élèves présentant un handicap5428747
Élèves ne présentant
pas de handicap
5826548
Élèves dont l’anglais n’est pas
la langue maternelle (« English
Language Learner »)
4832857
Élèves dont l’anglais
est la langue maternelle
5826548

Note: Ces chiffres sont issus de l’évaluation de lecture NAEP 2017, pour les élèves de « 8th grade ».

Résultats pour la France

Tableau 1.17. Ratio ordinateur/élève pour les pays de l’OCDE, par ordre décroissant. Chiffres PISA 2015

PaysRatio ordinateur/élève (nombre moyen
d’ordinateurs scolaires pour 100 élèves
Royaume-Uni31
Etats-Unis27
Australie25
Norvège24
France23
Canada21
Suède19
Suisse18
Finlande17
Islande16
Luxembourg15
Moyenne de l’OCDE14
République tchèque14
Belgique14
Hongrie14
Slovaquie14
Pays-Bas12
Japon12
Irlande11
Pologne11
Corée11
Danemark10
Italie9
Grèce7
Allemagne7
Lettonie7
Espagne7
Mexique6
Portugal4
Turquie3

Tableau 1.18. Utilisation d’internet pour du travail scolaire au moins une fois par semaine, pour les pays de l’OCDE. En pourcentages, par ordre décroissant. Chiffres PISA 2015

PaysPart des élèves qui déclarent utiliser internet pour du travail scolaire au moins une fois par semaine
Danemark87
Suède81
Australie80
Pays-Bas75
Nouvelle-Zélande72
Royaume-Uni70
Islande58
Autriche55
République Tchèque54
Lettonie50
Finlande49
Moyenne de l’OCDE47
Slovaquie46
Italie45
Pologne45
Espagne44
France41
Hongrie41
Portugal41
Luxembourg40
Grèce39
Mexique38
Suisse37
Belgique33
Allemagne32
Irlande29
Corée17
Japon14

Note: données non disponibles pour le Canada, la Norvège et les Etats-Unis

Tableau 1.19. Valeurs d’échelles moyennes par matière et par fréquence d’utilisation déclarée d’internet pour des travaux scolaires. Chiffres France PISA 2015

MatièreJamais ou presque jamaisUne ou deux fois par moisUne ou deux fois par semainePresque tous les joursTous les jours
Mathématiques488528511485454
Lecture495541523491442
Sciences489530518484450

Tableau 1.20. Distribution de l’usage déclaré d’internet pour des travaux scolaires. En pourcentages. Chiffres France PISA 2015 test de mathématiques

Tableau 1.21. Proportion d’élèves déclarant passer au moins une heure par jour sur internet à l’école, par pays de l’OCDE. En pourcentages, par ordre décroissant. Chiffres PISA 2015

PaysProportion d’élèves déclarant passer une heure ou plus par jour sur internet à l’école
Danemark63
Australie55
Suède52
Pays-Bas41
Nouvelle-Zélande39
Slovaquie35
Islande34
Portugal34
Royaume-Uni34
République tchèque33
Autriche32
Moyenne de l’OCDE30
Finlande30
Hongrie30
Grèce29
Italie28
Luxembourg27
Lettonie25
Pologne24
Espagne24
Belgique22
France19
Mexique19
Suisse19
Japon15
Irlande12
Corée12

Note: Données non disponibles pour le Canada, la Norvège et les Etats-Unis

Tableau 1.22. Valeurs d’échelles moyennes par matière et par temps déclaré passé chaque jour sur internet à l’école. Chiffres France PISA 2015

 AucunDe 1 à 30 minutesDe 31 à 60 minutesDe 1 à 2 heuresDe 2 à 4 heuresDe 4 à 6 heuresPlus de 6 heures
Maths505522501464450443409
Lecture517530514468457424393
Sciences510521508464454443405

Tableau 1.23. Distribution de l’utilisation quotidienne déclarée d’internet à l’école. En pourcentages. Chiffres France PISA 2015, test de mathématiques

Addendum avec mise à jour des données NAEP 2019

Pour télécharger le PDF

Pour télécharger le PDF de ce rapport

Pour accéder aux données utilisé dans ce rapport

Pour télécharger le PDF de ce rapport,

Pour accéder aux données utilisées dans ce rapport,

(1)* Heissel, J. (2016). The relative benefits of live versus online delivery: Evidence from virtual algebra I in North Carolina. Economics of Education Review, 53, 99-115. doi:10.1016/j.econedurev.2016.05.001

(2)* Vanlehn, K. (2011). The Relative Effectiveness of Human Tutoring, Intelligent Tutoring Systems, and Other Tutoring Systems. Educational Psychologist, 46(4), 197-221. doi:10.1080/00461520.2011.611369

(3)* OECD. (2015). Students, computers and learning; Making the connection. Retrieved from: http://www.oecd.org/publications/students-computers-and-learning-9789264239555-en.htm.

(4)* Rowan, C. (2010). Unplug – don’t drug: A critical look at the influence of technology on child behavior with an alternative way of responding other than evaluation and drugging. Ethical Human Psychology and Psychiatry, 12(1). Pp. 60-68. https://doi.org/10.1891/1559-4343.12.1.60. Walsh, J. (2018). Associations between 24 hour movement behaviours and global cognition in US children: A cross-sectional observational study. The Lancet Child & Adolescent Health, 2(11). https://doi.org/10.1016/S2352-4642(18)30278-5

(5)* Alghamdi, Y. (2016). The negative effects of technology on children. Oakland University. Retrieved from: https://www.researchgate.net/publication/318851694_Negative_Effects_of_Technology_on_Children_of_Today. Zimmerman, F. et al. (2007). Associations Between Media Viewing and Language Development in Children Under Age 2 Years. The Journal of Pediatrics, 151(4) , 364-368. https://doi.org/10.1016/j.jpeds.2007.04.071

(6)* King, P. & R. Behnke, R. (1999). Technology-based instructional feedback intervention. Educational Technology, 39. Mason, B.P., & Bruning, R. (2003). Providing feedback in computer-based instruction: What research tells us. Swart, R. (2017). Purposeful use of technology to support critical thinking. JOJ Nurse Health Care, 4(1). https://juniperpublishers.com/jojnhc/pdf/JOJNHC.MS.ID.555626.pdf

(7)* Konnikova, M. (2012, April 30). On writing, memory, and forgetting: Socrates and Hemingway take on Zeigarnik [Web log post]. Retrieved January 12, 2019, from: https://blogs.scientificamerican.com/literally-psyched/on-writing-memory-and-forgetting-socrates-and-hemingway-take-on-zeigarnik/

(8)* Gershon, L. (2017, December 28). How blackboards transformed American education. JSTOR Daily. Retrieved January 12, 2019, from: https://daily.jstor.org/how-blackboards-transformed-american-education/

(9)* GAhn, S. J., Bostick, J., Ogle, E., Nowak, K. L., Mcgillicuddy, K. T., & Bailenson, J. N. (2016). Experiencing Nature: Embodying Animals in Immersive Virtual Environments Increases Inclusion of Nature in Self and Involvement With Nature. Journal of Computer-Mediated Communication, 21 (6), 399-419. doi:10.1111/jcc4.12173education/

(10)* Desmarais, M. C., & Baker, R. S. (2011). A review of recent advances in learner and skill modeling in intelligent learning environments. User Modeling and User-Adapted Interaction, 22 (1-2), 9-38. doi:10.1007/s11257-011-9106-8

(11)* Hossain, Z., Bumbacher, E., Blikstein, P., & Riedel-Kruse, I. (2017). Authentic science inquiry learning at scale enabled by an Interactive biology cloud experimentation lab. Proceedings of the Fourth (2017) ACM Conference on Learning @ Scale – L@S 17. doi:10.1145/3051457.3053994

(12)* Jabr, F. (2013, April 11). The reading brain in the bigital age: The science of paper versus screens [Web log post]. Retrieved January 12, 2019, from: https://www.scientificamerican.com/article/reading-paper-screens/

(13)* Mangen, A., Walgermo, B. R., & Brønnick, K. (2013). Reading linear texts on paper versus computer screen: Effects on reading comprehension. International Journal of Educational Research, 58, 61-68. doi:10.1016/j.ijer.2012.12.002

(14)* Ackerman, R., & Lauterman, T. (2012). Taking reading comprehension exams on screen or on paper? A metacognitive analysis of learning texts under time pressure. Computers in Human Behavior, 28 (5), 1816-1828. doi:10.1016/j.chb.2012.04.02
Lauterman, T., & Ackerman, R. (2014). Overcoming screen inferiority in learning and calibration. Computers in Human Behavior, 35, 455-463. doi:10.1016/j.chb.2014.02.0463

(15)* Ragan, E. D., Jennings, S. R., Massey, J. D., & Doolittle, P. E. (2014). Unregulated use of laptops over time in large lecture classes. Computers & Education, 78, 78-86. doi:10.1016/j.compedu.2014.05.002

(16)* Sana, F., Weston, T., & Cepeda, N. J. (2013). Laptop multitasking hinders classroom learning for both users and nearby peers. Computers & Education, 62, 24-31. doi:10.1016/j.compedu.2012.10.003

(17)* Sana, F., Weston, T., & Cepeda, N. J. (2013). Laptop multitasking hinders classroom learning for both users and nearby peers. Computers & Education, 62, 24-31. doi:10.1016/j.compedu.2012.10.003

(18)* Sana, F., Weston, T., & Cepeda, N. J. (2013). Laptop multitasking hinders classroom learning for both users and nearby peers. Computers & Education, 62, 24-31. doi:10.1016/j.compedu.2012.10.003

(19)* Herodotou, C. (2017). Young children and tablets: A systematic review of effects on learning and development. Journal of Computer Assisted Learning, 34 (1), 1-9. doi:10.1111/jcal.12220

(20)* Li, Q., & Ma, X. (2010). A Meta-analysis of the Effects of Computer Technology on School Students’ Mathematics Learning. Educational Psychology Review, 22 (3), 215-243. doi:10.1007/s10648-010-9125-8

(21)* Berkowitz, T., Schaeffer, M. W., Maloney, E. A., Peterson, L., Gregor, C., Levine, S. C., & Beilock, S. L. (2015). Math at home adds up to achievement in school. Science, 350 (6257), 196-198. doi:10.1126/science.aac7427

(22)* Ma, W., Adesope, O. O., Nesbit, J. C., & Liu, Q. (2014). Intelligent tutoring systems and learning outcomes: A meta-analysis. Journal of Educational Psychology, 106 (4), 901-918.
http://dx.doi.org/10.1037/a0037123

(23)* Grinager, H. (2006). How education technology leads to improved student achievement (USA). Denver, CO: Education Technology Partners: Technology in K-12 Education. Retrieved January 12, 2019, from: http://www.ncsl.org/

(24)* Carr, C. S. (2003). Visualizing argumentation: Software tools for collaborative and educational sense-making (P. A. Kirschner, S. J. Buckingham Shum, & P. A. Kirschner, Eds.). Retrieved January 12, 2019, from: https://www.springer.com/gp/book/9781852336646


(25)* Blikstein, P., & Wilensky, U. (2007). Bifocal modeling: A framework for combining computer modeling, robotics and real-world sensing. Retrieved January 12, 2019, from: https://ccl.northwestern.edu//2007/09-bifocal_modeling.pdf. Hernández-Ramos, P., & Paz, S. D. (2009). Learning history in middle school by designing multimedia in a project-based learning experience. Journal of Research on Technology in Education,42 (2), 151-173. doi:10.1080/15391523.2009.10782545

(26)* Kuiper, E., & Pater-Sneep, M. D. (2014). Student perceptions of drill-and-practice mathematics software in primary education. Mathematics Education Research Journal, 26 (2), 215-236. doi:10.1007/s13394-013-0088-1

(27)* Wenglinsky, H. (1998). Does it compute? The relationship between educational technology and student achievement in mathematics. Retrieved from: https://www.ets.org/Media/Research/pdf/PICTECHNOLOG.pdf
Also Wenglinsky, H. (2005). Using technology wisely: The keys to success in schools. New York: Teachers College.

(28)* Wenglinsky, H. (2005). Technology and achievement: the bottom line. Learning in the digital age, 63 (4), 29-32. Retrieved January 12, 2019, from: https://imoberg.com.

(29)* Zhang, T., Xie, Q., Park, B., Kim, Y., Broer, M., & Bohrnstedt, G. (2016). Computer familiarity and its relationship to performance in three NAEP digital-based assessments (Working paper No. 01-2016). Washington, DC: American Institutes for Research (AIR). Retrieved January 12, 2019, from: https://www.air.org

(30)* Programme for International Student Assessment (PISA). (2018). Retrieved January 12, 2019, from: http://www.oecd.org/pisa/aboutpisa/

(31)* NAEP, National Assessment of Educational Progress (2017). Retrieved from: http://nces.ed.gov/nationsreportcard/

(32)* Pike, G. R. (1995). The relationship between self reports of college experiences and achievement test scores. Research in Higher Education, 36 (1), 1-21. doi:10.1007/bf02207764

(33)* Yienger, M. E. (2016). Too much tech harms reading retention in young children. Inquiries journal/student pulse, 8(03). Retrieved from: http://www.inquiriesjournal.com/a?id=1374

(34)* Hull, M., & Duch, K. (2019). One-to-one technology and student outcomes: evidence from Mooresville’s digital conversion initiative. Educational Evaluation and Policy Analysis, 41 (1), 79–97. https://doi.org/10.3102/0162373718799969. OECD (2015). Students, Computers, and Learning: Making the Connection, PISA, OECD Publishing. Retrieved from: https://read.oecd-ilibrary.org/education/students-computers-and-learning_9789264239555-en#page4. Ravizza, S. M., Uitvlugt, M. G., & Fenn, K. M. (2017). Logged in and zoned Out: How laptop Internet use relates to classroom learning. Psychological Science, 28 (2), 171–180. https://doi.org/10.1177/0956797616677314

(35)* Zheng, B., Warschauer, M., Lin, C.-H., & Chang, C. (2016). Learning in One-to-one laptop environments: A meta-analysis and research synthesis. Review of Educational Research, 86 (4), 1052–1084. https://doi.org/10.3102/0034654316628645.
Tamim, R. M., Bernard, R. M., Borokhovski, E., Abrami, P. C., & Schmid, R. F. (2011). What forty years of research says about the Impact of technology on learning: A second-order meta-analysis and validation study. Review of Educational Research, 81(1), 4–28. https://doi.org/10.3102/0034654310393361.

(36)* Hesse, L. (2017). The effects of blended learning on K-12th grade students. Graduate Research Papers. Retrieved from: https://scholarworks.uni.edu/cgi/viewcontent.cgi?article=1116&context=grp. Utami, I. (2018). The effect of blended learning model on senior high school students’ achievement. Universitas Bung Hatta, Retrieved from: https://www.shs-conferences.org/articles/shsconf/pdf/2018/03/shsconf_gctale2018_00027.pdf

(37)* Carter, S. et al. (2016). The impact of computer usage on academic performance: Evidence from a randomized trial at the United States Military Academy. National Bureau of Economic research. Retrieved from: https://seii.mit.edu/wp-content/uploads/2016/05/SEII-Discussion-Paper-2016.02-Payne-Carter-Greenberg-and-Walker-2.pdf. Sana, F. et al. (2013). Laptop multitasking hinders classroom learning for both users and nearby peers. Computers and Education, 62. Pp. 24-31. https://www.sciencedirect.com/science/article/pii/S0360131512002254?via%3Dihub

(38)* Walsh, J. (2018). Associations between 24 hour movement behaviours and global cognition in US children: A cross-sectional observational study. The Lancet Child & Adolescent Health, 2 (11). https://doi.org/10.1016/S2352-4642(18)30278-5

(39)* Escueta, M. et al. (2017). Education technology: An evidence-based review. National Bureau of Economic research. Retrieved from: https://www.nber.org/papers/w23744.pdf. Tomasik, M. J., Berger, S., & Moser, U. (2018). On the development of a computer-based tool for formative student assessment: epistemological, methodological, and practical issues. Frontiers in psychology, 9, 2245. doi:10.3389/fpsyg.2018.02245. Shute, V.J. & Rahimi, S. (2017). Journal of Computer Assisted Learning. 33. Retrieved from: http://myweb.fsu.edu/vshute/pdf/jcal.pdf. Reimann, P. et al. (2011). Design of a computer-assisted assessment system for classroom formative assessment. Retrieved from: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.228.2632&rep=rep1&type=pdf

(40)* International Journal of Education and Development using Information and Communication Technology. (IJEDICT), 2010, Vol. 6, Issue 1, pp. 76-87. Retrieved from: https://files.eric.ed.gov/fulltext/EJ1084978.pdf

(41)* Swart, R. (2017). Purposeful use of technology to support critical thinking. JOJ Nurse Health Care, 4 (1). https://juniperpublishers.com/jojnhc/pdf/JOJNHC.MS.ID.555626.pdf

(42)* Dixon, F., Cassady, J., Cross, T., & Williams, D. (2005). Effects of technology on critical thinking and essay writing among gifted adolescents. Journal of Secondary Gifted Education, 16 (4), 180–189. https://doi.org/10.4219/jsge-2005-482. O’Dwyer, L. M., Russell, M., Bebell, D., & Tucker-Seeley, K. R. (2005). Examining the relationship between home and school computer use and students’ English/language arts test scores. Journal of Technology, Learning, and Assessment, 3 (3). Retrieved from: https://pdfs.semanticscholar.org/c849/3a5ac5d569a7f41366a58e4f5b3a73790668.pdf. Wenglinsky, H. (1998). Does it compute? The relationship between educational technology and student achievement in mathematics. Educational Testing Service. Retrieved from: https://files.eric.ed.gov/fulltext/ED425191.pdf

(43)* Carbonneau, K. J., Marley, S. C., & Selig, J. P. (2013). A meta-analysis of the efficacy of teaching mathematics with concrete manipulatives. Journal of Educational Psychology, 105 (2), 380-400. doi:10.1037/a0031084

(44)* Ma, W., Adesope, O. O., Nesbit, J. C., & Liu, Q. (2014). Intelligent tutoring systems and learning outcomes: A meta-analysis. Journal of Educational Psychology, 106 (4), 901-918. doi:10.1037/a0037123
Steenbergen-Hu, S., & Cooper, H. (2014). A meta-analysis of the effectiveness of intelligent tutoring systems on college students’ academic learning. Journal of Educational Psychology, 106 (2), 331-347. doi:10.1037/a0034752

(45)* Santiago, H. (2011). Visual mapping to enhance learning and critical thinking skills. Optometric Education, 36 (3). Retrieved from: https://journal.opted.org/articles/Volume_36_Number_3_VisualMapping.pdf

(46)* Faste, H., & Lin, H. (2012). The untapped promise of digital mind maps. CHI.

(47)* Stanhope, D., & Rectanus, K. (2016). Educational technology: What 49 schools discovered about usage when the data were uncovered. EDM.

(48)* Carr, C. S. (2003). Visualizing argumentation: Software tools for collaborative and educational sense-making (P. A. Kirschner, S.J. Buckingham-Shum, & C.S Carr, Eds.). Retrieved January 12, 2019, from: https://www.springer.com/gp/book/9781852336646

(49)* Magnisalis, I., Demetriadis, S., & Karakostas, A. (2011). Adaptive and intelligent systems for collaborative learning support: A review of the field. IEEE Transactions on Learning Technologies, 4(1), 5-20. doi:10.1109/tlt.2011.2