L’essor fulgurant de l’intelligence artificielle générative bouleverse les pratiques pédagogiques et remet en question les fondements mêmes de l’évaluation académique. Des outils comme ChatGPT ou Gemini facilitent la rédaction, la synthèse et la recherche d’idées, mais leur usage massif risque de fragiliser l’effort intellectuel, l’authenticité des travaux et la capacité de raisonnement autonome des étudiants.
L’enseignement supérieur se retrouve ainsi face à un double défi : ne pas freiner l’innovation technologique tout en préservant la pensée critique, socle de toute démarche académique rigoureuse. Si l’IA peut être un levier d’apprentissage personnalisé et un outil de structuration des connaissances, elle génère aussi une forme de dépendance cognitive qui peut entraîner l’uniformisation des réponses et la perte d’initiative intellectuelle.
Cette perte d’initiative se manifeste par un désengagement réflexif progressif, où les étudiants délèguent à l’IA des tâches cognitives essentielles, telles que la structuration des idées ou la résolution de problèmes complexes, entraînant une atrophie cognitive globale et une réduction de la plasticité cérébrale. Des études montrent que l’utilisation excessive d’IA générative diminue l’effort intellectuel requis pour transformer l’information en connaissance, avec une corrélation négative significative entre la fréquence d’usage et les scores de pensée critique (r = -0.49). Par exemple, une recherche menée sur des participants rédigeant des essais a révélé une réduction de 32 % de la charge cognitive et une diminution de 50 % de la connectivité cérébrale lorsque l’IA est employée, menant à une incapacité accrue à se rappeler ses propres productions intellectuelles.
Ce phénomène favorise une approche superficielle de l’apprentissage, privilégiant la rapidité au détriment d’une compréhension approfondie, et risque de freiner le développement de compétences analytiques et de résolution de problèmes autonomes. En outre, la dépendance à l’IA peut engendrer un isolement social et un questionnement existentiel: « si une IA peut répondre à toutes mes questions, pourquoi apprendre ou penser par moi-même ? », amplifiant ainsi la perte d’initiative et la démotivation intellectuelle. Des enquêtes qualitatives soulignent que cette surdépendance érode la volonté d’apprendre et vide progressivement l’esprit de l’effort personnel, menaçant l’autonomie cognitive des apprenants dans l’enseignement supérieur.
La perte d’initiative intellectuelle : un risque majeur mais encore sous-estimé
Si les outils d’intelligence artificielle générative facilitent l’accès à l’information, ils peuvent également produire un effet paradoxal: une diminution progressive de l’initiative intellectuelle chez les étudiants. En externalisant les tâches de recherche, d’analyse ou de reformulation, l’IA peut réduire l’effort cognitif engagé, diminuant ainsi la construction autonome de la pensée. Plusieurs mécanismes expliquent ce phénomène, souvent qualifié de « cognitive offloading » (délégation cognitive), où les technologies externes absorbent des fonctions mentales essentielles, menant à une atrophie des compétences réflexives.
- Automatisation des premières étapes de la réflexion
Les modèles génératifs fournissent immédiatement une structure, des arguments et des exemples. Or, ces étapes préliminaires sont essentielles pour stimuler la créativité, la sélection critique de sources et l’élaboration personnelle du raisonnement. En les déléguant à la machine, l’étudiant court le risque de s’en remettre à des propositions standardisées, ce qui affaiblit la plasticité cognitive et l’engagement actif dans l’apprentissage.
- Illusion de compétence
L’IA donne l’impression de « mieux savoir », conduisant parfois l’utilisateur à accepter les réponses sans les interroger ni les contextualiser. Cette passivité contribue à une baisse de vigilance cognitive et à une réduction de l’analyse critique. Ce phénomène, bien documenté en psychologie cognitive, renforce l’idée que la facilité d’accès à une solution diminue l’effort actif d’apprentissage, favorisant une « métacognitive laziness » (paresse métacognitive).
- Uniformisation des productions
Avec des outils qui s’appuient sur des corpus similaires et reproduisent des schémas argumentatifs récurrents, les travaux tendent à se standardiser. L’étudiant n’est plus incité à formuler des approches originales, mais à optimiser une requête. L’initiative se déplace: elle n’est plus dans la pensée, mais dans la maîtrise du prompt, ce qui peut limiter la diversité créative et l’innovation personnelle.
- Dépendance cognitive et perte d’autonomie
À mesure que les étudiants s’habituent à demander à l’IA de reformuler, structurer ou enrichir leurs idées, la confiance dans leurs propres capacités tend à diminuer. La dépendance devient cognitive: on consulte la machine non plus pour confirmer une réflexion existante, mais pour démarrer la réflexion elle-même. Cela pose un risque majeur pour le développement à long terme des compétences critiques, comme le soulignent des études sur l’impact des LLM sur les processus mentaux.
Face à cet enjeu, le rôle de l’enseignement supérieur est crucial : il ne s’agit pas de refuser l’IA, mais de ré-instaurer les conditions qui soutiennent l’effort intellectuel, notamment par des modalités pédagogiques qui valorisent l’initiative personnelle débats, résolutions de problèmes complexes, analyses critiques de réponses générées, recherches documentaires guidées, ou encore écrits réflexifs sans assistance.
Plutôt que d’interdire ces outils, il devient nécessaire de repenser nos modalités d’évaluation. Les devoirs classiques réalisés hors contrôle perdent en fiabilité. L’évaluation orale, les mises en situation concrètes, les projets collaboratifs ou encore l’analyse critique de contenus générés par IA apparaissent alors comme des alternatives crédibles pour mesurer la compréhension réelle et stimuler l’esprit d’analyse.
L’enjeu est aussi éthique : former les étudiants à un usage conscient, réfléchi et critique de l’IA, en les invitant à interroger ses limites, ses biais et ses dérives. Loin d’un rejet technophobe, il s’agit d’une évolution pédagogique nécessaire, alignée sur les recommandations internationales pour une intégration responsable de l’IA en éducation. Préserver la pensée critique dans ce nouveau contexte, c’est former des esprits capables de naviguer avec discernement dans un monde où la machine ne remplace pas la réflexion, mais peut l’amplifier si elle est maîtrisée avec intelligence.
Implications pédagogiques et recommandations pour l’enseignement supérieur
- Concevoir des dispositifs hybrides avec garde-fous pédagogiques : intégrer l’IA comme outil d’entraînement mais exiger des phases de pratique autonome sans IA, et des métacognitions guidées (débriefings, journaux réflexifs). Les résultats de terrain montrent qu’un tutoriel IA « protégé » (avec prompts pédagogiques) limite les effets négatifs.
- Renforcer l’évaluation formative et orale : privilégier des évaluations qui mesurent la capacité à expliquer, à argumenter à l’oral, ou à résoudre des problèmes in situ, réduisant l’utilité d’un recours automatique à l’IA pour produire une réponse « prête à l’emploi ».
- Former à la métacognition et à la vérification critique: enseigner explicitement l’esprit critique face aux productions d’IA (détection de biais, vérification de sources, analyse de plausibilité) afin de transformer l’IA d’un crutch en un catalyseur d’apprentissage réfléchi. Les orientations internationales recommandent ce type d’approche centrée sur l’apprenant.
- Documenter et évaluer l’impact pédagogique localement: conduire expérimentations contrôlées et évaluations sur site (R&D pédagogique) pour mesurer les effets à moyen terme et ajuster les pratiques (plutôt que d’appliquer des politiques générales sans preuve).
La perte d’initiative intellectuelle n’est pas une fatalité inéluctable mais un risque avéré qui réclame une réponse pédagogique structurée. Les preuves actuelles combinent fondements théoriques (cognitive offloading, illusion of explanatory depth), observations empiriques (changements de mémoire et de stratégie) et résultats de terrain (expériences sur LLM) : elles justifient des mesures proactives évaluation reconfigurée, formation métacognitive, et intégration réglementée de l’IA pour préserver et stimuler l’autonomie intellectuelle des étudiants.
« L’IA n’est ni ennemie ni solution. C’est notre posture qui détermine son impact. »
Lyvia SERALINE
Professeur EGC Martinique
Professeure à l‘EGC Martinique, Lyvia SERALINE enseigne le marketing, la communication et intervient sur les thématiques d’innovation et de design thinking.
Bibliographie
Ouvrages et essais
- Carr, N. (2011)The Shallows: What the Internet Is Doing to Our Brains. W. W. Norton.
- Kapur, M. (2021) Productive Failure, Routledge
- Levy, P. (1997) Collective Intelligence : Mankind’s Emerging World in Cyberspace. Perseus Books.
- Rose, T. (2016), The End of Average. HarperOne.
Articles scientifiques
- Barr, N., Pennycook, G., et al. (2015) “The Brain in Your Pocket : Smartphone-Induced Reduction of Analytical Thinking”. Computers in Human Behavior.
- Fisher, M., & Keil, F. (2016) “The Illusion of Knowledge in the Age of Google”. Journal of Experimental Psychology: General, 145(6).
- Klarin, J., et al. (2024) « Adolescents’ use and perceived usefulness of generative AI for schoolwork : Exploring their relationships with executive functioning and academic achievement« . Frontiers in Artificial Intelligence.
- Long, D., et al. (2024) “Generative AI and Student Learning : Impacts on Critical Thinking and Cognitive Engagement”. Computers & Education.
- Zhang, Y. (2025)“GPT is all you need”. Frontiers in Psychology.
Rapports institutionnels et analyses
- Bastani, H., et al. (2024), Generative AI can harm learning [rapport de recherche]. Wharton School, Université de Pennsylvanie.
- Lee, H.-P., et al. (2025) The impact of generative AI on critical thinking : Self-reported reductions in cognitive effort and confidence effects from a survey of knowledge workers [communication]. CHI Conference on Human Factors in Computing Systems (CHI ’25), Yokohama, Japon. (disponible sur ACM Digital Library).OCDE (2023)
- AI in Education: Challenges and Opportunities for Learners. OECD Publishing.UNESCO (2023)
- Guidance for Generative AI in Education and Research. UNESCO.
- Bruillard, E. (2023). Intelligence artificielle et éducation : enjeux, risques et perspectives. Paris : CNESCO (Conseil national d’évaluation du système scolaire)
Articles et analyses pédagogiques
- Peraya, D. (2024) “Défi pédagogique : comment préserver la pensée critique face aux agents conversationnels ?” Distance et Médiations des Savoirs.
- Bruffaerts, C. (2023)“L’IA générative en classe: entre opportunité et dérive”. Revue internationale d’éducation de Sèvres.