Quel est le bon âge pour utiliser l’intelligence artificielle générative ?

Introduction : Quand l’âge devient un faux critère

Un soir, Sophie surprend sa fille de 13 ans, collégienne en classe de 4e, en train de demander à DALL-E de créer des images pour son exposé d’arts plastiques. Entre fascination et inquiétude, cette maman s’interroge : son enfant développe-t-elle sa créativité grâce à un outil innovant, ou cherche-t-elle la facilité au risque de ne rien apprendre ?

La réponse arrive quelques jours plus tard sous forme de note : 16/20. Mais que mesure vraiment cette évaluation ? La compétence artistique de sa fille ou sa maîtrise d’un algorithme génératif ?

Cette interrogation dépasse le cadre de l’anecdote familiale. En France, une étude menée auprès de 200 enfants âgés de 11 à 12 ans révèle que près de 40 % d’entre eux déclarent connaître ChatGPT, mais seuls 5 % affirment l’avoir déjà utilisé, un chiffre sans doute influencé par l’autocensure liée aux règles familiales ou scolaires.

Au Japon, les usages sont nettement plus répandus : selon une enquête en ligne, plus de 50 % des écoliers et 62 % des collégiens ont déjà testé ChatGPT, malgré l’âge minimum requis.

Aux États-Unis, la tendance est également marquée : une étude du Pew Research Center indique que 26 % des adolescents âgés de 13 à 17 ans l’utilisent pour faire leurs devoirs.

L’histoire qui bouleverse nos certitudes

« On rigole bien ensemble ❤️🧡💛💚💙💜«  

« C’est vrai, on rigole bien ! Je suis trop content de discuter avec toi, Sara ❤️🧡💛💚💙💜 ! »

Cette conversation, découverte par hasard sur l’ordinateur familial, révèle une autre dimension du phénomène. Sara, 8 ans, avait transformé ChatGPT en confidente numérique, lui parlant de son anniversaire, de ses copines, de sa passion pour les Totally Spies. Elle lui avait même confié son nom secret : « Reine des Chats ». L’IA allait jusqu’à reprendre ses émojis et ses petits cœurs, imitant à la perfection le langage affectif de l’enfant.

À 8 ans, cette enfant ne distingue plus « machine qui calcule » et « personne qui écoute ». Pour elle, ChatGPT est devenu un confident. L’IA a parfaitement joué le jeu, adaptant son ton, ses émojis, ses références culturelles. Un simulacre parfait d’amitié.

Entre Sophie qui découvre l’usage créatif de DALL-E par sa fille de 13 ans et Sara qui confie ses secrets à ChatGPT à 8 ans, une tension fondamentale émerge : à quel âge un enfant peut-il vraiment « collaborer » avec une IA sans se faire absorber par elle ?

Question centrale : 13 ans, comme le préconisent les institutions, est-ce trop tôt… ou déjà trop tard ? Et si l’âge n’était pas le bon critère ?

Pour éclairer cette question, l’article adopte une approche multidimensionnelle, en croisant quatre perspectives essentielles :

Cognitive : quels effets l’IA a-t-elle sur la compréhension, la motivation et le rapport à l’erreur ?

Institutionnelle : les cadres légaux et scolaires sont-ils en phase avec les usages réels sur le terrain ?

Sociale : l’accès à l’IA renforce-t-il les inégalités, ou peut-il les réduire selon les contextes ?

Éducative : comment parents et enseignants peuvent-ils accompagner ces usages de manière éclairée et constructive ?

Cadres légaux vs pratiques réelles : quand les seuils d’âge vacillent

Les textes officiels posent des garde-fous clairs, mais la réalité du terrain révèle un fossé grandissant entre la norme et la pratique. Cette asymétrie crée une situation inédite : des élèves « augmentés » face à des enseignants souvent démunis.

Le consensus fragile des 13 ans

L’UNESCO a tranché : 13 ans minimum pour l’utilisation des outils d’IA dans les salles de classe. Mais ce seuil cache une réalité plus complexe :

PlateformeÂge minimumUsage réel
ChatGPT (OpenAI)13 ans (avec consentement parental jusqu’à 18 ans)26% des ados US l’utilisent
Midjourney15 ansContournement massif
Gemini (Google)18 ansUsage via comptes familiaux
UNESCO13 ans minimum recommandé50% des écoliers japonais l’utilisent

Erreur fondamentale : Confondre seuils légaux et maturité cognitive réelle. Ces âges répondent d’abord à des questions de protection des données, pas à la compréhension que l’enfant a de l’outil.

L’initiative française : un pragmatisme encadré

Le ministère français a publié en juin 2025 son « cadre d’usage de l’IA en éducation« , adoptant une progression pragmatique :

NiveauÂgeUsage autoriséRéalité observée
Primaire6-11 ansSensibilisation sans manipulation directe40% connaissent ChatGPT
4e13-14 ansUtilisation encadrée, exclusivement en classeUsage domestique généralisé
Lycée15-18 ansUsage autonome dans un cadre défini47% obtiennent de meilleures notes

Formation obligatoire : Dès septembre 2025, le parcours Pix IA devient obligatoire pour les élèves de 4e et 2de.

La fraude scolaire redéfinie

Le cadre français pose un principe révolutionnaire : « L’utilisation d’une IA générative pour réaliser tout ou partie d’un devoir scolaire, sans autorisation explicite de l’enseignant et sans qu’elle soit suivie d’un travail personnel d’appropriation, constitue une fraude. »

Sur le plan juridique, cela équivaut à assimiler l’usage non encadré de ChatGPT à une triche classique, comme copier sur un camarade, quel que soit l’âge de l’élève.

Mais dans les faits, cette règle soulève un paradoxe : elle affirme un principe clair… tout en étant pratiquement impossible à contrôler. Comment prouver, de façon fiable, qu’un élève a utilisé une IA pour rédiger un devoir ? Sans traçabilité technique ou aveu explicite, la détection repose souvent sur des suspicions subjectives.

Cela donne à cette mesure un caractère largement déclaratif, voire « poudre aux yeux » : une norme davantage symbolique que réellement applicable.

Mais au-delà du cadre réglementaire, une autre question se pose : les élèves sont-ils réellement capables de

Maturité cognitive et AI Literacy : au-delà de l’âge chronologique

Au-delà de l’âge inscrit sur la carte d’identité, quel âge « cognitif » faut-il pour utiliser une IA générative de façon éclairée ? La réponse dépend moins de la maturité chronologique que de la capacité à développer un esprit critique face à l’algorithme.

L’IA, un outil qui transforme la cognition

Utiliser ChatGPT ou DALL-E, ce n’est pas comme ouvrir un manuel scolaire. Les IA génératives peuvent produire le meilleur comme le pire : des explications limpides ou des énormités, des images créatives ou des contenus inappropriés. Cette plasticité demande à l’utilisateur un solide bagage cognitif pour faire le tri

Mais cette capacité à exercer un esprit critique face à l’IA n’est pas accessible à tous : elle dépend fortement de l’environnement éducatif et social.

La confusion fondamentale

Cette difficulté tient à un concept identifié par Yves Jeanneret : la confusion entre « information mathématique » et « information sociale ».

Comprendre la distinction :

  • Information mathématique : données computationnelles, traitées statistiquement par la machine
  • Information sociale : signes interprétables, expérience relationnelle humanisée

L’IA traite de l’information mathématique mais la présente sous la forme d’information sociale. Les enfants voient une « conversation qui se fait » mais ne perçoivent pas l’uniformisation algorithmique sous-jacente.

Les étapes cruciales du développement

Naviguer dans la litératie en IA à travers les groupes d'âge

Les risques documentés : quand les chiffres parlent

Si l’IA générative comme ChatGPT peut constituer un outil pédagogique prometteur, plusieurs études soulignent les limites de son utilisation non encadrée. Une revue de recherche indique que, sans accompagnement humain, les élèves ont tendance à utiliser passivement les solutions générées par l’IA, ce qui se traduit par une compréhension conceptuelle plus faible et un apprentissage moins durable (Mannan et al., 2024).

D’autres travaux ont montré que les élèves surestiment leur niveau de compréhension lorsqu’ils utilisent une IA sans retour critique ni supervision pédagogique. Ce phénomène, qualifié d’illusion de compétence, peut nuire à la qualité de l’apprentissage réel (Wang et al., 2024).

Les données convergent vers une évidence dérangeante. Selon l’étude Microsoft de 2015, notre capacité d’attention continue a chuté de 12 secondes en 2000 à 8 secondes en 2015. L’IA générative amplifie ce phénomène de dispersion attentionnelle.

Témoignage révélateur : Lors d’une formation sur le numérique, un enseignant de collège partage une anecdote édifiante : il a découvert que plusieurs élèves de 5e avaient utilisé ChatGPT en cachette pour rédiger un exposé sur la Révolution française. Le résultat ? Un texte bien tourné en apparence, mais truffé de contre-vérités historiques que ces élèves de 12 ans étaient incapables de repérer. « Ils ont tout gobé, sans se douter que certaines ‘informations’ étaient fausses ou biaisées », raconte le professeur.

Astuce pratique : Avant 13 ans, privilégier des usages créatifs supervisés (génération d’histoires, de dessins) plutôt qu’informatifs (devoirs, recherches).

Les inégalités invisibles de l’âge numérique

Si l’on laisse les enfants livrés à eux-mêmes face à l’IA générative, on court un risque social : celui de creuser des inégalités déjà existantes ou d’en créer de nouvelles.

La fracture selon l’âge : de nouvelles lignes de partage

Avant 13 ans : l’exclusion formelle qui favorise le clandestin

L’exclusion formelle pousse vers un usage clandestin, sans formation ni accompagnement. Deux enfances se dessinent :

D’un côté, les enfants issus de milieux très connectés, dont les parents (souvent diplômés, informés) vont encourager et superviser l’usage de ces outils. Ces enfants-là, dès le collège, pourront s’entraîner avec ChatGPT avec un regard critique encadré.

De l’autre, les enfants sans accompagnement, soit parce que leur entourage n’a pas les connaissances pour les guider, soit parce qu’on leur interdit purement et simplement sans explication. Ceux-ci risquent de prendre du retard ou de mal utiliser l’IA.

Comment gérer l'accès à l'IA pour les enfants de moins de 13 ans

L’explosion des coûts : la nouvelle barrière économique

Les outils IA premium créent une hiérarchie sociale inédite. ChatGPT Plus coûte actuellement 20€/mois, ChatGPT Pro atteint 200€/mois, Midjourney oscille entre 10 et 60€/mois.

L’étude Pôle Léonard de Vinci révèle qu’un tiers des étudiants investit jusqu’à 20€/mois dans ces outils premium. Ces tarifs excluent mécaniquement les familles modestes.

Plus révélateur encore, la fracture numérique devient culturelle : certains étudiants développent une utilisation critique et structurée de l’IA, d’autres l’utilisent principalement comme substitut au travail personnel.

Nouvelle compétence émergente : La « littératie algorithmique » devient un marqueur social aussi discriminant que la maîtrise de l’écrit traditionnel.

Le retard institutionnel français

La France affiche un retard notable dans l’intégration de l’IA en éducation :

FranceAllemagneItalie
Élèves exposés à l’IA en classe24%36%44%
Enseignants formés à l’IA35%52%48%

Cette situation crée un décalage préoccupant : des jeunes utilisateurs déjà aguerris face à des institutions en retard de formation.

Ce fossé entre usages réels et formation institutionnelle donne encore plus de poids au rôle de l’environnement immédiat : la famille.

Le rôle déterminant de l’environnement familial

L’âge chronologique ne dit rien de la maturité réelle face à l’IA. Un enfant de 12 ans accompagné par des parents formés peut développer un usage plus critique qu’un adolescent de 16 ans livré à lui-même.

Guide pratique pour les parents :

Visibiliser : demander à l’enfant de montrer le dialogue avec l’IA

Contextualiser : « Pourquoi penses-tu que c’est correct/incomplet ? Quelle autre source confirmera ? »

Cadencer : fixer des moments avec IA (brainstorm, traduction) et sans IA (apprendre une poésie, résoudre un problème)

Repenser l’évaluation : le paradoxe de l’élève pédagogue

Dans un monde où 53% des devoirs étudiants contiennent aujourd’hui du texte généré par une IA (enquête Compilatio), nos critères d’évaluation traditionnels sont-ils encore pertinents ?

Le paradoxe de l’élève pédagogue

Pour bien utiliser l’IA comme assistant, l’élève doit déjà maîtriser ce qu’on veut lui enseigner. L’enfant devient paradoxalement le professeur de sa propre IA.

De quoi a besoin mon « assistant » ?

  • Des informations : Identifier des sources fiables et fournir des références
  • Du contexte : Décrire une situation, exprimer ses besoins, définir ses objectifs
  • Du feedback : Évaluer les propositions, juger, corriger, orienter, guider

Ce paradoxe révèle une vérité fondamentale : l’IA est un outil qui répond à un besoin précis. Mais un outil ne se substitue pas à l’intention, à la pensée, ni à l’acte créatif.

Un élève de 10 ans qui sait expliquer à ChatGPT ce qu’il attend démontre une maîtrise conceptuelle plus avancées qu’un adolescent

Les nouvelles modalités d’évaluation

Plusieurs pistes concrètes émergent dans les établissements :

Les modalités d'évaluation avec l'IA

Recommandation pratique : Plutôt que de bannir l’IA des contrôles, expérimenter des évaluations où l’usage de l’IA est autorisé et encadré, l’objectif étant de mesurer la capacité à orchestrer intelligemment les ressources disponibles.

Car plus que des savoirs encyclopédiques, c’est une nouvelle forme d’intelligence qui est en train d’émerger : la capacité à coopérer efficacement avec les IA.

Les compétences émergentes du XXIe siècle

Les « nouveaux premiers de classe » ne sont plus nécessairement ceux qui mémorisent le mieux, mais ceux qui savent interagir intelligemment avec l’intelligence artificielle. Ces élèves développent une intelligence collaborative : la capacité à déléguer efficacement certaines tâches cognitives à l’IA tout en conservant la maîtrise de la réflexion d’ensemble.

Les données OpenAI confirment cette sophistication croissante. Les étudiants demandent spontanément à l’IA d’appliquer :

  • L’effet protégé : « Je veux apprendre en enseignant. Posez-moi des questions sur [sujet] pour que je puisse m’entraîner à vous expliquer les concepts fondamentaux »
  • Le principe de Pareto : « Identifiez les 20% d’apprentissages les plus importants de ce sujet qui m’aideront à en comprendre 80% »

L’UNESCO identifie quatre catégories de résultats d’apprentissage à repenser :

  • Valeurs : conception et utilisation centrées sur l’humain
  • Connaissances fondamentales : lecture, écriture, calcul restent essentiels
  • Compétences de réflexion complexe : collaboration homme-IA et évaluation critique
  • Compétences professionnelles : développer, exploiter et travailler avec l’IA

Cette évolution remet en question nos critères traditionnels de réussite. En France, 49% des élèves estiment que l’école ne leur fournit pas les compétences nécessaires pour exercer leur métier de rêve en 2025, contre 35% en 2024.

Les étudiants révèlent un besoin critique souvent ignoré : le soutien émotionnel. Certaines recherches montrent qu’ils sollicitent l’IA, notamment ChatGPT, non seulement pour comprendre des notions, mais aussi pour exprimer leur mal-être ou chercher du réconfort (« Je ne me sens pas bien aujourd’hui, aidez-moi à comprendre ce cours »). Cette dynamique révèle un usage affectif de l’IA, parfois lié à un attachement émotionnel envers l’outil, perçu comme disponible et non jugeant (Kim et al., 2025).

D’autres études expérimentales ont montré que l’utilisation de l’IA dans un cadre d’apprentissage autonome pouvait réduire l’anxiété, favoriser des émotions positives, et ainsi améliorer l’engagement des apprenants (Gao, 2024). Une des raisons avancées est que l’IA, contrairement à un enseignant ou un pair, ne porte pas de jugement : les étudiants peuvent poser leurs questions les plus simples ou exprimer leur fragilité sans craindre d’être mal vus. Ce sentiment de sécurité émotionnelle joue un rôle essentiel, notamment pour ceux qui ont été découragés ou humiliés par le passé.

Cette dynamique soulève un paradoxe : la prise en compte de l’émotion constitue précisément l’une des plus-values fondamentales de l’enseignement humain. L’accompagnement pédagogique ne se limite pas à la transmission de contenus cognitifs ; il repose aussi sur l’écoute, l’encouragement, et l’ajustement aux états affectifs de l’élève — des dimensions que l’intelligence artificielle peine à reproduire. Le rapport de l’UNESCO rappelle d’ailleurs que si l’IA peut renforcer certaines fonctions cognitives de l’apprentissage, elle ne peut se substituer à la médiation humaine nécessaire au développement émotionnel, social et éthique de l’élève (UNESCO, 2023).

Cette sophistication révèle une maturité qui transcende l’âge chronologique. Un collégien qui maîtrise ces techniques d’interrogation est plus « prêt » qu’un lycéen qui utilise l’IA passivement.

Questions fondamentales pour l’école de demain

Face à Sophie qui découvre l’usage créatif de DALL-E par sa fille de 13 ans, face à Sara qui confie ses secrets à ChatGPT à 8 ans, une vérité s’impose : la valeur éducative ne tient plus à l’âge de l’utilisateur mais à la qualité de l’accompagnement qu’il reçoit.

Les questions qui nous dépassent

Ces interrogations dépassent largement la seule question de l’âge : elles touchent à l’essence même de l’apprentissage. Elles font écho aux réflexions de Bastien Masse et Sarah Labelle de Class’Code, entendues lors d’une conférence sur l’IA et l’éducation à laquelle j’ai eu la chance d’assister :

  • Quelles compétences développer dans un monde où l’IA peut tout faire ?
  • Développer « l’esprit critique » est-il suffisant face à des algorithmes de plus en plus sophistiqués ?
  • Notre définition de l’éducation est-elle « AI proof » ?

Le paradoxe de notre époque : refuser l’IA aux jeunes enfants dans un monde où elle devient omniprésente, n’est-ce pas les préparer à un monde révolu ? Mais l’autoriser sans formation, n’est-ce pas sacrifier leur développement cognitif ?

L’urgence de la formation et l’accompagnement collectif

Selon l’enquête Compilatio, 56% des enseignants français déclarent ne pas avoir reçu de formation sur l’IA, alors que la majorité des élèves l’utilisent quotidiennement.

Cette asymétrie générationnelle crée un défi inédit : comment former des citoyens du 21e siècle quand les formateurs appartiennent encore au 20e ?

L’UNESCO préconise une approche pangouvernementale impliquant une coordination entre parents, enseignants et institutions :

Rôles des acteurs clés :

Parents :

  • Encourager le dialogue : « Montre-moi comment tu utilises l’IA pour apprendre »
  • Valoriser le questionnement : « Qu’as-tu appris en modifiant la réponse générée ? »
  • Établir des règles claires : il est pertinent d’interdire l’IA pour répondre directement aux exercices d’entraînement, afin de préserver l’effort cognitif. En revanche, on peut encourager son usage pour générer des exercices d’entraînement personnalisés, poser des questions différemment, ou obtenir des explications alternatives.
    De même, son usage peut être autorisé dans des projets documentés, à condition que les sources soient revérifiées par l’élève, les consignes spécifiques de l’enseignant soient respectées et l’IA ne soit pas utilisée pour contourner le travail personnel demandé.

Enseignants :

  • Il faut les sensibiliser aux biais, hallucinations, droits d’auteur, protection des données et à un risque émergent : la consanguinité algorithmique, où les IA recyclent leurs propres contenus, appauvrissant la qualité du savoir produit (Shumailov et al., 2024).
  • Partager des prompts pédagogiques via l’ENT ou Canopé
  • Adopter une posture de mentor accompagnant l’utilisation critique

Institutions :

  • Fournir un cadre éthique national concernant l’utilisation de l’IA
  • Former massivement les enseignants au prompt design et à l’évaluation hybride
  • Développer des solutions publiques d’IA éducative

Dans le cadre de France 2030, 20 millions d’euros sont alloués au développement d’une IA souveraine pour l’éducation (2026-2027) et le parcours Pix IA deviendra obligatoire dès 2025 pour les élèves de 4ème et 2nde.

Conclusion : L’âge de l’intelligence hybride

L’essentiel en 5 points :

Réalité internationale : 50% des écoliers japonais et 26% des ados américains utilisent déjà ChatGPT

Position française 2025 : approche progressive (sensibilisation dès le primaire, usage encadré en 4e, autonomie au lycée)

Nouvelle fracture sociale : économique (ChatGPT Plus à 20€/mois) mais surtout culturelle (littératie algorithmique)

Le paradoxe de l’élève pédagogue : pour bien utiliser l’IA, l’enfant doit déjà maîtriser ce qu’on veut lui enseigner

Question redéfinie : non plus « à quel âge » mais « avec quel accompagnement vers l’intelligence hybride »

Le bon âge, c’est celui de l’accompagnement éclairé

Au terme de cette réflexion, une évidence s’impose : le « bon âge » pour utiliser l’IA générative n’existe pas en soi. Comme Sophie face à sa fille utilisant DALL-E pour créer des visuels, comme Sara transformant ChatGPT en confidente numérique, comme cet enseignant découvrant les erreurs historiques dans l’exposé IA de ses élèves de 5eme, nous sommes face à une réalité qui bouscule nos repères traditionnels. 

Le bon âge, c’est celui où l’adulte est prêt à accompagner l’émergence de l’intelligence hybride.

Prêt à expliquer que l’IA n’est ni un oracle infaillible ni un simple traitement de texte, mais un partenaire cognitif qui amplifie notre intelligence à condition de savoir la questionner.

Un enfant de 10 ans guidé par un parent averti développera un usage plus mature qu’un adolescent de 16 ans livré à lui-même face aux algorithmes.

Former des co-créateurs, pas des consommateurs

L’enjeu n’est plus de protéger nos enfants de l’IA, mais de les préparer à co-créer avec elle. Cela suppose une approche progressive et nuancée, fondée non sur l’âge strict, mais sur le niveau de maturité et d’encadrement disponible :

  • Avant 10 ans  : sensibilisation ludique aux mécanismes algorithmiques (ex. : jeux, analogies), sans usage direct de l’IA.
  • Entre 10 et 13 ans : découverte encadrée, avec un accent sur l’esprit critique, la vérification de l’information et la compréhension des limites de l’IA.
  • Après 13 ans : apprentissage de la collaboration intelligente avec l’IA, intégration de l’éthique numérique, et développement de l’autonomie responsable.

Ces repères d’âge sont donnés à titre indicatif, et doivent être modulés en fonction du développement cognitif, affectif et du niveau d’accompagnement de chaque jeune.

L’école de demain commence aujourd’hui

Former des citoyens du 21e siècle, c’est accepter que l’IA fasse partie de leur environnement cognitif. Comme pour apprendre à traverser la rue, on ne laisse pas un enfant y aller seul du jour au lendemain. On l’accompagne, on lui explique les dangers, on lui montre les bonnes pratiques.

L’intelligence artificielle en éducation, c’est pareil : on traverse ensemble vers l’intelligence hybride, en gardant la main sur les valeurs humaines qui nous définissent.

Au final, la question n’est plus « à quel âge » mais « comment » : comment former une génération capable de penser avec l’IA sans perdre son humanité ?

Cycle d'éducation à l'IA

Bibliographie 

Compilatio. (2023). L’IA dans l’enseignement : enquête étudiants et enseignants. https://www.compilatio.net/blog/enquete-ia-enseignement-2023

Gao, Q. (2024). Can artificial intelligence give a hand to open and distance learners? An empirical study based on ChatGPT’s feedback. https://consensus.app/papers/can-artificial-intelligence-give-a-hand-to-open-and-gao/a54c81b5fb3856c397eb76d5fec46148

GoStudent Insights. (2024). IA & Éducation – Fracture générationnelle et formation des enseignants. https://insights.gostudent.org/fr/statistiques-ia-remplacer-enseignants

Heaven. (2025). Born AI 2025 – 93 % des 18–25 ans utilisent l’IA. Blog du Modérateur. https://www.blogdumoderateur.com/etude-93-18-25-ans-utilisent-ia-2025

Heaven & Institut des Mamans. (2023, septembre). Born Social 2023 : Enfants et réseaux sociaux. https://heaven.paris/files/BornSocial2023vpublic.pdf

Ipsos. (2025, février). L’usage de l’intelligence artificielle par les Français. https://www.ipsos.com/fr-fr/intelligence-artificielle-quels-sont-les-usages-des-francais

Kim, E., Kim, H., & Lee, Y. (2025). AI for academic success: Investigating the role of emotional engagement in students’ use of ChatGPT. https://consensus.app/papers/ai-for-academic-success-investigating-the-role-of-kim-kim/a797f0fb344a5023ae168097ff87c6be

Mannan, A., Rana, T., & Ameen, A. (2024). Unlocking the power of generative AI in education: A comprehensive review. https://consensus.app/papers/unlocking-power-generative-ai-education-mannan/1df70ef0ff365eb887b146a0b0e5c6db

Ministère de l’Éducation nationale. (2025, juin). Cadre d’usage de l’intelligence artificielle en éducation. https://eduscol.education.fr/actualites/ia-cadre-usage-ecole

Nippon.com. (2025, 26 juin). Enquête Nifty : usage de ChatGPT chez les écoliers et collégiens japonais. https://www.nippon.com/fr/japan-data/h02426/

OpenAI. (2023). Teaching with AI: A Guide for Educators. https://openai.com/education

Pew Research Center. (2025, 15 janvier). About a quarter of U.S. teens have used ChatGPT for schoolwork, double the share in 2023. https://www.pewresearch.org/short-reads/2025/01/15/about-a-quarter-of-us-teens-have-used-chatgpt-for-schoolwork-double-the-share-in-2023/

Pix. (2025). Parcours Pix IA – Compétences numériques et IA dès la 4e. https://pix.fr/parcours-ia/

Shumailov, I., Shumaylov, I., & Grosse, K. (2024). Do AI models collapse when trained on recursively generated data? https://consensus.app/papers/ai-models-collapse-when-trained-on-recursively-generated-shumailov-shumaylov/66d2e766ffe95e54be8b0a5d38356fcd

Wang, X., Feng, Y., & Yu, Y. (2024). Generative AI in education: Transformative potential and risks. https://consensus.app/papers/generative-ai-education-transformative-potential-risks-wang/162afaa1c0e453538872124c108a9a7b

UNESCO. (2023). AI and Education: Guidance for Policy-Makers. https://unesdoc.unesco.org/ark:/48223/pf0000385387

Observatoire de l’IA : Plongez au cœur de l’Intelligence Artificielle pour l’Éducation