Réunis lors de la conférence d’ouverture de l’évènement Les Ludoviales, experts internationaux et responsables éducatifs ont dressé un constat sans ambiguïté : l’intelligence artificielle transforme déjà en profondeur l’école, mais son intégration soulève des défis majeurs, entre enjeux pédagogiques, éthiques et sociaux.
Animée par Eric Fourcaud, cette table ronde a rassemblé plusieurs voix clés du secteur éducatif, confrontées à une même urgence : comprendre, encadrer et humaniser l’usage de l’IA en classe.
Autour de la « table », Ilham Laaziz directrice des Ressources Pédagogiques et Numériques au Ministère de l’éducation au Maroc représenté par Smail Kheraz, Mona Laroussi directrice à l’OIF-IFEF avec expertise de management, numérique éducatif, IA, théorie d’apprentissage, sciences de l’éducation etc, au Sénégal, Jean-Marc Merriaux directeur général réseau Mlfmonde, Patrick Hould Coordonnateur, Direction du développement de la culture numérique au Ministère de l’éducation au Québec et Christophe Batier chargé de mission IA à l’Université Lyon1
Les Ludoviales : un événement né de la crise, devenu laboratoire mondial
Présenté par Eric Fourcaud, l’événement, né durant la pandémie de COVID-19, a d’abord accompagné la continuité pédagogique à distance. Il s’est depuis transformé en un espace de réflexion international sur les mutations de l’éducation.
Cette édition rassemble plus de 450 participants issus de plusieurs continents — Afrique, Amérique du Nord, Europe et Moyen-Orient — autour d’un enjeu central : comprendre et encadrer l’essor de l’IA dans les systèmes éducatifs.
Une adoption fulgurante qui dépasse l’institution
Dès l’ouverture, Christophe Batier souligne la vitesse inédite du phénomène : « En deux ans, 100 % de nos étudiants utilisent ces outils-là. Cette cinétique, on ne l’avait jamais vue. »
Une transformation rapide, portée d’abord par les élèves eux-mêmes, qui interroge directement les pratiques pédagogiques. Mais pour l’expert, le risque est clair : « Quand ça fait le job à la place de l’étudiant, l’étudiant ne va pas comprendre ce qu’il fait. »
Au-delà des usages, il alerte également sur les enjeux économiques et politiques de ces technologies : « Aujourd’hui, un compte ChatGPT coûte 500 dollars à entretenir. On est dans une captation de marché. »
Et appelle à une réaction collective :« Supprimer l’IA serait idiot. Mais la laisser dans les mains de quelques-uns, c’est encore plus dangereux. »
Une adoption massive qui soulève donc plusieurs alertes :
- coûts économiques réels souvent invisibles pour les utilisateurs,
- enjeux de souveraineté, face à la concentration des technologies,
- impact écologique et cognitif encore mal mesuré.
Face à ces défis, il plaide pour le développement de communs numériques et d’IA souveraines, capables de garantir une utilisation plus responsable et maîtrisée.
Une « révolution abyssale » pour l’acte pédagogique

Pour Jean-Marc Merriaux, directeur général du réseau d’établissements français à l’étranger, l’impact de l’IA dépasse largement les outils : « La question de l’IA vient interroger l’acte pédagogique en tant que tel. C’est une question abyssale. »
Face à cette transformation, il appelle à un retour aux fondamentaux de l’éducation : « Le premier principe, c’est la primauté de l’humain. L’IA doit être un outil au service de l’enseignant. »
Dans un contexte international marqué par des systèmes éducatifs variés, il insiste également sur les compétences à développer, comme renforcer la pensée algorithmique et la culture statistique pour comprendre l’IA.
Il met en garde contre les risques d’inégalités :« Certaines familles pourront payer ces outils, d’autres non. Cela peut créer une nouvelle fracture éducative. »
Au cœur des préoccupations de Jean-Marc Merriaux, entre autres, sont la pensée critique, l’interaction humaine et la responsabilité éthique.
Former avant d’équiper : la voie du Québec

Du côté nord-américain, Patrick Hould défend une approche progressive et encadrée de l’IA : « l’un des premiers principes, c’est vraiment une utilisation responsable de l’intelligence artificielle. »
Dans cette stratégie, la priorité est donnée à la formation des enseignants qui doivent être accompagnés avant de déployer les outils auprès des élèves.
Le modèle québécois repose également sur une forte autonomie locale, tout en garantissant un cadre éthique et juridique clair, notamment en matière de protection des données et d’évaluation.
L’approche québécoise repose sur des cadres éthiques, juridiques et pédagogiques clairs, une protection renforcée des données des élèves et une autonomie laissée aux établissements pour adapter les usages.
En Afrique francophone, le défi de l’accès et des usages

Pour Mona Laroussi, l’intégration de l’IA ne peut être pensée sans prendre en compte les réalités de terrain : « La fracture numérique et les problèmes de connectivité compliquent fortement l’accès à l’IA. »
Elle souligne également les défis liés à la formation des enseignants car l’évolution extrêmement rapide des outils rend difficile une formation cohérente et durable.
Au-delà des infrastructures, elle interroge les modèles pédagogiques : « La personnalisation totale des apprentissages pose question. Les élèves doivent aussi affronter des situations réelles. »
Elle alerte également sur les limites d’une personnalisation excessive des apprentissages et défend le recours à des évaluations orales, plus à même de mesurer les compétences réelles.
Le Maroc mise sur souveraineté et équité
Représenté par Smail Kheraz, le Maroc déploie une stratégie ambitieuse articulée autour de l’infrastructure et de l’égalité d’accès : « Nous investissons dans des infrastructures solides pour garantir la souveraineté de nos données. »
Face aux inégalités territoriales et aux défis de connectivité, le pays développe également des solutions innovantes, comme des classes déconnectées ou des outils accessibles hors ligne.
Enfin, le pays met au point des outils nationaux et des référentiels de compétences pour accompagner les enseignants dans l’appropriation de l’IA.
Au Maroc et dans plusieurs pays d’Afrique francophone, les enjeux sont à la fois technologiques et structurels. Ainsi, des initiatives ambitieuses voient le jour :
- Programme Jazari : création d’infrastructures de données pour assurer une autonomie technologique
- Classes déconnectées : accès à des contenus sans connexion Internet (serveurs locaux avec contenu préchargé)
- Zero Rating : gratuité d’accès à certaines ressources éducatives
Ces solutions témoignent d’une volonté forte d’éviter une dépendance aux grandes entreprises privées et de réduire la fracture numérique.
Une vigilance commune : ne pas creuser les inégalités
Au fil des échanges, un consensus s’est dégagé : si l’IA ouvre des perspectives inédites — notamment en matière de différenciation pédagogique — elle comporte aussi des risques importants.
Parmi eux :
- le renforcement des inégalités sociales,
- une dépendance accrue aux outils technologiques,
- ou encore une illusion de gain de temps pour les enseignants.
Tous s’accordent sur un point : l’intégration de l’IA doit rester centrée sur l’humain, encadrée par des principes éthiques solides et accompagnée d’une formation continue.
Une transformation à construire collectivement
Loin des discours technophiles ou alarmistes, la conférence d’ouverture des Ludoviales a esquissé une voie médiane : celle d’une intégration réfléchie, contextualisée et progressive de l’intelligence artificielle.
Un chantier global, qui suppose un dialogue constant entre acteurs éducatifs, une adaptation aux contextes locaux et une vigilance accrue face aux effets sociaux des technologies.
Une transformation à encadrer pour rester humaine
En filigrane de tous les échanges, une conviction commune se dessine : l’IA ne doit pas dicter l’éducation, mais être intégrée dans un cadre maîtrisé.
Comme le résume Eric Fourcaud, « on a connu plusieurs révolutions numériques, mais celle-ci touche à la fois la classe, les enseignants et la société tout entière. »
Et pose une question centrale :« Quelle place donner à l’IA dans la classe aujourd’hui ? »
Une interrogation qui dépasse les frontières et appelle une réponse collective, où l’éthique, la formation et l’humain resteront les piliers d’une éducation adaptée à l’ère de l’intelligence artificielle.
Plus d’infos :
Des cadres de référence et des dispositifs structurés :
- Au Québec, le cadre de référence de la compétence numérique est en cours d’actualisation pour intégrer l’IA générative.
- Au Maroc, le dispositif JawazTICE (un « passeport numérique ») a été mis en place avec l’UNESCO; il s’appuie sur un référentiel de compétences spécifique pour qualifier les enseignants à un usage responsable des technologies.
- L’IFEF a développé des micromodules d’apprentissage (MMA) de courte durée (1h30 à 2h) pour faciliter une montée en compétence rapide.





