À Spa, une discussion franche sur un sujet brûlant !
À l’occasion de LUDOVIA#BE, à Spa, une table ronde réunissant Christophe Batier, Université Lyon 1 et Jeff Van de Poël, Université de Lausanne, UNIL, a permis d’aborder, sans détours, les enjeux majeurs que pose aujourd’hui l’intelligence artificielle dans l’éducation. Au-delà du « buzz », les deux chercheurs rappellent que l’IA générative transforme profondément notre rapport au savoir, les pratiques pédagogiques, l’accès à l’information… mais aussi les équilibres économiques et démocratiques.
L’IA n’est pas une mode : une rupture dans l’histoire du rapport au savoir
Pour Jeff Van de Poël, l’IA ne peut pas être qualifiée de “tendance” : elle s’inscrit dans la continuité de grandes ruptures historiques du rapport au savoir — après le livre et internet.
La nouveauté ?
👉 L’IA ne se contente plus de fournir une information : elle la produit, la reformule, la personnalise, en continu et à la demande.
C’est une nouvelle dynamique d’apprentissage : une sorte de “professeur accessible 24/24”, potentiellement puissant, mais qui change la nature de la relation entre apprenant et connaissance.
Des outils puissants… mais concentrés entre quelques acteurs privés
Christophe Batier insiste sur une évolution majeure : contrairement au web originel, fondé sur une culture de partage, d’égalité technique et de communs, l’IA générative est dominée par une poignée d’acteurs capables d’investir des milliards dans les infrastructures comme Musk, Zuckerberg, Bezos, Altman pour ne citer qu’eux.
➡️ Une situation qui pose la question de la gouvernance, de la transparence et surtout… de l’indépendance des systèmes éducatifs face à des modèles économiques de captation.
Les universités tentent de reprendre la main via des serveurs d’inférence internes, permettant de garder le contrôle sur les données, mais la route reste longue.
Information vs. savoir : le risque d’un brouillage critique
La table ronde insiste sur une distinction essentielle :
- le savoir → issu de sources vérifiées, pérennes
- l’information → volatile, récente, parfois douteuse
Une étude citée (400 recherches testées) montre que 45% des résultats sur l’actualité générés par IA comportent des erreurs.
➡️ Le danger n’est pas tant que les IA se trompent — les humains aussi — mais qu’elles le fassent de manière très convaincante, dans une forme impeccable qui désactive la vigilance critique.
S’ajoute un second problème :
👉 l’IA génère du contenu… qui sert ensuite à entraîner de nouvelles IA, créant un cycle d’auto-référence qui risque d’appauvrir la qualité globale du web.
Le rôle clé de la régulation : l’espoir européen
Pour les deux intervenants, la solution passe par une gouvernance solide. L’Europe tente d’y répondre avec l’AI Act, visant à imposer la transparence sur les jeux de données, la traçabilité des algorithmes et des obligations pour utiliser ces modèles sur le sol européen.
Une tentative unique dans le monde — parfois critiquée, mais indispensable pour éviter une dérive totale vers des systèmes opaques.
Vers des IA “propres” et universitaires ? Une utopie possible
Peut-on imaginer une IA équivalente à Wikipédia, construite selon des valeurs scientifiques, ouvertes, vérifiées ?
Selon les deux chercheurs : oui, mais pas sans obstacles.
Deux pistes émergent :
L’approche via les enseignants
Les enseignants peuvent déjà :
- créer leurs propres chatbots disciplinaires
- alimenter des IA avec des corpus qu’ils choisissent
- contrôler la qualité des sources et limiter les biais
Des outils comme NotebookLM rendent ces usages accessibles dès maintenant.
L’approche via la communauté scientifique
Certains pays avancent déjà comme les Pays-Bas et des initiatives type Mistral en Europe.
L’idée : mutualiser des serveurs, financer des projets sur plusieurs disciplines, et produire des IA fiables basées sur des savoirs certifiés.
👉 Une coopération complexe à mettre en œuvre, mais dont les experts estiment qu’elle pourrait devenir réalité en quelques années.
Conclusion : un horizon partagé, mais un chemin exigeant
La table ronde se clôt sur un constat commun :
- L’IA en éducation est une opportunité majeure pour démocratiser le savoir.
- C’est aussi un terrain fragile, soumis à des enjeux économiques colossaux, des risques de désinformation et une explosion de contenus non fiables.
- La communauté éducative et scientifique doit agir, à la fois localement et collectivement, pour bâtir des outils de confiance.
Avec humour, les intervenants concluent que « la solution existe »… mais qu’elle demandera patience, vigilance et coopération — et peut-être une bière pour continuer la discussion 😉.
Revoir toutes les tables rondes et articles de synthèse réalisé à l’occasion de LUDOVIA#BE, c’est ici www.ludomag.com/tag/ludoviabe



