Ce hackathon, organisé par Orpheus Lummis et AI Safety Montreal, Ethics, and Governance s’est tenu à Montréal du 20 au 22 mars. Il s’inscrit dans un champ de recherche émergent : le contrôle de l’intelligence artificielle, devenu crucial à mesure que ces technologies prennent une place croissante dans nos sociétés.
Pour moi, cet événement a été un déclencheur. Quels savoirs, quelles compétences transmettre aux jeunes de 6 à 13 ans, qui grandiront dans un monde façonné par l’IA ? Comment les aider à comprendre, questionner, encadrer ces technologies et cohabiter avec elles de manière éclairée ? Cette question appelle à repenser l’enseignement.
Pour faciliter la lecture, ce compte rendu est structuré en deux parties complémentaires :
- une première, brève et accessible ;
- une seconde, composée de notes pour approfondir est présentée dans un document PDF à la fin du texte.
Chaque thème et sous-thème peut être lu séparément grâce à des sous-titres clairs.
Thèmes abordés :
- L’IA aujourd’hui : de quoi parle-t-on ?
- Le contrôle de l’intelligence artificielle
- L’impact de l’IA sur l’éducation
- Préparer les enfants d’aujourd’hui au monde de demain
- PS Les IA génératives comme assistants à la rédaction
L’IA aujourd’hui : de quoi parle-t-on ?
L’intelligence artificielle (IA) désigne des programmes capables d’apprendre à partir de données. Contrairement aux logiciels classiques, elle analyse l’information, repère des régularités et fait des prédictions. On peut la voir comme un ensemble de systèmes adaptatifs, aux usages variés — d’où l’idée qu’il existe plusieurs « intelligences artificielles».
Exemples du quotidien
- Recommandations de films, vidéos ou contenus (Netflix, YouTube, Facebook)
- Assistants vocaux (Siri, Alexa)
- Traduction automatique (Google Translate)
- Correction et suggestion de texte (parfois… surprenantes)
- Navigation optimisée (Google Maps)
- Assistant à la rédaction – IA générative
Risques à connaître
- Désinformation crédible : créer ou diffuser des informations fausses
- Dépendance : trop s’appuyer sur l’IA et moins réfléchir par nous-mêmes
- Inégalités d’accès, ce qui cause des écarts entre individus et régions
- Biais, amplifier des préjugés et produire des décisions injustes
- Transformation des emplois : certaines tâches sont automatisées par l’IA
- Impact environnemental : L’IA consomme beaucoup de ressources – énergie, eau
Opportunités
- Apprentissage personnalisé
- Gain de temps, automatiser certaines tâches répétitives pour libérer les enseignants ou les travailleurs
- Créativité et innovation : teste de nouvelles idées et de développe de nouveaux projets.
L’IA n’est ni bonne ni mauvaise : tout dépend de son usage. Mais ses capacités progressent très vite, ce qui soulève des inquiétudes. Des organisations comme l’Organisation des Nations Unies alertent sur les risques liés aux systèmes très performants, capables de produire des réponses convaincantes même lorsqu’elles sont fausses — un peu comme quelqu’un qui veut réussir à tout prix, même en trichant.
Pour approfondir, je suggère d’écouter cette vidéo L’Adolescence de la Technologie de Dario Amodei(cofondateur et PDG d’Anthropic) qui explore ces enjeux.
A voir : L’Adolescence de la Technologie (Dario Amodei) — Résumé complet + Analyse (IA, futur, société).
Un récent domaine de recherche : le contrôle de l’intelligence artificielle
L’idée de contrôler l’intelligence artificielle existe depuis ses débuts, mais elle est devenue concrète avec son développement rapide. Le « AI Control » vise à garantir un contrôle humain sur des systèmes puissants, capables d’agir de façon autonome et parfois imprévisible.
Le hackathon de Montréal
Un hackathon est un événement collaboratif où des participants travaillent intensivement sur des projets innovants en peu de temps, pour favoriser créativité et solutions concrètes.
Le hackathon de Montréal s’est déroulé dans le cadre d’un évènement international «Control IA 2026» organisé par Apart Research une communauté mondiale de recherche sur la Sécurité de l’IA. Cinq cents personnes originaires des USA, de Singapour, de l’Australie et des Pays Bas ont participé. Ils ont travaillé sur des projets visant à tester les IA face à des situations pièges et à créer des règles pour limiter les risques.
Manifestation devant les bureaux de Google à Montréal

Photo : Orpheus Lummis
Sans lien avec le hackathon avait lieu une manifestation organisée par Stop the AI Race. À San Francisco, plus de 500 manifestants se sont rassemblés devant le siège d’Anthropic, appelant les grandes entreprises d’intelligence artificielle à suspendre temporairement le développement des systèmes d’IA de pointe.
Un exemple historique éclairant : Norman Borlaug
Norman Borlaug est un agronome américain considéré comme le père de la Révolution verte. Il a transformé l’agriculture en développant des céréales à haut rendement, évitant des famines, mais avec des effets négatifs à long terme : une forte dépendance aux engrais et aux produits chimiques, des écosystèmes fragilisés et des systèmes agricoles devenus très complexes.
Aujourd’hui, des entreprises comme OpenAI ou Anthropic développent des IA puissantes aux bénéfices rapides, mais aux risques encore incertains. Une fois installées, ces technologies sont difficiles à encadrer.
L’histoire de Borlaug montre que les grandes innovations transforment durablement le monde, souvent de façon irréversible. Ce parallèle pose une question essentielle : faut-il ralentir l’innovation face à des risques potentiels ? Avec l’IA, ce ne sont plus seulement nos environnements qui changent, mais aussi nos façons de penser et de décider.
L’Impact de l’IA sur l’éducation
Les 17, 18 et 19 mars derniers s’est tenu l’événement international Ludoviales 2026 – IA en éducation. Consacrée à l’intelligence artificielle dans le domaine éducatif, cette troisième édition avait pour thème : « Quelle place donner à l’IA dans la classe ? »
À lire – Aux Ludoviales, l’IA bouscule l’école : «Une révolution abyssale» qui impose de repenser l’éducation https://www.ludomag.com/2026/03/18/aux-ludoviales-lia-bouscule-lecole-une-revolution-abyssale-qui-impose-de-repenser-leducation/
Au fil des échanges, un consensus s’est dégagé, en voici une synthèse.
L’idée centrale : l’humain doit absolument rester au cœur de l’éducation. L’intelligence artificielle ne doit jamais remplacer l’enseignant, mais plutôt l’accompagner …quoique propose Melania Trump .
L’école doit évoluer avec l’arrivée de l’IA. Le rôle de l’enseignant change : il ne se limite plus à transmettre, mais il accompagne et facilite les apprentissages. L’IA peut alléger certaines tâches (correction, création de supports, analyse), permettant de se concentrer sur l’humain et la pédagogie.
L’objectif principal est d’apprendre aux élèves à réfléchir, à comprendre et à développer leur pensée. Avec l’IA, ils gagnent en autonomie, apprennent à poser les bonnes questions et à vérifier les informations. Le développement de l’esprit critique est essentiel. On passe d’un modèle de transmission à un modèle d’exploration, où l’IA devient un outil pour mieux apprendre à réfléchir.
Les éducateurs alertent sur un risque de dépendance. Les élèves pourraient trop s’appuyer sur l’IA et moins réfléchir eux-mêmes (« délestage cognitif »). Il est donc essentiel d’en faire un usage équilibré.
Les façons d’évaluer doivent également évoluer. Les devoirs à la maison étant moins fiables avec l’IA, les éducateurs privilégient des évaluations par des activités réalisées en classe, à l’oral ou en discussion.
L’IA offre de nombreuses opportunités : exercices adaptés, explications personnalisées, suivi de progression et outils interactifs, rendant l’apprentissage plus accessible et individualisé ((ce qui était difficile à grande échelle auparavant). Elle soulève aussi des enjeux éthiques (protection des données, inégalités d’accès, règles d’usage).
Les éducateurs estiment que l’IA est incontournable, Toutefois, elle doit être comprise, encadrée et utilisée au service de l’apprentissage humain, sans jamais remplacer la relation entre l’enseignant et les élèves.
Préparer les enfants d’aujourd’hui au monde de demain
Dans le Québec très catholique de mon enfance, en répondant à la question : Où est Dieu ?, nous apprenions que Dieu est partout. Et bien aujourd’hui, il faut demander à nos enfants : Où est l’IA ? et leur apprendre que l’IA est partout et les aider à comprendre ce qu’est l’IA.
Intelligence humaine et intelligence artificielle
L’intelligence humaine et l’intelligence artificielle représentent deux façons très différentes d’être en relation avec le monde.
L’intelligence humaine est vivante et incarnée. Elle s’appuie sur le corps, les émotions et l’expérience. Elle permet de comprendre le sens des situations, de s’adapter à des contextes variés et de faire des choix guidés par des valeurs. Elle apprend lentement mais en profondeur, et développe intuition, créativité et jugement moral.
L’intelligence artificielle, à l’inverse, est une construction technologique fondée sur le calcul. Elle repose sur des modèles entraînés avec de grandes quantités de données. Elle n’a ni conscience ni émotions, mais elle est très efficace pour analyser des informations et exécuter des tâches rapidement. Cependant, elle ne comprend pas réellement : elle simule la compréhension à partir des données.
La différence apparaît aussi entre le cerveau humain et les réseaux de neurones artificiels. Le cerveau, organe vivant, s’adapte en permanence et fonctionne de manière très efficace en interaction avec le corps et l’environnement. Les réseaux de neurones artificiels, eux, manipulent des données pour repérer des motifs, au prix d’une forte consommation d’énergie. L’IA est puissante mais spécialisée, dépendante des données et des objectifs fixés. L’humain, lui, conserve une vision globale, une capacité d’adaptation et un ancrage dans le sens et les valeurs.
Une complémentarité est possible : l’humain apporte le sens et l’éthique, l’IA la puissance d’analyse. Mais cela pose une question essentielle : comment garantir que ces systèmes restent au service du vivant et des intentions humaines ?
Face à la puissance de l’IA, l’éducation ne peut plus se contenter de former uniquement l’esprit. En réduisant l’apprentissage aux seules capacités intellectuelles, on place l’humain en concurrence directe avec la machine — une compétition qu’il ne peut pas gagner.
L’éducation doit former des humains complets. Il ne s’agit pas seulement de développer l’intellect, mais garder « le petit d’Homme » enraciné dans le réel, en cultivant le corps, les émotions, les relations et le lien au vivant — tout ce que l’IA ne peut ni éprouver ni remplacer.
Comprende l’IA
Vittascience est une plateforme éducative pensée pour l’apprentissage de l’IA et du codage, qui propose des outils innovants pour l’enseignement.
Voir le webinaire Vittascience et l’IA – Québec 2025-06-04 avec le Récit MST
Les jeux proposés en regard de l’apprentissage de l’IA aiderons les élèves à comprendre que l’IA n’est pas une vraie personne et à saisir certaines limites de cette dernière.
L’IA et moi
Il existe deux façons de connaître le monde. La première passe par la tête : elle s’appuie sur des informations, des connaissances, des données, comme le fait une intelligence artificielle et comme l’école le privilégie souvent. La seconde passe par le corps : elle s’enracine dans l’expérience du vivant.
Les humains apprennent en respirant, en bougeant, en touchant, en ressentant des émotions, en entrant en relation avec les autres et avec la nature. C’est cette expérience sensible qui permet de comprendre en profondeur, de faire des choix justes et de percevoir ce qui est vrai. L’expérience directe est irremplaçable, car le corps apprend des choses que les mots ne peuvent pas transmettre.
On peut l’illustrer simplement : une intelligence artificielle, c’est comme quelqu’un qui aurait vu des millions d’images de pommes… sans en avoir jamais goûté une. Peut-elle vraiment connaître une pomme ?
Certaines IA sont pourtant reliées à des capteurs : des caméras pour voir, des microphones pour entendre, des capteurs pour détecter la pression, la température ou certaines substances chimiques. Elles peuvent donc capter des informations sur le monde réel. Mais cela ne signifie pas qu’elles vivent une expérience comme les humains. Elles peuvent mesurer, analyser, détecter… mais elles ne ressentent ni plaisir, ni douleur, ni bien-être. Elles ne se disent jamais : « je suis en train de vivre quelque chose ». Elles traitent des données, sans présence intérieure.
L’enjeu pour l’école n’est donc pas seulement d’apprendre avec ces outils, mais d’apprendre à vivre avec eux. L’école doit aider les enfants à coexister avec la technologie tout en cultivant ce qui fait leur humanité : la coopération, l’empathie, la créativité, le respect de la vie privée et des règles éthiques, ainsi que la curiosité et le plaisir d’apprendre en explorant le monde réel et vivant. C’est en développant ces compétences que l’on permet aux enfants de grandir comme des citoyens autonomes et responsables dans un monde profondément technologique.
Il faut remettre l’expérience tangible au centre de l’enseignement des jeunes de 6 à 13 ans.
Esprit critique
Les philosophes présocratiques ont marqué une rupture importante : au lieu d’expliquer le monde par l’action des dieux, ils ont cherché des causes naturelles, observables et rationnelles aux phénomènes.
C’est une forme d’esprit critique, parce qu’ils ont :
- remis en question les croyances dominantes de leur époque
- cherché à comprendre par eux-mêmes
- observé la nature pour formuler des explications
- proposé des idées discutables et perfectibles (et non des vérités imposées)
Leur attitude ressemble à ce qu’on veut développer chez les élèves :
oser questionner, observer, expérimenter, et ne pas accepter une explication simplement parce qu’elle est traditionnelle ou largement partagée :
- Manipuler, engage le corps
- Expérimenter, confronte au réel
- Discuter, construit la pensée.
Cette combinaison développe réellement l’esprit critique. En manipulant, en testant et en confrontant leurs idées à la réalité, les élèves apprennent à douter, à vérifier, à argumenter et à ajuster leurs conclusions. Ce n’est pas une activité “manuelle” seule : c’est une pensée en action.
Visitez les sites suivant qui préconisent cette forme d’apprentissage : La main à la pâte, Ébulliscience, Les Scientifines, les Neurones atomiques, au Québec …
Les expériences concrètes et la démarche scientifique sont un levier essentiel — mais elles gagnent à être complétées par d’autres approches pédagogiques. L’esprit critique se développe aussi grâce à la discussion, à la confrontation d’idées, à l’analyse de textes, et à l’accompagnement des enseignants.
Cependant …« Nous avons peut-être atteint un point de basculement où la capacité des médias à vérifier les faits ne parvient plus à suivre le rythme et la quantité de fausses informations qui parviennent jusqu’à nous », résume Charlotte Green, jointe à Londres par Le Devoir. Lire Petit guide contre la désinformation sur la guerre au Moyen-Orient.
Les philosophes présocratiques n’étaient pas seulement des philosophes, mais aussi les premiers modèles d’une pensée critique… et scientifique.
PS – Les IA génératives comme assistants à la rédaction
En recherchant le mouvement « AI Control », je suis tombée sur des logiciels de « détection d’IA et de plagiat ». Par curiosité, et un peu pour m’amuser, j’ai testé plusieurs paragraphes de mon propre texte avec différents logiciels. Les résultats étaient pour le moins incohérents : 100%, 95 %, 84 %, 68 % ou 0 % de contenu supposément généré par l’IA.
J’utilise des outils comme ChatGPT ou Le Chat de Mistral de façon ponctuelle pour m’aider à reformuler, traduire ou améliorer mes textes, mais ils restent des outils d’assistance.
Cette expérience montre qu’il faut rester prudent face aux détecteurs d’IA : je suis l’auteure de mes textes, j’en suis le concepteur et l’IA est pour moi un outil, non un substitut.
À ce sujet, Jean-Hugues Roy, professeur à l’École des médias de l’UQAM, a publié dans The Conversation les résultats d’une petite enquête intitulée « J’ai testé un outil de détection de ChatGPT : j’ai perdu mon temps ». Sa conclusion va dans le même sens : ces outils sont peu fiables et peuvent induire en erreur. Il écrit : « Comme toutes les technologies avant elle, la rédaction automatique va prendre sa place dans nos vies de tous les jours. Ce sera à nous, êtres humains, de nous creuser les neurones pour l’intégrer, au mieux, dans nos pratiques pédagogiques et de légiférer au besoin, afin d’en mitiger les effets délétères ».
Plus d’infos : Voir plus de commentaires de l’auteur dans le fichier ici





