INTERVIEW 🎙️À l’occasion de l’événement Super Hérault, organisé du 14 au 16 avril dernier au Domaine de Bayssan à Béziers par la DRANE de région académique Occitanie, l’Académie de Montpellier et ses partenaires dans le cadre du programme Territoire Numérique Éducatif (TNE 34), Ludomag a rencontré Didier Roy.
Lors de sa conférence puis dans un entretien accordé à Éric Fourcaud, le spécialiste a proposé une plongée pédagogique dans l’univers complexe des intelligences artificielles, loin des fantasmes technologiques comme des discours catastrophistes.
Car pour Didier Roy, comprendre l’IA suppose d’abord de distinguer les différentes formes qu’elle recouvre.
Trois grandes familles d’Intelligence Artificielle
« Il y a une différence entre l’intelligence artificielle comme domaine scientifique et les intelligences artificielles qui désignent les outils, logiciels ou algorithmes que nous utilisons », rappelle-t-il.
Premier niveau : l’IA symbolique, héritière des systèmes experts développés dès les années 1980. Basée sur des règles logiques définies par l’humain, elle reproduit l’expertise d’un professionnel dans un cadre précis.
« Elle est très précise, mais incapable de s’adapter à une situation nouvelle », explique Didier Roy.
Deuxième famille : l’IA statistique, aujourd’hui omniprésente. Cette fois, les machines apprennent à partir d’énormes volumes de données pour produire des prédictions. Plus flexible, cette IA est capable d’apprendre seule des modèles complexes. Mais cette puissance a un coût : « Elle nécessite des quantités gigantesques de données et une énorme puissance de calcul », souligne-t-il.
Enfin, l’IA générative — celle des ChatGPT, Midjourney ou Gemini — n’est finalement qu’une branche spécifique de cette IA statistique. Sa particularité : produire du contenu, du texte, des images, du son ou du code.
Une puissance technologique aux coûts invisibles
Derrière les performances spectaculaires de ces outils se cachent des infrastructures colossales. Didier Roy évoque des centres de données pouvant atteindre « jusqu’à 100 hectares », avec des besoins énergétiques tels que certains projets envisagent désormais d’y adosser directement des réacteurs nucléaires.
Mais l’autre coût, moins visible, est humain.
Car contrairement à l’image d’une intelligence totalement autonome, les IA reposent sur un immense travail humain de correction, de supervision et de modération. Les modèles génératifs doivent notamment être « alignés » sur certaines valeurs afin d’éviter contenus haineux, discriminatoires ou dangereux.
« Des centaines de millions de personnes participent à ce travail de correction dans le monde », explique-t-il, évoquant les scorers, ces travailleurs chargés d’évaluer et filtrer les réponses produites par les IA. Souvent précaires, ils jouent pourtant un rôle central dans le fonctionnement de ces technologies.
Des technologies profondément culturelles
Pour Didier Roy, l’Intelligence Artificielle n’est pas seulement une question technique : elle est aussi culturelle et politique.
L’exemple des biais intégrés dans les modèles illustre cette réalité. Certaines IA refusent désormais de répondre à des questions liées à des affaires judiciaires sensibles, tandis que d’autres censurent des événements historiques selon leur pays d’origine.
« Ces technologies sont orientées par les valeurs de ceux qui les conçoivent », insiste-t-il.
L’IA chinoise DeepSeek, par exemple, évite certains sujets politiques comme les événements de la place Tian’anmen. Une démonstration, selon lui, que ces outils ne sont jamais neutres.
L’arrivée des IA “agentiques” inquiète les chercheurs
L’entretien aborde également un sujet encore peu connu du grand public : les IA agentiques. Contrairement aux IA génératives classiques, ces nouveaux systèmes ne se contentent plus de produire du contenu : ils peuvent agir de manière autonome, planifier des tâches et prendre certaines décisions.
Ces agents combinent plusieurs technologies : modèles de langage, mémoire, raisonnement symbolique et automatisation.
Le problème ? « Plus on rend ces systèmes autonomes, moins l’humain intervient dans la chaîne », alerte Didier Roy.
Cette autonomie ouvre la porte à de nouveaux risques : erreurs incontrôlées, hallucinations persistantes, cybercriminalité ou détournements malveillants. D’où l’urgence, selon lui, de mettre en place des règles de transparence et des cadres juridiques solides.
« On joue parfois un peu aux apprentis sorciers », résume-t-il.
L’humain reste indispensable
Malgré ces inquiétudes, Didier Roy refuse tout discours technophobe. Il rappelle que l’IA produit déjà des avancées majeures, notamment dans le domaine médical ou scientifique : découverte de nouveaux matériaux, aide au diagnostic, recherche mathématique…
Mais il insiste sur un principe fondamental : l’humain doit toujours rester présent.
Même les robotaxis autonomes de Waymo, souvent présentés comme entièrement automatisés, reposent encore sur des équipes humaines capables d’intervenir à distance lorsque les véhicules rencontrent un problème.
« L’humain est toujours nécessaire », affirme-t-il.
“Le cerveau humain fonctionne avec 20 watts”
En conclusion, Didier Roy appelle à remettre les performances de l’IA en perspective.
« On s’extasie devant l’intelligence artificielle, mais connaît-on suffisamment l’humain et la nature ? », interroge-t-il.
Là où les centres de données consomment des quantités astronomiques d’énergie, le cerveau humain fonctionne avec environ… 20 watts.
Pour le spécialiste, l’enjeu n’est donc pas de céder à une fascination aveugle pour l’IA, mais de développer une véritable culture critique du numérique.
« Il faut réfléchir collectivement à ce que nous voulons faire de ces technologies », conclut-il.
Merci à Didier Roy pour nous avoir accordé cette interview à l’occasion de l’évènement Super Hérault 3





