À l’approche de la Journée internationale de l’éducation, le 24 janvier 2025, avec pour thème : « L’IA et l’éducation : préserver l’autonomie dans un monde automatisé », et au vu de l’effervescence sans fin autour de l’IA, une question se pose : quelles sont les compétences des pédagogues de demain ?
Point de vue d’expert·e
Nous laissons la parole à Camille Saintoul pour expliciter l’intérêt (ou non) de développer ses compétences en IA en tant que pédagogue, et identifier les vraies compétences à développer pour l’éducation de demain.
L’IA, une compétence indispensable ?
Aujourd’hui, on entend souvent qu’il faut absolument se mettre à l’IA, et qu’elle tend à nous remplacer. Mais qu’est-ce que l’IA ? Et que nous apporte-t-elle ?
L’IA n’est pas l’IAG !
L’IA est une notion née en 1950, et n’a depuis cessé de se développer.
Aujourd’hui, l’IA est partout, mais dernièrement, c’est l’intelligence artificielle générative (IAG) qui a provoqué une grande effervescence, notamment dans le domaine de la formation.
Distinguons bien les deux notions :
- L’intelligence artificielle (IA) classique, qu’on retrouve dans tous les objets connectés, dans l’analyse de données pour générer des schémas récurrents et prédictions, dans l’automatisation des tâches,
- Et l’intelligence artificielle générative (IAG) qui est utilisée pour créer de tout nouveaux contenus, médias, imitant des données qu’on lui a injecté.
On parle donc là de deux outils foncièrement différents, puisque l’un transforme et facilite, tandis que l’autre créé de toute pièce à partir d’une quantité d’informations disponibles.
L’IA, une clé vers plus d’accessibilité
L’IA a permis de nombreuses avancées qu’il faut souligner, notamment en termes d’accessibilité. Génération de sous-titres automatiques pour les personnes malentendantes ou sourdes, descriptions d’images pour les personnes malvoyantes ou aveugles, bref. Rendre accessible l’information là où l’on pêche à le faire, malgré les réglementations.
Aujourd’hui, ce sont encore 94 % des sites web français qui ne respectent toujours pas les exigences d’accessibilité de base. Pourtant, la loi du 11 février 2005 rend obligatoire l’accessibilité des services de communication au public en ligne, et avec, le RGAA pose un cadre technique pour répondre à ce besoin. Quant à nous, pédagogues, ce sont 3 indicateurs directement liés à l’accessibilité et 7 autres indirectement liés que Qualiopi prévoit.
Cela pose une réelle question : est-on vraiment incapable de le faire sans IA ? À l’ère où le numérique prime, n’est-on pas capable de le rendre inclusif, de penser à sous-titrer nos vidéos et audios, à mettre à disposition les transcriptions, ou à écrire nos propres textes alternatifs sur nos images ? Est-ce si compliqué de vérifier les contrastes de ses couleurs ?
En vérité, on en est tou·te·s capables. Il suffit de le prévoir dès la conception, de le rentrer dans nos process, et d’inclure des personnes atteintes de handicap dans nos tests utilisateur·rice·s pour corriger les défauts observés.
Pas si compliqué, mais une montagne qu’on peine à escalader encore aujourd’hui. Les excuses ne manquent pas : pas assez de temps, pas assez de budget, pas les compétences nécessaires… Finalement, est-ce que la solution de se former à inclure l’accessibilité dans les process de conception ne résoudrait pas la problématique sans avoir recours à un outil supplémentaire ?
L’IA, un impact environnemental aussi inquiétant qu’incertain.
L’IAG génère autant de solutions miracles pour la pédagogie que de dégâts environnementaux. Selon l’ADEME, en 2022, 11 % de la consommation électrique en France est liée au numérique, et 46 % de l’empreinte carbone du numérique sont liés au data centers (centres de données). Ceci, sans prendre en compte la montée en puissance de l’IA générative.
S’il est difficile de quantifier le réel coût écologique de cette industrie, certains chiffres restent très parlants. Par exemple, Google a vu ses émissions de carbone augmenter de 48 % en 2023 par rapport à son année de référence (2019).
En cause, l’effervescence et l’émergence de l’IA générative, nécessitant la modernisation, mais aussi la création de nouveaux centres de données. Ceux-ci sont très gourmands en électricité : aux États-Unis, on parle d’une consommation qui va tripler d’ici 2030, et en Irlande, on craint déjà une saturation du réseau en cas de choc de demandes additionné aux phénomènes saisonniers d’ici 2026. Quant à l’eau, utilisée pour le refroidissement des serveurs, Google rapporte une augmentation de la consommation de 17 % en 2022, et Microsoft constate 34 % d’augmentation en 2021. Ce constat ne prend pas en compte les ressources nécessaires en amont pour construire les serveurs.
En considérant qu’à l’heure actuelle, l’IAG a un impact environnemental considérable, et sous-évalué en raison d’un manque de recul et de transparence des données de consommation, la prise de conscience devient indispensable dans l’utilisation de l’IAG.
Le bilan est catastrophique, parce que ces usages attirent, et pour cause : on nous promet de réduire de moitié notre temps de travail en envoyant simplement un texte tout préparé, c’est vrai que c’est tentant. Mais ce gain de temps a un coût : en mars 2024, l’HEC Montréal publie que la prolifération des data centers liés à l’IAG, entraînant une consommation croissante d’eau et d’électricité, représente 2 % de la consommation électrique mondiale. L’industrie du numérique représente environ 4 % des émissions mondiales de gaz à effet de serre, soit l’équivalent de l’industrie aéronautique, et la forte augmentation des usages laisse présager un doublement de cette empreinte carbone d’ici 2025. Des chiffres qui laissent songeur quant à l’impact environnemental de cette technologie “révolutionnaire”.
IAG, inclusivité et diversité
Si au niveau accessibilité l’IA nous permet de répondre à certaines failles humaines, niveau inclusivité et diversité, on a encore du chemin à parcourir. C’est ce qu’on appelle un biais algorithmique.
Un biais algorithmique est le fait que le résultat d’un algorithme ne soit pas neutre, loyal ou équitable, pour des raisons inconscientes ou délibérées de la part de ses auteurs. Cette définition s’applique très bien aux IA, puisqu’elles se nourrissent de données qu’on leur fournit, donc si celles-ci contiennent des stéréotypes, ou du sexisme, le résultat de nos prompts le reflétera.
As-tu déjà remarqué dans la génération d’images par IA que les femmes avaient une tendance à être sexualisées ? Que les geeks étaient souvent des garçons boutonneux ? Ou encore que les banlieues étaient représentées par des bâtiments sales, tagués, avec des rues jonchées de déchets ? Tout un tas de stéréotypes encore bien présents dans l’imagination collective, sans être la représentation réelle de la société. Un problème de prompt ? Peut-être, mais des allers-retours pour corriger cela : c’est sûr !
Julien Kamité, formateur, a fait un retour sur des tests pratiqués pour trouver facilement la personne compétente pour répondre à une problématique. En cherchant un·e graphiste, il tombait facilement sur toute une liste de graphistes. Que des hommes. Pourtant, la base de données ne manquait pas de femmes dans cette même profession, mais le prompt disait “un graphiste” donc l’IA n’a fait remonter que des hommes.
Dans une société où le masculin a toujours primé sur le féminin, l’IA dans toute l’ampleur qu’elle a prise aurait la possibilité d’atténuer ces inégalités. Mais l’étude de l’UNESCO publiée en 2024 alerte sur les préjugés encore omniprésents dans ces nouvelles technologies. Et pour cause, “selon les données les plus récentes, les femmes ne représentent que 20 % des employé·e·s occupant des fonctions techniques dans les grandes entreprises d’apprentissage automatique” nous révèlent l’UNESCO dans leur article mis à jour en août 2024.
IA et protection des données
Autre point très important dans notre domaine, la protection des données. La formation, c’est la transmission d’expériences et d’expertise sur un sujet, nous sommes donc souvent soumis à des clauses de confidentialité tout à fait légitimes, puisque finalement ce savoir, on le vend.
Si l’IA générative se base sur les données qu’on lui injecte, quid de nos propres contenus ? Sont-ils réutilisés pour répondre à d’autres requêtes ? Et finalement, d’où vient la réponse à nos propres requêtes ? Comment sont alimentées les bases de données qu’elle traite ?
Lorsque tu génères du contenu, penses-tu toujours à demander les sources ? Et à les vérifier ? D’après plusieurs discussions avec des confrères et consœurs, rares sont les fois où les sources fournies sont avérées. De quoi se poser la question du respect de la confidentialité des données…
Newsguard publie en novembre 2024 un audit réalisé sur 10 principaux modèles d’IA génératives dont le constat est clair : les chatbots d’IA échouent à fournir des informations exactes dans plus d’un quart des cas.
En tant que pédagogues, la question se pose alors de l’exactitude des données que l’on va transmettre à nos apprenant·e·s, peut-on réellement se passer d’experts-métier et déléguer une partie de notre travail à la lumière de ces observations ?
La CNIL alerte également sur la responsabilité de chacun·e quant à la protection des données : ”en tant qu’utilisateur·rice ou intégrateur·rice d’un système d’IA générative, il vous revient donc d’interroger le fournisseur sur la conformité de son système au RGPD et le respect de ces recommandations”.
IA, gain de temps et d’argent ?
Chaque minute compte. Du lever au coucher, on court. Pour aller au travail, pour prendre soin de sa santé, pour s’occuper des enfants… Et la gestion du temps est devenue un sujet primordial. Rien que pour nous, pédagogues, impliqué·e·s dans le domaine, trouver du temps pour se former est souvent un réel défi.
Avec le numérique, et l’ampleur de l’IA, l’information semble accessible à tout moment, en quelques clics. L’impact sur la formation est indéniable, puisqu’elle nécessite du temps, de la concentration et pour être efficace, de la mise en application.
L’IA est vendue comme un gain considérable de temps et d’argent… Mais est-ce vraiment le cas ? Finalement, à la vue de tous ces éléments, on est en droit de se poser légitimement la question.
Entre le temps de créer le prompt, de vérifier le résultat, de corriger le prompt, de revérifier le résultat, de vérifier les sources, d’adapter les résultats pour les rendre accessibles, inclusifs, et de répéter ses étapes autant de fois que nécessaire pour obtenir un résultat qui, ne nous leurrons pas, ne vaudra jamais celui d’un·e véritable expert·e du sujet, avons-nous réellement gagné du temps ? Pour obtenir quelle qualité ?
L’année dernière, lors de formations que j’ai pu animer, j’ai pu observer une recherche de facilité avec l’utilisation de l’IA. Pour réaliser plus rapidement une tâche, un apprenant m’a dit avoir eu recours à l’intelligence artificielle pour reproduire ce que nous avions vu la veille, au lieu de se référer aux ressources fournies. Ce même apprenant a conclu de lui-même que le process donné par l’IA ne lui avait pas seulement fait perdre du temps mais s’était également avéré bien plus complexe que celui que je lui avais fourni. Toutefois, son réflexe a tout de même été d’aller se tourner vers une solution qui lui demandait moins d’effort et de réflexion.
Une étude de l’université de Stanford et du Massachusetts Institute of Technology (MIT), réalisée sur plus de 5 000 employés sur le terrain reflète des résultats intéressants : il y aurait bien un gain de productivité de 14 % pour les travailleur·se·s les moins qualifiés. Paradoxalement, l’IA se nourrit des connaissances des employé·e·s les plus qualifié·e·s, qui elleux ne trouvent peu ou pas d’avantages à leur utilisation, voire en pâtissent, étant donné que leur avance relative sur leurs collègues s’en retrouve réduite.
Certes l’IA coûte moins cher qu’un·e expert·e, c’est indéniable. Mais cela se voit aussi au résultat. Quant au gain de temps… Jusqu’ici, j’ai passé moins de temps à briefer mon graphiste pour obtenir un résultat parfait pour moi qu’à demander aux IA génératives pour un résultat correct. N’y a-t-il pas un dicton qui dit que le temps c’est de l’argent ?
Les compétences des pédagogues de demain
L’IA permet des avancées dans plein de domaines, et facilite beaucoup de tâches, mais elle a aussi un prix considérable. En tant que pédagogues, nous sommes garants de la qualité de nos formations, et en ce sens, pour intégrer l’IA, il faut d’abord développer un sens critique aigu afin de ne pas tomber dans les stéréotypes, ou encore dans les informations non sourcées. La renier serait contre productif, surtout avec l’essor prévu. Mais il ne faut pas oublier ses failles, ni son coût environnemental grandissant.
Les enjeux en 2025
Le dernier Baromètre ISTF indique une tendance nette à vouloir utiliser l’IA dans la formation… Mais qui n’atteint que la deuxième position, puisque le véritable enjeu reste celui de l’engagement apprenant ! Et bonne nouvelle, cette année on voit enfin ressortir le domaine RSE dans les enjeux d’évolution de la formation, avec une place plus importante allouée à l’accessibilité, l’inclusivité et l’éco-conception.
D’ailleurs, lorsqu’on parle d’engagement apprenant, le baromètre ISTF est encore une fois éclairant sur la voie à suivre. Les apprenant·e·s placent en priorité l’obtention d’une certification, et des contenus en lien avec leurs problématiques métiers pour être motivés à commencer une formation. Quant à la motivation pour la finir, si l’obtention de la certification reste en première position, la deuxième position se fait détrôner par la présence d’un·e tuteur·rice !
Eh oui, l’humain a plus que jamais sa place dans le domaine de la formation, puisque si on tend vers plus de distanciel asynchrone pour répondre à une flexibilité et un accès à tout moment pour les apprenant·e·s, sans tutorat, les taux de complétion chutent.
À l’heure où l’information est accessible en 2 clics, et où les IA propulsent cette tendance, on remarque une chute édifiante des taux de complétion des formations non tutorées : en 2024, l’ISTF constatait un taux de complétion inférieur à 20 % dans 53 % des dispositifs de formation non tutorés. En 2025, ce taux de complétion est inférieur à 10 % dans 58 % des dispositifs non tutorés.
Des résultats qui font réfléchir : paradoxalement, on souhaite plus d’IA, mais également plus d’inclusivité et d’éco-conception, et un besoin d’accompagnement humain. Comment répondre à cela, tout en garantissant une optimisation de l’engagement apprenant ?
Se former, la solution clé pour avancer
Plus que jamais, la formation a un rôle majeur à jouer pour nous pédagogues, afin d’acquérir les compétences nécessaires pour répondre aux besoins qui remontent.
La gestion du temps est un facteur important tant pour les pédagogues que pour les apprenant·e·s. Une des compétences à développer serait donc celle-ci, pour mieux gérer les process de conception de formation, et leur production, mais également pour proposer des parcours hybrides et flexibles répondant aux demandes de nos apprenant·e·s.
La gestion du temps ainsi que l’accès à des milliers de ressources à l’ère du numérique soulèvent également deux points essentiels pour promouvoir l’engagement apprenant : le tri des contenus, et la personnalisation. Plus que jamais, l’analyse des besoins apprenants va prendre toute sa place dans la complétion des formations. Ce qu’on cherche ? Trouver la bonne information, le plus vite possible. Trier les informations, les vulgariser, les rendre compréhensibles pour tous, et permettre aux apprenant·e·s de naviguer à leur guise en fonction des connaissances déjà acquises font donc partie des compétences à développer pour promouvoir l’engagement.
Vient naturellement la question de l’accessibilité : en effet, si l’on veut créer des parcours hybrides et flexibles pour nos apprenant·e·s, il faut également les rendre accessibles à tou·te·s. Repenser les process de conception en intégrant dès le début d’un projet les différents critères RGAA devient donc un incontournable de la formation. Ainsi, on gagne en productivité, et en budget, avec un plan détaillé de ce qu’il faut mettre en place et du temps que cela nécessite, sans avoir à faire des allers-retours qui peuvent rapidement être chronophages en phase de production. Et intégrons des personnes atteintes de handicap dans nos tests utilisateur·rice·s, et même dans nos phases de conception !
Bien sûr, l’émotion tient une place importante dans l’engagement apprenant. Plus on se sent inclus, plus on s’implique ! La représentation de situations réelles, donc une bonne connaissance du contexte dans lequel l’apprenant·e évolue, mais également de la diversité humaine, y compris la représentation du handicap, doit donc être mise au centre de la conception d’une formation.
Quant à l’éco-conception, on continue d’avoir des demandes d’effets “Waouh” et de contenus vidéos majoritaires dans nos formations. Pourtant, ce n’est pas la forme qui prime, mais bien le fond ! Il faut donc se recentrer sur ce qui compte réellement : les contenus de formation, et adapter la forme en fonction de la portée pédagogique attendue, et non l’inverse. Comprendre comment réduire son empreinte carbone sans négliger la qualité de sa formation se place donc en enjeu majeur.
Et l’IA dans tout ça ?
Si l’IA est vendue comme l’avenir de la formation, les chiffres et l’avenir nous poussent plutôt à tendre vers des parcours plus sobres, ciblés, et dans le respect de chacun·e. Il devient urgent de développer un sens critique face aux usages des IA notamment génératives, et de s’orienter vers plus d’accessibilité, d’inclusivité et de diversité, mais également d’éco-conception. Tant pour respecter que pour sensibiliser chacun·e de nos apprenant·e·s aux enjeux de demain.
S’il y a un chiffre à retenir, je dirai qu’aujourd’hui, 38 % des français·es donnent de leur temps pour des causes qui leur tiennent à cœur, et que parmi elleux, ce sont 44 % de jeunes entre 15 et 34 ans. N’est-ce pas elleux, nos apprenant·e·s de demain ?

Article rédigé par Camille Saintoul – Cheffe de projet Digital Learning
« Je conçois des expériences pédagogiques gamifiées sur les enjeux sociaux des associations engagées. J’œuvre depuis 2022 à sensibiliser à des sujets sociétaux en adéquation avec mes valeurs. Mon objectif est de rendre accessible des notions complexes à travers la ludopédagogie. »
Article publié le 23/01/2025
Relu et corrigé par Diana Portela – Consultante pédagogique | Conceptrice digital learning | Formatrice, et Julien Kamité – Formateur de formateurs et consultant en formation
Témoignages
Ed For Good est allé interroger des membres de son réseau afin de comprendre la vision que le monde de la formation a de l’IA.
Jyn Chérèze – Ingénieure pédagogique, dirigeante de Meujesse Learning
Ce qu’on retient du vocal :
- L’IA peut être utilisée pour les tâches répétitives, l’analyse de contenus, l’amélioration de textes, la transcription oral-écrit, la recherche Internet, la traduction, la correction en langues étrangères…
- L’IA est intégrée à des outils auteurs (Canva, Genially…).
- L’IA vient remplacer les moteurs de recherche traditionnels.
- L’IA est limitée pour la création ou la rédaction à partir de rien.
- Il y a un point de vigilance sur la confidentialité des documents et des données client·e·s.
- L’IA est un assistant précieux, mais manquant d’originalité. L’une des limites est l’aseptisation et uniformisation des contenus, notamment des images.
Alix van Zeebroeck – Digital Learning Designer et facilitatrice de la Fresque des IA pédagogiques
Ce qu’on retient du vocal :
- Les compétences des pédagogues de demain sont : apprendre à (ré)apprendre, faire une veille active et structurée, développer sa pensée critique… Les IAG participent à ces compétences.
- L’IAG est un outil indispensable pour les pédagogues pour : personnaliser l’expérience d’apprentissage, découvrir de nouvelles perspectives, pour assister l’ingénieur·e pédagogique…
- En Arménie, le métier d’ingénieur·e pédagogique est encore méconnu. L’IA permet de construire rapidement des démonstrations de qualité.
- L’IAG pose des interrogations sur l’éthique et les impacts environnementaux.
Participe à un atelier de la Fresque des IA pédagogiques.
Victoria Ronot – Ingénieure pédagogique
Ce qu’on retient du vocal :
- L’IA a forcément des biais qu’il faut prendre en compte. Il faut aussi savoir lui parler, et tenir compte que chaque IA a son propre langage.
- La démarche d’expérimentation est essentielle pour monter en compétences sur l’IA.
- L’IA peut faire gagner du temps, mais si on choisit les mauvais outils, cela peut être très chronophage : il vaut mieux enfoncer un clou avec un marteau, plutôt qu’une vis.
Amandine Gevas – Ingénieure pédagogique
Ce qu’on retient du vocal :
- L’IA a un impact écologique considérable, et notamment la demande en énergie croissante d’une technologie gourmande dans un monde sous contrainte énergétique.
- Il faut réfléchir de façon systémique, et sortir de la pensée en silo : l’IA ne serait-elle pas une mal-adaptation face à notre course effrénée de la productivité ?
- La course au gain de temps nous empêche de nous poser des questions essentielles.
Aller plus loin
- « La Bataille de l’IA » de Latitudes [Jeu de cartes]
- « Accessibilité – Qui est le plus irresponsable : l’IA qui pollue ou l’humain qui exclut ? » par Sophie Drouvroy via 24 jours de web, en 2024 [Article de blog]
- « Électricité, eau, minéraux, CO2 : on a tenté de mesurer l’empreinte écologique de ChatGPT » par Justine Prados via Vert, en 2024 [Article de blog]
- « L’intelligence artificielle est-elle sexiste ? » avec Flora Vincent via Anti-brouillard, en 2019 [Episode de podcast]
- « AI’s emissions are about to skyrocket even further » par James O’Donnellarchive via MIT, en 2024 [Article de blog]
- « IA Frugale : 31 ressources décryptées » par Rémy Marrone [Base de données d’articles]
Est-ce que je peux réutiliser cet article ?
Attribution – Pas d’Utilisation Commerciale – Partage dans les Mêmes Conditions
Cela signifie, que tu es autorisé·e à partager ce article par tous les moyens et sous tout formats, à condition de créditer Ed For Good et l’auteur·rice, indiquer si des modifications ont été effectuées en intégrant un lien vers la licence (sans toutefois suggérer qu’Ed For Good, l’auteur·rice ou les interviewé·e·s te soutiennent), et ne pas en faire un usage commercial.