On parle beaucoup d’intelligence artificielle, et même sûrement trop.
Elle est partout, et dans le secteur de la formation, elle est déjà bien ancrée dans les pratiques : 71 % des professionnels de la formation l’utilisent au moins une fois par semaine (source).
Avec l’AI Act, cette réalité va évoluer. Ce règlement européen impose un cadre plus strict à l’usage de l’IA, notamment dans les processus d’apprentissage. Les organismes de formation sont directement concernés et doivent se préparer dès maintenant.
vise à encadrer l’utilisation de l’intelligence artificielle au sein de l’Union européenne. Son objectif : garantir une IA sécurisée, transparente et respectueuse des droits fondamentaux.
Comme évoqué plus haut, les organismes de formation utilisent de plus en plus l’IA.
Dans l’évaluation des apprenants, la personnalisation des parcours ou encore la gestion de la formation. Ces usages sont classés comme “à haut risque” par l’AI Act et seront donc soumis à des obligations spécifiques. En vous explique en détail plus bas ⬇️
L'AI Act définit l'intelligence artificielle comme des “systèmes développés au moyen de techniques d'apprentissage automatique, de logique et de statistiques, capables de générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements qu'ils affectent”.
L’AI Act a plusieurs objectifs :
Le règlement opte pour une approche basée sur les risques en classant les systèmes d’IA en différentes catégories :
Cette catégorisation est faite en fonction de l’usage prévu de la technologie, et non du fonctionnement de la technologie sous-jacente. L’AI Act impose des obligations proportionnelles au niveau de risque associé.
Dès février 2025, les organismes de formation utilisant des systèmes d’IA classés à haut risque devront se conformer à des obligations strictes.
L’IA est de plus en plus intégrée aux processus de formation : admission, notation, personnalisation des parcours… Lorsqu’elle impacte des décisions cruciales pour les apprenants, elle est considérée comme “à haut risque” et soumise à des exigences renforcées en matière de transparence, de sécurité et de supervision humaine.
Les systèmes d’IA utilisés pour :
💡 Point de vigilance : Les OFs devront également être attentifs aux fournisseurs de solutions IA qu’ils utilisent, notamment pour les LMS, outils d’évaluation ou logiciels de gestion intégrant de l’IA. Ces prestataires doivent garantir la conformité aux exigences de l’AI Act.
Avec l’essor des technologies d’IA dans la formation, les organismes doivent s’assurer que leurs outils et partenaires respectent les nouvelles obligations. Dès février 2025, ces exigences seront pleinement appliquées, imposant des normes plus strictes pour les usages jugés sensibles.
Les sanctions prévues pour le non-respect des exigences peuvent aller de 7,5 à 35 millions d’euros d’amende ou 1 à 7% du chiffre d’affaires mondial de l’entreprise en fonction de la nature des exigences et des dispositions enfreintes.
À partir de février 2025, les systèmes à haut risque devront progressivement respecter certaines exigences. Vous l’aurez compris, les usages les plus communs de l’IA par les OFs font partie de cette catégorie. Cela concernera notamment :
Les systèmes d’IA à haut risque seront soumis à des obligations avant de pouvoir être mis sur le marché. Elles sont inscrites dans les articles 8 à 15 :
Les “déployeurs”, définis comme “personne physique ou morale, autorité publique, agence ou autre organisme utilisant un système d’IA sous son autorité” sont soumis à des obligations spécifiques. La plupart des OFs tombent dans cette catégorie. Par exemple, un OF qui utilise un système d’IA pour générer automatiquement des descriptions de cours ou des mails adressés à ses clients.
En août 2025, d’autres règles commenceront à s’appliquer, et des ajustements et mises à jour sont prévus jusqu’en 2031.
1️⃣ Identifier les usages de l’IA dans votre organisme
2️⃣ Vérifier la conformité des outils utilisés
3️⃣ Mettre en place un contrôle humain
4️⃣ Sensibiliser vos équipes à l’IA et aux nouvelles obligations
5️⃣ Anticiper les futures évolutions réglementaires
💡 Bon à savoir : Un outil en ligne permet d’évaluer la conformité de vos usages à l’AI Act. Testez-le ici.
Selon le Baromètre IA de Septeo Education, les organismes de formation adoptent largement l’IA. Voici quelques usages courants :
Ces pratiques vont évoluer avec l’AI Act, et les OFs doivent s’adapter en assurant une IA maîtrisée et conforme aux nouvelles exigences.
Découvrez comment Dendreo intègre une IA responsable ici : En savoir plus sur l’IA dans Dendreo