top of page

L'Acte sur l'IA de l'UE et l'enseignement supérieur : Quels impacts?

  • 2 févr.
  • 8 min de lecture

IA acte et l'enseignement supérieur

Imaginez que vous construisez une maison. Vous devez suivre des règles de construction pour garantir la sécurité de ses habitants. C'est exactement ce que fait la loi européenne sur l'IA : elle établit les premières règles de construction pour une IA sûre et digne de confiance basées sur une approche par niveau de risque.





Une réglementation qui se déploie progressivement

Comprendre le calendrier est essentiel. Comme pour la construction d'un immeuble, tout ne se fait pas en même temps. L'IA Act se met en place par étapes :

Le 1er août 2024 marque le début officiel, comme la pose de la première pierre. Le 2 février 2025 représente une étape cruciale pour l'éducation, car c'est là que les règles spécifiques à ce secteur entrent en vigueur. L'édifice sera complètement terminé le 2 août 2026, date à laquelle toutes les règles seront applicables.


Focus sur le secteur de l'éducation : une classification "haut risque"


Pensez à l'impact qu'un jury d'admission peut avoir sur la vie d'un apprenant. Maintenant, imaginez un système d'IA prenant des décisions similaires. C'est précisément pourquoi l'IA Acte considère les systèmes d'IA utilisés dans l'éducation ou la formation professionnelle comme "à haut risque" car ils peuvent "déterminer le parcours éducatif et professionnel d'une personne et avoir une incidence sur sa capacité à assurer sa propre subsistance." (Article 56)


Cette classification concerne quatre types de systèmes, chacun ayant un impact significatif :

  • Les systèmes d'admission et d'affectation des étudiants

  • Les systèmes d'évaluation des acquis d'apprentissage

  • Les systèmes déterminant le niveau d'enseignement approprié

  • Les systèmes de surveillance des examens et de détection des comportements.


Une attention particulière est portée à la prévention des discriminations. Le système ne doit pas désavantager certains groupes, que ce soit en raison du genre, de l'âge, du handicap, de l'origine ou de l'orientation sexuelle. C'est comme s'assurer qu'un bâtiment est accessible à tous.

Source Article 6- Considérant 56 :

(56) Le déploiement de systèmes d’IA dans l’éducation est important pour promouvoir une éducation et une formation numériques de qualité et pour permettre à tous les apprenants et enseignants d’acquérir et de partager les aptitudes et compétences numériques nécessaires, y compris l’éducation aux médias, ainsi que l’esprit critique, pour participer activement à l’économie, à la société et aux processus démocratiques.


Toutefois, les systèmes d’IA utilisés dans l’éducation ou la formation professionnelle, en particulier pour déterminer l’accès ou l’admission, pour affecter des personnes à des établissements ou programmes d’enseignement et de formation professionnelle à tous les niveaux, pour évaluer les acquis d’apprentissage des personnes, pour évaluer le niveau d’enseignement approprié d’une personne et influencer substantiellement le niveau d’enseignement et de formation dont bénéficiera cette personne ou auquel elle pourra avoir accès ou pour surveiller les étudiants au cours des épreuves et détecter les comportements interdits dans ce cadre devraient être classés comme étant à haut risque, car ils peuvent déterminer le parcours éducatif et professionnel d’une personne et peut par conséquent avoir une incidence sur la capacité de cette personne à assurer sa propre subsistance.


Lorsqu’ils sont mal conçus et utilisés, ces systèmes peuvent être particulièrement intrusifs et mener à des violations du droit à l’éducation et à la formation ainsi que du droit à ne pas subir de discriminations, et perpétuer des schémas historiques de discrimination, par exemple à l’encontre des femmes, de certains groupes d’âge, des personnes handicapées ou de certaines personnes en raison de leur origine raciale ou ethnique ou de leur orientation sexuelle.


Qui est concerné ? Une distinction essentielle


Dans le monde de la construction, nous avons les architectes qui conçoivent le bâtiment (les fournisseurs d'IA), et les maîtres d'ouvrage qui dirigent le projet de construction (les déployeurs).

L'IA Act définit précisément le déployeur comme toute personne physique ou morale utilisant sous sa propre autorité un système d'IA dans un cadre professionnel.


Source Article 3- Définition:

(3) "fournisseur" : une personne physique ou morale, une autorité publique, une agence ou un autre organisme qui développe ou fait développer un système d'IA ou un modèle d'IA à usage général et le met sur le marché ou met le système d'IA en service sous son propre nom ou sa propre marque, que ce soit à titre onéreux ou gratuit ;


(4) "déployeur", une personne physique ou morale, une autorité publique, une agence ou un autre organisme utilisant un système d'IA sous son autorité, sauf si le système d'IA est utilisé dans le cadre d'une activité personnelle non professionnelle.

[Considérant 13:

La notion de "déployeur" visée dans le présent règlement doit être interprétée comme désignant toute personne physique ou morale, y compris une autorité publique, une agence ou un autre organisme, qui utilise un système d'IA sous son autorité, sauf lorsque le système d'IA est utilisé dans le cadre d'une activité personnelle non professionnelle. Selon le type de système d'IA, l'utilisation du système peut concerner d'autres personnes que le déployeur.]




Dans l'éducation et la formation professionnelle, nous pouvons penser que les déployeurs seront les écoles, les établissement d'enseignement supérieurs, les organismes de formation..etc



Les nouvelles règles du jeu pour les déployeurs


Tout comme un maître d'ouvrage doit s'assurer de la conformité de son bâtiment, les déployeurs ont des responsabilités spécifiques :


Pour mieux comprendre les obligations quotidiennes des déployeurs de systèmes d'IA à haut risque, imaginons le fonctionnement d'une école qui utilise un système d'évaluation automatisée des apprentissages.


Tout d'abord, l'établissement doit suivre scrupuleusement le "mode d'emploi" fourni par le développeur du système. C'est comme utiliser un équipement sophistiqué : il y a des procédures à respecter pour garantir un fonctionnement optimal et sécurisé.


La surveillance humaine est fondamentale. Par exemple, un enseignant doit toujours superviser le système d'évaluation, vérifier ses résultats et pouvoir intervenir si nécessaire. Ce n'est pas différent d'un intervenant qui superviserait un assistant : il reste responsable des décisions finales.


La qualité des données est également cruciale. Si l'école utilise le système pour évaluer des travaux d'étudiants, elle doit s'assurer que les copies sont correctement numérisées et que tous les critères d'évaluation sont bien définis. C'est comme s'assurer qu'un intervenant dispose de tous les éléments nécessaires pour noter équitablement.


Un aspect important concerne la traçabilité : l'école doit conserver pendant au moins six mois tous les enregistrements générés par le système, comme un journal détaillant chaque évaluation réalisée. C'est similaire à la conservation des copies d'examen pendant une période définie.


La transparence est également essentielle. Avant d'utiliser le système, l'école doit informer tous les membres du personnel concernés. C'est comme prévenir les intervenants de l'introduction d'une nouvelle méthode pédagogique dans leur formation.


Enfin, si quelque chose ne va pas - par exemple si le système commence à produire des évaluations incohérentes - l'école doit immédiatement alerter le fournisseur et les autorités compétentes. C'est comparable à signaler un problème de sécurité dans un établissement : la rapidité de réaction est cruciale.


Un dernier point important : le système doit être officiellement enregistré dans la base de données de l'UE pour être utilisé légalement.

Toutes ces obligations s'intègrent dans un cadre plus large de protection des données personnelles et de coopération avec les autorités. C'est un système complet qui vise à garantir une utilisation responsable et sécurisée de l'IA dans l'éducation.


(Source: Article 26)



L'avenir de l'IA dans l'enseignement supérieur


Cette réglementation peut sembler contraignante, mais elle est comparable aux normes de sécurité dans la construction : elles peuvent paraître complexes, mais elles sont essentielles pour garantir la sécurité de tous. L'objectif n'est pas de freiner l'innovation, mais de s'assurer que l'IA dans l'éducation se développe de manière éthique et responsable, en protégeant les droits de chaque apprenant.

Cette nouvelle ère de l'IA réglementée dans l'éducation ouvre la voie à des innovations plus sûres et plus équitables, où la technologie sert véritablement l'apprentissage tout en respectant les droits fondamentaux de chacun.


FAQ : IA Act et enseignement supérieur


Qu'est-ce que l'IA Act et pourquoi concerne-t-il l'enseignement supérieur ?


L'IA Act est le premier règlement européen encadrant l'utilisation de l'intelligence artificielle. Il concerne l'enseignement supérieur parce qu'il classe les systèmes d'IA utilisés dans l'éducation et la formation professionnelle comme "à haut risque", en raison de leur capacité à déterminer le parcours éducatif et professionnel d'une personne. Les établissements qui déploient ces systèmes sont soumis à des obligations précises depuis le 2 février 2025.


L'IA Act introduit une logique de responsabilité partagée entre ceux qui développent les systèmes et ceux qui les utilisent. Dans l'enseignement supérieur, les établissements sont des déployeurs : ils n'ont pas nécessairement conçu les outils qu'ils utilisent, mais ils en sont responsables dans leur usage. Cela signifie que même l'utilisation d'un outil tiers, un système d'évaluation automatisée, un outil d'admission, une plateforme de surveillance d'examens engage la responsabilité de l'établissement dès lors qu'il entre dans la classification haut risque. La question que chaque établissement doit se poser n'est donc pas "peut-on utiliser ce système ?" mais "avons-nous mis en place les processus nécessaires pour l'utiliser conformément au règlement ?".


Quels systèmes d'IA sont classés à haut risque dans l'éducation ?


Quatre catégories de systèmes sont classées à haut risque dans le secteur éducatif : les systèmes d'admission et d'affectation des étudiants, les systèmes d'évaluation des acquis d'apprentissage, les systèmes déterminant le niveau d'enseignement approprié, et les systèmes de surveillance des examens et de détection des comportements interdits. Cette classification s'applique à tous les niveaux de formation, de l'enseignement supérieur à la formation professionnelle.


La classification haut risque ne signifie pas que ces systèmes sont interdits. Elle signifie qu'ils sont autorisés sous conditions strictes. Un système d'évaluation automatisée peut être utilisé dans un établissement à condition que les obligations de surveillance humaine, de traçabilité, de transparence et de gestion des incidents soient respectées. C'est un changement de posture important qui implique les équipes pédagogiques, les équipes informatiques et les directions. Les établissements qui traitent ces obligations comme une contrainte administrative les subiront. Ceux qui les intègrent dans leur démarche qualité existante les transformeront en levier d'amélioration de leurs pratiques.


Quelle est la différence entre un fournisseur et un déployeur dans l'IA Act ?


Le fournisseur est celui qui développe et commercialise le système d'IA. Le déployeur est celui qui l'utilise dans un cadre professionnel. Dans l'enseignement supérieur, les établissements sont dans la quasi-totalité des cas des déployeurs. Cette distinction détermine le niveau et la nature des obligations de chacun. Le fournisseur est responsable de la conception du système, de sa conformité technique et de sa documentation. Le déployeur est responsable de son usage : surveillance humaine, qualité des données, traçabilité, information du personnel, gestion des incidents.


Comment un établissement peut-il se préparer à la conformité IA Act ?


La préparation passe par trois étapes successives. Un audit des usages actuels de l'IA dans l'établissement pour identifier les systèmes qui entrent dans la classification haut risque. Une analyse des obligations applicables à chaque système identifié au regard du règlement. La mise en place des processus de gouvernance requis : procédures de surveillance humaine, conservation des enregistrements, information du personnel, plan de gestion des incidents et enregistrement dans la base de données européenne.


La mise en conformité ne se réalise pas en quelques semaines. Elle nécessite une coordination entre les équipes pédagogiques, les équipes informatiques, les directions et les services juridiques. Les établissements qui s'en sortent le mieux sont ceux qui traitent la conformité IA Act comme une démarche qualité à part entière, avec un pilotage clair, des responsabilités définies et un suivi dans la durée. Les établissements qui attendent l'échéance de 2026 pour agir se retrouveront à gérer une mise en conformité dans l'urgence. La mise en conformité nécessite une expertise juridique spécialisée : cet article offre une vue d'ensemble, pas un conseil juridique.




Commentaires


Les commentaires sur ce post ne sont plus acceptés. Contactez le propriétaire pour plus d'informations.
bottom of page