top of page

L'Acte sur l'IA de l'UE et l'enseignement supérieur : Quels impacts?

  • Photo du rédacteur: Lab4Ed
    Lab4Ed
  • 7 févr.
  • 5 min de lecture

Dernière mise à jour : 3 nov.


IA acte et l'enseignement supérieur

Imaginez que vous construisez une maison. Vous devez suivre des règles de construction pour garantir la sécurité de ses habitants. C'est exactement ce que fait la loi européenne sur l'IA : elle établit les premières règles de construction pour une IA sûre et digne de confiance basées sur une approche par niveau de risque.





Une réglementation qui se déploie progressivement

Comprendre le calendrier est essentiel. Comme pour la construction d'un immeuble, tout ne se fait pas en même temps. L'IA Act se met en place par étapes :

Le 1er août 2024 marque le début officiel, comme la pose de la première pierre. Le 2 février 2025 représente une étape cruciale pour l'éducation, car c'est là que les règles spécifiques à ce secteur entrent en vigueur. L'édifice sera complètement terminé le 2 août 2026, date à laquelle toutes les règles seront applicables.


Focus sur le secteur de l'éducation : une classification "haut risque"

Pensez à l'impact qu'un jury d'admission peut avoir sur la vie d'un apprenant. Maintenant, imaginez un système d'IA prenant des décisions similaires. C'est précisément pourquoi l'IA Acte considère les systèmes d'IA utilisés dans l'éducation ou la formation professionnelle comme "à haut risque" car ils peuvent "déterminer le parcours éducatif et professionnel d'une personne et avoir une incidence sur sa capacité à assurer sa propre subsistance." (Article 56)


Cette classification concerne quatre types de systèmes, chacun ayant un impact significatif :

  • Les systèmes d'admission et d'affectation des étudiants

  • Les systèmes d'évaluation des acquis d'apprentissage

  • Les systèmes déterminant le niveau d'enseignement approprié

  • Les systèmes de surveillance des examens et de détection des comportements.


Une attention particulière est portée à la prévention des discriminations. Le système ne doit pas désavantager certains groupes, que ce soit en raison du genre, de l'âge, du handicap, de l'origine ou de l'orientation sexuelle. C'est comme s'assurer qu'un bâtiment est accessible à tous.

Source Article 6- Considérant 56 :

(56) Le déploiement de systèmes d’IA dans l’éducation est important pour promouvoir une éducation et une formation numériques de qualité et pour permettre à tous les apprenants et enseignants d’acquérir et de partager les aptitudes et compétences numériques nécessaires, y compris l’éducation aux médias, ainsi que l’esprit critique, pour participer activement à l’économie, à la société et aux processus démocratiques.


Toutefois, les systèmes d’IA utilisés dans l’éducation ou la formation professionnelle, en particulier pour déterminer l’accès ou l’admission, pour affecter des personnes à des établissements ou programmes d’enseignement et de formation professionnelle à tous les niveaux, pour évaluer les acquis d’apprentissage des personnes, pour évaluer le niveau d’enseignement approprié d’une personne et influencer substantiellement le niveau d’enseignement et de formation dont bénéficiera cette personne ou auquel elle pourra avoir accès ou pour surveiller les étudiants au cours des épreuves et détecter les comportements interdits dans ce cadre devraient être classés comme étant à haut risque, car ils peuvent déterminer le parcours éducatif et professionnel d’une personne et peut par conséquent avoir une incidence sur la capacité de cette personne à assurer sa propre subsistance.


Lorsqu’ils sont mal conçus et utilisés, ces systèmes peuvent être particulièrement intrusifs et mener à des violations du droit à l’éducation et à la formation ainsi que du droit à ne pas subir de discriminations, et perpétuer des schémas historiques de discrimination, par exemple à l’encontre des femmes, de certains groupes d’âge, des personnes handicapées ou de certaines personnes en raison de leur origine raciale ou ethnique ou de leur orientation sexuelle.


Qui est concerné ? Une distinction essentielle


Dans le monde de la construction, nous avons les architectes qui conçoivent le bâtiment (les fournisseurs d'IA), et les maîtres d'ouvrage qui dirigent le projet de construction (les déployeurs).

L'IA Act définit précisément le déployeur comme toute personne physique ou morale utilisant sous sa propre autorité un système d'IA dans un cadre professionnel.


Source Article 3- Définition:

(3) "fournisseur" : une personne physique ou morale, une autorité publique, une agence ou un autre organisme qui développe ou fait développer un système d'IA ou un modèle d'IA à usage général et le met sur le marché ou met le système d'IA en service sous son propre nom ou sa propre marque, que ce soit à titre onéreux ou gratuit ;


(4) "déployeur", une personne physique ou morale, une autorité publique, une agence ou un autre organisme utilisant un système d'IA sous son autorité, sauf si le système d'IA est utilisé dans le cadre d'une activité personnelle non professionnelle.

[Considérant 13:

La notion de "déployeur" visée dans le présent règlement doit être interprétée comme désignant toute personne physique ou morale, y compris une autorité publique, une agence ou un autre organisme, qui utilise un système d'IA sous son autorité, sauf lorsque le système d'IA est utilisé dans le cadre d'une activité personnelle non professionnelle. Selon le type de système d'IA, l'utilisation du système peut concerner d'autres personnes que le déployeur.]




Dans l'éducation et la formation professionnelle, nous pouvons penser que les déployeurs seront les écoles, les établissement d'enseignement supérieurs, les organismes de formation..etc



Les nouvelles règles du jeu pour les déployeurs


Tout comme un maître d'ouvrage doit s'assurer de la conformité de son bâtiment, les déployeurs ont des responsabilités spécifiques :


Pour mieux comprendre les obligations quotidiennes des déployeurs de systèmes d'IA à haut risque, imaginons le fonctionnement d'une école qui utilise un système d'évaluation automatisée des apprentissages.

Tout d'abord, l'établissement doit suivre scrupuleusement le "mode d'emploi" fourni par le développeur du système. C'est comme utiliser un équipement sophistiqué : il y a des procédures à respecter pour garantir un fonctionnement optimal et sécurisé.

La surveillance humaine est fondamentale. Par exemple, un enseignant doit toujours superviser le système d'évaluation, vérifier ses résultats et pouvoir intervenir si nécessaire. Ce n'est pas différent d'un intervenant qui superviserait un assistant : il reste responsable des décisions finales.

La qualité des données est également cruciale. Si l'école utilise le système pour évaluer des travaux d'étudiants, elle doit s'assurer que les copies sont correctement numérisées et que tous les critères d'évaluation sont bien définis. C'est comme s'assurer qu'un intervenant dispose de tous les éléments nécessaires pour noter équitablement.

Un aspect important concerne la traçabilité : l'école doit conserver pendant au moins six mois tous les enregistrements générés par le système, comme un journal détaillant chaque évaluation réalisée. C'est similaire à la conservation des copies d'examen pendant une période définie.

La transparence est également essentielle. Avant d'utiliser le système, l'école doit informer tous les membres du personnel concernés. C'est comme prévenir les intervenants de l'introduction d'une nouvelle méthode pédagogique dans leur formation.

Enfin, si quelque chose ne va pas - par exemple si le système commence à produire des évaluations incohérentes - l'école doit immédiatement alerter le fournisseur et les autorités compétentes. C'est comparable à signaler un problème de sécurité dans un établissement : la rapidité de réaction est cruciale.

Un dernier point important : le système doit être officiellement enregistré dans la base de données de l'UE pour être utilisé légalement.

Toutes ces obligations s'intègrent dans un cadre plus large de protection des données personnelles et de coopération avec les autorités. C'est un système complet qui vise à garantir une utilisation responsable et sécurisée de l'IA dans l'éducation.


(Source: Article 26)



L'avenir de l'IA dans l'enseignement supérieur

Cette réglementation peut sembler contraignante, mais elle est comparable aux normes de sécurité dans la construction : elles peuvent paraître complexes, mais elles sont essentielles pour garantir la sécurité de tous. L'objectif n'est pas de freiner l'innovation, mais de s'assurer que l'IA dans l'éducation se développe de manière éthique et responsable, en protégeant les droits de chaque apprenant.

Cette nouvelle ère de l'IA réglementée dans l'éducation ouvre la voie à des innovations plus sûres et plus équitables, où la technologie sert véritablement l'apprentissage tout en respectant les droits fondamentaux de chacun.


Remarque importante : Cet article offre une vue d'ensemble, la mise en conformité nécessite une expertise juridique spécialisée.




Commentaires


Les commentaires sur ce post ne sont plus acceptés. Contactez le propriétaire pour plus d'informations.
bottom of page