Ce que dit le règlement européen applicable en France depuis le 2 août 2025 ?
Les fournisseurs d’IA (entreprises qui créent ou modifient un outil d’IA) doivent établir une documentation claire permettant de savoir d’où viennent les données utilisées, comment fonctionne l’outil, quelles sont ses limites ou erreurs possibles, et présente-t-il des risques de biais ou de discriminations ? Et plus précisément :
- Quelles sont les bases d’entraînement de l’outil d’IA ? Comment le système fonctionne-t-il ? Quelles commandes est-il censé mettre en œuvre ? Quels sont les réglages de l’outil ?
- Quelles sont les bases de données de l’outil d’IA ? Où les informations sont-elles récupérées pour produire des données ? Les bases de données empêchent-elles les biais ?
- Quelle est la fiabilité de l’outil d’IA ? Fait-il des erreurs ?
Les fournisseurs d’IA doivent également prouver que ces outils ne génèrent pas de « risque systémique ». Concrètement, il s’agit de vérifier que l’IA ne crée pas de danger, c’est à dire « un risque spécifique aux capacités à fort impact des modèles d’IA à usage général, ayant une incidence significative sur le marché de l’Union en raison de leur portée ou d’effet négatifs réels ou raisonnablement prévisibles sur la santé publique, la sûreté, la sécurité publique, les droits fondamentaux ou la société dans son ensemble, pouvant être propagé à grande échelle tout au long de la chaîne de valeur » (Article 3, 65, du RIAct). Ils doivent envoyer cette documentation à la Commission européenne.
La CGT revendique que les outils d’IA soient certifiés en amont par des instances pluralistes, indépendantes et représentatives de la société civile, afin de garantir l’explicabilité, la fiabilité, et l’absence de biais systématiques de l’IA.
Que se passe-t-il dans les entreprises ?
Dès qu’une entreprise crée ou achète un outil d’IA et le modifie pour répondre à ses besoins, elle devient elle-même « fournisseur d’IA ». Elle est donc soumise aux obligations du règlement.
Cela signifie que les représentant·es du personnel peuvent exiger :
-
de vérifier que les IA utilisées respectent bien la loi,
-
d’avoir accès à la documentation,
-
de savoir si les IA de l’entreprise sont classées ou non « à risque systémique » par la Commission européenne.
Une « autorité nationale compétente » est chargée du contrôle du respect de ces obligations. Pour l’instant la Cnil n’a pas été formellement désignée pour mettre en œuvre cette mission.
En France, une « autorité nationale compétente » doit contrôler l’application de ces obligations. Pour l’instant, la Cnil n’a pas été officiellement désignée pour assurer cette mission.
Un nouvel outil pour agir dans les CSE
Cette mise en application est une bonne occasion de demander un état des lieux sérieux des outils d’IA dans l’entreprise .
Vous trouverez ci-après un modèle de courrier à transmettre à l’employeur pour qu’il ouvre le débat dans le CSE, voire des négociations dans l’entreprise.
Modèle de courrier à destination de l’employeur :
Bonjour, L’IA Act (règlement n°2024/1689) a été adopté en 2024 par l’Union européenne et certaines de ses dispositions sont entrées en vigueur le 2 août 2025 – c’est le cas notamment du chapitre V qui concerne les modèles d’IA à usage général (par exemple les IA génératives que sont les grands modèles de langage comme ChatGPT). Ainsi, merci de bien vouloir mettre les questions suivantes à l’ordre du jour de la prochaine réunion du CSE :
En vous remerciant par avance pour la mise à l’ordre du jour de ces questions lors de la prochaine réunion du CSE. Syndicalement, La CGT |
Par ailleurs, et pour rappel (cf. l’IA au travail – tout savoir sur ses droits en 16 questions – question 11), l’employeur a l’obligation de consulter le CSE sur l’introduction de nouvelles technologies en application de l’article L2312-8 4° du code du travail.
➡️ Pour aller plus loin cliquez ici
Qu’est-ce que l’IA Act ?
Le règlement sur l’intelligence artificiel ( RIA ou RIAct) a été publié au Journal officiel de l’Union européenne le 12 juillet 2024, c’est le premier acte législatif dédié entièrement à l’IA. Il constitue une base juridique pour les États membres de l’UE et concerne majoritairement l’entrée sur le marché des systèmes d’IA. Il vise notamment à classer les systèmes d’IA en fonctions de risques et déterminent les obligations s’appliquent aux fournisseurs des systèmes d’IA.
L’entrée en vigueur du RIAct est progressive, certaines dispositions sont déjà entrées en vigueur le 2 février 2025, d’autres sont entrer en vigueur le 2 août 2025 et la quasi-intégralité du règlement entrera en vigueur le 2 août 2026. C’est le cas, par exemple, des sanctions contre les fournisseurs d’IA, elles pourront aller jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial.
IA : la position de la CGT
Pour la CGT le règlement UE sur l’IA est insuffisant, c’est la raison pour laquelle la CGT réclame, au sein de la CES, une véritable directive sur l’IA et le travail. Il n’est pas normal que la Commission européenne ait abandonné le projet de directive sur la responsabilité de l’IA. Enfin la CGT reste vigilante à la transposition ambitieuse de la directive sur les travailleurs de plateforme qui contient toute une partie sur le management algorithmique.