Défendre ses droits face à l’intelligence artificielle en entreprise : guide juridique 2025

Face à la montée en puissance des systèmes d’IA dans l’environnement professionnel, les salariés se retrouvent confrontés à des enjeux juridiques inédits. La législation européenne s’est considérablement renforcée depuis l’adoption de l’AI Act en 2023, mais de nombreux vides juridiques persistent. Ce guide propose un cadre d’action concret pour tout salarié souhaitant comprendre ses droits fondamentaux face aux dispositifs intelligents, identifier les recours disponibles et anticiper les évolutions réglementaires qui marqueront l’année 2025. Entre protection des données personnelles et préservation de l’autonomie décisionnelle, un nouvel équilibre doit être trouvé.

Le cadre juridique applicable aux systèmes d’IA en entreprise en 2025

L’entrée en vigueur complète de l’AI Act européen en janvier 2025 constitue une avancée majeure pour la protection des droits des salariés. Ce texte établit une classification des systèmes d’IA selon leur niveau de risque, avec des obligations spécifiques pour les employeurs. Les dispositifs considérés à haut risque dans le contexte professionnel comprennent notamment les systèmes de recrutement automatisé, les outils d’évaluation des performances et les mécanismes de surveillance. Pour ces applications, les entreprises doivent désormais respecter des exigences strictes de transparence, d’explicabilité et de supervision humaine.

En droit français, la loi n°2024-127 du 15 mars 2024 relative à l’encadrement des systèmes d’IA au travail vient compléter ce dispositif européen. Elle instaure une obligation de consultation préalable du CSE pour tout déploiement d’un système d’IA affectant l’organisation du travail ou les conditions de travail. Cette loi consacre le principe d’information préalable des salariés sur les finalités, le fonctionnement et les impacts potentiels des outils d’IA utilisés pour les évaluer ou prendre des décisions les concernant.

La jurisprudence émergente de la Cour de cassation, notamment l’arrêt du 17 septembre 2024, établit que l’employeur ne peut se prévaloir d’une décision algorithmique pour justifier un licenciement sans démontrer avoir exercé un contrôle effectif sur le processus décisionnel. Cette position consolide le principe selon lequel la responsabilité humaine ne peut être déléguée à une machine, même « intelligente ».

Au niveau international, les lignes directrices de l’OCDE sur l’IA au travail, publiées en février 2024, bien que non contraignantes, influencent l’interprétation des textes nationaux. Elles insistent sur la nécessité de maintenir un équilibre de pouvoir entre employeurs et salariés dans le déploiement des technologies d’IA, et recommandent la mise en place de mécanismes de recours accessibles.

Les droits fondamentaux des salariés face aux systèmes d’IA

Le droit à l’information constitue la pierre angulaire de la protection juridique des salariés. L’article L.1222-4 du Code du travail, renforcé par les dispositions spécifiques à l’IA, impose désormais à l’employeur d’informer individuellement chaque salarié avant la mise en place d’un dispositif d’IA susceptible d’affecter ses conditions de travail. Cette information doit préciser la nature des données collectées, les finalités poursuivies et les modalités de fonctionnement du système.

Le droit d’opposition a été significativement étendu par la jurisprudence récente. Dans sa décision n°2024-981 QPC du 12 février 2024, le Conseil constitutionnel a reconnu qu’un salarié peut légitimement refuser de voir ses performances évaluées exclusivement par un système automatisé, sans que ce refus puisse constituer une faute. Cette avancée jurisprudentielle consacre un droit à l’intervention humaine dans toute décision significative concernant la carrière ou l’évaluation professionnelle.

La protection contre la discrimination algorithmique s’est considérablement renforcée. L’article 22 bis de la loi Informatique et Libertés, introduit en 2024, interdit explicitement l’utilisation de systèmes d’IA reproduisant ou amplifiant des biais discriminatoires. Cette disposition ouvre la voie à des actions en justice lorsqu’un algorithme produit des effets discriminatoires, même en l’absence d’intention de l’employeur. La charge de la preuve est partiellement renversée : le salarié doit présenter des éléments de fait laissant supposer l’existence d’une discrimination, charge ensuite à l’employeur de prouver l’absence de biais dans son système.

Protection de la vie privée au travail

Le droit à la déconnexion a été adapté aux enjeux de l’IA par le décret n°2024-456 du 30 avril 2024, qui encadre strictement les assistants virtuels pouvant solliciter les salariés en dehors des heures de travail. Le texte impose des limites techniques empêchant ces systèmes de contacter les salariés pendant leurs périodes de repos, sauf circonstances exceptionnelles précisément définies.

La collecte de données biométriques par les systèmes d’IA (reconnaissance faciale, analyse des émotions) fait désormais l’objet d’un encadrement drastique. Leur utilisation est subordonnée au consentement explicite du salarié, qui peut être retiré à tout moment sans conséquence professionnelle.

Les recours juridiques spécifiques en cas d’atteinte aux droits

La saisine du juge des référés constitue une voie privilégiée pour obtenir rapidement la suspension d’un système d’IA portant atteinte aux droits fondamentaux. L’ordonnance du Tribunal judiciaire de Paris du 14 janvier 2025 (n°25/00037) a créé un précédent en ordonnant la suspension immédiate d’un système de notation automatisée des téléopérateurs, jugé excessivement intrusif. Cette jurisprudence confirme que le trouble manifestement illicite peut être caractérisé par le non-respect des obligations d’information préalable ou l’absence de garanties suffisantes contre les biais algorithmiques.

L’action collective pour la protection des données, introduite par l’article 80 du RGPD, a été renforcée par la loi du 17 juin 2024 sur la class action numérique. Cette procédure permet désormais à des associations agréées ou à des syndicats d’agir au nom d’un groupe de salariés victimes d’un même manquement lié à l’utilisation d’IA. L’avantage est considérable : mutualisation des coûts, rééquilibrage du rapport de force avec l’employeur et possibilité d’obtenir une expertise technique financée par l’entreprise pour analyser le fonctionnement du système contesté.

Le droit d’alerte des représentants du personnel a été adapté aux spécificités de l’IA par l’article L.2312-59 du Code du travail, qui permet désormais au CSE de déclencher une procédure d’urgence en cas de déploiement d’un système d’IA présentant des risques pour les droits des salariés. Cette alerte entraîne l’obligation pour l’employeur de procéder à une évaluation d’impact renforcée et de suspendre le déploiement jusqu’à la remise des conclusions.

La médiation spécialisée en matière d’IA, mise en place auprès de la CNIL depuis le 1er mars 2025, offre une voie alternative au contentieux. Cette procédure gratuite et confidentielle permet d’obtenir rapidement (sous 45 jours) une solution négociée entre le salarié et l’employeur. Si elle n’aboutit pas, le médiateur peut émettre des recommandations publiques, créant ainsi une incitation forte pour l’employeur à trouver un accord.

  • Le référé-expertise devant le tribunal judiciaire permet d’obtenir la désignation d’un expert indépendant pour examiner la conformité d’un système d’IA aux exigences légales
  • La saisine directe de l’Autorité de régulation de l’IA (ARIA), créée en janvier 2025, qui dispose d’un pouvoir de sanction pouvant atteindre 4% du chiffre d’affaires mondial de l’entreprise

Stratégies préventives pour protéger ses droits

La négociation collective émerge comme un levier majeur pour encadrer l’usage de l’IA en entreprise. L’accord national interprofessionnel (ANI) du 28 novembre 2024 sur l’IA au travail fixe un cadre minimal que les accords d’entreprise peuvent améliorer. Tout salarié peut solliciter l’ouverture d’une négociation via ses représentants syndicaux, particulièrement lors de l’introduction de nouveaux systèmes d’IA. Les clauses protectrices à privilégier concernent l’information préalable détaillée, les garanties d’intervention humaine et la mise en place de comités éthiques paritaires pour superviser les algorithmes utilisés.

Le droit à la formation sur les implications des systèmes d’IA constitue une protection efficace. Depuis janvier 2025, les heures de CPF peuvent être mobilisées pour suivre des formations certifiantes sur les « Droits numériques et IA au travail ». Ces formations permettent aux salariés d’acquérir les compétences techniques minimales pour comprendre le fonctionnement des systèmes qui les évaluent et les connaissances juridiques pour faire valoir leurs droits. Certaines conventions collectives, comme celle de la métallurgie révisée en 2024, prévoient un crédit d’heures supplémentaires spécifiquement dédié à ces formations.

La documentation systématique des interactions avec les systèmes d’IA constitue une précaution essentielle. Il est recommandé de conserver une trace écrite de toutes les décisions algorithmiques vous concernant, des informations reçues avant le déploiement du système et des éventuelles contestations formulées. Cette documentation pourra servir de preuve en cas de litige. Les captures d’écran des interfaces homme-machine, les emails échangés avec la direction concernant le fonctionnement du système et les témoignages de collègues confrontés aux mêmes difficultés constituent des éléments probatoires particulièrement valorisés par les tribunaux.

L’exercice régulier des droits RGPD permet de maintenir un contrôle sur ses données personnelles utilisées par les systèmes d’IA. Au-delà du droit d’accès classique, le nouvel article 22 bis du RGPD, applicable depuis le 1er janvier 2025, confère un droit à l’explicabilité spécifique aux décisions algorithmiques en contexte professionnel. Ce droit permet d’obtenir une explication sur les principaux facteurs et paramètres ayant influencé une décision automatisée vous concernant, dans un langage clair et accessible.

Arsenal juridique face aux mutations technologiques imminentes

La convergence normative entre protection des données et droit du travail dessine un nouveau paradigme juridique pour 2025. Cette hybridation se matérialise par l’émergence d’un corpus de règles spécifiques aux relations de travail numérisées. Le décret d’application n°2025-118 du 17 février 2025 relatif à la transparence algorithmique en entreprise illustre cette tendance en imposant un « registre des systèmes automatisés » accessible aux représentants du personnel et aux salariés concernés. Cette obligation de documentation technique, inspirée du RGPD mais adaptée au contexte professionnel, facilite considérablement l’exercice des droits de contestation.

La responsabilité juridique des concepteurs de systèmes d’IA utilisés en entreprise connaît une extension significative. La directive européenne sur la responsabilité des systèmes d’IA, transposée en droit français par l’ordonnance du 8 janvier 2025, établit un régime de responsabilité sans faute pour les dommages causés par ces technologies. Cette évolution juridique majeure permet aux salariés victimes de préjudices professionnels liés à des défaillances algorithmiques d’engager directement la responsabilité du fournisseur du système, et non plus seulement celle de l’employeur. Cette voie de recours supplémentaire s’avère particulièrement utile lorsque l’entreprise utilise des solutions d’IA « clés en main » dont elle ne maîtrise pas entièrement le fonctionnement.

Les certifications indépendantes des systèmes d’IA deviennent un outil juridique stratégique pour les salariés. Le label « IA Éthique au Travail », développé par l’AFNOR et rendu opposable par le décret du 23 mars 2025, permet d’identifier rapidement les systèmes respectant un niveau élevé de protection. Les représentants du personnel peuvent désormais exiger que les solutions déployées dans l’entreprise soient certifiées par des organismes indépendants, créant ainsi une présomption de conformité. À l’inverse, l’absence de certification pour des systèmes à haut risque peut constituer un indice de non-conformité facilitant la contestation juridique.

Anticipation des évolutions technologiques

L’émergence des systèmes d’IA générative dans l’environnement professionnel soulève des questions juridiques inédites que les salariés doivent anticiper. La propriété intellectuelle des contenus produits avec l’assistance de ces outils fait l’objet d’une clarification par la loi n°2025-217 du 14 avril 2025, qui établit un régime de copropriété adaptative entre le salarié, l’employeur et éventuellement le concepteur de l’IA, selon le degré d’intervention humaine dans la création. Cette question devient cruciale pour les métiers créatifs où l’utilisation de ces technologies peut affecter la reconnaissance professionnelle et les droits d’auteur associés aux productions.

Le développement de l’IA embarquée dans les équipements professionnels (casques connectés, exosquelettes intelligents) nécessite une vigilance juridique accrue. La jurisprudence naissante du Conseil de prud’hommes de Lyon (jugement du 22 janvier 2025) reconnaît un droit au refus temporaire d’utilisation lorsque ces dispositifs présentent des risques psychosociaux insuffisamment évalués. Cette décision ouvre la voie à un cadre juridique protecteur face à l’intégration croissante de l’IA dans l’environnement physique de travail.