L’introduction de l’intelligence artificielle, même en phase de test, nécessite la consultation du CSE

L’intelligence artificielle (IA) représente tout outil utilisé par une machine afin de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité.

Le déploiement de l’IA dans les entreprises risque d’entrainer des bouleversements qui auront des conséquences sociales indéniables. Les représentants du personnel devront être vigilants pour que ce déploiement ne se fasse pas de manière autocratique, l’idée ne doit pas être de remplacer l’humain mais de l’accompagner dans son travail.

Les systèmes d’IA peuvent être utilisés pour prendre des décisions influant sur les conditions des relations professionnelles, la promotion ou le licenciement, pour attribuer des tâches sur la base du comportement individuel, de traits de personnalité ou de caractéristiques personnelles, ou encore pour suivre et évaluer les performances et le comportement des travailleurs.

Dernièrement, le tribunal judiciaire de Nanterre a rappelé que l’introduction de l’intelligence artificielle, comme toute nouvelle technologie, doit être soumis pour information/consultation au CSE (TJ Nanterre, ord. référé, 14-2-25, n°24/01457).

Pour les magistrats de Nanterre, le déploiement de plusieurs applications informatiques intégrant l’IA, même lorsqu’il s’agit d’une simple expérimentation nécessaire à la présentation d’un projet plus abouti, nécessite la consultation du CSE.

La Cour de cassation avait déjà précisé que la mise en œuvre d’un projet à étapes suppose une consultation préalable du CSE à chaque étape (Cass. soc., 7-2-96, n°93-18756).

Autrement dit, l’information/consultation du CSE s’impose lors de l’introduction d’une IA, y compris lorsqu’il s’agit uniquement d’une phase test ou d’une phase pilote, dès lors que cet outil est utilisé par les salariés, même partiellement.

L’information/consultation du CSE doit permettre à celui-ci d’apprécier :

les conséquences sociales sur l’emploi (le but de l’IA, ses spécificités techniques et critères de fonctionnement, le nombre de salariés concernés par l’IA, l’impact à court, moyen et long terme sur les emplois, la sécurité du système et des données recueillies, les formations envisagées pour s’approprier l’IA, la part de l’humain dans la prise des décisions…) ;

son impact éventuel en termes de risques psychosociaux (parmi les risques identifiés : hausse excessive des tâches complexes pouvant conduire à une surcharge mentale du fait de l’automatisation des tâches répétitives et basiques, développement du management algorithmique pouvant entraîner une perte d’autonomie au travail, subordination déshumanisante à la machine, surveillance intrusive…) ;

ses conséquences environnementales et de formuler des propositions.

L’employeur doit veiller à fournir au CSE tous les documents nécessaires à l’évaluation des impacts du projet envisagé. En tout état de cause, le CSE peut désigner un expert pour évaluer les effets du déploiement de l’outil d’IA. En effet, l’article L 2315-94 du code du travail prévoit qu’un expert peut être désigné en cas d’introduction de nouvelles technologies ou de projet important modifiant les conditions de santé et de sécurité ou les conditions de travail des salariés (Cass. soc., 12-4-18, n°16-27866).

Le CSE peut demander la suspension du déploiement de l’IA dans l’entreprise tant qu’il n’aurait pas été informé/consulté sur celui-ci (Cass. soc., 6-3-12, n°10-30815). Par contre, lorsque la consultation du CSE a eu lieu mais qu’elle a été irrégulière, cette consultation irrégulière ne peut donner lieu qu’à une indemnisation du préjudice subi par le CSE (Cass. soc., 8-11-17, n°16-15584).

Lorsque l’employeur entend utiliser l’IA dans l’entreprise, il lui revient normalement d’intégrer dans le document unique d’évaluation des risques professionnels (DUERP) ceux associés à l’usage de l’IA. Enfin, les syndicats peuvent également décider d’engager une négociation collective sur l’IA avec l’employeur pour rendre le changement moins brutal.

A noter que le règlement européen du 13 juin 2024 sur l’intelligence artificielle, entré partiellement en vigueur le 2 février 2025, interdit strictement l’utilisation de l’IA pour la reconnaissance des émotions sur le lieu de travail.

A lire également