Archives: intelligence artificielle

Santé & Sécurité au Travail n°9

LES IMPACTS DE LA DIGITALISATION ET DE L’INTELLIGENCE ARTIFICIELLE (IA) sur la sécurité et la santé des travailleurs

Ce dossier, en lien avec le thème de la journée mondiale de la santé et sécurité au travail proposée chaque année depuis plus de vingt ans par l’Organisation Internationale du Travail, va explorer l’influence et surtout les conséquences de l’Intelligence Artificielle sur le monde du travail. FO Com souhaite ici alerter sur les conséquences de cette mutation : l’intelligence artificielle et la digitalisation ne doivent pas se faire au détriment de la santé et du bien-être des travailleurs.

Pour en savoir plus, lire notre document « Santé & Sécurité au travail » n°9 – Avril 2025

 

Gestion algorithmique et transparence

La gestion algorithmique se retrouve dans quatre catégories : le recrutement, le management, l’évaluation et la discipline.
Aujourd’hui une question se pose : comment la politique européenne a fixé les règles de déploiement des algorithmes avec des mesures en faveur d’une plus grande transparence sur le lieu de travail. Cela a démarré en juin 2019 par la directive sur les conditions de travail transparentes et prévisibles et le règlement Platform to Business.
La dernière proposition de directive relative à l’amélioration des conditions de travail dans le cadre du travail sur plateforme publiée en décembre 2021 comporte trois objectifs, dont le deuxième est de « garantir l’équité, la transparence et la responsabilité dans la gestion algorithmique dans le contexte du travail sur plateforme ».
C’est ainsi que deux plateformes de livraison Glovo et Deliveroo se sont vues reprocher de violer un certain nombre d’articles de la RGPD selon l’autorité italienne de protection des données. Certes la RGPD ne fixe pas les règles de mise en place des algorithmes mais constitue une première étape dans la transparence.
Après la mise en route d’un algorithme, la RGPD va examiner quelles données personnelles des travailleurs ont été collecté ainsi que leurs usages et conservations. La Commission européenne a ainsi proposé un règlement sur l’IA, plus incisif que le précédent. Par exemple, une décision basée sur un algorithme exigera une explication avant que la décision soit prise (et non après) et chaque fois qu’il s’agira d’un algorithme classé à « haut risque ».

Comment sont donc classés les algorithmes ?

La Commission européenne a listé en annexe III de sa proposition de règlement du mois d’avril 2021 les algorithmes à haut risque. Il s’agit par exemple des systèmes d’IA destinés à être utilisés pour évaluer les étudiants des établissements d’enseignement et de formation professionnelle, ceux destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, notamment pour la diffusion des offres d’emploi, la présélection ou le filtrage des candidatures, et l’évaluation des candidats au cours d’entretiens ou d’épreuves.On retrouve également, les algorithmes destinés à être utilisés pour évaluer la solvabilité des personnes physiques ou pour établir leur note de crédit, ceux destinés à être utilisés par les autorités répressives pour mener des évaluations individuelles des risques visant à déterminer la probabilité qu’une personne physique commette une infraction ou récidive, ou encore ceux destinés à être utilisés par les autorités publiques compétentes pour évaluer des risques, y compris des risques pour la sécurité, des risques d’immigration irrégulière ou des risques pour la santé, posés par une personne physique qui a l’intention d’entrer ou qui est entrée sur le territoire d’un État membre.
Pour faire simple, la première catégorie est celle qui regroupent les opinions, la connaissance culturelle, ou encore les pratiques commerciales. C’est le cas le plus fréquent sur Facebook ou Amazon où les internautes reçoivent des informations selon leur profil et les paramètres choisis (atteinte au principe de loyauté).
La deuxième est celle contenant les éléments de la vie d’un individu, de la régulation de l’information à destination des investisseurs jusqu’à ses habitudes alimentaires, ses hobbies, ou encore son état de santé (atteinte à la liberté de l’individu).
Enfin, la troisième est liée à la potentielle violation des droits fondamentaux comme le traitement défavorable ou inégal, en comparaison à d’autres personnes ou d’autres situations égales ou similaires, fondé sur un motif expressément prohibé par la loi (tri de personnes cherchant un travail en ligne, etc.).

L’IA au service des salariés et non en concurrence avec !

FO Com affine régulièrement sa position sur cette question affectant tous les salariés et se penche sur les différents moyens d’atténuer les effets néfastes des algorithmes. Tout d’abord, voici quelques prérequis : se concentrer sur les processus algorithmiques (la transparence d’un process spécifique), garantir un droit à l’explication, les employeurs ayant un devoir d’explication, permettre un choix éclairé, insérer une approche humaine ou auditer les algorithmes.
Pour nous, il est nécessaire de protéger les travailleurs afin de sécuriser leurs droits et de consolider les organisations de travail en renforçant la confiance en l’Intelligence Artificielle.
Le premier point incontournable est celui de la plus grande transparence (un droit à l’explication pour les travailleurs et un devoir, celui des employeurs qui déploie l’IA). Toutes les parties doivent améliorer leur connaissance des algorithmes. Les salariés doivent avoir une notion de base des litiges relatifs aux décisions algorithmiques et savoir comment déposer et soumettre une requête. Se pose ici la question de la formation attribuée (limite du e-learning).
Les salariés devraient recevoir davantage d’informations sur les algorithmes qui les concernent, comme le prévoit par exemple la proposition de directive sur le travail sur les plateformes. Les informations sur les systèmes algorithmiques devraient faire partie du processus d’accueil des nouveaux salariés. L’entreprise doit permettre un meilleur accès aux données recueillies, tout en respectant les véritables préoccupations en matière de vie privée.

Enfin, la gestion algorithmique devrait être considérée comme un sujet primordial lors des négociations avec les syndicats.

Utilisations de l’IA controversées

En Autriche, des systèmes expérimentent une forme de « notation sociale » attribuant aux demandeurs d’emploi un score en fonction de leurs chances de trouver un emploi.
Peu surprenant, une étude a démontré que ce système donnait un score plus faible aux femmes.
À la lisière de l’Union Européenne, le projet pilote iBorderCtrl teste une IA automatisant les contrôles aux frontières à l’aide de « détecteurs de mensonges », déterminant la cohérence des personnes en situation migratoire.
La reconnaissance faciale est aussi sous les projecteurs.
À l’aéroport de Zaventem en Belgique, des projets pilotes ont été menés sans aucune base juridique pour une utilisation faite par les services de police.
Le Contrôleur Européen de la Protection des Données et le Comité Européen de la Protection des Données ont d’ores et déjà demandé l’interdiction de cette technologie. L’usage de ce type de procédé est une menace pour les droits humains, où chacun peut être reconnu et suivi à tout moment.
Le Haut Commissariat des Nations Unies aux droits de l’homme a émis des avis similaires en ajoutant la révélation d’études. Ces systèmes de reconnaissance faciale ont davantage de difficultés à discerner les visages qui ne sont pas blancs, augmentant ainsi l’éventualité de contrôles basés uniquement sur la couleur de peau.

Déploiement des premiers outils d’ Intelligence Artificielle : FO demande un accord de méthode

La Poste annonçait le 21 avril dernier de nouvelles fonctionnalités dans la gestion des plannings des Responsables d’Exploitation (RE) du Réseau. De nouvelles fonctionnalités permettront de proposer aux RE des scénarii de planning « clé en main » qu’il leur appartiendra de modifier ou de valider. Les RE resteront cependant décisionnels et pourront paramétrer l’application en fonction des nécessités de service et des particularités de leur terrain.

L’objectif mis en avant est la simplification de la planification des ressources considérées comme particulièrement chronophages.

Pour autant, le développement des premiers modèles d’Intelligence Artificielle entraîne de nombreuses transformations dont nous devrons bien mesurer toutes les conséquences.

FO est favorable aux innovations dès lors qu’elles apportent, dans la transparence, une plus-value pour tous ses salariés. L’IA ne doit en aucun cas être un vecteur de la dégradation de nos conditions de travail. Dans cet esprit, un développement anarchique et non concerté des nouveaux outils utilisant l’IA serait contre-productif.

À ce jour, nous regrettons que de nombreux outils ne sont toujours pas considérés et traités comme des réorganisations, qu’ils portent ou pas des gains de productivité. Ils échappent ainsi trop souvent aux instances du dialogue social, à toute concertation.

Toutes les nouvelles fonctionnalités POP destinées aux RE ou même les indicateurs de pilotage générés par l’outil n’ont pas été présentés en détail par La Poste.

À titre d’exemple, si nous n’y prenons pas garde, ces nouveaux outils pourraient se transformer, à terme, en instruments de surveillance de tout l’encadrement sans que celui-ci n’en soit informé. En clair, tout ce que vous faites sur votre poste peut être enregistré et collecté toutes les fenêtres ouvertes sur votre ordinateur, les logiciels utilisés, les mails, les tchats, etc. Comme éléments intrusifs, on ne peut guère faire pire…

À la suite de notre intervention sur certaines branches de La Poste, celles-ci prétendent vouloir identifier les problèmes techniques afin d’apporter une réponse efficace dans la résolution des irritants que vous pouvez connaître quotidiennement. Sur ce point, nous ne pouvons qu’être d’accord, mais nous réclamons davantage de transparence !

FO exige que tous les outils utilisant des algorithmes (logiciels, applications mobiles, espaces numériques…) à disposition de La Poste soit présentés aux instances représentatives du personnel, que l’avis du CHSCT soit rendu, que nous prenions connaissance de tous les tenants et aboutissants concernant les objectifs recherchés.

FO réclame également la nature des données collectées : Qui les collecte ? Qui bénéficie de l’accès ? Combien de temps sont-elles conservées ? En dernier lieu, si les données de votre ordinateur sont collectées, vous avez aussi un droit de regard sur celles-ci : alors quelle serait la démarche pour avoir accès au recueil de celles qui vous concernent ? Bref, toutes ces éléments ne vous seront sûrement pas communiquées lors des furtives présentations faites sur les différents sites.

Notre propos n’est certainement pas de « crier au loup » mais de nous assurer d’une véritable concertation qui permettra de sécuriser pour tous les conditions de déploiement de l’IA. Ces nouveaux outils sont et seront pourtant au centre de la transformation de tous les métiers.

Pour FO, leur apparition, leur industrialisation ou leurs évolutions ne doivent en aucun cas se faire dans la clandestinité et la défiance. Sans angélisme, il est aujourd’hui essentiel d’intégrer toutes les facettes de l’IA dans la conduite du changement et du dialogue social.

Pour FO, il est urgent, de s’appuyer sur un accord de méthode pour le déploiement de l’IA au sein de notre groupe.

FO, créateur de droit.

Déploiement des premiers outils d’ Intelligence Artificielle : FO demande un accord de méthode

La Poste annonçait le 21 avril dernier de nouvelles fonctionnalités dans la gestion des plannings des Responsables d’Exploitation (RE) du Réseau. De nouvelles fonctionnalités permettront de proposer aux RE des scénarii de planning « clé en main » qu’il leur appartiendra de modifier ou de valider. Les RE resteront cependant décisionnels et pourront paramétrer l’application en fonction des nécessités de service et des particularités de leur terrain.

L’objectif mis en avant est la simplification de la planification des ressources considérées comme particulièrement chronophages.

Pour autant, le développement des premiers modèles d’Intelligence Artificielle entraîne de nombreuses transformations dont nous devrons bien mesurer toutes les conséquences.

FO est favorable aux innovations dès lors qu’elles apportent, dans la transparence, une plus-value pour tous ses salariés. L’IA ne doit en aucun cas être un vecteur de la dégradation de nos conditions de travail. Dans cet esprit, un développement anarchique et non concerté des nouveaux outils utilisant l’IA serait contre-productif.

À ce jour, nous regrettons que de nombreux outils ne sont toujours pas considérés et traités comme des réorganisations, qu’ils portent ou pas des gains de productivité. Ils échappent ainsi trop souvent aux instances du dialogue social, à toute concertation.

Toutes les nouvelles fonctionnalités POP destinées aux RE ou même les indicateurs de pilotage générés par l’outil n’ont pas été présentés en détail par La Poste.

À titre d’exemple, si nous n’y prenons pas garde, ces nouveaux outils pourraient se transformer, à terme, en instruments de surveillance de tout l’encadrement sans que celui-ci n’en soit informé.

Notre propos n’est certainement pas de « crier au loup » mais de nous assurer d’une véritable concertation qui permettra de sécuriser pour tous les conditions de déploiement de l’IA. Ces nouveaux outils sont et seront pourtant au centre de la transformation de tous les métiers.

Pour FO, leur apparition, leur industrialisation ou leurs évolutions ne doivent en aucun cas se faire dans la clandestinité et la défiance. Sans angélisme, il est aujourd’hui essentiel d’intégrer toutes les facettes de l’IA dans la conduite du changement et du dialogue social.

Pour FO, il est urgent, de s’appuyer sur un accord de méthode pour le déploiement de l’IA au sein de notre groupe.

FO, créateur de droit.

INFOCOM de la DNC – L’ Intelligence Artificielle grignote le cerveau de la Direction

dnc-compta-n4 (2)_Page_1Plus que jamais, l’Intelligence Artificielle (IA) s’invite en guest-star de l’actu de la DNC. Championne de la promesse d’un bonheur à venir, elle altère petit à petit les (déjà) très maigres ambitions d’embauches de la direction liées à l’accord social (40 en tout).

Tant que l’activité passe, même à l’arrache, pas de recrutement au programme!

[Lire l’inFOcom de la DNC – n°4]