Archives: IA

Gestion algorithmique et transparence

La gestion algorithmique se retrouve dans quatre catégories : le recrutement, le management, l’évaluation et la discipline.
Aujourd’hui une question se pose : comment la politique européenne a fixé les règles de déploiement des algorithmes avec des mesures en faveur d’une plus grande transparence sur le lieu de travail. Cela a démarré en juin 2019 par la directive sur les conditions de travail transparentes et prévisibles et le règlement Platform to Business.
La dernière proposition de directive relative à l’amélioration des conditions de travail dans le cadre du travail sur plateforme publiée en décembre 2021 comporte trois objectifs, dont le deuxième est de « garantir l’équité, la transparence et la responsabilité dans la gestion algorithmique dans le contexte du travail sur plateforme ».
C’est ainsi que deux plateformes de livraison Glovo et Deliveroo se sont vues reprocher de violer un certain nombre d’articles de la RGPD selon l’autorité italienne de protection des données. Certes la RGPD ne fixe pas les règles de mise en place des algorithmes mais constitue une première étape dans la transparence.
Après la mise en route d’un algorithme, la RGPD va examiner quelles données personnelles des travailleurs ont été collecté ainsi que leurs usages et conservations. La Commission européenne a ainsi proposé un règlement sur l’IA, plus incisif que le précédent. Par exemple, une décision basée sur un algorithme exigera une explication avant que la décision soit prise (et non après) et chaque fois qu’il s’agira d’un algorithme classé à « haut risque ».

Comment sont donc classés les algorithmes ?

La Commission européenne a listé en annexe III de sa proposition de règlement du mois d’avril 2021 les algorithmes à haut risque. Il s’agit par exemple des systèmes d’IA destinés à être utilisés pour évaluer les étudiants des établissements d’enseignement et de formation professionnelle, ceux destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, notamment pour la diffusion des offres d’emploi, la présélection ou le filtrage des candidatures, et l’évaluation des candidats au cours d’entretiens ou d’épreuves.On retrouve également, les algorithmes destinés à être utilisés pour évaluer la solvabilité des personnes physiques ou pour établir leur note de crédit, ceux destinés à être utilisés par les autorités répressives pour mener des évaluations individuelles des risques visant à déterminer la probabilité qu’une personne physique commette une infraction ou récidive, ou encore ceux destinés à être utilisés par les autorités publiques compétentes pour évaluer des risques, y compris des risques pour la sécurité, des risques d’immigration irrégulière ou des risques pour la santé, posés par une personne physique qui a l’intention d’entrer ou qui est entrée sur le territoire d’un État membre.
Pour faire simple, la première catégorie est celle qui regroupent les opinions, la connaissance culturelle, ou encore les pratiques commerciales. C’est le cas le plus fréquent sur Facebook ou Amazon où les internautes reçoivent des informations selon leur profil et les paramètres choisis (atteinte au principe de loyauté).
La deuxième est celle contenant les éléments de la vie d’un individu, de la régulation de l’information à destination des investisseurs jusqu’à ses habitudes alimentaires, ses hobbies, ou encore son état de santé (atteinte à la liberté de l’individu).
Enfin, la troisième est liée à la potentielle violation des droits fondamentaux comme le traitement défavorable ou inégal, en comparaison à d’autres personnes ou d’autres situations égales ou similaires, fondé sur un motif expressément prohibé par la loi (tri de personnes cherchant un travail en ligne, etc.).

L’IA au service des salariés et non en concurrence avec !

FO Com affine régulièrement sa position sur cette question affectant tous les salariés et se penche sur les différents moyens d’atténuer les effets néfastes des algorithmes. Tout d’abord, voici quelques prérequis : se concentrer sur les processus algorithmiques (la transparence d’un process spécifique), garantir un droit à l’explication, les employeurs ayant un devoir d’explication, permettre un choix éclairé, insérer une approche humaine ou auditer les algorithmes.
Pour nous, il est nécessaire de protéger les travailleurs afin de sécuriser leurs droits et de consolider les organisations de travail en renforçant la confiance en l’Intelligence Artificielle.
Le premier point incontournable est celui de la plus grande transparence (un droit à l’explication pour les travailleurs et un devoir, celui des employeurs qui déploie l’IA). Toutes les parties doivent améliorer leur connaissance des algorithmes. Les salariés doivent avoir une notion de base des litiges relatifs aux décisions algorithmiques et savoir comment déposer et soumettre une requête. Se pose ici la question de la formation attribuée (limite du e-learning).
Les salariés devraient recevoir davantage d’informations sur les algorithmes qui les concernent, comme le prévoit par exemple la proposition de directive sur le travail sur les plateformes. Les informations sur les systèmes algorithmiques devraient faire partie du processus d’accueil des nouveaux salariés. L’entreprise doit permettre un meilleur accès aux données recueillies, tout en respectant les véritables préoccupations en matière de vie privée.

Enfin, la gestion algorithmique devrait être considérée comme un sujet primordial lors des négociations avec les syndicats.

Utilisations de l’IA controversées

En Autriche, des systèmes expérimentent une forme de « notation sociale » attribuant aux demandeurs d’emploi un score en fonction de leurs chances de trouver un emploi.
Peu surprenant, une étude a démontré que ce système donnait un score plus faible aux femmes.
À la lisière de l’Union Européenne, le projet pilote iBorderCtrl teste une IA automatisant les contrôles aux frontières à l’aide de « détecteurs de mensonges », déterminant la cohérence des personnes en situation migratoire.
La reconnaissance faciale est aussi sous les projecteurs.
À l’aéroport de Zaventem en Belgique, des projets pilotes ont été menés sans aucune base juridique pour une utilisation faite par les services de police.
Le Contrôleur Européen de la Protection des Données et le Comité Européen de la Protection des Données ont d’ores et déjà demandé l’interdiction de cette technologie. L’usage de ce type de procédé est une menace pour les droits humains, où chacun peut être reconnu et suivi à tout moment.
Le Haut Commissariat des Nations Unies aux droits de l’homme a émis des avis similaires en ajoutant la révélation d’études. Ces systèmes de reconnaissance faciale ont davantage de difficultés à discerner les visages qui ne sont pas blancs, augmentant ainsi l’éventualité de contrôles basés uniquement sur la couleur de peau.

Déploiement des premiers outils d’ Intelligence Artificielle : FO demande un accord de méthode

La Poste annonçait le 21 avril dernier de nouvelles fonctionnalités dans la gestion des plannings des Responsables d’Exploitation (RE) du Réseau. De nouvelles fonctionnalités permettront de proposer aux RE des scénarii de planning « clé en main » qu’il leur appartiendra de modifier ou de valider. Les RE resteront cependant décisionnels et pourront paramétrer l’application en fonction des nécessités de service et des particularités de leur terrain.

L’objectif mis en avant est la simplification de la planification des ressources considérées comme particulièrement chronophages.

Pour autant, le développement des premiers modèles d’Intelligence Artificielle entraîne de nombreuses transformations dont nous devrons bien mesurer toutes les conséquences.

FO est favorable aux innovations dès lors qu’elles apportent, dans la transparence, une plus-value pour tous ses salariés. L’IA ne doit en aucun cas être un vecteur de la dégradation de nos conditions de travail. Dans cet esprit, un développement anarchique et non concerté des nouveaux outils utilisant l’IA serait contre-productif.

À ce jour, nous regrettons que de nombreux outils ne sont toujours pas considérés et traités comme des réorganisations, qu’ils portent ou pas des gains de productivité. Ils échappent ainsi trop souvent aux instances du dialogue social, à toute concertation.

Toutes les nouvelles fonctionnalités POP destinées aux RE ou même les indicateurs de pilotage générés par l’outil n’ont pas été présentés en détail par La Poste.

À titre d’exemple, si nous n’y prenons pas garde, ces nouveaux outils pourraient se transformer, à terme, en instruments de surveillance de tout l’encadrement sans que celui-ci n’en soit informé. En clair, tout ce que vous faites sur votre poste peut être enregistré et collecté toutes les fenêtres ouvertes sur votre ordinateur, les logiciels utilisés, les mails, les tchats, etc. Comme éléments intrusifs, on ne peut guère faire pire…

À la suite de notre intervention sur certaines branches de La Poste, celles-ci prétendent vouloir identifier les problèmes techniques afin d’apporter une réponse efficace dans la résolution des irritants que vous pouvez connaître quotidiennement. Sur ce point, nous ne pouvons qu’être d’accord, mais nous réclamons davantage de transparence !

FO exige que tous les outils utilisant des algorithmes (logiciels, applications mobiles, espaces numériques…) à disposition de La Poste soit présentés aux instances représentatives du personnel, que l’avis du CHSCT soit rendu, que nous prenions connaissance de tous les tenants et aboutissants concernant les objectifs recherchés.

FO réclame également la nature des données collectées : Qui les collecte ? Qui bénéficie de l’accès ? Combien de temps sont-elles conservées ? En dernier lieu, si les données de votre ordinateur sont collectées, vous avez aussi un droit de regard sur celles-ci : alors quelle serait la démarche pour avoir accès au recueil de celles qui vous concernent ? Bref, toutes ces éléments ne vous seront sûrement pas communiquées lors des furtives présentations faites sur les différents sites.

Notre propos n’est certainement pas de « crier au loup » mais de nous assurer d’une véritable concertation qui permettra de sécuriser pour tous les conditions de déploiement de l’IA. Ces nouveaux outils sont et seront pourtant au centre de la transformation de tous les métiers.

Pour FO, leur apparition, leur industrialisation ou leurs évolutions ne doivent en aucun cas se faire dans la clandestinité et la défiance. Sans angélisme, il est aujourd’hui essentiel d’intégrer toutes les facettes de l’IA dans la conduite du changement et du dialogue social.

Pour FO, il est urgent, de s’appuyer sur un accord de méthode pour le déploiement de l’IA au sein de notre groupe.

FO, créateur de droit.

INFOCOM de la DNC – L’ Intelligence Artificielle grignote le cerveau de la Direction

dnc-compta-n4 (2)_Page_1Plus que jamais, l’Intelligence Artificielle (IA) s’invite en guest-star de l’actu de la DNC. Championne de la promesse d’un bonheur à venir, elle altère petit à petit les (déjà) très maigres ambitions d’embauches de la direction liées à l’accord social (40 en tout).

Tant que l’activité passe, même à l’arrache, pas de recrutement au programme!

[Lire l’inFOcom de la DNC – n°4]

Le projet de règlement sur l’ Intelligence Artificielle décrypté

Une esquisse en 2020

Devant l’omniprésence de l’ Intelligence Artificielle, les députés européens se sont saisis du sujet en février 2020 pour garantir une utilisation équitable et sûre pour les consommateurs. La résolution adoptée en plénière aborde plusieurs défis découlant du développement rapide des technologies de l’Intelligence Artificielle (IA) et de la prise de décision automatisée (ADM). Les trois axes majeurs de cette réglementation sont la mise à jour des règles de sécurité et de responsabilité de l’UE au vu des produits reposant sur l’IA, l’utilisation d’algorithmes non biaisés, la mise en place de structures de contrôle et la garantie que l’humain reste au final le maître de la situation.

La crise sanitaire en 2020 a fortement accru le recours à l’Intelligence Artificielle sous toutes ses formes : dans le e-commerce, dans le recrutement, dans la surveillance des citoyens et des salariés, dans les chaînes d’approvisionnement, les centres d’appel, etc. Nous sommes aujourd’hui dans un contexte politique mondial dans lequel de plus en plus de pays investissent massivement dans l’IA. L’Union Européenne a décidé d’agir d’une seule manière pour relever les défis de l’IA.

La voix de « Why Not Lab »

Depuis des années, FO Com travaille sur le numérique, du droit à la déconnexion à l’impact du numérique en intégrant l’équilibre vie privée/vie professionnelle et en réfléchissant au nouveau monde du travail. Dans ses activités au sein de l’UNI, FO Com a rencontré Christina J. Colclough, experte de l’avenir du travail et de la politique de la technologie numérique, défendant au niveau mondial l’importance de la voix des travailleurs. Aujourd’hui, fondatrice de Why Not Lab, elle a ainsi interpellé les membres de la Commission européenne : « avec les millions de points de données extraits quotidiennement des travailleurs, transformant leurs actions et non-actions en « vérités » définies mathématiquement ou en probabilités calculées statistiquement, nous devons nous demander si nous trahissons l’histoire ».

Elle a posé également une question essentielle : « alors que les systèmes numériques peuvent être efficaces et productifs, nous devons nous demander efficace pour quoi ? productif pour quoi ? ». Efficacité et productivité ne signifient pas nécessairement « bon », « juste » ou même « légal ».

Elle a confirmé le changement de l’équilibre des pouvoirs sur les lieux de travail : qui décide vraiment et à quelle échelle ? Elle a souligné la responsabilité des développeurs qui doivent connaître l’impact sur les travailleurs mais également celle des employeurs. Lors de son audition, elle a revendiqué un renforcement du Règlement Général sur la Protection des Données (RGPD), une meilleure réglementation en matière d’accès et de contrôle des données, un contrôle de ces systèmes algorithmiques en mettant en valeur le rôle du dialogue social, un engagement des employeurs à investir dans les compétences et les parcours professionnels des travailleurs concernés en amont et en aval des chaînes d’approvisionnement.

Pour terminer, elle a rappelé qu’« il est de la responsabilité de la Commission européenne de renverser de toute urgence la vapeur et d’empêcher la marchandisation irréversible du travail et des travailleurs ».

Le point de vue de FO Com

Nous avons toujours mis en exergue le dialogue social et la négociation collective. C’est également notre position vis-à-vis du règlement européen sur l’IA. Utiliser l’IA dans le cadre de l’emploi est une activité classée à haut risque, la biométrie et la surveillance des travailleurs ne devraient pas être autorisées. Le contrôle par l’humain, la transparence et l’amélioration des compétences des travailleurs sont incontournables si nous souhaitons une IA « digne de confiance ».

Participation des syndicats, dialogue social et négociation collective

FO Com revendique le renforcement des conventions collectives qui restent un moyen souple de garantir les conditions de travail. Un cadre européen doit contribuer à cette protection mais ne peut primer sur les lois nationales. Ces dernières offrent davantage de garanties comme la loi espagnole sur la transparence algorithmique ou le modèle allemand de codécision. Quand la Commission stipule que « la participation des parties prenantes à la conception et au développement de l’IA et des équipes diverses doit être encouragée » (article 69), cela n’est pas clair. L’implication des syndicats doit être effective (CHSCT ou CNSST, CSE, CT, etc.) et information, consultation et participation sont tenues de faire partie des obligations de conformité. De même, la proposition de la Commission européenne ne couvre que la gouvernance de la mise en œuvre du règlement (article 56-59). Ce dernier ne mentionne que « experts et observateurs internes » (article 57.4) et non les syndicats !

Applications de l’IA dans le cadre de l’emploi, surveillance des travailleurs et droits des données

La Commission européenne occulte tous les emplois à faibles compétences générés par l’IA avec pour exemple les emplois aux tâches répétitives comme l’étiquetage ou la modération des données nécessaires aux systèmes d’IA. FO Com revendique un regard sur l’impact négatif de ces nouveaux emplois générés par l’IA.

De même, la liste des applications couvertes (annexe 3.4) se limite aux systèmes utilisés pour la gestion algorithmique notamment dans le domaine RH, de la prise de décisions à la répartition des tâches mais les autres applications pourraient bien avoir des conséquences pour les salariés ! Compte tenu des risques pour la santé et la sécurité, FO Com exige l’application du principe de précaution et tout système d’IA devrait faire l’objet d’une étude d’impact par des autorités compétentes avec un regard des syndicats.

Aujourd’hui, l’identification biométrique et la surveillance des travailleurs se mettent en place pour différentes raisons, de manière trop souvent disproportionnée par rapport aux besoins et affectant le travailleur.

Investir dans le capital humain et introduire une éthique

Un ingénieur ou un développeur de système d’IA ne peut être seul incriminé en raison de décisions erronées. La responsabilité doit être répartie sur l’ensemble du processus et des parties prenantes. Le choix de mise en place de système d’IA doit être transparent et l’aspect formation ne doit pas être négligé. FO Com désapprouve ce projet de cadre réglementaire car il ne prévoit ni le droit à contester une décision algorithmique ou d’obtenir un « regard » humain, ni un droit de recours. La transparence est nécessaire et bien au-delà de celle prescrite par le règlement européen. Ce dernier ne prévoit de clarté que pour soutenir les « utilisateurs » (rec. 47, art. 13). Les employeurs sont responsables du niveau d’information donné aux travailleurs sur les systèmes d’IA sur le lieu de travail, l’impact sur leurs données, l’organisation du travail, etc. C’est là que le dialogue social trouve tout son sens.

Enfin, la formation sur les systèmes d’IA est essentielle pour fournir aux salariés les compétences nécessaires. Elle permet à chacun d’appréhender l’impact sur les conditions de travail, la santé et la sécurité. La négociation collective a bien ici un rôle à jouer. L’éthique est également une valeur à introduire dans le cursus de formation, en ne se limitant pas à une formation technique mais en tenant compte d’une diversité d’aptitudes et de compétences (et ne pas s’en tenir aux STIM – Sciences, Technologies, Ingénierie et Mathématiques).

Des exemples d’impacts de l’IA

Gestion algorithmique

Un outil de gestion des absences au Royaume-Uni a déclenché des procédures de contrôle sans tenir compte de la légitimité des absences allant même jusqu’à remettre en question l’aptitude de salariés.
Dans le recrutement, un outil « hireview » analyse les expressions faciales, le ton de la voix et l’accent… Un autre outil comme « fama » examine le flux de médias sociaux d’un employé et signale selon un comportement « potentiellement problématique ».

Surveillance et contrôle

Dans les centres d’appel, des programmes tels que Cogito ou Voci utilisent l’IA d’analyse vocale pour fournir un retour immédiat aux salariés, leur indiquant s’ils parlent trop vite, semblent fatigués ou pas suffisamment empathiques. Les enregistrements audios mémorisent ainsi les émotions des salariés ce qui permet aux algorithmes de vérifier que les travailleurs respectent les scripts. Les mêmes enregistrements sont retranscrits et conservés trois mois. Les syndicats n’y ont pas accès, ne pouvant ainsi vérifier la nature des données mémorisées.

Chez Teleperformance, sous couvert de la pandémie, l’entreprise a augmenté la surveillance du personnel. Les salariés ont reçu des caméras pour être sous surveillance permanente pendant qu’ils travaillent à domicile. Cela permet de voir des personnes non autorisées qui pourraient voir l’écran de travail et de vérifier dans l’espace de travail la présence de papier ou de téléphone portable.

Chez Amazon, l’entreprise a mis en place des scanners assignant des tâches aux salariés tout en surveillant leurs déplacements dans l’entrepôt, des lunettes de réalité virtuelle qui montrent aux employés où placer les objets.

Intelligence Artificielle et nouvelles applications à La Poste

intelligence_artificielleHors champ des politiques de prévention ?

Les questions relatives aux conditions de travail sont au cœur des projets de réorganisation. Elles engagent la responsabilité de l’employeur et intéressent naturellement les personnels impactés, les organisations syndicales mais aussi tous les managers qui voient dans le bien-être de leurs équipes les clés d’une réussite collective.

En théorie, pour chaque réorganisation, La Poste s’est dotée d’une méthode de conduite du changement qui fait du dialogue social un incontournable. Ainsi, les CHSCT, les Comités Techniques doivent examiner tous les projets de réorganisation pour vérifier leur conformité aux règles mais aussi pour s’assurer des conditions de travail des personnels. Si le principe est simple, sa mise en œuvre pose aujourd’hui question. En effet, nous observons régulièrement dans chaque filière l’émergence de nouvelles applications informatiques toujours plus nombreuses.

Cette tendance est d’autant plus inquiétante que l’Intelligence Artificielle se développe dans notre entreprise sans concertation sur ses impacts et la prévention des risques de tous genres. Trop souvent, ces nouvelles applications ignorent toute forme de dialogue social et ne sont pas à l’ordre du jour des CDSP, CT ou CHSCT…

Pour FO, il est temps que La Poste prenne conscience des risques qui en découlent.

Il est de l’intérêt de tous que chaque nouvelle application fasse l’objet d’une véritable concertation et soit intégrée aux politiques de prévention et de préservation des conditions de travail.