Gestion algorithmique et transparence

La gestion algorithmique se retrouve dans quatre catégories : le recrutement, le management, l’évaluation et la discipline.
Aujourd’hui une question se pose : comment la politique européenne a fixé les règles de déploiement des algorithmes avec des mesures en faveur d’une plus grande transparence sur le lieu de travail. Cela a démarré en juin 2019 par la directive sur les conditions de travail transparentes et prévisibles et le règlement Platform to Business.
La dernière proposition de directive relative à l’amélioration des conditions de travail dans le cadre du travail sur plateforme publiée en décembre 2021 comporte trois objectifs, dont le deuxième est de « garantir l’équité, la transparence et la responsabilité dans la gestion algorithmique dans le contexte du travail sur plateforme ».
C’est ainsi que deux plateformes de livraison Glovo et Deliveroo se sont vues reprocher de violer un certain nombre d’articles de la RGPD selon l’autorité italienne de protection des données. Certes la RGPD ne fixe pas les règles de mise en place des algorithmes mais constitue une première étape dans la transparence.
Après la mise en route d’un algorithme, la RGPD va examiner quelles données personnelles des travailleurs ont été collecté ainsi que leurs usages et conservations. La Commission européenne a ainsi proposé un règlement sur l’IA, plus incisif que le précédent. Par exemple, une décision basée sur un algorithme exigera une explication avant que la décision soit prise (et non après) et chaque fois qu’il s’agira d’un algorithme classé à « haut risque ».

Comment sont donc classés les algorithmes ?

La Commission européenne a listé en annexe III de sa proposition de règlement du mois d’avril 2021 les algorithmes à haut risque. Il s’agit par exemple des systèmes d’IA destinés à être utilisés pour évaluer les étudiants des établissements d’enseignement et de formation professionnelle, ceux destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, notamment pour la diffusion des offres d’emploi, la présélection ou le filtrage des candidatures, et l’évaluation des candidats au cours d’entretiens ou d’épreuves.On retrouve également, les algorithmes destinés à être utilisés pour évaluer la solvabilité des personnes physiques ou pour établir leur note de crédit, ceux destinés à être utilisés par les autorités répressives pour mener des évaluations individuelles des risques visant à déterminer la probabilité qu’une personne physique commette une infraction ou récidive, ou encore ceux destinés à être utilisés par les autorités publiques compétentes pour évaluer des risques, y compris des risques pour la sécurité, des risques d’immigration irrégulière ou des risques pour la santé, posés par une personne physique qui a l’intention d’entrer ou qui est entrée sur le territoire d’un État membre.
Pour faire simple, la première catégorie est celle qui regroupent les opinions, la connaissance culturelle, ou encore les pratiques commerciales. C’est le cas le plus fréquent sur Facebook ou Amazon où les internautes reçoivent des informations selon leur profil et les paramètres choisis (atteinte au principe de loyauté).
La deuxième est celle contenant les éléments de la vie d’un individu, de la régulation de l’information à destination des investisseurs jusqu’à ses habitudes alimentaires, ses hobbies, ou encore son état de santé (atteinte à la liberté de l’individu).
Enfin, la troisième est liée à la potentielle violation des droits fondamentaux comme le traitement défavorable ou inégal, en comparaison à d’autres personnes ou d’autres situations égales ou similaires, fondé sur un motif expressément prohibé par la loi (tri de personnes cherchant un travail en ligne, etc.).

L’IA au service des salariés et non en concurrence avec !

FO Com affine régulièrement sa position sur cette question affectant tous les salariés et se penche sur les différents moyens d’atténuer les effets néfastes des algorithmes. Tout d’abord, voici quelques prérequis : se concentrer sur les processus algorithmiques (la transparence d’un process spécifique), garantir un droit à l’explication, les employeurs ayant un devoir d’explication, permettre un choix éclairé, insérer une approche humaine ou auditer les algorithmes.
Pour nous, il est nécessaire de protéger les travailleurs afin de sécuriser leurs droits et de consolider les organisations de travail en renforçant la confiance en l’Intelligence Artificielle.
Le premier point incontournable est celui de la plus grande transparence (un droit à l’explication pour les travailleurs et un devoir, celui des employeurs qui déploie l’IA). Toutes les parties doivent améliorer leur connaissance des algorithmes. Les salariés doivent avoir une notion de base des litiges relatifs aux décisions algorithmiques et savoir comment déposer et soumettre une requête. Se pose ici la question de la formation attribuée (limite du e-learning).
Les salariés devraient recevoir davantage d’informations sur les algorithmes qui les concernent, comme le prévoit par exemple la proposition de directive sur le travail sur les plateformes. Les informations sur les systèmes algorithmiques devraient faire partie du processus d’accueil des nouveaux salariés. L’entreprise doit permettre un meilleur accès aux données recueillies, tout en respectant les véritables préoccupations en matière de vie privée.

Enfin, la gestion algorithmique devrait être considérée comme un sujet primordial lors des négociations avec les syndicats.

Utilisations de l’IA controversées

En Autriche, des systèmes expérimentent une forme de « notation sociale » attribuant aux demandeurs d’emploi un score en fonction de leurs chances de trouver un emploi.
Peu surprenant, une étude a démontré que ce système donnait un score plus faible aux femmes.
À la lisière de l’Union Européenne, le projet pilote iBorderCtrl teste une IA automatisant les contrôles aux frontières à l’aide de « détecteurs de mensonges », déterminant la cohérence des personnes en situation migratoire.
La reconnaissance faciale est aussi sous les projecteurs.
À l’aéroport de Zaventem en Belgique, des projets pilotes ont été menés sans aucune base juridique pour une utilisation faite par les services de police.
Le Contrôleur Européen de la Protection des Données et le Comité Européen de la Protection des Données ont d’ores et déjà demandé l’interdiction de cette technologie. L’usage de ce type de procédé est une menace pour les droits humains, où chacun peut être reconnu et suivi à tout moment.
Le Haut Commissariat des Nations Unies aux droits de l’homme a émis des avis similaires en ajoutant la révélation d’études. Ces systèmes de reconnaissance faciale ont davantage de difficultés à discerner les visages qui ne sont pas blancs, augmentant ainsi l’éventualité de contrôles basés uniquement sur la couleur de peau.