Comment l’automatisation algorithmique pourrait gérer les travailleurs de manière éthique

Comment l’automatisation algorithmique pourrait gérer les travailleurs de manière éthique

La gestion par les humains peut être lamentable. “Dans l’ancien monde des taxis, les chauffeurs étaient souvent maltraités”, explique James Farrar, directeur de l’organisation à but non lucratif Worker Info Exchange (WIE). Les chauffeurs paieraient les mêmes frais pour conduire pour une compagnie de taxi, mais recevraient des volumes d’affaires différents.

“Vous auriez des chauffeurs soi-disant ‘fédérés’ [fed with work] et des chauffeurs ‘affamés’, les chauffeurs privilégiés obtenant tout le beau travail », dit-il, avec certains répartiteurs qui attribuaient du travail en exigeant des pots-de-vin. En conséquence, de nombreux répartiteurs ont été remplacés par des algorithmes : Farrar se souvient avoir applaudi cela lors d’une session pour les nouveaux chauffeurs Uber.

Mais la gestion par algorithme et processus automatisé a introduit de nouveaux problèmes. En décembre dernier, WIE, qui accompagne les travailleurs dans l’obtention de leurs données, publiait son rapport Géré par des robots. Cela inclut les plateformes suspendant des travailleurs indépendants sur la base d’un logiciel de reconnaissance faciale décidant à tort qu’ils laissent d’autres personnes utiliser leurs comptes, puis refusant d’autoriser un examen humain de la suspension.

Les logiciels de reconnaissance faciale ont tendance à être moins précis pour les personnes à la peau plus foncée et le rapport WIE, notant que 94% des conducteurs de véhicules de location privés enregistrés auprès de Transport for London sont issus de minorités ethniques, indique que cela “s’est avéré désastreux pour les travailleurs vulnérables déjà en situation précaire”. emploi”.

Farrar dit qu’il y a des problèmes plus larges, tels que les plates-formes prenant trop de conducteurs, ce qui réduit les temps d’attente mais rend très difficile de gagner sa vie grâce à de tels systèmes, ainsi que la congestion des rues. «Parce que ces entreprises se sont comportées de cette façon, elles sont presque devenues un obstacle à la réalisation de la vision qu’elles ont définie», dit-il. « Je suis un optimiste technologique. Il peut offrir de grandes choses aux gens, aux travailleurs et aux entreprises. Mais nous devons tenir les gens responsables de la façon dont ils l’utilisent.

Lire aussi  Windrush Tales: Comment l'un des pires scandales britanniques a changé le cours d'un jeu historique | Actualités scientifiques et techniques

Farrar affirme que les employeurs devraient être transparents quant à leur utilisation de la technologie, en particulier en ce qui concerne la répartition du travail et la gestion des performances ; ne doivent pas utiliser la sécurité et la prévention de la fraude comme excuses pour cacher ce qu’ils font ; et ne devrait pas utiliser l’automatisation seule pour prendre des décisions qui changent la vie.

Rôle des syndicats

Le Congrès des syndicats, une association de 48 syndicats, a lancé des appels similaires en Dignité au travail et révolution de l’IA, un manifeste publié en mars 2021. Mary Towers, responsable de la politique des droits en matière d’emploi, affirme que les syndicats peuvent jouer un nouveau rôle dans le traitement et l’analyse des données que les employeurs détiennent sur leurs membres, telles que les salaires. “Je pense que sans ce type d’assistance collective, il serait très difficile pour un travailleur individuel de prendre le contrôle de ses propres données sans les mettre en commun”, dit-elle.

Un ensemble de données pourrait être utilisé pour l’analyse et comme base d’une action telle qu’une demande d’égalité de rémunération. Un syndicat pourrait officiellement agir en tant que représentant de ses membres en vertu de la loi sur la protection des données ou demander à ses membres de collecter des données de manière indépendante, par exemple via WeClock, une application conçue par la fédération syndicale internationale Uni qui permet aux utilisateurs d’enregistrer le temps qu’ils passent à travailler et à se déplacer.

Les façons dont l’automatisation et l’intelligence artificielle (IA) sont utilisées avec les données des travailleurs peuvent également être incluses dans les négociations entre les syndicats et les employeurs. Une mise à jour de 2020 de la convention collective entre Royal Mail Group (RMG) et le Communication Workers Union (CWU) comprend une section sur la technologie qui stipule que «la technologie ne sera pas utilisée pour déshumaniser le lieu de travail ou la prise de décision opérationnelle» et que “l’utilisation de la technologie est conçue pour soutenir des discussions plus éclairées entre RMG et CWU et non les remplacer sous quelque forme que ce soit”.

Lire aussi  Même Gmail a maintenant des contrôles de vérification bleus

Towers dit que les employeurs qui souhaitent bien utiliser la technologie dans la gestion du lieu de travail devraient viser «une approche collaborative et de partenariat social». Elle ajoute que le personnel n’est souvent pas au courant de ce que font les employeurs, ce qui peut être résolu en publiant un registre facilement accessible des technologies utilisées et en offrant aux travailleurs un accès automatique à leurs propres données, plutôt que d’exiger une demande d’accès par sujet.

La transparence sur l’automatisation et l’IA est également logique d’un point de vue juridique, selon Sally Mewies, associée et responsable de la technologie et du numérique au sein du cabinet d’avocats commercial Walker Morris, basé à Leeds. « Il est souvent impossible pour les humains de comprendre comment les décisions sont prises », dit-elle. “C’est la grande préoccupation lorsque vous l’appliquez à la dotation et aux ressources humaines.”

Cela peut soulever des problèmes de droit du travail, tandis que le règlement général de l’UE sur la protection des données, promulgué par le Royaume-Uni en 2018, interdit aux individus d’être soumis à des décisions entièrement automatisées, sauf si certaines conditions sont remplies. Le gouvernement britannique a suggéré de l’abolir lors d’une consultation de septembre 2021, qui proposait également d’autoriser l’utilisation de données personnelles pour surveiller et détecter les biais dans les systèmes d’IA. Ces mesures doivent encore être formellement proposées dans un projet de loi.

“Vous devez vous assurer que là où vous utilisiez des algorithmes et l’intelligence artificielle de cette manière, il n’y aurait aucun impact négatif sur les individus”

Sally Mewies, Walker Morris

Mewies affirme que les biais dans les systèmes automatisés génèrent des risques importants pour les employeurs qui les utilisent pour sélectionner des personnes pour des emplois ou des promotions, car cela peut enfreindre la loi anti-discrimination. Pour les projets impliquant un traitement systémique ou potentiellement dangereux de données personnelles, les organisations doivent effectuer une évaluation de l’impact sur la vie privée, dit-elle. “Vous devez vous assurer que là où vous utilisiez des algorithmes et l’intelligence artificielle de cette manière, il n’y aurait aucun impact négatif sur les individus.”

Mais même lorsqu’elle n’est pas requise, entreprendre une évaluation de l’impact sur la vie privée est une bonne idée, dit Mewies, ajoutant : « S’il y avait une critique de suivi sur la façon dont une technologie avait été déployée, vous auriez des preuves que vous avez pris des mesures pour vous assurer transparence et équité. »

Il existe d’autres moyens par lesquels les employeurs peuvent réduire la probabilité de biais dans les processus de main-d’œuvre automatisés. Antony Heljula, directeur de l’innovation chez Peak Indicators, cabinet de conseil en science des données basé à Chesterfield, affirme que les modèles de données peuvent exclure des attributs sensibles tels que la race, mais que c’est loin d’être infaillible, comme Amazon l’a montré il y a quelques années lorsqu’il a construit un système de notation des CV par IA. sur une décennie d’applications, pour conclure qu’il était discriminatoire à l’égard des femmes.

Comme cela le suggère, les décisions humaines et automatisées peuvent être biaisées, il peut donc être logique de créer un deuxième modèle qui utilise délibérément des attributs sensibles pour rechercher des biais dans ces décisions, déclare Heljula : “Appelez cela la détection d’anomalies.”

D’autres options incluent : la création d’un comité d’éthique pour valider les utilisations de l’IA ; préférer les modèles d’IA relativement explicables tels que les arbres de décision à d’autres tels que les réseaux de neurones ; et baser la planification de la main-d’œuvre sur des données résumées sur des groupes de personnes plutôt que sur des individus. Sur le dernier, cependant, les groupes doivent être suffisamment grands – une prédiction selon laquelle toutes les femmes d’une équipe sont susceptibles de partir devient plutôt personnelle si une seule femme travaille dans cette équipe.

Heljula pense que les préoccupations concernant les préjugés et la surveillance devraient obliger à repenser la manière dont l’IA est utilisée dans les ressources humaines. “Nous devons passer de la surveillance “Big Brother” à des choses que les employés et les sous-traitants apprécieraient”, dit-il, comme l’utilisation de la technologie pour vérifier les préjugés dans les décisions ou pour évaluer les compétences des employés afin de développer des plans de formation personnalisés.

L’IA peut également être utilisée pour les services basés sur le langage naturel afin de répondre aux questions de la main-d’œuvre telles que “quel est le salaire moyen dans mon équipe ?”, dit-il. “Il ne s’agit pas de surveiller ce que vous faites, mais de vous aider à faire votre travail plus efficacement.”

Infosys fait une offre pour lutter contre les biais dans les systèmes d’IA

Le cabinet de conseil en informatique Infosys, dont le siège social est en Inde, a développé une approche en cinq étapes pour lutter contre les biais dans l’IA. Il recherche des attributs sensibles dans les données ; établit des « mesures d’équité » telles qu’un objectif pour le pourcentage de femmes dans un rôle particulier ; met en œuvre un système basé sur l’IA ; rend ses résultats explicables, comme dire quelles données ont été utilisées pour rejeter quelqu’un pour un emploi ; et intègre la gouvernance humaine des résultats. « Il s’agit essentiellement d’un contrôle de santé mentale », explique David Semach, responsable de l’IA et de l’automatisation chez Infosys en Europe, à propos de l’apport humain. “C’est absolument critique.”

Selon Semach, Infosys est en train de mettre en œuvre une telle fonctionnalité anti-biais avec un grand groupe de biens de consommation qui utilise des algorithmes pour filtrer des dizaines de milliers de CV. L’entreprise a défini 30 à 40 mesures d’équité, ce qui, selon Semach, est à peu près le bon nombre, bien qu’il ajoute que “l’un des plus grands défis est de définir les mesures” car l’entreprise ne les avait généralement pas déjà en place.

Le fournisseur de logiciels d’analyse de données basé en Israël, Nice, a publié un “cadre robotique éthique” pour ses utilisateurs d’automatisation des processus robotiques (RPA). Cela signifie que les robots doivent être conçus pour avoir un impact positif, pour ne pas tenir compte des identités de groupe et pour minimiser le risque de préjudice individuel. Leurs sources de données doivent être vérifiées, à partir de sources connues et fiables, et elles doivent être conçues dans un souci de gouvernance et de contrôle, par exemple en limitant, surveillant et authentifiant l’accès et la modification.

Oded Karev, directeur général de Nice pour la RPA, a déclaré avoir planifié le cadre principalement sur la base de discussions avec les clients, ainsi que sur des éthiciens universitaires et des partenaires. Les problèmes de main-d’œuvre ont eu un impact significatif, avec “de nombreux cas d’anxiété d’automatisation” de la part des employés des clients, ainsi que des demandes spécifiques, notamment une grande banque américaine qui voulait s’assurer que les robots logiciels ne pourraient pas être exploités par du personnel voyou pour commettre des fraudes.

La société construit elle-même des robots, mais vend également sa plate-forme de développement et, bien que le cadre fasse partie de ses conditions générales, elle n’impose pas la conformité. « C’est comme quand on vend un couteau », dit Karev. “Quelqu’un peut l’utiliser pour couper de la salade et quelqu’un peut l’utiliser pour menacer quelqu’un.” Le cadre évoluera sur la base d’une communication bidirectionnelle avec les clients, ajoute-t-il.

Cependant, de nombreux employeurs tiennent déjà à démontrer une utilisation éthique. Karev dit que le risque de fraude peut être réduit en exigeant que les étapes de mise en production d’un robot soient effectuées par différentes personnes, car cela nécessiterait plusieurs personnes pour conspirer plutôt qu’un seul fraudeur. Si des robots sont utilisés pour surveiller les employés, ils peuvent être configurés uniquement pour utiliser les données des applications métier.

Pour une entreprise technologique mondiale qui utilise un robot pour la sélection des CV, “nous avons ajouté le garde-fou qu’aucune règle ne peut être créée et appliquée automatiquement”, explique Karev, et tous les changements sont documentés et réversibles.

Karev affirme que l’automatisation éthique aide à obtenir des affaires du secteur public, qui est le plus grand marché vertical de Nice au Royaume-Uni. En novembre, il a annoncé qu’une grande organisation gouvernementale britannique utilisait les technologies d’IA et de RPA dans le cadre d’une stratégie de transformation numérique, y compris le traitement d’applications en libre-service pour modifier les modalités de paiement et fournir des conseils en temps réel aux conseillers humains.

« Cela s’accompagne d’une réglementation élevée, d’un environnement hautement syndiqué et d’une forte demande pour un comportement éthique très strict », ajoute-t-il.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick