Ce que nous pouvons faire à propos de l’IA biaisée

L’intelligence artificielle biaisée est un vrai problème. Mais comment cela se produit-il, quelles sont les ramifications – et que pouvons-nous faire à ce sujet ?

Crédit : Wright Studio via Adobe Stock

L’intelligence artificielle ouvre de nouvelles voies dans de nombreuses industries. Les applications de ces programmes uniques et avancés étant extrêmement variées, il peut être inquiétant d’apprendre que les processus automatisés de l’IA peuvent être biaisés. L’IA peut être programmée avec son propre ensemble de préjugés.

Alors que nous semblons actuellement suivre implicitement la technologie, découvrir qu’elle peut être en cause peut être une pilule difficile à avaler.

Beaucoup ont suggéré de faire plus de recherches sur l’établissement d’un ensemble d’éthique de l’IA. Cela comprendrait des valeurs, des principes et des techniques pour garantir que l’IA continuerait à mener de manière éthique tous ses processus.

Comme pour tout nouveau développement, il y a une période où les progrès, les découvertes et les règles doivent être établis. Il n’y a rien de nouveau à ce sujet, mais le rythme auquel l’IA se développe la place dans une nouvelle classe à part. Alors, avant de vous énerver et de déclencher une révolte contre les machines, apprenons-en plus sur ce qu’est le biais de l’IA.

Qu’est-ce que le biais de l’IA ?

Comme nous le savons trop bien, les humains peuvent être biaisés. C’est sans doute complètement inévitable. Malheureusement, cela peut déborder lorsque les développeurs écrivent le code pour certains systèmes et, dans certains cas, être amplifié par l’IA.

Bien qu’il puisse s’agir d’une erreur humaine, cela peut également être associé à un manque ou à des données incomplètes programmées dans l’IA.

Ces préjugés peuvent également être un oubli total et imiter simplement les anciennes tendances. Ou, dans certains cas, parce que les équipes qui les créent ne sont pas assez diversifiées pour détecter les problèmes.

Un exemple typique et célèbre est l’outil de recrutement biaisé d’Amazon.

Étude de cas Amazon

Lire aussi  À l'intérieur du processus de conception chez HABA, un leader mondial des jeux pour enfants

En 2014, Amazon a souhaité automatiser son processus de recrutement. Comme vous pouvez l’imaginer, une entreprise de cette envergure nécessiterait des heures de révision de curriculum vitae. Leur solution consistait à créer un programme d’IA qui examinerait les curriculum vitae des candidats et donnerait un score aux recruteurs.

Bien que cela ait réduit la liste, l’année suivante, Amazon avait réalisé qu’il y avait un problème, car le système n’évaluait pas les femmes candidates de la même manière que les hommes.

Ce comportement appris était dû aux données historiques qu’Amazon avait fournies au système au cours des 10 dernières années. Étant donné que la main-d’œuvre était composée à 60 % d’hommes, le système supposait à tort que l’entreprise préférait les hommes. Une fois le problème découvert, l’entreprise est rapidement revenue à la méthode de lecture des CV.

Bien que cela illustre comment les préjugés peuvent s’infiltrer dans les systèmes, comment allons-nous jeter les bases de la mise en place de systèmes d’IA éthiques ?

À quoi ressemblera l’éthique de l’IA ?

Comme vous vous en doutez, il s’agit d’une question globale. Veuillez ne pas citer ici les trois lois de la robotique d’Asimov.

Trouver à quoi ressemble l’éthique de l’IA et comment elle peut être intégrée dans un système transparent et impartial prend des étapes nuancées :

1. Faire les examens approfondis des données

Comme je l’ai mentionné, il est essentiel de s’assurer que votre IA exploite les données correctes. Ce processus d’examen devra être mené par un organisme indépendant. À son tour, cela créera une nouvelle sphère de spécialistes qui perfectionneront leurs compétences.

2. Investissez dans la création d’un cadre adapté à votre industrie

La création et le brainstorming des problèmes éthiques auxquels votre industrie est confrontée, et la mise en œuvre de ces leçons dans le système, peuvent aider à identifier les problèmes. Et en faisant simplement cela, vous pouvez même prendre certaines mesures pour résoudre les problèmes du monde réel.

Lire aussi  La société de surveillance du renseignement sur les signaux Pipeline Signals lève 507 000 $ CA en pré-amorçage

3. Utiliser les leçons apprises dans d’autres industries éthiques

Des industries spécifiques auront déjà dû s’attaquer à certaines conversations éthiques. Le domaine médical en est un qui saute aux yeux comme un endroit où des discussions approfondies ont déjà eu lieu en raison de la technologie. Lorsque les entreprises peuvent croiser les compétences, cela stimule toujours l’innovation.

4. Organisez des discussions éthiques et des campagnes de sensibilisation

Le simple fait d’avoir la conversation rend les individus conscients du problème. De plus, organiser une campagne de sensibilisation permettra d’éduquer les gens. Eduquer les individus sur leurs préjugés est toujours un plus pour l’humanité dans son ensemble.

5. Surveiller les résultats

Lors de l’examen de l’étude de cas Amazon, la première étape pour s’assurer que l’IA est éthique est de la surveiller. Vérifiez toujours les données et les résultats dans le système.

Bien qu’il soit formidable d’établir une éthique, il doit y avoir un organisme de réglementation approprié en place qui garantit que l’IA ne dégénère pas.

Réguler l’IA

Cela ne devrait pas être une surprise, mais le gouvernement pourrait être dépassé sur ce point. Nous avons besoin de professionnels capables de conseiller et de prendre des décisions réglementaires cruciales.

Ce n’est pas la première fois. La Food and Drug Administration (FDA), la Securities and Exchange Commission (SEC) et l’Environmental Protection Agency (EPA) ont toutes été fondées en raison d’un événement qui avait besoin de quelqu’un pour régler une situation par la suite.

Les experts de la communauté de l’IA s’accordent à dire qu’il doit y avoir un conseil de régulation pour traiter des problèmes massifs. Ceux-ci incluent des problèmes que nous connaissons tous, à savoir les Deepfakes et la reconnaissance faciale. Avec Deepfakes, le problème est que de fausses déclarations peuvent être émises et distribuées à travers le monde, provoquant le chaos.

Si les experts et le gouvernement travaillent ensemble, il peut y avoir un organisme efficace qui veillera à ce que l’IA ne cause pas de dommages au grand public, mais élève plutôt le monde.

Lire aussi  Pushing Buttons : Comment Lara Croft de Tomb Raider a été abandonnée par les jeux génériques | Jeux

Ce que nous pouvons faire pour un meilleur avenir de l’IA

L’IA est là pour rester. Nous vivons actuellement une période charnière. Il se développe plus rapidement chaque jour, et les applications deviennent de plus en plus approfondies et se développent dans de plus en plus d’industries.

Il est de notre devoir de surveiller comment l’IA est appliquée dans nos vies, de signaler tout problème identifiable et de devenir des utilisateurs basés sur des solutions qui peuvent fournir des voies constructives à suivre.

Nous sommes tous dans le même bateau.

Jody Glidden est la fondatrice et PDG d’Introhive. Fondé en 2012, Introhive est le service d’intelligence relationnelle B2B et la plate-forme de gestion de données à la croissance la plus rapide. La société a récemment été reconnue par les programmes Fast 50 et Fast 500 Awards de Deloitte et a été nommée lauréate du MarTech 2020 Breakthrough Award pour la meilleure innovation CRM. Jody est une chef d’entreprise expérimentée avec une ténacité de démarrage, une rigueur d’entreprise publique et une passion innovante pour la technologie. Introhive est la quatrième entreprise dans laquelle il a participé à la fondation et à la construction, avec trois sorties réussies, dont Chalk Media, icGlobal et Scholars.com.

La communauté InformationWeek rassemble des praticiens de l’informatique et des experts du secteur avec des conseils, une formation et des opinions informatiques. Nous nous efforçons de mettre en évidence les cadres technologiques et les experts en la matière et utilisons leurs connaissances et leurs expériences pour aider notre public d’informaticiens … Voir la biographie complète

Nous apprécions vos commentaires sur ce sujet sur nos canaux de médias sociaux, ou [contact us directly] avec des questions sur le site.

Plus d’informations

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick