Comment et pourquoi les entreprises doivent s’attaquer à l’IA éthique

L’intelligence artificielle est de plus en plus courante dans les entreprises, mais garantir une IA éthique et responsable n’est pas toujours une priorité. Voici comment les organisations peuvent s’en assurer.

Crédit : Feng Yu via Adobe Stock

Les préjugés et l’éthique dans l’intelligence artificielle ont attiré l’attention du public et de certaines organisations à la suite d’exemples très médiatisés au travail. Par exemple, il y a eu des travaux qui ont démontré des préjugés contre les individus à peau foncée et les femmes dans la technologie de reconnaissance faciale et un outil secret de recrutement d’IA chez Amazon qui a montré des préjugés contre les femmes, parmi de nombreux autres exemples.

Mais lorsqu’il s’agit de regarder à l’intérieur de nos propres maisons – ou entreprises – nous ne sommes peut-être pas très avancés dans la priorisation de l’éthique de l’IA ou dans la prise de mesures pour atténuer les biais dans les algorithmes. Selon un nouveau rapport de FICO, une société mondiale de logiciels d’analyse, 65% des responsables de l’analyse et des données de niveau C interrogés ont déclaré que leur entreprise ne pouvait pas expliquer comment les décisions ou les prédictions spécifiques du modèle d’IA étaient prises, et 73% ont eu du mal à obtenir un cadre plus large. soutien à la priorisation de l’éthique de l’IA et des pratiques responsables de l’IA. Seulement 20% surveillent activement leurs modèles en production pour l’équité et l’éthique.

L’enquête auprès de 100 responsables de l’analyse et des données de niveau C a été menée par Corinium pour le compte de FICO. L’étude a également révélé que si le personnel de conformité (80 %) et les membres de l’équipe informatique et d’analyse des données (70 %) étaient les plus sensibilisés à l’éthique de l’IA au sein des organisations, cette compréhension était inégale dans le reste de l’organisation.

« Au cours des 15 derniers mois, de plus en plus d’entreprises ont investi dans des outils d’IA, mais n’ont pas élevé l’importance de la gouvernance de l’IA et de l’IA responsable au niveau du conseil d’administration », a déclaré Scott Zoldi, directeur de l’analyse chez FICO.

Lire aussi  Comment fonctionnent les pompes à chaleur : un guide visuel

Mais ce n’est pas parce qu’il n’a pas été priorisé au plus haut niveau que ce n’est pas un sujet de préoccupation. Des recherches distinctes menées par le Deloitte AI Institute ont révélé que dans le groupe d’adoption de l’IA, 95% des personnes interrogées ont exprimé des inquiétudes concernant l’IA éthique, la transparence et l’explicabilité, a déclaré à InformationWeek la directrice exécutive du groupe, Beena Ammanath, l’année dernière. Ammanath a alors déclaré qu’elle s’attendait à ce que davantage d’organisations commencent à s’attaquer à l’opérationnalisation de l’éthique de l’IA cette année en 2021.

Pour les organisations qui travaillent avec l’IA sur des technologies plus émergentes, une question à se poser au début est « qu’est-ce qui pourrait mal se passer avec cela ? Quelles sont certaines des conséquences ? », selon Ammanath.

Une autre organisation qui s’est penchée sur l’éthique et la responsabilité de l’IA dans le cadre de son travail de conseil en IA avec les entreprises est Fast Forward Labs de Cloudera. Ade Adewunmi est responsable de la stratégie et du conseil au sein de l’organisation. Elle note que les organisations ont désormais accès à des ensembles de données plus volumineux et plus nombreux qu’il y a quelques années, et elles expérimentent comment ces ensembles de données et l’apprentissage automatique peuvent être appliqués.

Examiner de haut niveau les données dont vous disposez est un élément important de toute pratique d’éthique et de responsabilité en matière d’IA, a-t-elle déclaré.

“L’une des questions que nous posons toujours sur les données dont nous disposons est ‘dans quelle mesure sont-elles représentatives du monde dans lequel elles seront appliquées ?'”, a déclaré Adewunmi. « Les organisations doivent examiner leurs pratiques de capture de données. »

C’est également le cas si vous faites l’acquisition d’ensembles de données auprès d’autres parties pour augmenter vos propres ensembles de données.

“Nous devons comprendre la signification des variables des données pour être sûrs qu’il n’y a pas de groupes qui pourraient être particulièrement défavorisés”, a-t-elle déclaré.

Lire aussi  De nouveaux modèles éclairent l'origine de la vie

Par exemple, pour une société d’énergie ou de télécommunications qui souhaite prévoir le transport d’énergie ou la charge des télécommunications afin de prévoir la demande des clients afin de pouvoir mieux planifier son réseau, d’autres nuances peuvent être prises en compte.

“Si vous faites des hypothèses sur l’utilisation de l’énergie, il existe des liens entre les avantages socio-économiques et la façon dont les gens utilisent l’énergie”, a déclaré Adewunmi. Ces liens peuvent ne pas avoir d’impact sur les choix algorithmiques, mais il est important de les connaître en arrière-plan, car les gens prennent des décisions en fonction des informations recueillies à partir de l’algorithme.

Adewunmi a déclaré qu’elle conseillait également aux clients de réfléchir à leur utilisation de modèles explicables.

“Toute prédiction faite n’est que cela”, a-t-elle déclaré. “C’est une prédiction faite par un modèle.”

Mais les décisions basées sur ces prédictions impliquent souvent des êtres humains. Pour pouvoir prendre des décisions, ces humains doivent comprendre le fonctionnement du modèle et les limites de ce modèle.

“Si vous êtes quelqu’un qui a la capacité d’accorder ou de refuser un crédit, vous devez savoir pourquoi cette décision a été prise et également appliquer un contexte plus large”, a déclaré Adewunmi.

L’explicabilité peut également aider les humains qui doivent travailler avec des découvertes algorithmiques qui ne semblent pas avoir de sens à première vue. Par exemple, Cloudera Fast Forward Labs dispose d’un prototype qui prédit le taux de désabonnement des fournisseurs de télécommunications cherchant à prédire quels clients risquent d’abandonner le service. Le modèle d’apprentissage automatique a révélé que l’un des facteurs les plus importants pour savoir si une personne partirait est de savoir si elle a un degré élevé de plaintes concernant le service.

Mais ce ne sont pas les plaignants qui risquent de partir. En fait, c’est le contraire qui est vrai. Les plaignants sont ceux qui envisagent de rester pour une raison ou une autre, ils ont donc plus d’intérêt à ce que la qualité du service soit bonne. C’est pourquoi ils se plaignent. Ils se soucient de l’amélioration du service. Ceux qui n’ont pas l’enjeu élevé partent simplement s’ils sont insatisfaits. Il est important de savoir si vous êtes un représentant de service autorisé à offrir des incitations aux clients à risque de désabonnement.

Lire aussi  Hélicoptère Mars pour souffler, recharger ses batteries • -

La création d’explicabilité fait partie des étapes importantes que les entreprises doivent intégrer à leurs opérations d’intelligence artificielle afin d’intégrer une IA responsable et éthique dans leurs activités. Une clé pour que cela fonctionne est de s’assurer que ces étapes font partie du processus global d’IA.

« L’IA deviendra de plus en plus omniprésente dans l’économie numérique à mesure que les entreprises l’intégreront au niveau opérationnel dans leurs activités », a déclaré Cortnie Abercrombie, contributeur au rapport FICO et fondateur et PDG d’AI Truth. « Les principales parties prenantes, telles que les décideurs seniors, les membres du conseil d’administration, les clients, etc. doivent avoir une compréhension claire de la manière dont l’IA est utilisée au sein de leur entreprise, des risques potentiels encourus et des systèmes mis en place pour aider à la gouverner et à la surveiller. Les développeurs d’IA peuvent jouer un rôle majeur en aidant à éduquer les principales parties prenantes en les invitant au processus de vérification des modèles d’IA. »

Contenu associé :

Comment l’IA peut sauver le monde ou non

Ce que nous pouvons faire à propos de l’IA biaisée

Leadership informatique : 10 façons de libérer l’innovation d’entreprise

Jessica Davis est rédactrice en chef à InformationWeek. Elle couvre le leadership informatique d’entreprise, les carrières, l’intelligence artificielle, les données et l’analyse, et les logiciels d’entreprise. Elle a passé une carrière à l’intersection des affaires et de la technologie. Suivez-la sur twitter : … Voir la bio complète

Nous apprécions vos commentaires sur ce sujet sur nos canaux de médias sociaux, ou [contact us directly] avec des questions sur le site.

Plus d’informations

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick