Comment pratiquer une IA responsable

16 juin 2021

De la police prédictive à la notation de crédit automatisée, les algorithmes appliqués à grande échelle, sans contrôle, représentent une menace sérieuse pour notre société. Dr Rumman Chowdhury, directeur de l’éthique de l’apprentissage automatique, de la transparence et de la responsabilité chez Twitter, rejoint Azeem Azhar pour explorer comment les entreprises peuvent pratiquer une IA responsable afin de minimiser les biais involontaires et le risque de préjudice.

Ils discutent également :

  • Comment évaluer et diagnostiquer les biais dans des algorithmes de « boîte noire » inexplicables.
  • Pourquoi l’IA responsable exige un changement organisationnel descendant, mettant en œuvre de nouvelles mesures et systèmes de recours.
  • Comment Twitter a mené un audit de son propre algorithme de recadrage d’images qui aurait biaisé les visages blancs par rapport aux personnes de couleur.
  • Le domaine émergent des « Opérations d’apprentissage automatique responsables » (MLOps).

@ruchowdh
@thesssssssssssssssssss
@exponentialview

Autres ressources :

HBR Presents est un réseau de podcasts organisé par les éditeurs de HBR, vous apportant les meilleures idées commerciales des plus grands esprits de la gestion. Les points de vue et opinions exprimés sont uniquement ceux des auteurs et ne reflètent pas nécessairement la politique ou la position officielle de Harvard Business Review ou de ses sociétés affiliées.

Lire aussi  Pourquoi le marasme estival du marché boursier ne constitue pas un problème

Related News

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick