Les questions juridiques à considérer lors de l’adoption de l’IA

Les questions juridiques à considérer lors de l’adoption de l’IA

Vous souhaitez donc que votre entreprise commence à utiliser intelligence artificielle. Avant de vous précipiter pour adopter l’IA, réfléchissez aux risques potentiels, notamment aux problèmes juridiques liés à la protection des données, à la propriété intellectuelle et à la responsabilité. Grâce à un cadre de gestion stratégique des risques, les entreprises peuvent atténuer les risques de conformité majeurs et préserver la confiance des clients tout en tirant parti des récentes avancées de l’IA.

Vérifiez vos données d’entraînement

Tout d’abord, évaluez si les données utilisées pour entraîner votre modèle d’IA sont conformes aux lois applicables telles que la loi indienne 2023. Projet de loi sur la protection des données personnelles numériques et l’Union européenne Règlement Général sur la Protection des Données, qui traitent de la propriété, du consentement et de la conformité des données. Un examen juridique opportun qui détermine si les données collectées peuvent être utilisées légalement à des fins d’apprentissage automatique peut éviter des problèmes réglementaires et juridiques ultérieurs.

Cette évaluation juridique implique une analyse approfondie des conditions de service existantes de votre entreprise, des déclarations de politique de confidentialité et d’autres conditions contractuelles destinées aux clients afin de déterminer quelles autorisations, le cas échéant, ont été obtenues d’un client ou d’un utilisateur. L’étape suivante consiste à déterminer si ces autorisations suffiront à entraîner un modèle d’IA. Dans le cas contraire, une notification ou un consentement supplémentaire du client sera probablement requis.

Différents types de données soulèvent différentes questions de consentement et de responsabilité. Par exemple, déterminez si vos données sont des informations personnellement identifiables, du contenu synthétique (généralement généré par un autre système d’IA) ou la propriété intellectuelle de quelqu’un d’autre. La minimisation des données (en utilisant uniquement ce dont vous avez besoin) est un bon principe à appliquer à ce stade.

Portez une attention particulière à la manière dont vous avez obtenu les données. OpenAI a été poursuivi pour récupérer des données personnelles afin de former ses algorithmes. Et, comme expliqué ci-dessous, le grattage de données peut soulever des questions de violation du droit d’auteur. De plus, les lois américaines sur les actions civiles peuvent s’appliquer car le scraping pourrait violer les conditions d’utilisation d’un site Web. Les lois américaines axées sur la sécurité, comme la Loi sur la fraude et les abus informatiques pourrait sans doute être appliquée en dehors du territoire du pays afin de poursuivre les entités étrangères qui auraient volé des données dans des systèmes sécurisés.

Lire aussi  L’Inde se trouve à un moment charnière de son parcours en matière de soins de santé

Surveillez les problèmes de propriété intellectuelle

Le New York Times récemment a poursuivi OpenAI pour avoir utilisé le contenu du journal à des fins de formation, fondant ses arguments sur des allégations de violation du droit d’auteur et de dilution de la marque. Le procès contient une leçon importante pour toutes les entreprises impliquées dans le développement de l’IA : soyez prudent lorsque vous utilisez du contenu protégé par le droit d’auteur pour des modèles de formation, en particulier lorsqu’il est possible d’obtenir une licence pour ce contenu auprès du propriétaire. Pomme et d’autres sociétés ont options de licence envisagéesce qui s’avérera probablement comme le meilleur moyen d’atténuer les éventuelles réclamations pour violation du droit d’auteur.

Pour réduire les préoccupations concernant le droit d’auteur, Microsoft a proposé à se tenir derrière les résultats de ses assistants IA, promettant de défendre les clients contre toute réclamation potentielle pour violation du droit d’auteur. De telles protections de la propriété intellectuelle pourraient devenir la norme de l’industrie.

Les entreprises doivent également prendre en compte le potentiel defuite accidentelle de informations confidentielles et secrètes commerciales par un produit d’IA. Si vous autorisez les employés à utiliser en interne des technologies telles que ChatGPT (pour le texte) et Copilote Github (pour la génération de code), les entreprises doivent noter que ces outils d’IA générative sont souvent prendre les invites et les sorties de l’utilisateur comme données de formation pour améliorer encore leurs modèles. Heureusement, les entreprises d’IA générative proposent généralement des services plus sécurisés et la possibilité de se désinscrire de la formation sur modèles.

Attention aux hallucinations

Des plaintes pour violation du droit d’auteur et des problèmes de protection des données apparaissent également lorsque les modèles d’IA générative crachent des données de formation en sortie.

C’est souvent le résultat de modèles de « surajustement », essentiellement un défaut de formation par lequel le modèle mémorise des données de formation spécifiques au lieu d’apprendre des règles générales sur la façon de répondre aux invites. La mémorisation peut amener le modèle d’IA à régurgiter les données d’entraînement en sortie, ce qui pourrait être un désastre du point de vue du droit d’auteur ou de la protection des données.

La mémorisation peut également conduire à des inexactitudes dans les résultats, parfois appelées « hallucinations ». Dans un cas intéressant, un New York Times le journaliste était expérimenter avec le chatbot Bing AI Sydney lorsqu’il a déclaré son amour pour le journaliste. L’incident viral a suscité une discussion sur la nécessité de surveiller la manière dont ces outils sont déployés, en particulier par les jeunes utilisateurs, qui sont plus susceptibles d’attribuer des caractéristiques humaines à l’IA.

Lire aussi  Ecopia AI annonce un partenariat de 8 millions de dollars avec TDDC pour créer des cartes vectorielles 3D des villes canadiennes

Les hallucinations ont également causé des problèmes dans les domaines professionnels. Deux avocats ont par exemple été sanctionnés après avoir soumis un mémoire juridique rédigé par ChatGPT qui citait une jurisprudence inexistante.

De telles hallucinations démontrent pourquoi les entreprises doivent tester et valider les produits d’IA pour éviter non seulement les risques juridiques mais aussi les atteintes à leur réputation. De nombreuses entreprises ont consacré des ressources d’ingénierie à développer des filtres de contenu qui améliorent la précision et réduisent la probabilité de résultats offensants, abusifs, inappropriés ou diffamatoires.

Garder une trace des données

Si vous avez accès à des données utilisateur personnellement identifiables, il est essentiel que vous traitiez ces données en toute sécurité. Vous devez également garantir que vous pouvez supprimer les données et empêcher leur utilisation à des fins d’apprentissage automatique en réponse aux demandes des utilisateurs ou aux instructions des régulateurs ou des tribunaux. Maintenir la provenance des données et garantir une infrastructure robuste est primordial pour toutes les équipes d’ingénierie en IA.

« Grâce à un cadre de gestion stratégique des risques, les entreprises peuvent atténuer les principaux risques de non-conformité et préserver la confiance des clients tout en tirant parti des récentes avancées en matière d’IA. »

Ces exigences techniques sont liées au risque juridique. Aux États-Unis, les régulateurs, dont le Commission fédérale du commerce avoir compté sur dégorgement algorithmique, une mesure punitive. Si une entreprise a enfreint les lois applicables lors de la collecte de données de formation, elle doit supprimer non seulement les données, mais également les modèles formés sur les données contaminées. Il est conseillé de conserver des enregistrements précis des ensembles de données utilisés pour former différents modèles.

Méfiez-vous des biais dans les algorithmes d’IA

L’un des défis majeurs de l’IA réside dans le potentiel de biais préjudiciables, qui peuvent être enracinés dans les algorithmes. Lorsque les préjugés ne sont pas atténués avant le lancement du produit, les applications peuvent perpétuer, voire aggraver la discrimination existante.

Il a par exemple été démontré que les algorithmes de police prédictive utilisés par les forces de l’ordre américaines renforcent les préjugés dominants. Noir et latino les communautés finissent par être ciblées de manière disproportionnée.

Lorsqu’il est utilisé pour approbations de prêt ou recrutement d’emploides algorithmes biaisés peuvent conduire à des résultats discriminatoires.

Lire aussi  Un bébé portant une caméra a appris à une IA à apprendre des mots

Les experts et les décideurs politiques affirment qu’il est important que les entreprises s’efforcent d’atteindre l’équité en matière d’IA. Les biais algorithmiques peuvent avoir un impact concret et problématique sur les libertés civiles et les droits de l’homme.

Soyez transparent

De nombreuses entreprises ont créé des comités d’examen éthique pour garantir que leurs pratiques commerciales sont conformes aux principes de transparence et de responsabilité. Les meilleures pratiques incluent la transparence sur l’utilisation des données et la précision dans vos déclarations aux clients sur les capacités des produits d’IA.

Les régulateurs américains désapprouvent les entreprises que surpromettre les capacités de l’IA dans leurs supports marketing. Les régulateurs ont également les entreprises ont été prévenues contre la modification discrète et unilatérale des conditions de licence de données dans leurs contrats afin d’élargir la portée de leur accès aux données des clients.

Adopter une approche globale basée sur les risques

De nombreux experts en gouvernance de l’IA recommandent adopter une approche basée sur les risques au développement de l’IA. La stratégie consiste à cartographier les projets d’IA de votre entreprise, à les noter sur une échelle de risque et à mettre en œuvre des mesures d’atténuation. De nombreuses entreprises intègrent des évaluations des risques dans les processus existants qui mesurent les impacts des fonctionnalités proposées sur la confidentialité.

Lorsque vous établissez des politiques en matière d’IA, il est important de vous assurer que les règles et lignes directrices que vous envisagez seront adéquates pour atténuer les risques de manière globale, en tenant compte des dernières lois internationales.

Une approche régionalisée de la gouvernance de l’IA pourrait s’avérer coûteuse et sujette aux erreurs. L’Union européenne a récemment adopté Loi sur l’intelligence artificielle comprend un ensemble détaillé d’exigences pour les entreprises développant et utilisant l’IA, et des lois similaires sont susceptible d’émerger bientôt en Asie.

Continuez les examens juridiques et éthiques

Les examens juridiques et éthiques sont importants tout au long du cycle de vie d’un produit d’IA : formation d’un modèle, test et développement, lancement et même après. Les entreprises doivent réfléchir de manière proactive à la manière de mettre en œuvre l’IA pour éliminer les inefficacités tout en préservant la confidentialité des données commerciales et client.

Pour beaucoup de gens, l’IA est un nouveau terrain. Les entreprises devraient investir dans des programmes de formation pour aider leurs collaborateurs à comprendre comment tirer le meilleur parti des nouveaux outils et les utiliser pour propulser leur activité.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick