Utilisation éthique de l’IA : 5 défis majeurs

Utilisation éthique de l'IA : les cinq défis - Nextcloud

L’IA a un grand potentiel – celui de nous permettre de faire les choses mieux et plus vite, mais aussi de porter gravement atteinte à notre vie privée, à notre créativité et peut-être même à notre bien-être mental. Nous pensons que l’essentiel reste à découvrir, mais aujourd’hui nous devons trouver le moyen de le faire fonctionner pour nous, et non contre nous (ou les autres).

C’est pourquoi nous avons besoin d’une éthique de l’IA. Chez Nextcloud, nous nous soucions de la protection de la vie privée et de la transparence, et nous pensons qu’une utilisation éthique des outils d’IA dans un cadre commercial et personnel est essentielle.

Dans cet article, nous examinons cinq défis majeurs auxquels sont confrontées les organisations dans leur quête d’une adoption éthique de l’IA : les problèmes avec les principaux fournisseurs d’outils d’IA, les préoccupations en matière de transparence, la conformité réglementaire, les défis liés à la souveraineté des données et le dilemme des écosystèmes à fournisseur unique. En explorant ces défis de manière approfondie, nous tenterons d’acquérir les connaissances et les idées nécessaires pour surmonter certaines complexités éthiques liées à l’adoption de l’IA, afin d’établir une approche plus sûre et plus durable de l’activité économique.

L’IA éthique dans Nextcloud

Nextcloud Hub est une plateforme de collaboration alimentée par l’IA qui offre une liberté de choix en matière d’hébergement de l’IA, de recherche d’un modèle approprié et de choix de la bonne approche de l’intégration de l’IA.

Nextcloud s’efforce en permanence de promouvoir l’utilisation éthique des outils d’IA. Pour aider nos utilisateurs, nous utilisons notre évaluation éthique de l’IA pour les aider à choisir la bonne solution en fonction de leurs limites et des principes de leur entreprise.

Nextcloud Ethical AI

Big tech et utilisation éthique de l’IA

Les plus grands géants de la technologie, tels que Google et Facebook, affirment contrôler leur développement et leur utilisation de l’IA, en abordant des questions telles que les préjugés, la protection de la vie privée et la responsabilisation. La création de comités de recherche spéciaux, la rédaction de lignes directrices en matière d’éthique et la participation à divers forums et à des collaborations de haut niveau permettent de s’assurer d’une position de leader d’opinion et d’ambassadeur de l’éthique de l’IA.

Ces initiatives constituent également un facteur de différenciation sur un marché concurrentiel et aident les entreprises à améliorer leur image auprès du public, où la confiance des consommateurs est primordiale. Malheureusement, l’adoption de l’IA éthique s’avère être une simple façade où les motivations de profit l’emportent sur les poursuites éthiques, car nous voyons de grands fournisseurs d’IA mettre fin à leurs équipes éthiques alors que les investissements dans les produits d’IA augmentent :

  • Au début de l’année 2023, Microsoft a licencié l’ensemble de son équipe chargée de l’éthique et de la gouvernance de l’IA dans le cadre d’un plan de licenciement massif, alors qu’elle domine le marché en matière de développement de produits d’IA à grande échelle et qu’elle prône activement des principes d’éthique en matière d’IA.
  • En 2018, Google a publié ses principes en matière d’IA, s’engageant à développer l’IA de manière éthique. Toutefois, au cours des années suivantes, l’entreprise est confrontée à des réactions négatives à propos du projet Maven controversé visant à développer une IA militaire pour le Pentagone, licencie son principal chercheur en IA, Timnit Gebru, divise son équipe chargée de l’innovation responsable et doit finalement faire face à des dissensions internes de la part de ses employés concernant la mise en œuvre de ces principes.
  • En 2023, Meta a dissous son équipe Responsible AI (IA responsable) tout en investissant davantage de ressources dans les produits d’intelligence artificielle générative.

Les efforts d’innovation responsables et les équipes dédiées à l’éthique semblent être un vernis de responsabilité éthique alors que les problèmes systémiques plus profonds inhérents au déploiement de l’IA ne sont pas remis en question.

Collecte de données et questions de transparence

L’un de ces défis concerne la transparence des pratiques de formation à l’IA.

Bien que les entreprises soient légalement tenues d’informer les utilisateurs de la manière dont leurs données sont traitées, certains fournisseurs d’IA comme Meta commencent à collecter de grandes quantités de données à partir du contenu des utilisateurs, et il est très difficile de se soustraire à cette politique. Et ce n’est pas le seul exemple de la façon dont les géants de la tech prennent des raccourcis pour récupérer des données pour l’entraînement de l’IA lorsque ces dernières sont insuffisantes.

Par exemple, en 2021, Open AI aurait converti plus d’un million d’heures de vidéos YouTube pour fournir des données à ChatGPT. Selon deux membres de l’équipe chargée de la protection de la vie privée chez Google, en 2022, l’entreprise souhaitait étendre l’utilisation des données des consommateurs pour l’entraînement à l’IA, y compris le contenu accessible au public dans Google Docs, Google Sheets et les applications connexes.

Normes et réglementations relatives à la certification de l’IA éthique

Les réglementations relatives à la confidentialité des données jouent un rôle crucial dans l’utilisation des technologies de l’IA, en garantissant la protection des droits à la vie privée des individus et l’utilisation responsable des applications alimentées par l’IA. Du point de vue d’une entreprise qui utilise des outils d’IA dans ses activités, il est essentiel de se conformer à ces réglementations.

Réglementation en matière de protection des données et utilisation de l’IA

Dans l’Union Européenne, cette réglementation est assurée par le Règlement Général sur la Protection des Données (RGPD) et la Loi sur l’IA, une incarnation du cadre réglementaire commun pour l’IA. Aux États-Unis, l’Institut National des Normes et de la Technologie a publié le Cadre de Gestion des Risques (AI RMF), un guide destiné aux entreprises et autres entités pour l’utilisation, la conception et le déploiement de l’intelligence artificielle. Toutefois, ce cadre est un dispositif à caractère non contraignant et ne prévoit pas de sanctions en cas de non-respect des règles.

Dans certaines régions, la législation contrôle également la collecte et le traitement de types de données spécifiques que les entreprises peuvent collecter inconsciemment, par exemple les informations de santé protégées (PHI) et les données biométriques qui peuvent être collectées par le biais de diverses apps de santé alimentées par l’IA. Aux États-Unis, la loi sur la portabilité et la responsabilité de l’assurance maladie (HIPAA) et la loi sur la confidentialité des informations biométriques (BIPA) de l’Illinois visent à réglementer la collecte de données sur la santé.

Normes de certification de l’IA éthique

Les normes de certification de l’IA éthique sont conçues pour garantir que le développement et le déploiement des technologies de l’IA s’alignent sur les valeurs sociétales, promeuvent la confiance et atténuent les préjudices potentiels. Bien que la non-conformité n’entraîne pas de sanctions légales, les entreprises restent confrontées à certains risques, tels que l’atteinte à leur réputation et l’altération des relations avec les parties prenantes. Parmi les exemples, citons l’initiative mondiale de l’IEEE sur l’éthique des systèmes autonomes et intelligents, les lignes directrices de l’UE en matière d’éthique pour une IA digne de confiance, l’ISO/IEC JTC 1/SC 42, l’AECP, le RAIL, etc.

Comment minimiser les risques de non-conformité ?

Les réglementations varient selon les régions et les secteurs d’activité, et la première étape essentielle consiste à se renseigner sur les lois relatives à la protection des données qui s’appliquent à votre entreprise. La non-conformité, même si elle n’est pas intentionnelle, peut avoir de graves conséquences, notamment des amendes et des atteintes à la réputation. Bien que ces réglementations mettent en œuvre différentes politiques, il convient de garder à l’esprit certains principes communs qui peuvent contribuer à minimiser les risques :

  • Obtenir un consentement explicite avant de collecter des données, en informant les utilisateurs de la nature des données collectées et de la manière dont elles sont utilisées et partagées. Veillez à proposer des moyens simples de se désengager.
  • Rendez vos protocoles de traitement et de stockage des données accessibles afin de garantir la conformité et d’apaiser les inquiétudes des utilisateurs potentiels.
  • Utiliser des modèles qui fournissent des informations transparentes sur les données de formation et les algorithmes utilisés pour la collecte et le traitement.
  • Store user data and run your AI locally to avoid conflicts with your local regulations. Si l’hébergement local n’est pas possible, vérifiez que les fournisseurs tiers respectent les réglementations en matière de protection des données. Contrôler en permanence leurs pratiques afin d’assurer une conformité continue.
  • Former les employés aux réglementations en matière de protection des données et aux politiques de l’entreprise. Promouvoir une culture de sensibilisation à la protection de la vie privée et à la sécurité au sein de l’organisation.
  • Faites régulièrement les mises à jour et appliquez les correctifs nécessaires à vos installations pour en atténuer les vulnérabilités.

Kit de conformité Nextcloud

Nous offrons à nos clients des services de consultation directe et de multiples ressources pour soutenir leurs efforts de mise en conformité. Cela comprend une liste de contrôle de haut niveau en 12 étapes offrant une vue d’ensemble des principales exigences en matière de conformité et un manuel d’administration détaillé fournissant des conseils concrets et pratiques pour la mise en œuvre efficace des mesures de conformité.

Conformité Nextcloud

Localisation et souveraineté des données

Les algorithmes et les politiques d’utilisation des données utilisés par les services publics d’IA manquent de transparence, ce qui rend difficile pour les organisations de garantir des pratiques éthiques en matière d’IA. En outre, lorsque les employés utilisent des outils d’IA dans le cloud accessibles au public comme moyen de travail, cela peut entraîner des problèmes de conformité et des risques pour la vie privée liés à la localisation des données :

  • L’utilisation de services d’IA tiers peut soulever des problèmes de conformité avec les réglementations sur la protection des données (par exemple, RGPD, CCPA) et les normes spécifiques à l’industrie (par exemple, HIPAA, PCI DSS).
  • Les services d’IA publics peuvent stocker des données dans des juridictions qui ne respectent pas les exigences de l’entreprise en matière de souveraineté des données, ce qui entraîne des risques juridiques et réglementaires. L’inverse est également possible : par exemple, la loi américaine CLOUD permet aux autorités policières américaines d’obliger les entreprises technologiques basées aux États-Unis à divulguer des communications électroniques, quel que soit l’endroit où les données sont stockées.

L’hébergement local des outils d’IA et de leurs données est essentiel pour garantir la confidentialité et la conformité des données. Alors que les solutions basées sur le cloud offrent flexibilité et évolutivité, l’hébergement local fournit le contrôle et l’assurance nécessaires pour traiter efficacement les données sensibles ou réglementées.

Verrouillage des fournisseurs d’IA et risques stratégiques pour l’autonomie numérique

Les services d’IA fournis par les grands fournisseurs de technologie sont souvent fortement intégrés à leurs produits, ce qui permet des opérations plus fluides et de meilleures performances globales du côté de l’utilisateur. Toutefois, les risques liés à l’enfermement dans l’écosystème d’un seul fournisseur comprennent une faible flexibilité quant aux outils à utiliser et une dépendance majeure à l’égard de la prise de décision et de la gestion des produits du fournisseur. Cela crée également des risques stratégiques, non seulement pour les entreprises, mais aussi pour la société dans son ensemble.

Après que l’autorité danoise de régulation de la vie privée s’est opposée au partage des données des élèves avec Google, l’entreprise aurait promis de modifier la manière dont elle traite les données pour continuer à fournir des produits Google aux écoles danoises. Cela signifie que les écoles peuvent éviter des perturbations à court terme et économiser des fonds, car des entreprises comme Google et Microsoft rendent leurs produits accessibles aux organisations éducatives.

Cependant, à long terme, en fournissant aux enfants leur technologie propriétaire, les entreprises ont une forte emprise sur leurs choix futurs – les enfants étant habitués à utiliser les produits et à partager leurs données depuis l’enfance.

De même, il est important d’agir de manière stratégique lors de l’adoption de l’IA dans la vie quotidienne – un changement négatif peut se produire progressivement et passer inaperçu jusqu’à ce qu’il soit trop tard. Si, aujourd’hui, les données des étudiants ne sont pas utilisées pour former en masse l’IA des grandes entreprises technologiques étrangères, elles pourraient l’être demain, compte tenu de la popularité croissante de l’IA. En tant qu’enfant, vous quitterez l’école et continuerez à utiliser Google, parce qu’il a déjà formé une IA personnelle pour vous et que tout autre produit sera difficile à adopter.

L’indépendance vis-à-vis des fournisseurs devrait faire partie de la stratégie à long terme. Les organisations européennes ont intérêt à utiliser l’IA européenne qui fait partie d’un écosystème souverain, hébergée en Europe et formée sur des données locales.

Reprenez le contrôle de vos données avec Nextcloud Hub

Nextcloud Hub est la plateforme de collaboration auto-hébergée la plus populaire qui intègre des outils de partage de fichiers, de collaboration documentaire, de travail collaboratif et de visioconférence dans une interface modulaire unique. Sécurisé et privé de par sa conception, il vous offre un contrôle ultime sur vos données et garantit une conformité maximale.

Conscients de l’énorme potentiel de l’IA pour notre vie quotidienne et notre travail, nous avons doté Nextcloud Hub de fonctionnalités d’IA qui vous offrent des performances tout en vous permettant de préserver votre vie privée. Il est doté de l’assistant Nextcloud, une interface alimentée par l’IA qui améliore l’ensemble de votre plateforme avec des fonctions d’automatisation polyvalentes, une communication augmentée et des instruments de création de contenu. Vous construisez votre système d’IA comme vous l’entendez, avec plusieurs applications, modèles et formats de déploiement disponibles.

Aperçu des nouvelles fonctionnalités de la dernière version de Nextcloud Hub

Essayez Nextcloud Hub

Découvrez Nextcloud Hub, la première solution open-source de protection de la vie privée
pour une collaboration professionnelle qui vous met aux commandes.

Essayer maintenant