Embedded YouTube VideoBy loading the video, you agree to Youtube's privacy policy and Nextcloud's privacy policy. Link to the video: https://youtu.be/fl2BQu2dWZY
By playing this video, all Youtube videos will be unblocked
L’IA a un grand potentiel – celui de nous permettre de faire les choses mieux et plus vite, mais aussi de porter gravement atteinte à notre vie privée, à notre créativité et peut-être même à notre bien-être mental. Nous pensons que l’essentiel reste à découvrir, mais aujourd’hui nous devons trouver le moyen de le faire fonctionner pour nous, et non contre nous (ou les autres).
C’est pourquoi nous avons besoin d’une éthique de l’IA. Chez Nextcloud, nous nous soucions de la protection de la vie privée et de la transparence, et nous pensons qu’une utilisation éthique des outils d’IA dans un cadre commercial et personnel est essentielle.
Dans cet article, nous examinons cinq défis majeurs auxquels sont confrontées les organisations dans leur quête d’une adoption éthique de l’IA : les problèmes avec les principaux fournisseurs d’outils d’IA, les préoccupations en matière de transparence, la conformité réglementaire, les défis liés à la souveraineté des données et le dilemme des écosystèmes à fournisseur unique. En explorant ces défis de manière approfondie, nous tenterons d’acquérir les connaissances et les idées nécessaires pour surmonter certaines complexités éthiques liées à l’adoption de l’IA, afin d’établir une approche plus sûre et plus durable de l’activité économique.
Nextcloud Hub est une plateforme de collaboration alimentée par l’IA qui offre une liberté de choix en matière d’hébergement de l’IA, de recherche d’un modèle approprié et de choix de la bonne approche de l’intégration de l’IA.
Nextcloud s’efforce en permanence de promouvoir l’utilisation éthique des outils d’IA. Pour aider nos utilisateurs, nous utilisons notre évaluation éthique de l’IA pour les aider à choisir la bonne solution en fonction de leurs limites et des principes de leur entreprise.
Les plus grands géants de la technologie, tels que Google et Facebook, affirment contrôler leur développement et leur utilisation de l’IA, en abordant des questions telles que les préjugés, la protection de la vie privée et la responsabilisation. La création de comités de recherche spéciaux, la rédaction de lignes directrices en matière d’éthique et la participation à divers forums et à des collaborations de haut niveau permettent de s’assurer d’une position de leader d’opinion et d’ambassadeur de l’éthique de l’IA.
Ces initiatives constituent également un facteur de différenciation sur un marché concurrentiel et aident les entreprises à améliorer leur image auprès du public, où la confiance des consommateurs est primordiale. Malheureusement, l’adoption de l’IA éthique s’avère être une simple façade où les motivations de profit l’emportent sur les poursuites éthiques, car nous voyons de grands fournisseurs d’IA mettre fin à leurs équipes éthiques alors que les investissements dans les produits d’IA augmentent :
Les efforts d’innovation responsables et les équipes dédiées à l’éthique semblent être un vernis de responsabilité éthique alors que les problèmes systémiques plus profonds inhérents au déploiement de l’IA ne sont pas remis en question.
L’un de ces défis concerne la transparence des pratiques de formation à l’IA.
Bien que les entreprises soient légalement tenues d’informer les utilisateurs de la manière dont leurs données sont traitées, certains fournisseurs d’IA comme Meta commencent à collecter de grandes quantités de données à partir du contenu des utilisateurs, et il est très difficile de se soustraire à cette politique. Et ce n’est pas le seul exemple de la façon dont les géants de la tech prennent des raccourcis pour récupérer des données pour l’entraînement de l’IA lorsque ces dernières sont insuffisantes.
Par exemple, en 2021, Open AI aurait converti plus d’un million d’heures de vidéos YouTube pour fournir des données à ChatGPT. Selon deux membres de l’équipe chargée de la protection de la vie privée chez Google, en 2022, l’entreprise souhaitait étendre l’utilisation des données des consommateurs pour l’entraînement à l’IA, y compris le contenu accessible au public dans Google Docs, Google Sheets et les applications connexes.
Les réglementations relatives à la confidentialité des données jouent un rôle crucial dans l’utilisation des technologies de l’IA, en garantissant la protection des droits à la vie privée des individus et l’utilisation responsable des applications alimentées par l’IA. Du point de vue d’une entreprise qui utilise des outils d’IA dans ses activités, il est essentiel de se conformer à ces réglementations.
Dans l’Union Européenne, cette réglementation est assurée par le Règlement Général sur la Protection des Données (RGPD) et la Loi sur l’IA, une incarnation du cadre réglementaire commun pour l’IA. Aux États-Unis, l’Institut National des Normes et de la Technologie a publié le Cadre de Gestion des Risques (AI RMF), un guide destiné aux entreprises et autres entités pour l’utilisation, la conception et le déploiement de l’intelligence artificielle. Toutefois, ce cadre est un dispositif à caractère non contraignant et ne prévoit pas de sanctions en cas de non-respect des règles.
Dans certaines régions, la législation contrôle également la collecte et le traitement de types de données spécifiques que les entreprises peuvent collecter inconsciemment, par exemple les informations de santé protégées (PHI) et les données biométriques qui peuvent être collectées par le biais de diverses apps de santé alimentées par l’IA. Aux États-Unis, la loi sur la portabilité et la responsabilité de l’assurance maladie (HIPAA) et la loi sur la confidentialité des informations biométriques (BIPA) de l’Illinois visent à réglementer la collecte de données sur la santé.
Les normes de certification de l’IA éthique sont conçues pour garantir que le développement et le déploiement des technologies de l’IA s’alignent sur les valeurs sociétales, promeuvent la confiance et atténuent les préjudices potentiels. Bien que la non-conformité n’entraîne pas de sanctions légales, les entreprises restent confrontées à certains risques, tels que l’atteinte à leur réputation et l’altération des relations avec les parties prenantes. Parmi les exemples, citons l’initiative mondiale de l’IEEE sur l’éthique des systèmes autonomes et intelligents, les lignes directrices de l’UE en matière d’éthique pour une IA digne de confiance, l’ISO/IEC JTC 1/SC 42, l’AECP, le RAIL, etc.
Les réglementations varient selon les régions et les secteurs d’activité, et la première étape essentielle consiste à se renseigner sur les lois relatives à la protection des données qui s’appliquent à votre entreprise. La non-conformité, même si elle n’est pas intentionnelle, peut avoir de graves conséquences, notamment des amendes et des atteintes à la réputation. Bien que ces réglementations mettent en œuvre différentes politiques, il convient de garder à l’esprit certains principes communs qui peuvent contribuer à minimiser les risques :
Nous offrons à nos clients des services de consultation directe et de multiples ressources pour soutenir leurs efforts de mise en conformité. Cela comprend une liste de contrôle de haut niveau en 12 étapes offrant une vue d’ensemble des principales exigences en matière de conformité et un manuel d’administration détaillé fournissant des conseils concrets et pratiques pour la mise en œuvre efficace des mesures de conformité.
Les algorithmes et les politiques d’utilisation des données utilisés par les services publics d’IA manquent de transparence, ce qui rend difficile pour les organisations de garantir des pratiques éthiques en matière d’IA. En outre, lorsque les employés utilisent des outils d’IA dans le cloud accessibles au public comme moyen de travail, cela peut entraîner des problèmes de conformité et des risques pour la vie privée liés à la localisation des données :
L’hébergement local des outils d’IA et de leurs données est essentiel pour garantir la confidentialité et la conformité des données. Alors que les solutions basées sur le cloud offrent flexibilité et évolutivité, l’hébergement local fournit le contrôle et l’assurance nécessaires pour traiter efficacement les données sensibles ou réglementées.
Les services d’IA fournis par les grands fournisseurs de technologie sont souvent fortement intégrés à leurs produits, ce qui permet des opérations plus fluides et de meilleures performances globales du côté de l’utilisateur. Toutefois, les risques liés à l’enfermement dans l’écosystème d’un seul fournisseur comprennent une faible flexibilité quant aux outils à utiliser et une dépendance majeure à l’égard de la prise de décision et de la gestion des produits du fournisseur. Cela crée également des risques stratégiques, non seulement pour les entreprises, mais aussi pour la société dans son ensemble.
Après que l’autorité danoise de régulation de la vie privée s’est opposée au partage des données des élèves avec Google, l’entreprise aurait promis de modifier la manière dont elle traite les données pour continuer à fournir des produits Google aux écoles danoises. Cela signifie que les écoles peuvent éviter des perturbations à court terme et économiser des fonds, car des entreprises comme Google et Microsoft rendent leurs produits accessibles aux organisations éducatives.
Cependant, à long terme, en fournissant aux enfants leur technologie propriétaire, les entreprises ont une forte emprise sur leurs choix futurs – les enfants étant habitués à utiliser les produits et à partager leurs données depuis l’enfance.
De même, il est important d’agir de manière stratégique lors de l’adoption de l’IA dans la vie quotidienne – un changement négatif peut se produire progressivement et passer inaperçu jusqu’à ce qu’il soit trop tard. Si, aujourd’hui, les données des étudiants ne sont pas utilisées pour former en masse l’IA des grandes entreprises technologiques étrangères, elles pourraient l’être demain, compte tenu de la popularité croissante de l’IA. En tant qu’enfant, vous quitterez l’école et continuerez à utiliser Google, parce qu’il a déjà formé une IA personnelle pour vous et que tout autre produit sera difficile à adopter.
L’indépendance vis-à-vis des fournisseurs devrait faire partie de la stratégie à long terme. Les organisations européennes ont intérêt à utiliser l’IA européenne qui fait partie d’un écosystème souverain, hébergée en Europe et formée sur des données locales.
Nextcloud Hub est la plateforme de collaboration auto-hébergée la plus populaire qui intègre des outils de partage de fichiers, de collaboration documentaire, de travail collaboratif et de visioconférence dans une interface modulaire unique. Sécurisé et privé de par sa conception, il vous offre un contrôle ultime sur vos données et garantit une conformité maximale.
Conscients de l’énorme potentiel de l’IA pour notre vie quotidienne et notre travail, nous avons doté Nextcloud Hub de fonctionnalités d’IA qui vous offrent des performances tout en vous permettant de préserver votre vie privée. Il est doté de l’assistant Nextcloud, une interface alimentée par l’IA qui améliore l’ensemble de votre plateforme avec des fonctions d’automatisation polyvalentes, une communication augmentée et des instruments de création de contenu. Vous construisez votre système d’IA comme vous l’entendez, avec plusieurs applications, modèles et formats de déploiement disponibles.
Découvrez Nextcloud Hub, la première solution open-source de protection de la vie privée
pour une collaboration professionnelle qui vous met aux commandes.