Vous êtes plus qu'un point de données. L'Opt Out est là pour vous aider à récupérer votre vie privée.
LA DERNIÈRE VAGUELe développement de l’intelligence artificielle a contraint beaucoup d’entre nous à repenser des aspects clés de nos vies. Les artistes numériques, par exemple, doivent désormais se concentrer sur la protection de leur travail contre les sites générateurs d’images, et les enseignants doivent faire face au risque d’externalisation de certains de leurs étudiants.rédaction d'un essai sur ChatGPT.
Mais le flot d’IA s’accompagne également d’importants risques pour la vie privée que tout le monde devrait comprendre, même si vous n’avez pas l’intention de découvrir un jour ce que pense cette technologie.tu ressemblerais à un triton.
Un manque de transparence
« Nous savons souvent très peu de choses sur qui utilise nos informations personnelles, comment et à quelles fins », déclareJessica Brandt, directeur politique de l'Initiative sur l'intelligence artificielle et les technologies émergentes auÉtablissement Brookings, une organisation à but non lucratif basée à Washington, D.C., qui mène des recherches qu'elle utilise pour s'attaquer à un large éventail de problèmes nationaux et mondiaux.
D’une manière générale, l’apprentissage automatique – le processus par lequel un système d’IA devient plus précis – nécessite beaucoup de données. Plus un système dispose de données, plus il devient précis. Plateformes d'IA générative comme les chatbots ChatGPT etLe barde de Google, ainsi que le générateur d'images Dall-E obtiennent certaines de leurs données d'entraînement grâce à une technique appelée scraping : ils balayent Internet pourrécolter des informations publiques utiles.
Mais parfois, en raison d'une erreur humaine ou d'une négligence, des données privées qui n'étaient jamais censées être publiques, comme des documents d'entreprise délicats, des images ou même des listes de connexion, peuventse frayer un chemin vers la partie accessible d'Internet, où tout le monde peut les trouver avec l'aide des opérateurs de recherche Google. Et une fois que ces informations sont récupérées et ajoutées à l’ensemble de données d’entraînement d’une IA, personne ne peut faire grand-chose pour les supprimer.
"Les gens devraient pouvoir partager librement une photo sans penser qu'elle finira par alimenter un outil d'IA générative ou, pire encore, que leur image pourrait finir par être utilisée pour créer un deepfake", déclareIvana Bartoletti, responsable mondial de la confidentialité dans une entreprise technologique indienneWiproet chercheur invité en cybersécurité et confidentialité au Pamplin College of Business de Virginia Tech. « La récupération de données personnelles sur Internet compromet le contrôle des personnes sur leurs données. »
Le grattage de données n’est qu’une source potentiellement problématique de données de formation pour les systèmes d’IA.Katharina Koerner, chercheur principal en ingénierie de la vie privée à l'Association internationale des professionnels de la vie privée, affirme qu'un autre problème est l'utilisation secondaire des données personnelles. Cela se produit lorsque vous abandonnez volontairement certaines de vos informations dans un but spécifique, mais que cela finit par en servir une autre à laquelle vous n’avez pas consenti. Les entreprises accumulent les informations de leurs clients depuis des années, notamment les adresses e-mail, les détails d’expédition et les types de produits qu’ils aiment, mais dans le passé, elles ne pouvaient pas faire grand-chose avec ces données. Aujourd’hui, des algorithmes complexes et des plateformes d’IA offrent un moyen simple de traiter ces informations afin d’en apprendre davantage sur les modèles de comportement des gens. Cela peut vous être utile en vous proposant uniquement des publicités et des informations qui pourraient réellement vous intéresser, mais cela peut également limiter la disponibilité des produits et augmenter les prix en fonction de votre code postal. Koerner dit qu’il est tentant pour les entreprises de le faire étant donné que certaines disposent déjà de grandes quantités de données fournies par leurs propres clients.
« L’IA permet d’extraire facilement des modèles précieux à partir des données disponibles qui peuvent soutenir la prise de décision future. Il est donc très tentant pour les entreprises d’utiliser des données personnelles pour l’apprentissage automatique alors que les données n’ont pas été collectées à cette fin », explique-t-elle.
Le fait qu’il soit extrêmement compliqué pour les développeurs de supprimer sélectivement vos informations personnelles d’un vaste ensemble de données de formation n’aide pas. Bien sûr, il peut être facile d’éliminer des détails, comme votre date de naissance ou votre numéro de sécurité sociale (veuillez ne pas fournir de données personnelles à une plateforme d’IA générative). Mais effectuer une demande de suppression complète conforme au règlement général européen sur la protection des données, par exemple, est une toute autre affaire, et peut-être le défi le plus complexe à résoudre, explique Bartoletti.
[Connexe : Comment empêcher les appareils scolaires de partager les données de votre famille]
La suppression sélective de contenu est difficile, même dans les systèmes informatiques traditionnels, en raison de leur complexitéstructures de microservices, où chaque partie fonctionne comme une unité indépendante. Mais Koerner affirme que c’est encore plus difficile, voire impossible actuellement, dans le contexte de l’IA.
En effet, il ne s’agit pas simplement d’appuyer sur « ctrl + F » et de supprimer toutes les données portant le nom d’une personne : supprimer les données d’une personne nécessiterait la procédure coûteuse de recyclage de l’ensemble du modèle à partir de zéro, explique-t-elle.
Il sera de plus en plus difficile de se retirer
Un système d’IA bien alimenté peut fournir une quantité incroyable d’analyses, y compris la reconnaissance de formes qui aide ses utilisateurs à comprendre le comportement des gens. Mais cela n’est pas uniquement dû aux capacités de la technologie : c’est aussi parce que les gens ont tendance à se comporter de manière prévisible. Cette facette particulière de la nature humaine permet aux systèmes d’IA de fonctionner parfaitement sans en savoir grand-chose sur vous en particulier. Car à quoi ça sert de vous connaître quand connaître des gens comme vous suffit ?
"Nous en sommes au point où il suffit d'un minimum d'informations - seulement trois à cinq éléments de données pertinentes sur une personne, qui sont assez faciles à récupérer - et elles sont immédiatement aspirées dans le système prédictif", explique Brenda Leong, associée chezBNH.AI, un cabinet d'avocats de Washington, D.C., qui se concentre sur les audits et les risques liés à l'IA. En bref : il est plus difficile, voire impossible, de rester en dehors du système de nos jours.
Cela nous laisse peu de liberté, car même les personnes qui font tout leur possible depuis des années pour protéger leur vie privée se verront demander par des modèles d’IA de prendre des décisions et des recommandations à leur place. Cela pourrait leur donner l’impression que tous leurs efforts n’ont servi à rien.
"Même si cela m'est utile, comme en m'offrant des prêts adaptés à mon revenu ou des opportunités qui m'intéressent vraiment, cela me fait cela sans que je puisse vraiment contrôler cela de quelque manière que ce soit", poursuit Leong.
L’utilisation du Big Data pour catégoriser des groupes entiers de personnes ne laisse également aucune place aux nuances – aux valeurs aberrantes et aux exceptions – dont nous savons tous que la vie est pleine. Le diable se cache dans les détails, mais il s’agit également d’appliquer des conclusions généralisées à des circonstances particulières où les choses peuvent tourner très mal.
Plus de lecture :iPhone/iPad bloqué sur les alertes critiques pour la maison ? 9 dernières corrections !
La militarisation des données
Un autre défi crucial consiste à garantir l’équité dans la prise de décision algorithmique, en particulier lorsque les conclusions d’un modèle d’IA peuvent être basées sur des données erronées, obsolètes ou incomplètes. Il est bien connu à ce stade que les systèmes d’IA peuventperpétuer les préjugés de leurs créateurs humains, parfoisavec de terribles conséquencespour toute une communauté.
Alors que de plus en plus d’entreprises s’appuient sur des algorithmes pouraidez-les à pourvoir des postesou déterminer unprofil de risque du conducteur, il devient de plus en plus probable que nos propres données soient utilisées contre nos propres intérêts. Vous pourriez un jour être lésé par les décisions, recommandations ou prédictions automatisées faites par ces systèmes, avec très peu de recours disponibles.
[Connexe : Les armes autonomes pourraient commettre de graves erreurs en temps de guerre]
C’est également un problème lorsque ces prédictions ou étiquettes deviennent des faits aux yeux d’un algorithme qui ne peut pas faire la distinction entre le vrai et le faux. Pour l’IA moderne, ce sont toutes des données, qu’elles soient personnelles, publiques, factuelles ou totalement inventées.
Plus d’intégration signifie moins de sécurité
Tout comme votre présence sur Internet est aussi forte que votre mot de passe le plus faible, l’intégration de grands outils d’IA avec d’autres plates-formes offre aux attaquants davantage de verrous sur lesquels faire levier lorsqu’ils tentent d’accéder à des données privées. Ne soyez pas surpris si certains d’entre eux ne sont pas aux normes en matière de sécurité.
Et cela ne prend même pas en compte toutes les entreprises etagences gouvernementalesrécolter vos données à votre insu. Pensez aucaméras de surveillance autour de votre quartier,un logiciel de reconnaissance faciale vous suit dans une salle de concert, des enfants qui courent dans votre parc local avec des GoPro et même des personnes qui tentent de devenir virales sur TikTok.
Plus les personnes et les plateformes manipulent vos données, plus il est probable que quelque chose se passe mal. Une plus grande marge d’erreur signifie un risque plus élevé que vos informations soient diffusées partout sur Internet, où elles pourraient facilement être récupérées dans l’ensemble de données d’entraînement d’un modèle d’IA. Et comme mentionné ci-dessus, c’est terriblement difficile à annuler.
Ce que tu peux faire
La mauvaise nouvelle est que vous ne pouvez pas faire grand-chose pour le moment, ni contre les éventuelles menaces de sécurité provenant des ensembles de données de formation à l’IA contenant vos informations, ni contre les systèmes prédictifs qui pourraient vous empêcher de décrocher l’emploi de vos rêves. Notre meilleure solution, pour le moment, est d’exiger une réglementation.
L’Union européenne va déjà de l’avant en adoptant le premier projet de loi sur l’IA, qui réglementera la manière dont les entreprises et les gouvernements peuvent utiliser cette technologie en fonction de niveaux de risque acceptables. Le président américain Joe Biden, quant à lui, a eu recours à des décrets pouraccorder un financement pour le développement d’une technologie d’IA éthique et équitable, mais le Congrès n'a adopté aucune loi protégeant la vie privée des citoyens américains en ce qui concerne les plateformes d'IA. Le Sénat a tenu des audiences pour en savoir plus sur la technologie, mais il est loin d’élaborer un projet de loi fédéral.
Pendant que le gouvernement travaille, vous pouvez – et devez – plaider en faveur d’une réglementation sur la confidentialité qui inclut les plateformes d’IA et protège les utilisateurs contre une mauvaise gestion de leurs données. Ayez des conversations significatives avec votre entourage sur le développement de l’IA, assurez-vous de connaître la position de vos représentants en termes de réglementation fédérale sur la protection de la vie privée et votez pour ceux qui ont à cœur vos meilleurs intérêts.
Lisez plus d’histoires PopSci+.
