Dans un contexte où les intelligences artificielles comme ChatGPT gagnent en popularité, l'Europe envisage de renforcer le RGPD pour mieux encadrer leur utilisation des données personnelles. Ces IA, utilisées dans des dispositifs connectés comme les smartwatches et des plateformes en ligne, peuvent accéder à des informations sensibles, souvent sans que les utilisateurs en soient pleinement conscients. Face à ces risques, l'Union européenne propose des mesures réglementaires visant à protéger les données personnelles et à informer les utilisateurs sur l'usage de leurs informations par les IA.


au sommaire


    Alors que la Journée européenne consacrée à la protection des données personnelles cherche à sensibiliser les populations pour qu'elles reprennent en main leurs données privées sur le Web, l'avenir de celles-ci pourrait bien connaître une révolution. Il s'agit de celle de l'arrivée tonitruante de puissantes intelligences artificielles (IA), à l'instar de ChatGPT. Si ces IA savent convaincre par leurs talents rhétoriques, elles vont aussi être de plus en plus exploitées pour gérer les nombreuses données personnelles que l'on livre aux plateformes, souvent sans s'en rendre compte. L'IA n'est pas sans risques de ce point de vue.

    Pour cette raison, l'Europe souhaite compléter son règlement général sur la protection des donnéesrèglement général sur la protection des données (RGPD). L'institution compte ajouter un ensemble de règles harmonisées sur l'utilisation de l'IA. Il faut dire que cette fameuse IA est désormais partout. On la porteporte au poignet nuit et jour avec les montres et bracelets connectés qui peuvent relever des données de santé et même détecter certaines pathologiespathologies. Or les consommateurs n'ont pas toujours conscience que poser des questions personnelles, d'ordre médical par exemple, à un outil conversationnel, c'est livrer aux entreprises qui gèrent cette intelligence artificielle des informations sensibles qui pourraient être exploitées à des fins commerciales. Et ce n'est pas le seul souci, car l'intelligence artificielle implique de nombreux acteurs, que ce soit le développeur, le fournisseur, l'importateur, le distributeur et l'utilisateur. Cet ensemble reste plutôt opaque pour le consommateur. Difficile donc de savoir qui a concrètement accès aux données personnelles et qui serait responsable en cas de problèmes.

    Au-delà de la collecte de certaines données de santé, de leur analyse par les IA et de leur conservation, se pose la question de ce que deviennent ces données. Peuvent-elles fuiter ? Sont-elles partagées ? Sont-elles monétisées à l’insu de l’utilisateur ? Certains acteurs, comme Apple jouent déjà le jeu. Pour d’autres, c’est moins certain. © Apple
    Au-delà de la collecte de certaines données de santé, de leur analyse par les IA et de leur conservation, se pose la question de ce que deviennent ces données. Peuvent-elles fuiter ? Sont-elles partagées ? Sont-elles monétisées à l’insu de l’utilisateur ? Certains acteurs, comme Apple jouent déjà le jeu. Pour d’autres, c’est moins certain. © Apple

    Une meilleure information sur les algorithmes des IA

    Avec la multiplication de l'utilisation de ces IA, le risque de fuite ou de perte de contrôle sur les données personnelles est également important. C'est pourquoi, pour les protéger, les consommateurs doivent se renseigner sur l'entreprise qui recueille leurs données et sur sa politique de traitement de ces informations personnelles. Ce n'est pas toujours facile de le faire, même si certains acteurs du secteur sont plus vertueux que d'autres. C'est notamment le cas d'AppleApple qui se veut champion de la confidentialité des données en forçant les développeurs d'applicationapplication à demander automatiquement le consentement pour la collecte des données, par exemple.

    Pour mieux protéger les utilisateurs, l'Union européenne a donc proposé trois textes : un cadre réglementaire sur l'intelligence artificielle, une directive sur la responsabilité en matièrematière d'IA, une directive sur la responsabilité des produits. Parmi ses compléments de réglementation, l'UE veut obliger, par exemple, les géants du numérique et autres plateformes et réseaux sociauxréseaux sociaux à mieux informer les utilisateurs sur leurs algorithmes. Et pour les obliger, le texte prévoit des sanctions importantes. Elles pourraient aller de 10 à 30 millions d'euros ou de 2 à 4 % du chiffre d'affaires en cas de manquement à ces nouvelles obligations. Reste à l'institution à adopter suffisamment rapidement ces textes avant que les IA ne s'octroient encore plus de liberté.