Les intelligences artificielles s’invitent dans notre vie quotidienne au travers des accessoires connectés, comme les montres, ou encore la domotique à la maison. Ces IA cherchent à en savoir toujours plus sur nous pour nous simplifier la vie, mais elles peuvent le faire au détriment de données personnelles parfois très sensibles. Pour mieux les contrôler, l’Europe planche sur un renforcement spécifique de la RGPD concernant ces IA.

Cela vous intéressera aussi

[EN VIDÉO] Interview : comment est née l'intelligence artificielle ? L’intelligence artificielle vise à mimer le fonctionnement du cerveau humain, ou du moins sa logique...

Alors que la Journée européenne consacrée à la protection des données personnelles cherche à sensibiliser les populations pour qu'elles reprennent en main leurs données privées sur le Web, l'avenir de celles-ci pourrait bien connaître une révolution. Il s'agit de celle de l'arrivée tonitruante de puissantes intelligences artificielles (IA), à l'instar de ChatGPT. Si ces IA savent convaincre par leurs talents rhétoriques, elles vont aussi être de plus en plus exploitées pour gérer les nombreuses données personnelles que l'on livre aux plateformes, souvent sans s'en rendre compte. L'IA n'est pas sans risques de ce point de vue.

Pour cette raison, l'Europe souhaite compléter son règlement général sur la protection des données (RGPD). L'institution compte ajouter un ensemble de règles harmonisées sur l'utilisation de l'IA. Il faut dire que cette fameuse IA est désormais partout. On la porteporte au poignet nuit et jour avec les montres et bracelets connectésbracelets connectés qui peuvent relever des données de santé et même détecter certaines pathologiespathologies. Or les consommateurs n'ont pas toujours conscience que poser des questions personnelles, d'ordre médical par exemple, à un outil conversationnel, c'est livrer aux entreprises qui gèrent cette intelligence artificielle des informations sensibles qui pourraient être exploitées à des fins commerciales. Et ce n'est pas le seul souci, car l'intelligence artificielle implique de nombreux acteurs, que ce soit le développeur, le fournisseur, l'importateur, le distributeur et l'utilisateur. Cet ensemble reste plutôt opaque pour le consommateur. Difficile donc de savoir qui a concrètement accès aux données personnelles et qui serait responsable en cas de problèmes.

Au-delà de la collecte de certaines données de santé, de leur analyse par les IA et de leur conservation, se pose la question de ce que deviennent ces données. Peuvent-elles fuiter ? Sont-elles partagées ? Sont-elles monétisées à l’insu de l’utilisateur ? Certains acteurs, comme Apple jouent déjà le jeu. Pour d’autres, c’est moins certain. © Apple
Au-delà de la collecte de certaines données de santé, de leur analyse par les IA et de leur conservation, se pose la question de ce que deviennent ces données. Peuvent-elles fuiter ? Sont-elles partagées ? Sont-elles monétisées à l’insu de l’utilisateur ? Certains acteurs, comme Apple jouent déjà le jeu. Pour d’autres, c’est moins certain. © Apple

Une meilleure information sur les algorithmes des IA

Avec la multiplication de l'utilisation de ces IA, le risque de fuite ou de perte de contrôle sur les données personnelles est également important. C'est pourquoi, pour les protéger, les consommateurs doivent se renseigner sur l'entreprise qui recueille leurs données et sur sa politique de traitement de ces informations personnelles. Ce n'est pas toujours facile de le faire, même si certains acteurs du secteur sont plus vertueux que d'autres. C'est notamment le cas d'Apple qui se veut champion de la confidentialitéconfidentialité des données en forçant les développeurs d'applicationapplication à demander automatiquement le consentement pour la collecte des données, par exemple.

Pour mieux protéger les utilisateurs, l'Union européenne a donc proposé trois textes : un cadre réglementaire sur l'intelligence artificielle, une directive sur la responsabilité en matièrematière d'IA, une directive sur la responsabilité des produits. Parmi ses compléments de réglementation, l'UE veut obliger, par exemple, les géants du numérique et autres plateformes et réseaux sociauxréseaux sociaux à mieux informer les utilisateurs sur leurs algorithmes. Et pour les obliger, le texte prévoit des sanctions importantes. Elles pourraient aller de 10 à 30 millions d'euros ou de 2 à 4 % du chiffre d'affaires en cas de manquement à ces nouvelles obligations. Reste à l'institution à adopter suffisamment rapidement ces textes avant que les IA ne s'octroient encore plus de liberté.