Les défi de la protection des données personnelles à l’heure de l’IA

Image générée par DALL-E 3, symbolisant l’intelligence artificielle avancée

Comme tous les 28 janvier, nous fêterons la journée européenne de protection des données personnelles, date anniversaire de l’ouverture à la signature de la Convention 108 du Conseil de l’Europe pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel.

A cette occasion, nous souhaitions mettre en lumière un nouvel aspect de cette lutte pour nos libertés individuelles lié à l’utilisation de l’IA générative comme ChatGPT. En effet, dès le printemps 2023, la CNIL italienne avait mené les premiers constats de manquement de l’outil, avait obtenu sa suspension provisoire le temps d’obtenir de premières garanties de la part d’OpenIA.

Quels sont les principaux risques de l’IA générative pour les données personnelles ?

Loyauté et transparence

Comment les IA génératives collectent et traitent les données personnelles de leurs utilisatrices et utilisateurs ?

La protection des données publiquement accessibles

Comment les IA génératives utilisent les données personnelles librement accessibles sur les réseaux sociaux pour entrainer leurs algorithmes ?

La protection des données transmises par les utilisatrices et les utilisateurs

Dans le cas d’une conversation avec une IA générative via un tchat automatique, des données personnelles et confidentielles peuvent être transmises, comment sont-elles conservées, exploitées ou transmises éventuellement à des tiers pour améliorer le service ?

Les conséquences sur les droits des personnes sur leurs données

Dans les données collectées pour l’apprentissage des modèles, s’il y avait des erreurs ou des informations qui ne sont plus à jour sur une personne, comment peut-elle les faire rectifier, les faire effacer ou exercer son droit à l’oubli ?

La protection contre les biais et les discriminations

Comment garantir que les IA génératives n’entretiennent pas les stéréotypes liés aux orientations politiques, aux appartenances politiques, aux situations sociales etc…

Les enjeux de sécurité divers et variés

Comment les IA génératives peuvent garantir qu’elles ne donnent pas des instructions erronées à des mineurs ou à des personnes vulnérables ? Comment faire en sorte que des clones de voix ne soient pas utilisés à des fins malveillantes ?

La CNIL au travail

Sa présidente, Marie-Laure Denis, qui entame un nouveau mandat, a mis dans ses priorités la conciliation de l’intelligence artificielle avec les règles du RGPD y compris avec des outils comme Chat GPT qui mobilise « 175 milliards de paramètres ».

Ainsi, la Cnil voit d’un bon œil l’émergence d’un « chat GPT » français pour développer dès sa conception un modèle d’IA conforme au RGPD et entreprend de partager des bonnes pratiques et des recommandations concrètes à destination des administrations.

 Quelles recommandations pour les utilisateurs et utilisatrices ?

  • Ne pas laisser des mineurs ou des personnes fragiles seules utiliser les IA génératives quitte à en couper l’accès si les garanties ne sont pas apportées ;
  • Ne pas transmettre d’informations confidentielles ou personnelles : propriété intellectuelle, des identifiants et mots de passe, son âge, son adresse, etc.

Pour approfondir :