L’IA et la protection des données personnelles : où en est la France ?

Des passants dans une rue d'une ville où le contrôle social est assuré par une IA

L’avenir de la réglementation sur l’IA et les données personnelles en France

La réglementation sur l’IA et les données personnelles en France est en constante évolution. La CNIL et ses homologues européens ont adopté un avis sur la proposition de règlement de la Commission européenne sur l’IA le 18 juin 2021. Ils ont souligné quatre points fondamentaux :

foule surveillée par une IA

1. La nécessité de tracer des lignes rouges aux futurs usages de l’IA

Les autorités de protection des données ont salué la volonté de la Commission européenne de préciser les usages interdits afin de construire une IA éthique et de confiance au sein de l’UE. Ils proposent que soient retirées les exceptions à l’interdiction générale des systèmes d’IA interdits et de clarifier leur définition.

  • La nécessité de tracer des lignes rouges aux futurs usages de l’IA est un point fondamental souligné par la CNIL et ses homologues européens dans leur avis sur la proposition de règlement de la Commission européenne sur l’IA1. Les autorités de protection des données ont salué la volonté de la Commission européenne de préciser les usages interdits afin de construire une IA éthique et de confiance au sein de l’UE1.
  • Cependant, le Comité européen de la protection des données (CEPD) et le Contrôleur européen de la protection des données ont indiqué dans leur avis du 18 juin 2021 que les garde-fous envisagés dans la proposition de règlement n’étaient pas considérés satisfaisants1. Ils ont donc proposé d’élargir le champ des systèmes d’IA interdits et de clarifier leur définition.
  • Par exemple, compte tenu des risques extrêmement élevés posés par l’identification biométrique à distance des personnes dans les espaces publics (reconnaissance des visages, de la démarche, des empreintes digitales, de la voix, etc.), les autorités de protection des données européennes ont proposé que soient retirées les exceptions à l’interdiction générale1. De plus, ils recommandent une interdiction des systèmes biométriques utilisés aux fins de classer les individus dans des groupes basés sur l’ethnicité supposée, le sexe, l’orientation politique ou sexuelle, ou d’autres motifs pour lesquels la discrimination est interdite en vertu de l’article 21 de la Charte des droits fondamentaux de l’Union européenne1.
  • En somme, tracer des lignes rouges aux futurs usages de l’IA est une étape essentielle pour construire une stratégie européenne numérique cohérente et respectueuse des libertés et droits fondamentaux1.
oeil rouge pour contôle biométrique

2. Interdiction des Systèmes Biométriques Discriminatoires Selon l'Article 21 de la Charte des Droits Fondamentaux de l'UE

L’interdiction des systèmes biométriques utilisés aux fins de classer les individus dans des groupes basés sur l’ethnicité supposée, le sexe, l’orientation politique ou sexuelle, ou d’autres motifs pour lesquels la discrimination est interdite en vertu de l’article 21 de la Charte des droits fondamentaux de l’Union européenne.

  • L’interdiction des systèmes biométriques utilisés aux fins de classer les individus dans des groupes basés sur l’ethnicité supposée, le sexe, l’orientation politique ou sexuelle, ou d’autres motifs pour lesquels la discrimination est interdite en vertu de l’article 21 de la Charte des droits fondamentaux de l’Union européenne est un point clé de la réglementation sur l’IA et les données personnelles en France1.
  • Les systèmes biométriques sont des technologies qui traitent des données biométriques telles que les traits du visage, la voix ou les caractéristiques comportementales des individus, dans le but d’authentifier, d’identifier ou d’évaluer ces derniers2. Cependant, ces technologies peuvent être utilisées pour classer les individus dans des groupes basés sur l’ethnicité supposée, le sexe, l’orientation politique ou sexuelle, ce qui peut conduire à des discriminations1.
  • C’est pourquoi la CNIL et ses homologues européens recommandent une interdiction des systèmes biométriques utilisés à ces fins1. Cette interdiction est en accord avec l’article 21 de la Charte des droits fondamentaux de l’Union européenne, qui interdit toute discrimination fondée notamment sur le sexe, la race, la couleur, les origines ethniques ou sociales, les caractéristiques génétiques, la langue, la religion ou les convictions, les opinions politiques ou toute autre opinion, l’appartenance à une minorité nationale, la fortune, la naissance, un handicap, l’âge ou l’orientation sexuelle1.
  • Il est important de noter que cette interdiction est consultative et ne constitue pas une déclinaison du cadre juridique en vigueur1. Cependant, elle doit être mise en perspective avec plusieurs prises de position publiques de la CNIL1. En effet, compte tenu des risques extrêmement élevés posés par l’identification biométrique à distance des personnes dans les espaces publics (reconnaissance des visages, de la démarche, des empreintes digitales, de la voix, etc.), les autorités de protection des données européennes proposent que soient retirées les exceptions à l’interdiction générale1.
écrans de surveillance de l'IA

3. Interdiction de l'IA pour la Déduction des Émotions: Une Nécessité sauf dans des Cas Spécifiques de Santé

L’utilisation de systèmes d’IA pour déduire les émotions d’une personne physique est considérée comme hautement indésirable et devrait également être soumise à une interdiction de principe (sauf cas très spécifiques, tels que certains objectifs de santé).

  • L’utilisation de systèmes d’IA pour déduire les émotions d’une personne physique est considérée comme hautement indésirable et devrait également être soumise à une interdiction de principe, sauf dans des cas très spécifiques, tels que certains objectifs de santé1.
  • Les systèmes d’IA peuvent être utilisés pour analyser les expressions faciales, la voix, le langage corporel et d’autres signaux pour tenter de déduire les émotions d’une personne physique. Cependant, cette pratique est considérée comme hautement indésirable en raison des risques qu’elle pose pour la vie privée et les droits fondamentaux des individus1.
  • En effet, l’utilisation de systèmes d’IA pour déduire les émotions peut conduire à des erreurs d’interprétation et à des décisions injustes. Par exemple, un système d’IA pourrait mal interpréter les signaux émotionnels d’une personne et conclure à tort qu’elle est en colère ou triste. Cette erreur pourrait avoir des conséquences graves si elle est utilisée pour prendre des décisions importantes, telles que l’embauche ou le licenciement d’un employé2.
  • C’est pourquoi la CNIL et ses homologues européens recommandent une interdiction de principe de l’utilisation de systèmes d’IA pour déduire les émotions d’une personne physique1. Cette interdiction ne s’appliquerait pas dans des cas très spécifiques, tels que certains objectifs de santé, où l’utilisation de ces systèmes pourrait être justifiée par un intérêt public supérieur1.
  • En somme, l’utilisation de systèmes d’IA pour déduire les émotions d’une personne physique soulève des questions éthiques importantes et doit être encadrée par des règles strictes pour garantir le respect des droits fondamentaux des individus1.
ville et population sous contrôle social de l'IA

4. La CNIL et ses Homologues Européens Préconisent l'Interdiction du 'Social Scoring' pour Protéger les Droits Fondamentaux

L’utilisation de systèmes d’IA pour déduire les émotions d’une personne physique est considérée comme hautement indésirable et devrait également être soumise à une interdiction de principe (sauf cas très spécifiques, tels que certains objectifs de santé).

  1. Les systèmes utilisés pour la notation sociale (« social scoring ») doivent être systématiquement interdits selon la CNIL et ses homologues européens1.
  2. Le « social scoring » est un système de notation qui évalue le comportement des individus en utilisant des données collectées à partir de différentes sources, telles que les réseaux sociaux, les caméras de surveillance, les moyens de paiement, les systèmes informatiques, etc2. Ce système peut être utilisé pour évaluer la solvabilité des agents économiques, qu’il s’agisse des citoyens ou des entreprises, mais aussi pour contrôler le comportement dans l’espace public, la moralité des recherches sur internet, l’appréciation du contenu partagé sur les réseaux sociaux, etc2.
  3. Cependant, l’utilisation de systèmes de « social scoring » soulève de nombreuses questions éthiques et pose des risques pour la vie privée et les droits fondamentaux des individus. En effet, ces systèmes peuvent conduire à des discriminations et à des décisions injustes basées sur des données erronées ou biaisées2.
  4. C’est pourquoi la CNIL et ses homologues européens recommandent une interdiction systématique des systèmes utilisés pour la notation sociale1. Cette interdiction vise à protéger les droits fondamentaux des individus et à garantir une utilisation éthique et responsable des technologies d’IA1.

Ces recommandations sont consultatives et ne constituent pas une déclinaison du cadre juridique en vigueur, mais elles doivent être mises en perspective avec plusieurs prises de position publiques de la CNIL. Il est important de noter que ces réglementations sont susceptibles d’évoluer encore fortement, au gré des amendements du texte effectués par le Parlement ou le Conseil européen.

En conclusion, la réglementation sur l’IA et les données personnelles en France est un sujet complexe et en constante évolution. Les autorités compétentes travaillent activement à élaborer un cadre juridique solide pour garantir une utilisation éthique et responsable des technologies d’IA. Il est important pour les citoyens et les entreprises d’être informés des dernières évolutions en la matière afin d’être en mesure d’agir en conformité avec les règles en vigueur.

logo feuille

Partager :

Plus d'articles

Envoyer un message