L’Intelligence Artificielle et la CNIL

Les progrès rapides de l’Intelligence Artificielle (IA), tels que le ChatGPT d’OpenAI, soutenu par Microsoft, compliquent les tentatives des gouvernements pour se mettre d’accord sur des lois dictant l’utilisation de la technologie. Le 11 septembre dernier, la présidente de la CNIL a été auditionnée devant la mission d’information de l’Assemblée nationale dédiée à l’IA et la protection des données.

Chat GPT

Rapide résumé

L’intelligence artificielle doit être utilisée de manière éthique, responsable et conforme à nos valeurs. Cela implique de la comprendre, de l’accompagner et de la contrôler. Cependant, nous ne pouvons réguler que ce que l’on maîtrise correctement. Un rapport de décembre 2017 (Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle) soulignait les enjeux juridiques et techniques. Il insistait sur l’importance de promouvoir deux facteurs pour une IA « au service de l’humain » : le principe de loyauté et le principe de vigilance.

Il est important de privilégier l’établissement d’un cadre juridique et opérationnel permettant à l’innovation de continuer à se développer dans le respect des libertés publiques et individuelles. Un projet de règlement est en cours d’adoption. Ce dernier repose sur un système de régulation basé sur le niveau de risque d’une IA.

En attendant que ce texte entre en vigueur en 2025 (au plus tôt), la CNIL estime devoir apporter des réponses pratiques aux acteurs du domaine et aux citoyens. C’est pourquoi elle a créé en mai 2023 un service spécialisé.

La présidente a ajouté qu’un « dialogue régulier » avec les distributeurs de solutions était essentiel et devait concerner « tous les secteurs  » (sécurité, ressources humaines, santé…). Pour Marie-Laure Denis, il est indispensable d’associer un accompagnement sur le terrain lors de la mise en place d’une réglementation : « C’est à cette condition que les individus pourront garder le contrôle ».

La présidente de la CNIL termine son intervention en appelant à « une articulation harmonieuse du règlement IA avec le RGPD d’autant plus que le Parlement européen propose de conditionner l’obtention du marquage CE au respect du droit de l’Union en matière de protection des données ».

Face au déploiement de systèmes d’Intelligence artificielle dite générative, la CNIL propose un plan d’action afin de respecter la vie privée des personnes : Comprendre, Accompagner et Contrôler. En effet, le but est bien d’encadrer l’intelligence artificielle sans conséquence sur l’évolution de l’innovation… un vaste programme.

La protection des données face à l’IA : un enjeu de taille

Face à l’essor de l’intelligence artificielle, la CNIL a pour mission de veiller au respect des droits et des libertés des personnes concernées par le traitement de leurs données personnelles. L’intelligence artificielle générative pose des défis majeurs pour la conception et l’utilisation de ces outils. C’est pourquoi la CNIL tente d’élaborer un plan d’action sur l’intelligence artificielle dont l’objectif est d’accompagner les acteurs du secteur dans le développement responsable de ces technologies.

Qu’est-ce qu’une IA générative ?

Un système d’intelligence artificielle générative est un outil qui peut créer du contenu (texte, image, musique, vidéo, voix, etc.) en fonction d’une consigne donnée par un utilisateur humain. Ces outils se basent sur des données d’apprentissage pour générer des contenus originaux. Ils atteignent aujourd’hui un niveau de qualité comparable à certaines créations humaines grâce à la grande quantité de données utilisées pour les entraîner. Ces outils exigent cependant que l’utilisateur formule précisément ses demandes pour obtenir les résultats escomptés.

Le plan d’action de la CNIL

Depuis plusieurs années, la CNIL mène de nombreuses réflexions et des actions afin de faire face aux différents défis posés par l’Intelligence Artificielle. Son projet principal pour 2023 est de continuer son travail sur les caméras augmentées et d’explorer de nouveaux domaines liés aux IA génératives, comme les Chatbots.

Voici la mise en œuvre prévue :

  • comprendre comment les systèmes d’IA fonctionnent et quels sont leurs effets sur les individus : L’IA repose sur des méthodes novatrices de traitement des données, qui soulèvent des défis inédits en matière de protection de la vie privée (notamment le respect, la sauvegarde, la préservation des données), mais également sur la prévention des biais et des discriminations des personnes et toutes les problématiques de sécurité. Tous ces aspects feront partie des axes de travail prioritaires pour le service de l’intelligence artificielle.
  • favoriser et réguler le développement d’IA respectueuses de la vie privée : La CNIL a reçu de nombreuses inquiétudes de la part des acteurs concernant la conformité de l’IA au RGPD, en particulier pour la formation des IA génératives. La CNIL a déjà fait part de sa position sur l’usage de la vidéosurveillance et de l’IA en 2022. Elle continue ses travaux et prévoit de diffuser bientôt plusieurs documents (notamment un guide sur les modalités du partage et de la réutilisation des données). La CNIL mène aussi des travaux pour proposer des recommandations pratiques sur la conception de systèmes comme ChatGPT avec notamment un volet sur l’éthique.
  • rassembler et soutenir les acteurs innovants de l’écosystème IA en France et en Europe : La CNIL veut dialoguer avec les acteurs français de l’IA qui respectent ou veulent respecter les normes de protection des données personnelles.
  • auditer et contrôler les systèmes d’IA et protéger les personnes : Pour garantir que les systèmes d’intelligence artificielle respectent les droits et libertés individuelles, il faut définir un cadre qui les encadre et que la CNIL puisse en vérifier le respect, aussi bien avant qu’après leur mise en œuvre.

Pour en savoir plus, nous vous conseillons cet article de référence proposé par la CNIL.

En conclusion

Ce projet collaboratif et crucial vise à établir des normes claires, garantissant la protection des données personnelles des citoyens européens, afin de favoriser le développement de systèmes d’IA respectueuses de la vie privée.