Réglementation de l'IA

De Wiki Campus Cyber
Aller à :navigation, rechercher

Groupe de travail

Synthèse de la règlemention européen dite « Artificial Intelligence Act ».

Catégorie : Commun Statut : Production 1 : Idée - 2 : Prototype - 3 : Validation - 4 : Production
Contributeur(s) : Hub France IA

État des lieux sur les projets de réglementation[modifier | modifier le wikicode]

  • 21 avril 2021 : la Commission européenne a rendu publique une proposition de règlement européen dite « Artificial Intelligence Act » (AI Act). Il s’agit d’une « proposition [qui] établit des règles harmonisées pour le développement, la mise sur le marché et l’utilisation de systèmes d’IA dans l’Union[1]».
  • Ce cadre réglementaire sera basé sur les risques qui sont associés au système IA et vise à garantir une sécurité juridique.


Cette synthèse a été constituée à partir de la Proposition de Règlement européen établissant des règles harmonisées concernant l’intelligence artificielle (« IA »), publiée le 21 avril 2021.

Après plusieurs itérations, le texte initial (d'avril 2021) a été largement remanié, avec notamment des modifications sur la définition de l’intelligence artificielle et l’introduction d’un nouveau concept : les « general purpose AI » qui couvrent les grands modèles pré-entraînés.

La dernière version est maintenant examinée au Conseil de l’Europe.

Objectifs et définitions[modifier | modifier le wikicode]

Objectifs[modifier | modifier le wikicode]

  • Garantir le bon fonctionnement du marché intérieur et le droit à la protection des données (cf. la double base juridique invoquée par le législateur : article 114 du Traité sur le fonctionnement de l'Union européenne (TFUE) et article 16 du TFUE) ;
  • Déterminer des règles harmonisées conformes  aux valeurs de l’Union Européenne[2] afin de favoriser la confiance en l’IA et d’empêcher les États- membres d’adopter des mesures entravant le développement de l’IA sur leur territoire ;
  •  Cadrer l’interdiction de certaines pratiques en matière d’intelligence artificielle ;
  • Établir les exigences et obligations spécifiques liées aux systèmes IA dits « à haut risque » ;
  • Instaurer les règles relatives à la transparence, au suivi et à la surveillance du marché ;
  • Prévoir les évolutions futures du cadre législatif européens afin de le moderniser.

Définition[modifier | modifier le wikicode]

  • Définition large et ouverte de l’IA permettant une flexibilité sur les progrès technologiques à venir, mais aussi favorisant le risque d’englober trop largement des systèmes en production depuis très longtemps ne relevant pas vraiment de l’IA moderne. Cela laisse matière à l’interprétabilité de certaines notions ;
  • Définition selon l’article 3 : « un logiciel qui est développé au moyen d’une ou plusieurs des techniques et approches énumérées à l’annexe I et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit » ; soit l’apprentissage machine, la logique et les approches à base de connaissance, les approches statistiques, bayésiennes et les méthodes d’optimisation.

Méthode d'encadrement[modifier | modifier le wikicode]

Le cadre réglementaire est basé sur le niveau de risque du système IA pour les utilisateurs européens. Le risque est défini selon le type de système IA et le secteur dans lequel il est utilisé.

Les systèmes d’IA à faible risque ne seront pas soumis à réglementation, mais devront respecter un code de bonne conduite.

Pratiques interdites[modifier | modifier le wikicode]

  • Le « nudge » : « système d’IA qui a recours à des techniques subliminales au-dessous du seuil de conscience d’une personne[3] » ;
  • Les systèmes occasionnant un préjudice sur l’équité et la justice sociales (« fairness ») : « système d’IA qui exploite les éventuelles vulnérabilités dues à l’âge ou au handicap physique ou mental d’un groupe de personnes donné » ;
  • Les systèmes de « scoring social » : « systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes physiques au cours d’une période donnée en fonction de leur comportement social » ;
  • L’identification biométrique en temps réel (sauf exceptions strictement nécessaires) « dans des espaces accessibles au public à des fins répressives ».

Systèmes d'IA à "haut-risque"[modifier | modifier le wikicode]

Un système d’IA dit « à haut-risque » ne pourra pas être mis sur le marché européen avant d’avoir obtenu son attestation de conformité (audit ex-ante).

  • Catégorisation : « système d’IA (…) destiné à être utilisé comme composant de sécurité d’un produit couvert par les actes législatifs d’harmonisation de l’Union » ;
  • Les risques considérés sont ceux pouvant avoir un préjudice pour la santé et la sécurité et une incidence négative sur les droits fondamentaux ;
  •  En matière de respect des exigences pour ces systèmes, la proposition prévoit la mise en place d’un système de gestion des risques qui doit être documenté et tenu à jour. Il sera la base du processus d’audit avant la mise sur le marché ;
  • Diverses exigences applicables[4], notamment sur les données et la gouvernance des données, la documentation technique, les fonctionnalités d’enregistrement, la transparence et la fourniture d’informations aux utilisateurs, le contrôle humain, sur l’exactitude, la robustesse et la cybersécurité.
  • Diverses obligations[5] prévues pour les fournisseurs et utilisateurs de ces systèmes, notamment entre autres par la mise en place de système de gestion de la qualité, l’évaluation technique, l’application de mesures correctives, le devoir d’information, la coopération avec les autorités compétences.

Statut[modifier | modifier le wikicode]

Le règlement est en cours de discussion au Parlement européen pour un vote qui pourrait intervenir avant fin 2022. Il sera suivi par un trilogue entre la Commission européenne, le Parlement et le Conseil de l’Union européenne, qui précèdera la décision de sa mise en œuvre. Celle-ci devrait se faire dans les deux années à venir.


[1] Commission européenne, « Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union », 21 avril 2021, disponible sur (PDF) : https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0020.02/DOC_1&format=PDF

[2] Ibid.

[3] Chapitre 2, Articles 8 à 15. Ibid. : https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0020.02/DOC_1&format=PDF

[4] Chapitre 3, Articles 16 à 29. Ibid.

[5] Ibid.

Groupe de travail

IA et cybersécurité