En avril 2021, la Commission européenne dévoilait un projet de règlement sur l’intelligence artificielle qui vise à introduire pour la première fois des règles contraignantes pour les systèmes d’intelligence artificielle (IA).
Afin d’asseoir une vision européenne de l’IA basée sur l’éthique et de prévenir les risques inhérents à ces technologies, la Commission européenne proposait une catégorisation des outils algorithmiques selon quatre types de risques : Le Comité européen de la protection des données (qui réunit la CNIL et ses homologues dans tous les pays membres) fait valoir, dans un avis, « la nécessité d’élargir le champ des systèmes d’IA interdits et de clarifier leur définition, les garde-fous envisagés dans la proposition de règlement n’étant pas considérés satisfaisants ».
- l’inacceptable, qui entraînera l’interdiction ;
- le risque élevé, qui obligera de se conformer à différentes directives avant d’être déployé ;
- le risque limité, qui appellera la transparence pour pouvoir être corrigé ;
- le risque minimal.
De son côté, Equinet, le réseau européen des organismes de promotion de l’égalité (dont est membre, en France, la Défenseure des droits) plaide pour « faire du principe de non-discrimination une préoccupation centrale dans toute réglementation européenne dédiée à l'IA ».
Depuis avril 2021, les États-membres, le Parlement européen et la Commission cherchent une approche juridique qui favorise l’innovation tout en respectant les droits fondamentaux.
De nombreuses questions divisent les partenaires européens, à commencer par la définition même de l’intelligence artificielle.
Près de 3000 amendements ont été déposés au Parlement. La version finale du règlement pourrait être adoptée en novembre par le Parlement. Le texte pourra ensuite entrer en phase de trilogue Parlement, Conseil européen et Commission.
Une approche fondée sur les risques
« Les nouvelles règles, fondées sur une définition de l'IA à l'épreuve du temps, seront directement applicables dans tous les États membres », explique la Commission européenne. « Elles suivent une approche fondée sur les risques » :
Risque inacceptable
Les systèmes d'IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits. Il s'agit notamment des systèmes ou applications d'IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (par exemple, des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux) et des systèmes qui permettent la notation sociale par les États.
Risque élevé
Parmi les systèmes d'IA considérés comme à haut risque : Les systèmes d'IA à haut risque devront être conformes à obligations strictes pour pouvoir être mis sur le marché : Risque limité
- les technologies d'IA qui sont utilisées dans les infrastructures critiques (par exemple les transports) et sont susceptibles de mettre en danger la vie et la santé des citoyens ;
- les technologies d'IA utilisées dans l'éducation ou la formation professionnelle, qui peuvent déterminer l'accès à l'éducation et le parcours professionnel d'une personne (par exemple, la notation d'épreuves d'examens) ;
- les technologies d'IA utilisées dans les composants de sécurité des produits (par exemple, l'application de l'IA dans la chirurgie assistée par robot) ;
- les technologies d'IA utilisées dans le domaine de l'emploi, de la gestion de la main d'œuvre et de l'accès à l'emploi indépendant (par exemple, les logiciels de tri des CV pour les procédures de recrutement) ;
- les technologies d'IA utilisées dans les services privés et publics essentiels (par exemple, l'évaluation du risque de crédit, qui prive certains citoyens de la possibilité d'obtenir un prêt) ;
- les technologies d'IA utilisées dans le domaine du maintien de l'ordre, qui sont susceptibles d'interférer avec les droits fondamentaux des personnes (par exemple, la vérification de la fiabilité des éléments de preuve) ;
- les technologies d'IA utilisées dans le domaine de la gestion de la migration, de l'asile et des contrôles aux frontières (par exemple, la vérification de l'authenticité des documents de voyage) ;
- les technologies d'IA utilisées dans les domaines de l'administration de la justice et des processus démocratiques (par exemple, l'application de la loi à un ensemble concret de faits).
- systèmes adéquats d'évaluation et d'atténuation des risques ;
- qualité élevée des ensembles de données alimentant le système afin de réduire au minimum les risques et les résultats ayant un effet discriminatoire ;
- enregistrement des activités afin de garantir la traçabilité des résultats ;
- documentation détaillée fournissant toutes les informations nécessaires sur le système et sur sa finalité pour permettre aux autorités d'évaluer sa conformité ;
- informations claires et adéquates à l'intention de l'utilisateur ;
- contrôle humain approprié pour réduire au minimum les risques ;
- niveau élevé de robustesse, de sécurité et d'exactitude.
Pour cette catégorie, le projet de règlement prévoit des obligations spécifiques en matière de transparence : « Lorsqu'ils utilisent des systèmes d'IA tels que des chatbots, les utilisateurs doivent savoir qu'ils interagissent avec une machine afin de pouvoir décider en connaissance de cause de poursuivre ou non ».
Risque minime
La proposition législative autorise l'utilisation libre d'applications telles que les jeux vidéo ou les filtres anti-spam reposant sur l'IA. La grande majorité des systèmes d'IA relèvent de cette catégorie. Le projet de règlement ne prévoit pas d'intervention dans ce domaine, car ces systèmes ne représentent qu'un risque minime, voire nul, pour les droits ou la sécurité des citoyens.
La Commission propose que les autorités nationales compétentes de surveillance du marché veillent au respect des nouvelles règles dont la mise en œuvre sera facilitée par la création d'un comité européen de l'intelligence artificielle qui sera également chargé de stimuler l'élaboration de normes pour l'IA.
En outre, la proposition prévoit des codes de conduite facultatifs pour les systèmes d'IA ne présentant pas de risque élevé, ainsi que des « bacs à sable réglementaires » afin de faciliter l'innovation responsable.
Un plan d’investissements dans l’IA
Le projet de réglementation s’accompagne d’un plan coordonné destiné à accélérer les investissements dans l’IA et à stimuler la mise en œuvre de stratégies nationales. Son financement est assuré par des programmes existants comme le fonds pour une Europe numérique ou Horizon Europe et une dotation issue du plan de relance économique européen.
Ce plan européen prévoit de :
- créer les conditions propices au développement de l’IA ;
- favoriser l’excellence en matière d’IA (partenariat public-privé) ;
- former de nouvelles compétences dans les technologies de l’IA ;
- établir un leadership technologique de l’Europe en matière d’IA dans les secteurs vertueux (environnement durable, santé, agriculture..).
Références :