Avant-proposLa troisième phase de la stratégie nationale pour l’intelligence artificielle (IA), rendue publique quelques jours avant le Sommet, comporte un important volet consacré à la mise en œuvre de l’IA pour les politiques publiques.« L’IA deviendra un axe prioritaire traduite dans des feuilles de route ministérielles qui seront présentées au plus tard en juin 2025. (…) Le ministère de l’action publique, de la fonction publique et de la simplification coordonnera les actions interministérielles de déploiement de l’IA dans le secteur public. (…) L’IA sera l’une des priorités du Fond pour la Réforme de l’État ».« Un plan de déploiement d’outils d’IA générative va permettre à chaque agent de bénéficier d’assistants IA capables de leur faire gagner du temps et de l’efficacité dans leurs tâches administratives quotidiennes. (..) Cette IA de confiance aura toujours un agent public dans la boucle (…) Le pilotage resserré de ces déploiements permettra d’évaluer leur performance en termes de gain de temps, de coûts et d’efficacité. Sur la base de cette évaluation et des retours d’expérience, les cas d’usages ayant fait leurs preuves seront déployés à l’échelle ».En 2022, le Conseil d’État avait jeté en 2022 les bases d’une doctrine administrative de l’IA, organisée autour de sept principes de l’IA publique de confiance.Quelques mois plus tard, ChatGPT faisait irruption. L’essor de l’IA générative rebat assez largement les cartes.Alors que des systèmes d’intelligence artificielle (SIA) font leur apparition dans de nombreux domaines de l’action publique, l’heure est aux retours d’expérience.Tour à tour, le Conseil économique, social et environnemental (CESE), la Défenseure des droits, la Cour des comptes, la Commission de l’IA et la Direction générale de l’administration et de la fonction publique (DGAFP) ont livré, en 2024 et début 2025, leurs premières analyses : tous plaident pour renforcer le pilotage interministériel et pour l’explicitation d’une doctrine d’emploi de l’IA dans les services publics.En mettant l’accent sur la dimension « capacitante » de l’IA pour les agents, la Commission de l’IA dessine ainsi, en creux, une doctrine de transformation numérique qui se déploierait « par le bas » : « L’arrivée de l’IA pourrait être l’occasion de donner aux agents publics la capacité de transformer leur propre travail, plutôt que d’en subir la transformation d’en haut ».La Défenseure des droits, en charge de la défense des droits et libertés des usagers des services publics, étudie l’usage croissant des algorithmes ou systèmes d’intelligence artificielle (IA) dans les services publics français, et notamment dans l’administration centrale. « Malgré un gain d’efficacité dans la prise de décisions », la Défenseure des droits met en garde contre « les atteintes aux droits fondamentaux des usagers » et plaide pour une intervention humaine de nature à garantir le respect des droits des usager.e.s.En juin 2024, la DGAFP a rendu publique une stratégie d’usage de l’intelligence artificielle en matière de gestion des ressources humaines (GRH) dans la fonction publique d’État. Elle met en évidence des cas d'usage et émet des principes directeurs.Si la Cour des comptes recommande de prioriser « les missions et les processus pour lesquels l’IA est susceptible d’apporter des gains d’efficience et de productivité significatifs », elle dégage aussi les grands axes d’une « IA publique robuste », fondée sur la sobriété en matière de données, de modèles et d’infrastructures et la capacité des organisations à en conserver la pleine maîtrise.Le CESE appelle les administrations à interroger les finalités des systèmes d’IA. Il formule, à cet effet, deux conditions à leur déploiement : « qu’ils améliorent la qualité du service public et les conditions de travail des agents qui y concourent » et « que soient véritablement appliquées les obligations de transparence, de redevabilité et d’explicabilité, lorsque les systèmes d’IA sont déployés pour exécuter le droit ou qu’ils aboutissent à des décisions individuelles produisant des effets juridiques, économiques ou sociaux qui affectent les personnes ».
Sept principes pour « une intelligence artificielle publique de confiance » (Conseil d’État, 2022)« Domaine de recherche effervescent et enjeu économique, social et de souveraineté majeur, l’ intelligence artificielle a, comparativement, suscité peu de littérature en ce qui concerne son utilisation dans le service public » constatait Conseil d’État en août 2022 dans une étude très documentée (360 pages), consacrée aux apports de l'IA à l'action publique. Aussi le Conseil d’état recommandait-il aux pouvoirs publics de définir sans attendre une doctrine d’emploi de l’IA : une doctrine administrative, qui permettrait « de maîtriser les risques de toute nature (individuels et collectifs) » et de « garantir en toutes circonstances l’utilité publique des systèmes d’IA ».La haute juridiction proposait d’asseoir le recours à l’IA dans la sphère publique sur sept principes :La primauté humaine. « Les SIA publics se conçoivent comme des outils au service de l’humain, ce qui suppose qu’ils répondent à une finalité d’intérêt général et que l’ingérence dans les droits et libertés fondamentaux qui résulte de leur mise en service ne soit pas disproportionnée au regard des bénéfices qui en sont attendus ».La performance. « La dégradation de la qualité d’un service en raison de son automatisation est un des facteurs les plus destructeurs de la confiance dans les outils numériques, en particulier lorsque, s’agissant du service public, les usagers n’ont pas la possibilité de se tourner vers un concurrent. Les administrations doivent donc identifier les indicateurs de la performance du système (exactitude, robustesse technique, temps de réponse, etc.), et définir, au regard des conséquences de l’erreur, le niveau de performance acceptable, en veillant à ne pas détériorer la qualité du service rendu ».L’équité et la non-discrimination. « Les concepteurs des SIA doivent choisir, parmi les différentes conceptions de l’équité, celle qui guidera le fonctionnement des systèmes et formaliser ce choix, dans le respect du principe d’égalité. Ils doivent en outre veiller à prévenir les discriminations involontaires, enjeu particulièrement prégnant pour les SIA d’aide à la décision fondés sur l’apprentissage machine ».La transparence. « Ce principe comporte, à tout le moins, le droit d’accès à la documentation du système, une exigence de loyauté consistant à informer les personnes de l’utilisation d’un SIA à leur égard, l’auditabilité du système par les autorités compétentes ainsi que la garantie d’explicabilité. La complexité technique de certains SIA, en particulier ceux qui reposent sur l’apprentissage profond, et la difficulté ou l’incapacité de formaliser le raisonnement ayant conduit au résultat produit, risquent d’accentuer le sentiment de défiance si les personnes sur lesquelles ce résultat a une incidence ne peuvent obtenir, dans un langage simple, une explication sur les principaux ressorts de la décision ou de la recommandation formulée par le système ».La sûreté (cybersécurité). « Tout SIA doit intégrer l’enjeu de sûreté, c’est-à-dire la prévention des attaques informatiques et la résolution de leurs conséquences ».La soutenabilité environnementale. « L’impact environnemental des SIA doit être pris en compte dans la stratégie de l’IA publique en général, autour d’un principe de neutralité globale de l’IA, comme dans la conception de chaque système, en mettant en regard le surcroît de performance permis par une puissance de calcul supérieure avec son empreinte écologique ».L’autonomie stratégique. « Dès lors que les SIA concourent de façon croissante aux fonctions essentielles de la puissance publique, ils doivent être conçus de manière à garantir l’autonomie de la Nation. Si l’autarcie numérique serait un objectif illusoire et contre-productif, la France doit se doter des ressources nécessaires, en matière de compétences, de structures de recherche d’infrastructures et de données, pour réduire et choisir ses dépendances ».Les administrations n’ont toutefois pas attendu une telle doctrine pour se lancer, ici et là, avec des degrés de maturité divers. « On constate surtout une très grande hétérogénéité dans la maturité des administrations, le degré d’avancement des réflexions et des projets et l’ampleur des investissements qui y sont consacrés », écrit le Conseil. Plaidant pour une stratégie « volontariste et lucide » de déploiement de l’IA publique, la haute juridiction invitait l’Etat à trouver un équilibre entre le développent d’IA à usage interne et l’IA bénéficiant directement au citoyen, entre usages dédiés au « service » et usages dédiés au « contrôle ».
Donner aux agents publics la capacité de transformer leur propre travail, plutôt que d’en subir la transformation d’en haut (Commission de l'IA, 2024)La Commission de l'IA, crée en 2023, consacre un chapitre du rapport qu’elle a remis au Premier ministre en mars 2024, à la mise en œuvre de l’IA dans les services publics. Elle y dresse un bilan sévère de la numérisation des services publics. « Trop souvent, la transformation numérique s’est arrêtée à la dématérialisation des démarches, sans transformer en profondeur la circulation de l’information, ou le traitement des demandes. Les promesses de personnalisation (et donc d’humanisation) du service public, de rapidité de traitement, de simplification du travail des agents n’ont pas été tenues ».Pour la Commission, l’IA est d’abord « une opportunité pour relancer la transformation numérique des services publics ».« Par sa simplicité d’utilisation, l’IA générative offre l’occasion de libérer la créativité des agents en permettant d’expérimenter la technologie à leur niveau sans avoir toujours besoin d’un système spécifique ». Aussi la Commission recommande-t-elle « d’encourager les agents publics à se saisir de ces outils, d’autant plus quand ils sont gratuits pour un usage occasionnel (…) Le service public gagnerait à équiper ainsi les agents d’IA configurables pour qu’ils les déploient eux-mêmes, qu’il s’agisse de solutions sur étagère ou spécifiques au service public Si les agents s’approprient l’IA, les usages foisonneront et permettront d’identifier plus rapidement là où l’IA a de la valeur ».En mettant l’accent sur la dimension « capacitante » de l’IA pour les agent.e.s, la Commission de l’IA dessine ainsi, en creux, une doctrine de transformation numérique qui se déploierait par le bas : « L’arrivée de l’IA pourrait être l’occasion de donner aux agents publics la capacité de transformer leur propre travail, plutôt que d’en subir la transformation d’en haut ».Deux écueils : le « grand projet IA » et le « tout ChatGPT »Elle met en garde, au passage, contre deux écueils à éviter : « D’une part le « grand projet IA », destiné à tout faire, tout remplacer, développé loin des agents, des usagers et de la réalité du service public. D’autre part le « tout ChatGPT », dans lequel un robot conversationnel universel commercial et étranger deviendrait la seule utilisation de l’IA dans le service public ».Encore convient-il d’associer les citoyen.ne.s à cette transformation numérique par le bas : Les citoyen.ne.s eux-mêmes pourraient être amené.e.s à contribuer aux services publics à partir d’IA, « que ce soit pour définir leurs modalités de fonctionnement ou pour participer à leur construction Leur implication est cruciale pour éviter que la transformation des services publics par l’IA ne renforce la centralisation bureaucratique, inexplicable et distante ». La Commission mentionne les « assemblées d’alignement » réunies à Taiwan pour définir des règles de déploiement et de comportement des IA dans le service public.Pour donner un accès large aux services d’IA générative et éviter les doubles investissements, la Commission recommande que soit renforcée la capacité de pilotage et d’exécution technique dans les services publics. « Au niveau interministériel, une réelle direction technologique devrait pouvoir apporter non seulement de la doctrine, mais aussi des infrastructures de qualité (hébergement, puissance de calcul, usine logicielle, identité numérique etc. ), de l’expertise, et du budget de transformation. A l’heure où l’État cherche à réinternaliser des compétences et à les faire circuler entre ministères, il faut qu’il renforce sa capacité à produire du numérique de qualité ».Des solutions d’IA sur étagère ?La Commission, au passage, pose les termes d’un débat sur le recours à des solutions d’IA sur étagère.« Dès 2024, les services publics devront décider s’ils utilisent des solutions d’IA sur étagère, s’ils entrent dans des partenariats avec des entreprises, ou s’ils redéveloppent leurs propres outils. (...) Les solutions sur étagère auront l’avantage de la performance, de la simplicité, étant disponibles immédiatement, voire s’intégrant directement dans les outils des agents (suite bureautique, moteur de recherche) Mais elles présentent des risques, au premier rang desquels la fuite de données ». Certains ministères ont, par exemple, interdit l’utilisation des outils d’aide au développement informatique, qu’il s’agisse du Copilot de Github ou GPT-4.« Les solutions sur étagères auront toutefois des limites, rappelle toutefois la Commission : « soit parce qu’elles ne s’insèrent pas dans des outils existants, soit parce qu’elles ne sont pas adaptées à certains usages sensibles. Il serait délicat de demander à ChatGPT de résumer une note à destination d’un ministre par exemple. Mais il serait absurde que chaque ministère et collectivité redéveloppe ou rachète une IA capable de résumer une note sans en faire fuiter les données ».
L’intervention humaine comme garantie du respect des droits des usager.e.s (Défenseure des droits, 2024)Dans un rapport publié le 13 novembre 2024, la Défenseure des droits, en charge de la défense des droits et libertés des usagers des services publics, étudie l’usage croissant des algorithmes ou systèmes d'IA dans les services publics français, et notamment dans l’administration centrale.« Malgré un gain d’efficacité dans la prise de décisions », la Défenseure des droits met en garde contre « les atteintes aux droits fondamentaux des usagers ».La Défenseure des droits examine, dans ce rapport, l’effectivité de deux garanties particulièrement importantes pour assurer le respect de ces droits : l’intervention humaine dans la prise de décision et la maîtrise des systèmes, et l’exigence de transparence à l’égard des usager.e.s.Bien que les réclamations d'usager.e.s soient encore peu nombreuses, la Défenseure des droits identifie une problématique "systématique" de confiance entre les usager.e.s et l'administration. Elle rappelle, à ce titre, que la transparence de l'action publique doit être envisagée comme un « prérequis pour lutter contre d'éventuels erreurs, abus et discriminations (...) Or, les obligations d'information sont parfois peu ou mal respectées en raison de l'opacité des procédures réalisées par ou à l'aide d'algorithmes ».Lorsqu’une décision administrative est dite « partiellement automatisée », un.e agent.e public doit effectuer une action positive, concrète et significative à partir ou à côté du résultat généré par l’algorithme, dans la prise de décision. La Défenseure des droits relève, notamment sur le fondement des réclamations qu’elle reçoit, que cette intervention se révèle parfois inexistante et parfois inconsistante ou biaisée, lorsque les personnes qui interviennent dans la prise de décision individuelle ont tendance à avaliser les résultats produits par le système sans les questionner.Face à ces limites, et à leurs effets sur les droits des usager.e.s des services publics, la Défenseure des droits recommande d’édicter des critères et des modes opératoires obligatoires pour qualifier plus précisément la nature de l’intervention humaine requise.Lire la suite :La Défenseure des droits appelle à la vigilance sur l’usage des algorithmes dans les services publics
Fonction publique : Utiliser l’IA en soutien plutôt qu’en remplacement du travail humain (DGAFP, 2024)En juin 2024, la direction générale de l’administration et de la fonction publique (DGAFP) a rendu publique une stratégie d’usage de l’intelligence artificielle en matière de gestion des ressources humaines (GRH) dans la fonction publique d’État.« Bien que les professions les moins qualifiées sont pour l’instant les plus exposées à l’automatisation, l’IA générative peut améliorer les performances des travailleurs moins qualifiés, tandis que les progrès en matière d’IA générative peuvent accroître l’exposition des professions hautement qualifiées. »La DGFAP a identifié 26 cas d’usage de l’IA pour la GRH dans la fonction publique d’État :cinq cas d’usages jugés particulièrement « souhaitables » : analyse des résultats des enquêtes internes ; recommandations contextuelles de formation ; apprentissage personnalisé ; rédaction de fiches de poste ; identification des compétences émergentes).quatre autres considérés comme « à proscrire » : détection précoce des problèmes de santé mentale ; analyse des relations entre collègues ; entretiens vidéo automatisés avec les candidats ; systèmes de reconnaissance et de récompense.LA DGFAP formule en conclusion trois principes directeurs :« Contrôle par l’humain : concertation et autonomie (fixation du cadre d’usage en collaboration avec les représentants du personnel ; déclaration d’utilisation de l’IA par les agents ; liberté des agents d’utiliser des outils d’IA ou leurs résultats) ;Protection de l’agent et de l’administration : utilisation légale et transparente des données (privées et sensibles) ; solidité/robustesse et sécurité de l’IA ;Déontologie : transparence, justice, équité, diversité, inclusion, non-discrimination. »
Productivité, confiance, frugalité : piliers d’une IA publique robuste (Cour des comptes, 2024)Depuis 2015, Bercy a déployé, à titre expérimental, pas moins de 35 programmes d'intelligence artificielle (fiscalité, contrôles douaniers, lutte contre le blanchiment, statistique publique, droit de la consommation..). La Cour des comptes a rendu publiques le 22 octobre 2024 ses observations sur la mise en œuvre de l’IA au ministère de l’Économie et des Finances.L’évaluation de la Cour des Comptes s’inscrit assez largement dans le sillage de la doctrine d’emploi préconisée par le Conseil d’État. « La prise en compte des enjeux de confiance et des défis environnementaux lors de la mise en œuvre des systèmes d’IA est en phase d’amorçage au sein du MEFSIN. L’étape à franchir est celle du pilotage de ces enjeux. La compatibilité de ces différents facteurs, de confiance, environnementaux, frugaux, est une opportunité rare pour l’adoption d’une IA publique robuste ».Pour la Cour des comptes, les systèmes d’IA à Bercy améliorent la productivité dans une majorité de cas mais ne permettent pas nécessairement de libérer des emplois. Elle regrette que l’IA soit « très faiblement abordée dans le cadre du dialogue social ministériel, et la conduite des projets réserve une place trop limitée aux implications quantitatives et qualitative des systèmes d’IA pour le travail des agents concernés ».Le ministère de l’Économie et des Finances « doit anticiper avec plus de précision les conséquences du recours à l’IA en termes de ressources humaines, afin de maîtriser ses effets sur la nature des travaux confiés aux agents, de fidéliser les compétences nécessaires et de répartir de façon pertinente les gains de productivité permis par ces technologies. »Le ministère de l’Économie et des Finances doit, par ailleurs, « garantir la frugalité du recours à l’IA. Le concept d’IA frugale soutient, qu’au-delà des avantages écologiques, la sobriété en matière de données, de modèles et d’infrastructures favorise l’efficience de la dépense, la robustesse des systèmes d’IA et la capacité des organisations à en conserver la pleine maîtrise. Cette approche suppose que le choix de recourir à un système d’IA prenne en compte les coûts associés à l’ensemble du cycle de vie des systèmes ».La Cour des comptes recommande, notamment :d’identifier l’instance ministérielle en charge du pilotage stratégique de l’intelligence artificielle et des données numériques ;d’identifier les missions et les processus pour lesquels l’IA est susceptible d’apporter des gains d’efficience et de productivité significatifs ;de promouvoir auprès des directions des ministères économiques et financiers la mesure de l’impact environnemental des systèmes d’IA tout au long de leur cycle de vie en vue de le réduire ;de promouvoir auprès des directions des ministères économiques et financiers une démarche de frugalité lors de la mise en œuvre de systèmes d’IA.Prioriser les enjeux de productivité ?Dans un autre rapport publié en janvier 2025, la Cour des Comptes met surtout l’accent sur les gains de productivité. « La situation des finances publiques et les arbitrages nécessaires entre projets numériques plaident pour que les administrations publiques priorisent les projets d’intelligence artificielle apportant des gains tangibles de productivité. (.. ). Les différents types d’IA qui existent sont porteurs de gains de productivité et l’exemple des ministères financiers ouvre des perspectives encourageantes en la matière. Dans cette dynamique, l’interministériel doit veiller à ce que les projets numériques fondés sur l’IA permettent de prioriser les enjeux de productivité ».
Interroger les finalités pour prioriser les projets (CESE, 2025)Le Conseil économique, social et environnemental (CESE) a livré, le 14 janvier 2025, dans un avis , en 224 pages, ses premières conclusions quant à l’acceptabilité de l’IA.Dans un chapitre plus spécifiquement consacré au déploiement de l’IA dans les services publics, le CESE passe en revue un certain nombre de systèmes d’IA déployés dans les services publics.L’intégration de l’IA nécessite, selon le CESE, pour les administrations, de considérer une série de questions : « pourquoi cette modernisation est-elle essentielle : améliorer la qualité des services ? réduire les coûts ? réduire les effectifs d’agents publics ? En interrogeant les finalités de la transformation, cela permet de prioriser les projets les plus transformants en tenant compte des critères éthiques et des principes inhérents au service public ».Le CESE, en conclusion, appelle à déployer des systèmes d’IA mais à deux conditions :« qu’ils améliorent la qualité du service public et les conditions de travail des agents qui y concourent » ;« que soient véritablement appliquées les obligations de transparence, de redevabilité et d’explicabilité, lorsque les systèmes d’IA sont déployés pour exécuter le droit (par exemple, pour calculer le montant d’un impôt), qu’ils s’avèrent incontournable (à l’instar de Parcoursup) ou qu’ils aboutissent à des décisions individuelles produisant des effets juridiques, économiques ou sociaux qui affectent les personnes ».Dans la continuité de ses avis antérieurs, le CESE recommande :« de proposer systématiquement un accompagnement et un accueil humain en alternative au service dématérialisé, comme cela se déploie au travers des espaces France Service. inscrivant dans la loi le principe d'un droit au non-numérique, et en garantissant l'égalité d'accès et la liberté de choix pour toutes et tous. »Lire la suite : CESE : Interroger les finalités pour prioriser les projets d'IA dans les services publics
-
-
Inclusion
-
Citoyenneté
-
Innovation