Avant-propos
La troisième phase de la stratégie nationale pour l’intelligence artificielle (IA), rendue publique quelques jours avant le Sommet, comporte un important volet consacré à la mise en œuvre de l’IA pour les politiques publiques.
« L’IA deviendra un axe prioritaire traduite dans des feuilles de route ministérielles qui seront présentées au plus tard en juin 2025. (…) Le ministère de l’action publique, de la fonction publique et de la simplification coordonnera les actions interministérielles de déploiement de l’IA dans le secteur public. (…) L’IA sera l’une des priorités du Fond pour la Réforme de l’État ».
« Un plan de déploiement d’outils d’IA générative va permettre à chaque agent de bénéficier d’assistants IA capables de leur faire gagner du temps et de l’efficacité dans leurs tâches administratives quotidiennes. (..) Cette IA de confiance aura toujours un agent public dans la boucle (…) Le pilotage resserré de ces déploiements permettra d’évaluer leur performance en termes de gain de temps, de coûts et d’efficacité. Sur la base de cette évaluation et des retours d’expérience, les cas d’usages ayant fait leurs preuves seront déployés à l’échelle ».
En 2022, le Conseil d’État avait jeté en 2022 les bases d’une doctrine administrative de l’IA, organisée autour de sept principes de l’IA publique de confiance.
Quelques mois plus tard, ChatGPT faisait irruption. L’essor de l’IA générative rebat assez largement les cartes.
Alors que des systèmes d’intelligence artificielle (SIA) font leur apparition dans de nombreux domaines de l’action publique, l’heure est aux retours d’expérience.
Tour à tour, le Conseil économique, social et environnemental (CESE), la Défenseure des droits, la Cour des comptes, la Commission de l’IA et la Direction générale de l’administration et de la fonction publique (DGAFP) ont livré, en 2024 et début 2025, leurs premières analyses : tous plaident pour renforcer le pilotage interministériel et pour l’explicitation d’une doctrine d’emploi de l’IA dans les services publics.
- En mettant l’accent sur la dimension « capacitante » de l’IA pour les agents, la Commission de l’IA dessine ainsi, en creux, une doctrine de transformation numérique qui se déploierait « par le bas » : « L’arrivée de l’IA pourrait être l’occasion de donner aux agents publics la capacité de transformer leur propre travail, plutôt que d’en subir la transformation d’en haut ».
- La Défenseure des droits, en charge de la défense des droits et libertés des usagers des services publics, étudie l’usage croissant des algorithmes ou systèmes d’intelligence artificielle (IA) dans les services publics français, et notamment dans l’administration centrale. « Malgré un gain d’efficacité dans la prise de décisions », la Défenseure des droits met en garde contre « les atteintes aux droits fondamentaux des usagers » et plaide pour une intervention humaine de nature à garantir le respect des droits des usager.e.s.
- En juin 2024, la DGAFP a rendu publique une stratégie d’usage de l’intelligence artificielle en matière de gestion des ressources humaines (GRH) dans la fonction publique d’État. Elle met en évidence des cas d'usage et émet des principes directeurs.
- Si la Cour des comptes recommande de prioriser « les missions et les processus pour lesquels l’IA est susceptible d’apporter des gains d’efficience et de productivité significatifs », elle dégage aussi les grands axes d’une « IA publique robuste », fondée sur la sobriété en matière de données, de modèles et d’infrastructures et la capacité des organisations à en conserver la pleine maîtrise.
- Le CESE appelle les administrations à interroger les finalités des systèmes d’IA. Il formule, à cet effet, deux conditions à leur déploiement : « qu’ils améliorent la qualité du service public et les conditions de travail des agents qui y concourent » et « que soient véritablement appliquées les obligations de transparence, de redevabilité et d’explicabilité, lorsque les systèmes d’IA sont déployés pour exécuter le droit ou qu’ils aboutissent à des décisions individuelles produisant des effets juridiques, économiques ou sociaux qui affectent les personnes ».
Référence :
Sept principes pour « une intelligence artificielle publique de confiance » (Conseil d’État, 2022)
« Domaine de recherche effervescent et enjeu économique, social et de souveraineté majeur, l’ intelligence artificielle a, comparativement, suscité peu de littérature en ce qui concerne son utilisation dans le service public » constatait Conseil d’État en août 2022 dans une étude très documentée (360 pages), consacrée aux apports de l'IA à l'action publique. Aussi le Conseil d’état recommandait-il aux pouvoirs publics de définir sans attendre une doctrine d’emploi de l’IA : une doctrine administrative, qui permettrait « de maîtriser les risques de toute nature (individuels et collectifs) » et de « garantir en toutes circonstances l’utilité publique des systèmes d’IA ».
La haute juridiction proposait d’asseoir le recours à l’IA dans la sphère publique sur sept principes :
- La primauté humaine. « Les SIA publics se conçoivent comme des outils au service de l’humain, ce qui suppose qu’ils répondent à une finalité d’intérêt général et que l’ingérence dans les droits et libertés fondamentaux qui résulte de leur mise en service ne soit pas disproportionnée au regard des bénéfices qui en sont attendus ».
- La performance. « La dégradation de la qualité d’un service en raison de son automatisation est un des facteurs les plus destructeurs de la confiance dans les outils numériques, en particulier lorsque, s’agissant du service public, les usagers n’ont pas la possibilité de se tourner vers un concurrent. Les administrations doivent donc identifier les indicateurs de la performance du système (exactitude, robustesse technique, temps de réponse, etc.), et définir, au regard des conséquences de l’erreur, le niveau de performance acceptable, en veillant à ne pas détériorer la qualité du service rendu ».
- L’équité et la non-discrimination. « Les concepteurs des SIA doivent choisir, parmi les différentes conceptions de l’équité, celle qui guidera le fonctionnement des systèmes et formaliser ce choix, dans le respect du principe d’égalité. Ils doivent en outre veiller à prévenir les discriminations involontaires, enjeu particulièrement prégnant pour les SIA d’aide à la décision fondés sur l’apprentissage machine ».
- La transparence. « Ce principe comporte, à tout le moins, le droit d’accès à la documentation du système, une exigence de loyauté consistant à informer les personnes de l’utilisation d’un SIA à leur égard, l’auditabilité du système par les autorités compétentes ainsi que la garantie d’explicabilité. La complexité technique de certains SIA, en particulier ceux qui reposent sur l’apprentissage profond, et la difficulté ou l’incapacité de formaliser le raisonnement ayant conduit au résultat produit, risquent d’accentuer le sentiment de défiance si les personnes sur lesquelles ce résultat a une incidence ne peuvent obtenir, dans un langage simple, une explication sur les principaux ressorts de la décision ou de la recommandation formulée par le système ».
- La sûreté (cybersécurité). « Tout SIA doit intégrer l’enjeu de sûreté, c’est-à-dire la prévention des attaques informatiques et la résolution de leurs conséquences ».
- La soutenabilité environnementale. « L’impact environnemental des SIA doit être pris en compte dans la stratégie de l’IA publique en général, autour d’un principe de neutralité globale de l’IA, comme dans la conception de chaque système, en mettant en regard le surcroît de performance permis par une puissance de calcul supérieure avec son empreinte écologique ».
- L’autonomie stratégique. « Dès lors que les SIA concourent de façon croissante aux fonctions essentielles de la puissance publique, ils doivent être conçus de manière à garantir l’autonomie de la Nation. Si l’autarcie numérique serait un objectif illusoire et contre-productif, la France doit se doter des ressources nécessaires, en matière de compétences, de structures de recherche d’infrastructures et de données, pour réduire et choisir ses dépendances ».
Les administrations n’ont toutefois pas attendu une telle doctrine pour se lancer, ici et là, avec des degrés de maturité divers. « On constate surtout une très grande hétérogénéité dans la maturité des administrations, le degré d’avancement des réflexions et des projets et l’ampleur des investissements qui y sont consacrés », écrit le Conseil. Plaidant pour une stratégie « volontariste et lucide » de déploiement de l’IA publique, la haute juridiction invitait l’Etat à trouver un équilibre entre le développent d’IA à usage interne et l’IA bénéficiant directement au citoyen, entre usages dédiés au « service » et usages dédiés au « contrôle ».
Référence :
Donner aux agents publics la capacité de transformer leur propre travail, plutôt que d’en subir la transformation d’en haut (Commission de l'IA, 2024)
La Commission de l'IA, crée en 2023, consacre un chapitre du rapport qu’elle a remis au Premier ministre en mars 2024, à la mise en œuvre de l’IA dans les services publics. Elle y dresse un bilan sévère de la numérisation des services publics. « Trop souvent, la transformation numérique s’est arrêtée à la dématérialisation des démarches, sans transformer en profondeur la circulation de l’information, ou le traitement des demandes. Les promesses de personnalisation (et donc d’humanisation) du service public, de rapidité de traitement, de simplification du travail des agents n’ont pas été tenues ».
Pour la Commission, l’IA est d’abord « une opportunité pour relancer la transformation numérique des services publics ».
« Par sa simplicité d’utilisation, l’IA générative offre l’occasion de libérer la créativité des agents en permettant d’expérimenter la technologie à leur niveau sans avoir toujours besoin d’un système spécifique ». Aussi la Commission recommande-t-elle « d’encourager les agents publics à se saisir de ces outils, d’autant plus quand ils sont gratuits pour un usage occasionnel (…) Le service public gagnerait à équiper ainsi les agents d’IA configurables pour qu’ils les déploient eux-mêmes, qu’il s’agisse de solutions sur étagère ou spécifiques au service public Si les agents s’approprient l’IA, les usages foisonneront et permettront d’identifier plus rapidement là où l’IA a de la valeur ».
En mettant l’accent sur la dimension « capacitante » de l’IA pour les agent.e.s, la Commission de l’IA dessine ainsi, en creux, une doctrine de transformation numérique qui se déploierait par le bas : « L’arrivée de l’IA pourrait être l’occasion de donner aux agents publics la capacité de transformer leur propre travail, plutôt que d’en subir la transformation d’en haut ».
Deux écueils : le « grand projet IA » et le « tout ChatGPT »
Elle met en garde, au passage, contre deux écueils à éviter : « D’une part le « grand projet IA », destiné à tout faire, tout remplacer, développé loin des agents, des usagers et de la réalité du service public. D’autre part le « tout ChatGPT », dans lequel un robot conversationnel universel commercial et étranger deviendrait la seule utilisation de l’IA dans le service public ».
Encore convient-il d’associer les citoyen.ne.s à cette transformation numérique par le bas : Les citoyen.ne.s eux-mêmes pourraient être amené.e.s à contribuer aux services publics à partir d’IA, « que ce soit pour définir leurs modalités de fonctionnement ou pour participer à leur construction Leur implication est cruciale pour éviter que la transformation des services publics par l’IA ne renforce la centralisation bureaucratique, inexplicable et distante ». La Commission mentionne les « assemblées d’alignement » réunies à Taiwan pour définir des règles de déploiement et de comportement des IA dans le service public.
Pour donner un accès large aux services d’IA générative et éviter les doubles investissements, la Commission recommande que soit renforcée la capacité de pilotage et d’exécution technique dans les services publics. « Au niveau interministériel, une réelle direction technologique devrait pouvoir apporter non seulement de la doctrine, mais aussi des infrastructures de qualité (hébergement, puissance de calcul, usine logicielle, identité numérique etc. ), de l’expertise, et du budget de transformation. A l’heure où l’État cherche à réinternaliser des compétences et à les faire circuler entre ministères, il faut qu’il renforce sa capacité à produire du numérique de qualité ».
Des solutions d’IA sur étagère ?
La Commission, au passage, pose les termes d’un débat sur le recours à des solutions d’IA sur étagère.
« Dès 2024, les services publics devront décider s’ils utilisent des solutions d’IA sur étagère, s’ils entrent dans des partenariats avec des entreprises, ou s’ils redéveloppent leurs propres outils. (...) Les solutions sur étagère auront l’avantage de la performance, de la simplicité, étant disponibles immédiatement, voire s’intégrant directement dans les outils des agents (suite bureautique, moteur de recherche) Mais elles présentent des risques, au premier rang desquels la fuite de données ». Certains ministères ont, par exemple, interdit l’utilisation des outils d’aide au développement informatique, qu’il s’agisse du Copilot de Github ou GPT-4.
« Les solutions sur étagères auront toutefois des limites, rappelle toutefois la Commission : « soit parce qu’elles ne s’insèrent pas dans des outils existants, soit parce qu’elles ne sont pas adaptées à certains usages sensibles. Il serait délicat de demander à ChatGPT de résumer une note à destination d’un ministre par exemple. Mais il serait absurde que chaque ministère et collectivité redéveloppe ou rachète une IA capable de résumer une note sans en faire fuiter les données ».
Référence :
L’intervention humaine comme garantie du respect des droits des usager.e.s (Défenseure des droits, 2024)
Dans un rapport publié le 13 novembre 2024, la Défenseure des droits, en charge de la défense des droits et libertés des usagers des services publics, étudie l’usage croissant des algorithmes ou systèmes d'IA dans les services publics français, et notamment dans l’administration centrale.
« Malgré un gain d’efficacité dans la prise de décisions », la Défenseure des droits met en garde contre « les atteintes aux droits fondamentaux des usagers ».
La Défenseure des droits examine, dans ce rapport, l’effectivité de deux garanties particulièrement importantes pour assurer le respect de ces droits : l’intervention humaine dans la prise de décision et la maîtrise des systèmes, et l’exigence de transparence à l’égard des usager.e.s.
Bien que les réclamations d'usager.e.s soient encore peu nombreuses, la Défenseure des droits identifie une problématique "systématique" de confiance entre les usager.e.s et l'administration. Elle rappelle, à ce titre, que la transparence de l'action publique doit être envisagée comme un « prérequis pour lutter contre d'éventuels erreurs, abus et discriminations (...) Or, les obligations d'information sont parfois peu ou mal respectées en raison de l'opacité des procédures réalisées par ou à l'aide d'algorithmes ».
Lorsqu’une décision administrative est dite « partiellement automatisée », un.e agent.e public doit effectuer une action positive, concrète et significative à partir ou à côté du résultat généré par l’algorithme, dans la prise de décision. La Défenseure des droits relève, notamment sur le fondement des réclamations qu’elle reçoit, que cette intervention se révèle parfois inexistante et parfois inconsistante ou biaisée, lorsque les personnes qui interviennent dans la prise de décision individuelle ont tendance à avaliser les résultats produits par le système sans les questionner.
Face à ces limites, et à leurs effets sur les droits des usager.e.s des services publics, la Défenseure des droits recommande d’édicter des critères et des modes opératoires obligatoires pour qualifier plus précisément la nature de l’intervention humaine requise.
Lire la suite :La Défenseure des droits appelle à la vigilance sur l’usage des algorithmes dans les services publics
Référence :
[Dossier] Intelligence artificielle et services publics : quelle doctrine d'usage ?
Avant-propos
La troisième phase de la stratégie nationale pour l’intelligence artificielle (IA), rendue publique quelques jours avant le Sommet, comporte un important volet consacré à la mise en œuvre de l’IA pour les politiques publiques.
« L’IA deviendra un axe prioritaire traduite dans des feuilles de route ministérielles qui seront présentées au plus tard en juin 2025. (…) Le ministère de l’action publique, de la fonction publique et de la simplification coordonnera les actions interministérielles de déploiement de l’IA dans le secteur public. (…) L’IA sera l’une des priorités du Fond pour la Réforme de l’État ».
« Un plan de déploiement d’outils d’IA générative va permettre à chaque agent de bénéficier d’assistants IA capables de leur faire gagner du temps et de l’efficacité dans leurs tâches administratives quotidiennes. (..) Cette IA de confiance aura toujours un agent public dans la boucle (…) Le pilotage resserré de ces déploiements permettra d’évaluer leur performance en termes de gain de temps, de coûts et d’efficacité. Sur la base de cette évaluation et des retours d’expérience, les cas d’usages ayant fait leurs preuves seront déployés à l’échelle ».
En 2022, le Conseil d’État avait jeté en 2022 les bases d’une doctrine administrative de l’IA, organisée autour de sept principes de l’IA publique de confiance.
Quelques mois plus tard, ChatGPT faisait irruption. L’essor de l’IA générative rebat assez largement les cartes.
Alors que des systèmes d’intelligence artificielle (SIA) font leur apparition dans de nombreux domaines de l’action publique, l’heure est aux retours d’expérience.
Tour à tour, le Conseil économique, social et environnemental (CESE), la Défenseure des droits, la Cour des comptes, la Commission de l’IA et la Direction générale de l’administration et de la fonction publique (DGAFP) ont livré, en 2024 et début 2025, leurs premières analyses : tous plaident pour renforcer le pilotage interministériel et pour l’explicitation d’une doctrine d’emploi de l’IA dans les services publics.
- En mettant l’accent sur la dimension « capacitante » de l’IA pour les agents, la Commission de l’IA dessine ainsi, en creux, une doctrine de transformation numérique qui se déploierait « par le bas » : « L’arrivée de l’IA pourrait être l’occasion de donner aux agents publics la capacité de transformer leur propre travail, plutôt que d’en subir la transformation d’en haut ».
- La Défenseure des droits, en charge de la défense des droits et libertés des usagers des services publics, étudie l’usage croissant des algorithmes ou systèmes d’intelligence artificielle (IA) dans les services publics français, et notamment dans l’administration centrale. « Malgré un gain d’efficacité dans la prise de décisions », la Défenseure des droits met en garde contre « les atteintes aux droits fondamentaux des usagers » et plaide pour une intervention humaine de nature à garantir le respect des droits des usager.e.s.
- En juin 2024, la DGAFP a rendu publique une stratégie d’usage de l’intelligence artificielle en matière de gestion des ressources humaines (GRH) dans la fonction publique d’État. Elle met en évidence des cas d'usage et émet des principes directeurs.
- Si la Cour des comptes recommande de prioriser « les missions et les processus pour lesquels l’IA est susceptible d’apporter des gains d’efficience et de productivité significatifs », elle dégage aussi les grands axes d’une « IA publique robuste », fondée sur la sobriété en matière de données, de modèles et d’infrastructures et la capacité des organisations à en conserver la pleine maîtrise.
- Le CESE appelle les administrations à interroger les finalités des systèmes d’IA. Il formule, à cet effet, deux conditions à leur déploiement : « qu’ils améliorent la qualité du service public et les conditions de travail des agents qui y concourent » et « que soient véritablement appliquées les obligations de transparence, de redevabilité et d’explicabilité, lorsque les systèmes d’IA sont déployés pour exécuter le droit ou qu’ils aboutissent à des décisions individuelles produisant des effets juridiques, économiques ou sociaux qui affectent les personnes ».
Référence :
Sept principes pour « une intelligence artificielle publique de confiance » (Conseil d’État, 2022)
« Domaine de recherche effervescent et enjeu économique, social et de souveraineté majeur, l’ intelligence artificielle a, comparativement, suscité peu de littérature en ce qui concerne son utilisation dans le service public » constatait Conseil d’État en août 2022 dans une étude très documentée (360 pages), consacrée aux apports de l'IA à l'action publique. Aussi le Conseil d’état recommandait-il aux pouvoirs publics de définir sans attendre une doctrine d’emploi de l’IA : une doctrine administrative, qui permettrait « de maîtriser les risques de toute nature (individuels et collectifs) » et de « garantir en toutes circonstances l’utilité publique des systèmes d’IA ».
La haute juridiction proposait d’asseoir le recours à l’IA dans la sphère publique sur sept principes :
- La primauté humaine. « Les SIA publics se conçoivent comme des outils au service de l’humain, ce qui suppose qu’ils répondent à une finalité d’intérêt général et que l’ingérence dans les droits et libertés fondamentaux qui résulte de leur mise en service ne soit pas disproportionnée au regard des bénéfices qui en sont attendus ».
- La performance. « La dégradation de la qualité d’un service en raison de son automatisation est un des facteurs les plus destructeurs de la confiance dans les outils numériques, en particulier lorsque, s’agissant du service public, les usagers n’ont pas la possibilité de se tourner vers un concurrent. Les administrations doivent donc identifier les indicateurs de la performance du système (exactitude, robustesse technique, temps de réponse, etc.), et définir, au regard des conséquences de l’erreur, le niveau de performance acceptable, en veillant à ne pas détériorer la qualité du service rendu ».
- L’équité et la non-discrimination. « Les concepteurs des SIA doivent choisir, parmi les différentes conceptions de l’équité, celle qui guidera le fonctionnement des systèmes et formaliser ce choix, dans le respect du principe d’égalité. Ils doivent en outre veiller à prévenir les discriminations involontaires, enjeu particulièrement prégnant pour les SIA d’aide à la décision fondés sur l’apprentissage machine ».
- La transparence. « Ce principe comporte, à tout le moins, le droit d’accès à la documentation du système, une exigence de loyauté consistant à informer les personnes de l’utilisation d’un SIA à leur égard, l’auditabilité du système par les autorités compétentes ainsi que la garantie d’explicabilité. La complexité technique de certains SIA, en particulier ceux qui reposent sur l’apprentissage profond, et la difficulté ou l’incapacité de formaliser le raisonnement ayant conduit au résultat produit, risquent d’accentuer le sentiment de défiance si les personnes sur lesquelles ce résultat a une incidence ne peuvent obtenir, dans un langage simple, une explication sur les principaux ressorts de la décision ou de la recommandation formulée par le système ».
- La sûreté (cybersécurité). « Tout SIA doit intégrer l’enjeu de sûreté, c’est-à-dire la prévention des attaques informatiques et la résolution de leurs conséquences ».
- La soutenabilité environnementale. « L’impact environnemental des SIA doit être pris en compte dans la stratégie de l’IA publique en général, autour d’un principe de neutralité globale de l’IA, comme dans la conception de chaque système, en mettant en regard le surcroît de performance permis par une puissance de calcul supérieure avec son empreinte écologique ».
- L’autonomie stratégique. « Dès lors que les SIA concourent de façon croissante aux fonctions essentielles de la puissance publique, ils doivent être conçus de manière à garantir l’autonomie de la Nation. Si l’autarcie numérique serait un objectif illusoire et contre-productif, la France doit se doter des ressources nécessaires, en matière de compétences, de structures de recherche d’infrastructures et de données, pour réduire et choisir ses dépendances ».
Les administrations n’ont toutefois pas attendu une telle doctrine pour se lancer, ici et là, avec des degrés de maturité divers. « On constate surtout une très grande hétérogénéité dans la maturité des administrations, le degré d’avancement des réflexions et des projets et l’ampleur des investissements qui y sont consacrés », écrit le Conseil. Plaidant pour une stratégie « volontariste et lucide » de déploiement de l’IA publique, la haute juridiction invitait l’Etat à trouver un équilibre entre le développent d’IA à usage interne et l’IA bénéficiant directement au citoyen, entre usages dédiés au « service » et usages dédiés au « contrôle ».
Référence :
Donner aux agents publics la capacité de transformer leur propre travail, plutôt que d’en subir la transformation d’en haut (Commission de l'IA, 2024)
La Commission de l'IA, crée en 2023, consacre un chapitre du rapport qu’elle a remis au Premier ministre en mars 2024, à la mise en œuvre de l’IA dans les services publics. Elle y dresse un bilan sévère de la numérisation des services publics. « Trop souvent, la transformation numérique s’est arrêtée à la dématérialisation des démarches, sans transformer en profondeur la circulation de l’information, ou le traitement des demandes. Les promesses de personnalisation (et donc d’humanisation) du service public, de rapidité de traitement, de simplification du travail des agents n’ont pas été tenues ».
Pour la Commission, l’IA est d’abord « une opportunité pour relancer la transformation numérique des services publics ».
« Par sa simplicité d’utilisation, l’IA générative offre l’occasion de libérer la créativité des agents en permettant d’expérimenter la technologie à leur niveau sans avoir toujours besoin d’un système spécifique ». Aussi la Commission recommande-t-elle « d’encourager les agents publics à se saisir de ces outils, d’autant plus quand ils sont gratuits pour un usage occasionnel (…) Le service public gagnerait à équiper ainsi les agents d’IA configurables pour qu’ils les déploient eux-mêmes, qu’il s’agisse de solutions sur étagère ou spécifiques au service public Si les agents s’approprient l’IA, les usages foisonneront et permettront d’identifier plus rapidement là où l’IA a de la valeur ».
En mettant l’accent sur la dimension « capacitante » de l’IA pour les agent.e.s, la Commission de l’IA dessine ainsi, en creux, une doctrine de transformation numérique qui se déploierait par le bas : « L’arrivée de l’IA pourrait être l’occasion de donner aux agents publics la capacité de transformer leur propre travail, plutôt que d’en subir la transformation d’en haut ».
Deux écueils : le « grand projet IA » et le « tout ChatGPT »
Elle met en garde, au passage, contre deux écueils à éviter : « D’une part le « grand projet IA », destiné à tout faire, tout remplacer, développé loin des agents, des usagers et de la réalité du service public. D’autre part le « tout ChatGPT », dans lequel un robot conversationnel universel commercial et étranger deviendrait la seule utilisation de l’IA dans le service public ».
Encore convient-il d’associer les citoyen.ne.s à cette transformation numérique par le bas : Les citoyen.ne.s eux-mêmes pourraient être amené.e.s à contribuer aux services publics à partir d’IA, « que ce soit pour définir leurs modalités de fonctionnement ou pour participer à leur construction Leur implication est cruciale pour éviter que la transformation des services publics par l’IA ne renforce la centralisation bureaucratique, inexplicable et distante ». La Commission mentionne les « assemblées d’alignement » réunies à Taiwan pour définir des règles de déploiement et de comportement des IA dans le service public.
Pour donner un accès large aux services d’IA générative et éviter les doubles investissements, la Commission recommande que soit renforcée la capacité de pilotage et d’exécution technique dans les services publics. « Au niveau interministériel, une réelle direction technologique devrait pouvoir apporter non seulement de la doctrine, mais aussi des infrastructures de qualité (hébergement, puissance de calcul, usine logicielle, identité numérique etc. ), de l’expertise, et du budget de transformation. A l’heure où l’État cherche à réinternaliser des compétences et à les faire circuler entre ministères, il faut qu’il renforce sa capacité à produire du numérique de qualité ».
Des solutions d’IA sur étagère ?
La Commission, au passage, pose les termes d’un débat sur le recours à des solutions d’IA sur étagère.
« Dès 2024, les services publics devront décider s’ils utilisent des solutions d’IA sur étagère, s’ils entrent dans des partenariats avec des entreprises, ou s’ils redéveloppent leurs propres outils. (...) Les solutions sur étagère auront l’avantage de la performance, de la simplicité, étant disponibles immédiatement, voire s’intégrant directement dans les outils des agents (suite bureautique, moteur de recherche) Mais elles présentent des risques, au premier rang desquels la fuite de données ». Certains ministères ont, par exemple, interdit l’utilisation des outils d’aide au développement informatique, qu’il s’agisse du Copilot de Github ou GPT-4.
« Les solutions sur étagères auront toutefois des limites, rappelle toutefois la Commission : « soit parce qu’elles ne s’insèrent pas dans des outils existants, soit parce qu’elles ne sont pas adaptées à certains usages sensibles. Il serait délicat de demander à ChatGPT de résumer une note à destination d’un ministre par exemple. Mais il serait absurde que chaque ministère et collectivité redéveloppe ou rachète une IA capable de résumer une note sans en faire fuiter les données ».
Référence :
L’intervention humaine comme garantie du respect des droits des usager.e.s (Défenseure des droits, 2024)
Dans un rapport publié le 13 novembre 2024, la Défenseure des droits, en charge de la défense des droits et libertés des usagers des services publics, étudie l’usage croissant des algorithmes ou systèmes d'IA dans les services publics français, et notamment dans l’administration centrale.
« Malgré un gain d’efficacité dans la prise de décisions », la Défenseure des droits met en garde contre « les atteintes aux droits fondamentaux des usagers ».
La Défenseure des droits examine, dans ce rapport, l’effectivité de deux garanties particulièrement importantes pour assurer le respect de ces droits : l’intervention humaine dans la prise de décision et la maîtrise des systèmes, et l’exigence de transparence à l’égard des usager.e.s.
Bien que les réclamations d'usager.e.s soient encore peu nombreuses, la Défenseure des droits identifie une problématique "systématique" de confiance entre les usager.e.s et l'administration. Elle rappelle, à ce titre, que la transparence de l'action publique doit être envisagée comme un « prérequis pour lutter contre d'éventuels erreurs, abus et discriminations (...) Or, les obligations d'information sont parfois peu ou mal respectées en raison de l'opacité des procédures réalisées par ou à l'aide d'algorithmes ».
Lorsqu’une décision administrative est dite « partiellement automatisée », un.e agent.e public doit effectuer une action positive, concrète et significative à partir ou à côté du résultat généré par l’algorithme, dans la prise de décision. La Défenseure des droits relève, notamment sur le fondement des réclamations qu’elle reçoit, que cette intervention se révèle parfois inexistante et parfois inconsistante ou biaisée, lorsque les personnes qui interviennent dans la prise de décision individuelle ont tendance à avaliser les résultats produits par le système sans les questionner.
Face à ces limites, et à leurs effets sur les droits des usager.e.s des services publics, la Défenseure des droits recommande d’édicter des critères et des modes opératoires obligatoires pour qualifier plus précisément la nature de l’intervention humaine requise.
Lire la suite :La Défenseure des droits appelle à la vigilance sur l’usage des algorithmes dans les services publics
Référence :