Les applications des algorithmes dans le secteur public sont nombreuses et variées, tant en termes de secteur d’activité (éducation, ressources humaines, fiscalité, santé, emploi, sécurité publique etc.), d’objet du traitement (calculer des droits, prédire un risque, réaliser un appariement, cibler etc.) que de modalités d’intervention : ces algorithmes servent à documenter et orienter les décisions publiques, et de plus en plus fréquemment a les « automatiser ».
Les algorithmes du secteur public présentent des spécificités propres par rapport à ceux développés et utilisés par le secteur privé : ils sont censés opérer au service de l’intérêt général, ils servent parfois à exécuter le droit et sont souvent incontournables.
Leur utilisation soulève ainsi d’importantes questions en termes de responsabilité, de compréhension et d’égalité de l’action publique.
La loi pour une République numérique, en 2016, a introduit dans le code des relations entre le public et l’administration des exigences de transparence à la charge des administrations qui ont recours à des traitements algorithmiques pour fonder leurs décisions(article 312-1-3). Plus précisément, l’administration ne peut prendre des décisions administratives individuelles sur le fondement exclusif d’un algorithme que sous certaines conditions. Dans le cadre de la prise de ces décisions, les administrés bénéficieront d’une information renforcée et pourront exercer un recours contre celle-ci.
Dans une circulaire, le Premier ministre rappelait, en avril 2021, que les administrations « devront rechercher en permanence la meilleure circulation de la donnée, des algorithmes et des codes, dans des formats ouverts et exploitables par les tiers ».
En 2021, la France a renforcé cet engagement en prévoyant la rédaction de monographies d’algorithmes publics et l’accompagnement de deux ministères et de deux collectivités dans leurs démarches d’inventaire des algorithmes publics dans le cadre du Partenariat pour un Gouvernement Ouvert.
« L’usage d’algorithmes par les administrations publiques reste encore opaque », observent Camille Girard-Chanudet, sociologue, chercheuse postdoctorale au Centre d’Études de l’Emploi et du Travail (CNAM), Estelle Hary, designer et chercheuse indépendante et Soizic Pénicaud, consultante et chercheuse indépendante sur les effets de l’intelligence artificielle sur les droits humains.
« Dans les cas, rares, où ces outils font l’objet de communications, les informations diffusées demeurent souvent incomplètes ou difficiles d’accès. Seules quelques administrations ont publié des inventaires des algorithmes qu’elles utilisent, par ailleurs partiels pour la plupart... Ce manque de transparence nuit au contrôle démocratique de l’activité des administrations publiques. Il prive les citoyen·nes d’une vision globale de l’utilisation d’outils algorithmiques dans les services publics : dans quelles administrations des algorithmes sont-ils utilisés ? Avec quels objectifs ? Suivant quelles méthodes ? Dans quels contextes organisationnels ? Sont-ils développés par des prestataires privés ? Combien coûtent-ils ? Quels effets ont-ils sur les publics (personnes, entreprises) qu’ils visent ? Sans information claire, il est impossible de comprendre, analyser, et, le cas échéant, critiquer l’usage que les administrations font de ces outils algorithmiques ».
Ce constat fait écho à celui du Conseil d'état dans le rapport qu'il a consacré en 2022 à l'intelligence artificielle. Il observe que l'obligation pour les administrations qui emploient au moins 50 agents ou salariés (en ETP) de publier spontanément en ligne les règles définissant les « principaux traitements algorithmiques » qu’elles utilisent, lorsqu’ils fondent des décisions individuelles « n’est assortie d’aucune sanction et son effectivité est douteuse en pratique ».
Une obligation de transparence restée « lettre morte »
Recenser les algorithmes utilisés par les administrations, en centralisant l’information pour qu’elle soit utile aux associations et collectifs citoyens, professionnels, militants ou de recherche.
Montrer que les algorithmes ne sont ni neutres ni autonomes, en mettant en évidence l’importance des choix et des contextes qui influencent leur fonctionnement.
Dans sa première version (novembre 2024), l’inventaire prend en compte :
Tous types de systèmes algorithmiques, qu’ils reposent sur l’apprentissage automatique (machine learning, deep learning), des systèmes de règles (exemple : des fichiers de calcul), ou d’autres technologies, et qu’ils participent ou non à une prise de décision.
Les algorithmes développés ou utilisés par les administrations centrales et agences d’État, à l’exclusion, pour le moment, des collectivités territoriales et de la fonction publique hospitalière.
Les algorithmes qui sont documentés de manière publique : soit dans des documents des administrations elles-mêmes, soit par des tiers.
Dans le rapport qu'elle consacre, en novembre 2024, aux algorithmes et systèmes d’IA dans les services publics, la Défenseure des droits salue la mise en place d’observatoires citoyens locaux et nationaux, parmi lesquels le projet d’observatoire des algorithmes publics (ODAP), « qui ne doit cependant pas occulter la responsabilité des administrations concernées à cet égard ».
L'observatoire des algorithmes publics : vers plus de transparence de l'action publique ?
Les algorithmes publics
Les applications des algorithmes dans le secteur public sont nombreuses et variées, tant en termes de secteur d’activité (éducation, ressources humaines, fiscalité, santé, emploi, sécurité publique etc.), d’objet du traitement (calculer des droits, prédire un risque, réaliser un appariement, cibler etc.) que de modalités d’intervention : ces algorithmes servent à documenter et orienter les décisions publiques, et de plus en plus fréquemment a les « automatiser ».
Les algorithmes du secteur public présentent des spécificités propres par rapport à ceux développés et utilisés par le secteur privé : ils sont censés opérer au service de l’intérêt général, ils servent parfois à exécuter le droit et sont souvent incontournables.
Leur utilisation soulève ainsi d’importantes questions en termes de responsabilité, de compréhension et d’égalité de l’action publique.
La loi pour une République numérique, en 2016, a introduit dans le code des relations entre le public et l’administration des exigences de transparence à la charge des administrations qui ont recours à des traitements algorithmiques pour fonder leurs décisions(article 312-1-3). Plus précisément, l’administration ne peut prendre des décisions administratives individuelles sur le fondement exclusif d’un algorithme que sous certaines conditions. Dans le cadre de la prise de ces décisions, les administrés bénéficieront d’une information renforcée et pourront exercer un recours contre celle-ci.
Dans une circulaire, le Premier ministre rappelait, en avril 2021, que les administrations « devront rechercher en permanence la meilleure circulation de la donnée, des algorithmes et des codes, dans des formats ouverts et exploitables par les tiers ».
En 2021, la France a renforcé cet engagement en prévoyant la rédaction de monographies d’algorithmes publics et l’accompagnement de deux ministères et de deux collectivités dans leurs démarches d’inventaire des algorithmes publics dans le cadre du Partenariat pour un Gouvernement Ouvert.
« L’usage d’algorithmes par les administrations publiques reste encore opaque », observent Camille Girard-Chanudet, sociologue, chercheuse postdoctorale au Centre d’Études de l’Emploi et du Travail (CNAM), Estelle Hary, designer et chercheuse indépendante et Soizic Pénicaud, consultante et chercheuse indépendante sur les effets de l’intelligence artificielle sur les droits humains.
« Dans les cas, rares, où ces outils font l’objet de communications, les informations diffusées demeurent souvent incomplètes ou difficiles d’accès. Seules quelques administrations ont publié des inventaires des algorithmes qu’elles utilisent, par ailleurs partiels pour la plupart... Ce manque de transparence nuit au contrôle démocratique de l’activité des administrations publiques. Il prive les citoyen·nes d’une vision globale de l’utilisation d’outils algorithmiques dans les services publics : dans quelles administrations des algorithmes sont-ils utilisés ? Avec quels objectifs ? Suivant quelles méthodes ? Dans quels contextes organisationnels ? Sont-ils développés par des prestataires privés ? Combien coûtent-ils ? Quels effets ont-ils sur les publics (personnes, entreprises) qu’ils visent ? Sans information claire, il est impossible de comprendre, analyser, et, le cas échéant, critiquer l’usage que les administrations font de ces outils algorithmiques ».
Ce constat fait écho à celui du Conseil d'état dans le rapport qu'il a consacré en 2022 à l'intelligence artificielle. Il observe que l'obligation pour les administrations qui emploient au moins 50 agents ou salariés (en ETP) de publier spontanément en ligne les règles définissant les « principaux traitements algorithmiques » qu’elles utilisent, lorsqu’ils fondent des décisions individuelles « n’est assortie d’aucune sanction et son effectivité est douteuse en pratique ».
Une obligation de transparence restée « lettre morte »
Recenser les algorithmes utilisés par les administrations, en centralisant l’information pour qu’elle soit utile aux associations et collectifs citoyens, professionnels, militants ou de recherche.
Montrer que les algorithmes ne sont ni neutres ni autonomes, en mettant en évidence l’importance des choix et des contextes qui influencent leur fonctionnement.
Dans sa première version (novembre 2024), l’inventaire prend en compte :
Tous types de systèmes algorithmiques, qu’ils reposent sur l’apprentissage automatique (machine learning, deep learning), des systèmes de règles (exemple : des fichiers de calcul), ou d’autres technologies, et qu’ils participent ou non à une prise de décision.
Les algorithmes développés ou utilisés par les administrations centrales et agences d’État, à l’exclusion, pour le moment, des collectivités territoriales et de la fonction publique hospitalière.
Les algorithmes qui sont documentés de manière publique : soit dans des documents des administrations elles-mêmes, soit par des tiers.
Dans le rapport qu'elle consacre, en novembre 2024, aux algorithmes et systèmes d’IA dans les services publics, la Défenseure des droits salue la mise en place d’observatoires citoyens locaux et nationaux, parmi lesquels le projet d’observatoire des algorithmes publics (ODAP), « qui ne doit cependant pas occulter la responsabilité des administrations concernées à cet égard ».