Le format « entretien » du Labo Société Numérique vise à donner la parole à une pluralité d’expertes et d’experts des enjeux du numérique, qui s’expriment toutes et tous en leur nom propre. Les analyses et opinions formulées n’engagent que les personnes interrogées et ne sauraient être interprétées comme une position officielle du Programme Société Numérique de l’ANCT. Cet entretien est réalisé par François Huguet, pour le compte du Labo Société Numérique, chercheur en humanités numériques (PhD Institut Polytechnique de Paris) dont les travaux consistent à enquêter, documenter et valoriser les mondes du numérique d'intérêt général.
Avant-propos
Hubert Guillaud est un journaliste et essayiste français, reconnu pour son travail d’analyse critique sur le numérique, ses usages sociaux et leurs implications politiques et culturelles. Voix de référence pour penser le numérique au-delà des discours technosolutionnistes, il anime aujourd’hui le média Dans les Algorithmes, qui s’inscrit dans la droite ligne du travail mené outre-Atlantique par l’AI Now Institute, Data & Society ou par Algorithm Watch en Europe… des acteurs qui enquêtent sur les effets concrets des algorithmes et rendent visibles les risques qu’ils présentent pour les droits fondamentaux.
Le numérique d'intérêt général : une rupture ?
François Huguet : Dans votre dernier livre, Les algorithmes contre la société, vous commencez par rappeler les « fausses promesses » de la révolution numérique. Vous montrez également combien nous sommes désormais cernés par des systèmes techniques imprégnés de logiques ultralibérales, qui rendent très difficile la construction d’alternatives politiques. Faut-il en conclure que le numérique d’intérêt général ne peut se penser qu’en rupture avec ce qu’est devenu le numérique ?
Hubert Guillaud : Le constat que je fais aujourd’hui est qu’il est extrêmement compliqué d’imaginer des ruptures fortes par rapport à l’ensemble des outils numériques professionnels, sociaux, économiques, politiques qui nous « scriptent » autant, qui nous contraignent si fortement. Le pouvoir est désormais un script, une séquence d’instructions, qui se déploie instantanément, qui s’instancie, comme c'est le cas dans les programmes informatiques. Les possibilités d’action de ces outils sont immenses, tout comme leurs modalités de calcul, mais elles ont tendance à nous imposer des manières de faire, à nous assigner des rôles et des usages précis, à limiter et circonscrire nos possibilités. Ils réduisent nos capacités d'action, notre agency. On est en d’autres termes très « contraints » par ces systèmes : contraints de fonctionner comme les modèles l'ont prévu, de penser comme ils nous l'imposent… voire de ne pas penser du tout.
Pour illustrer cela, je voudrais prendre l'exemple d’une réunion à laquelle je participais il y a peu et qui concernait un événement public à venir. J’ai constaté très vite que notre rôle en tant que partenaires à ce projet se réduisait à commenter collectivement plusieurs feuilles de calcul d’un tableur très complexe où figuraient toutes les caractéristiques du projet : temps, budgets, livrables, etc. Il s’agissait pour nous de valider des cellules, des dates, mais en aucun cas de discuter des enjeux profonds du projet, la raison pour laquelle on le mène, pourquoi on pense qu’il est important de le conduire, comment. Présenté sous cette forme - des lignes, des colonnes, des cellules - le projet semblait fluide : un succession de tâches à attribuer. Oubliant d'interroger le sens de l'événement, ses enjeux, délimitant par avance sa forme même, comme le fait que toutes les tables rondes allaient être occupées par les partenaires du projet qu'importe finalement si son propos prônait une toute autre conception, notamment son ouverture à la participation du public. Le format du tableur, l'organisation économique scriptée prenait toute la place, n'en laissant plus aucune au sens. Tous les processus métier sont aujourd’hui à l’image de cela, totalement encodés dans des pratiques imposées par des outils numériques de gestion, comme l'a décrit la sociologue Marie-Anne Dujarier en parlant d'un management désincarné par les outils produisant un rapport social sans relation.
Ces outils peuvent se révéler très utiles et sont souvent extrêmement puissants. Mais ils contraignent tellement les relations qu'ils empêchent de faire autrement et déroulent leurs méthodes sans échappatoire, à l'image des entonnoirs marketing du mailing automatisé qui sont autant utilisés pour l'adhésion à une association que pour vendre le pire produit qui soit. Pire, quelle que soit la fiabilité et l'efficacité de ces méthodes, opérées par des systèmes que tout le monde utilise, nous sommes coincés, cernés par ces pratiques, instanciées dans les outils sans modalités pour en sortir.
Penser un numérique d’intérêt général nécessite de trouver les modalités pour s'extraire de ces pratiques, interroger et trouver des moyens pour lever leurs limites, casser les scripts qu'ils embarquent et avec eux les idéologies qu'ils portent. Ce qui est possible car les modalités de calcul ne sont pas uniques.
Mais la standardisation de ces outils nous proposent pourtant des modalités de calculs uniques, à l'image des systèmes de calcul de score de risque de fraude des systèmes sociaux qui sont déployés partout à travers le monde selon les mêmes modalités, avec les mêmes défaillances et souvent par les mêmes grandes entreprises. L'enjeu, c'est de reprendre la main sur ces systèmes, de comprendre qui ils mécalculent et comment calculer autrement.
Référence :
La médiation numérique et les angles morts
François Huguet : Vous esquissez également, en creux mais avec précision, les caractéristiques économiques d’un numérique d’intérêt général. Vous rappelez par exemple que le numérique a souvent servi d’outil de rationalisation budgétaire : moins de personnels, davantage de prestations avec moins de moyens ; plus d’administrés pour moins d’espaces d’accueil du public, etc. Vous dénoncez aussi l’absence de véritables mécanismes de surveillance démocratique et scientifique dans le développement des applications d’intelligence artificielle : tout devient calculable, mais l’on oublie trop souvent d’observer, d’interroger et de contrôler ce qui est calculé — et la manière dont c’est calculé. Les actrices et acteurs de la médiation socio-numérique portent ce constat depuis de nombreuses années, est-ce là, selon vous, l’un des rôles de ce secteur ? Rendre visibles ces angles morts ?
Hubert Guillaud : L’un des grands problèmes des algorithmes c’est l’absence de contrôle démocratique de leurs développements. Parcoursup en est un très bon exemple : il n’y a pas de représentations des usagers dans son comité éthique et scientifique, pas d’élèves, pas de parents d’élèves, pas de professeurs, etc. Idem pour tout un tas d’autres outils qui sont pourtant des outils qui ont des impacts très forts sur la société, des algorithmes de classements des réseaux sociaux aux systèmes d'appariement des demandeurs d'emplois aux offres.
Pourtant, partout dans le monde, ceux qui révèlent les problèmes des systèmes algorithmiques, ce sont des citoyens : des scientifiques, des journalistes, des collectifs militants. Les usagers sont les premiers à savoir quand les systèmes les maltraitent.
En France, les révélations sur les limites des systèmes de scoring de la CAF ont été produites par des chercheurs, des journalistes et des militants… Le collectif Changer de Cap a pris conscience du problème en étant saisis par des allocataires qui faisaient état de radiations inexpliquées de leurs droits sociaux. Le collectif a enquêté pour comprendre la nature du problème. C'est le recueil de témoignages qui a mis le problème sur le devant de la scène. Et il n'y a rien d'étonnant à cela : les usagers sont toujours les meilleurs connaisseurs des problèmes auxquels ils sont confrontés. Ils restent les mieux à même de dire leurs difficultés. On n’entend que trop peu ces voix et les mondes de la médiation numérique sont ceux qui les entendent en premier.
C’est les médiatrices et médiateurs numériques qui récoltent le plus ces difficultés, ils sont toujours en première ligne. Et en ce sens, leur force d’impact devrait être très forte. Mais encore faut-il qu’elles et ils arrivent à trouver des interlocuteurs à qui faire remonter ces difficultés.
Il faut aussi prêter attention au fait que ces mondes-là nous rappellent constamment qu’il ne faut pas perdre plus d’accueil public, de relations humaines, de guichets. La chose est identique dans les entreprises : les coupes budgétaires dans la relation client font en sorte que la qualité du service que l’on propose s’amenuise. Il y a là-dedans quelque chose de très paradoxal : les utilisateurs doivent toujours s’interroger sur leurs capacités à savoir ou pas utiliser ces outils numériques, ces portails, ces interfaces. Tout repose sur leur responsabilité. C’est toujours l’usager qui est mis en défaut et il a très peu de possibilité de recours. On n’interroge jamais la responsabilité de celles et ceux qui conçoivent ces services. La « charge mentale » de la déprise numérique repose uniquement sur les usagers, jamais sur les concepteurs et sur les scripts qu’ils nous imposent… Les datascientists et les ingénieurs pensent pouvoir régler tous les problèmes du monde avec une confiance qui devrait profondément interroger notre société.
Dans une étude récente, les chercheurs Nel Escher, Jeffrey Bilik, Nikola Banovic et Ben Green ont demandé à des informaticiens de développer un logiciel fournissant des conseils automatisés sur l'éligibilité à une procédure de faillite. Les informaticiens ont accompli la tâche rapidement, l'un d'eux remarquant que c'était très simple à faire. Cependant, l'analyse des logiciels qu'ils ont développés a révélé de nombreuses erreurs et des interprétations juridiques erronées. Malgré ces défauts, les informaticiens étaient convaincus de l'utilité pratique de leurs outils. 79 % d'entre eux ont déclaré qu'ils accepteraient volontiers que leur outil remplace les juges au tribunal des faillites, alors que leurs outils étaient défaillants et problématiques.
Références :
Le numérique d'intérêt général et la techno-critique
François Huguet : La question morale traverse aussi votre livre de bout en bout. L’éthique de ceux qui conçoivent ces technologies y apparaît comme une clé de compréhension importante, elle a été explorée par Olivier Tesquet et Nastasia Hadjadji récemment dans le livre Apocalypse Nerds. Pour penser un numérique d’intérêt général, faut-il selon vous se rapporter à des penseurs technocritiques comme Jacques Ellul ou Ivan Illich ou bien y a-t-il d’autres pensées plus contemporaines qui irriguent vos propres réflexions ?
Hubert Guillaud : Illich et Ellul sont des références de fond. Ils nous parlent depuis leurs époques en nous adressant des questions qui restent très pertinentes. Mais je pense qu’il y a beaucoup d’intellectuelles et d’intellectuels qui nous permettent de mieux saisir les enjeux des technologies d'aujourd'hui. Je pense par exemple à Kate Crawford, à Melanie Mitchell, à Arvind Narayanan, à Virginia Eubanks, à Karen Levy, à Miriam Posner… au travail réalisé par Data & Society, Dair, Algorithm Watch ou l'AI Now Institute. Autant de références que j'évoque souvent dans Dans les algorithmes et qui nous aident à comprendre l'étau numérique qui se referme autour de nous.
Référence :
L'alternumérisme et le service public artificiel
François Huguet : Que recouvre précisément, l’expression de « service public artificiel » que vous utilisez à plusieurs reprises dans votre livre ?
Hubert Guillaud : L’expression provient de l’ouvrage du syndicat Solidaires Finances Publiques « l’IA aux impôts, réflexions et actions syndicales ». Derrière ce terme, les autrices et auteurs de l’ouvrage cherchent à désigner le remplacement des agentes et agents publics par des systèmes techniques informatisés. Ils expliquent qu'aux Impôts, ce sont les datascientists qui ont pris le pouvoir et qui dictent aux agents leur travail, ce qui n’est pas sans conséquence. Malgré la rationalisation budgétaire, il reste certes des agents mais leurs missions sont désormais fixées par des IA. Plutôt que l’enquête qualitative, la connaissance fine des publics, on utilise désormais des outils informatiques très puissants qui agrègent massivement les données des personnes imposées et qui, par exemple, contrôlent davantage les erreurs de déclarations que la fraude fiscale très élaborée, trop difficile à détecter et qui est pourtant bien plus significative en termes financiers… Le risque, prévient Solidaires, c’est de construire un « service public artificiel », ou la modernisation conduit à la perte de compétences et à la dégradation du service. Où l’administration est réduite à une machine statistique. Le risque, comme s’en prévenait le Conseil d’Etat, c’est que la capacité à détecter les erreurs soit anesthésiée dans les systèmes déployés dont bien peu maîtrisent les rouages. Le service public artificiel décrit un avenir probable, où le service public est remplacé par des machines, au prétexte d'économie et au détriment de la relation avec le public, au risque de ne plus remplir son rôle de rééquilibrage des inégalités et d'égalité du traitement des citoyens.
François Huguet : Peut-on encore croire à un alternumérisme ? Vous rappelez à juste titre les critiques formulées par Julia Laïne et Nicolas Alep dans leur livre Contre l'alternumérisme, figures de la technocritique radicale, tout en soulignant que réformer la technologie peut aussi constituer un rempart contre son déploiement total. Pouvez-vous expliciter cette forme de schizophrénie : réformer pour contenir, sans pour autant légitimer ?
Hubert Guillaud : Un autre numérique est-il encore possible ? Peut-être, mais nous n'en prenons pas vraiment le chemin, si ce n'est à la marge, certainement parce que le régulateur ne joue pas son rôle et parce que la logique austéritaire est en train de tout emporter sur son chemin. Le problème, c'est que cette idéologie façonne les outils, détermine les scripts et les modalités de calcul. C'est oublier qu'on peut toujours calculer autrement. Qu'on peut produire des outils pour surveiller la fraude aux cotisations sociales des employeurs plutôt que des outils pour surveiller les indus et trop versés aux administrés à l'euro près. On peut les mettre au service de recherches très pointues sur les phénomènes d’évasions fiscales très élaborés et moins se concentrer sur la grosse masse des personnes imposables. On peut aussi confier plus de moyens aux agents, faire confiance au terrain, à l’enquête. Faire à la main ça fonctionne très bien aussi. Les personnes qui signalent les dysfonctionnements algorithmiques : c’est les citoyens, les journalistes, les scientifiques. La plupart du temps ils n’ont pas des outils informatiques très poussés pour enquêter, c’est eux qui montent des dossiers, saisissent la justice pour que le concernement devienne public, n’oublions jamais leur pouvoir !
L’exemple récent du travail du sénateur Fabien Gay sur l’opacité de la politique d’aide aux entreprises est assez exemplaire : en dénonçant la multiplicité des dispositifs, la difficulté à en mesurer le coût réel, l’absence de suivi précis des bénéficiaires et des effets, il a montré qu’il y avait là une problématique majeure. Son travail n’a pas été mené par une IA, mais par des femmes et des hommes qui ont analysé des tas de documents et montré que les aides aux entreprises doivent devenir un outil politique conditionné, évalué et démocratiquement contrôlé, au service de l’emploi, de la justice sociale et de la transition écologique.
Références :
François Huguet : Vous concluez votre ouvrage en évoquant les principes du féminisme des données avancé par deux chercheuses américaines Catherine D’Ignazio et Lauren Klein. Comment, concrètement, cette ambition pourrait-elle se traduire dans la conception et la mise en œuvre d’un numérique d’intérêt général ?
Hubert Guillaud : En effet, le féminisme des données est l'une des propositions les plus intéressantes rencontrée ces dernières années. C’est d’ailleurs étonnant que leur livre ne soit pas encore traduit en français alors qu’il propose une autre vision de notre rapport aux données, un rapport qui est, je pense, profondément partagé par les mondes de la médiation numérique.
J’en retiens surtout une démonstration que l’on peut faire les choses de manière différente : on peut mobiliser les données, les algorithmes à d’autres fins, pas à l’unique fin du profit, mais pour donner du pouvoir aux communautés et aux individus concernés.
Pour mieux comprendre les effets de bord des outils informatiques que l’on utilise, il faut interroger les calculs qu’ils effectuent : pourquoi, comment, quels biais comportent-ils ? Le problème c’est la complexité des systèmes, des calculs, on a du mal à comprendre les effets de bords. On devrait interroger tous ces calculs. C’est ce que font d’ailleurs ici en France Camille Girard-Chanudet, Estelle Hary et Soizic Pénicaud de l’Observatoire des algorithmes publics et qui est un travail vraiment très important et d’intérêt public. Le principe du féminisme des données nous invite à nous défaire non seulement des scripts techniques qui s’imposent à nous mais aussi de cette atmosphère du calcul qui vise toujours à aller dans le même sens : réduire les coûts, surveiller, contrôler. Elles nous montrent que l’on peut et doit faire autrement, pour les usagers et avec les usagers.
Références :
Sources
Sur la notion de "script", nous renvoyons notamment à la description qu’en fait la sociologue Madeleine Akrich, soit l’ensemble des usages, rôles, comportements et relations sociales qu’un dispositif technique anticipe, prescrit ou rend plus probables. Voir 1. Madeleine Akrich “La description des objets techniques” in Madeleine Akrich, Michel Callon et Bruno Latour, Sociologie de la traduction. Presses des Mines, 2006.
3. Code-ifying the Law: How Disciplinary Divides Afflict the Development of Legal Software (Nel Escher, Jeffrey Bilik, Nikola Banovic, Ben Green [2024] Proceedings of the ACM on Human-Computer Interaction, Volume 8, Issue CSCW2, Article No 398, Pages 1 - 37.
4. Apocalypse Nerds (2025), Nastasia Hadjadji et Olivier Tesquet, éditions divergences
5. L'IA aux impôts : réflexions et actions syndicales (syndicat Solidaires Finances Publiques)
6. Transparence et évaluation des aides publiques aux entreprises : une attente démocratique, un gage d'efficacité économique. Rapport sénatorial n° 808 (2024-2025), tome I, déposé le 1er juillet 2025
7. Étude à la demande du Premier ministre (2022), Intelligence artificielle et action publique : construire la confiance, servir la performance. Étude du Conseil d'État (août 2022)
8. Data Feminism (2020) de Catherine D'Ignazio & Lauren F. Klein, The MIT Press,.
Voir les 7 principes qui dirigent l'action du féminisme des données : 9. Lecture synthétique du livre de Catherine D’Ignazio et Laurent Klein, Data Feminism, publié en 2020 au MIT Press