« Depuis soixante-dix ans, nos sociétés imaginent leur compagnonnage avec des « intelligences artificielles (…). Avant même que les technologies de l’IA n’aient la moindre existence concrète, philosophes, éthiciens et romanciers étaient déjà à l’ouvrage pour imaginer les règles destinées à les domestiquer », observent Bilel Benbouzid et Dominique Cardon, coordinateurs de ce nouveau numéro de la Revue Réseaux.Ce numéro de la Revue Réseaux explore un ensemble d’arènes dans lesquelles le développement des technologies de l’intelligence artificielle (IA) est soumis à un débat normatif. « Il cherche à expliquer l’inflation de réflexions et d’essais, de recommandations et de chartes, de craintes et de critiques, de règlements et de lois dont l’IA fait l’objet. »Les deux coordinateurs de ce numéro de Réseaux ont retenu le terme de « contrôle » dans son acception générale « parce qu’il permet de réunir des démarches visant aussi bien à interroger, critiquer ou contraindre le développement de l’IA ». Cette formulation permet d’ouvrir plusieurs types de questionnements : C’est dans ce contexte qu’il faut comprendre comment le contrôle de l’IA est devenu une préoccupation importante de l’espace public, « une spécialité éthique, philosophique et scientifique et même, plus récemment, un cadre juridique en cours d’élaboration ».Le premier interroge l’étroite association de l’IA à une réflexion de nature éthique. Ce lien a pris forme dans les réflexions conduites dans la période de l’après-guerre au sein du courant de la cybernétique, notamment à propos de la contribution des scientifiques à la fabrication de l’arme atomique.Un deuxième questionnement porte sur la relation entre les normes et les objets qu’elles souhaitent contrôler. Bien qu’elle soit souvent personnifiée sous un identifiant unique, l’IA, il est en réalité très difficile de définir les entités techniques qu’elle désigne. Ce flou est d’autant plus important que les entités techniques appelées IA ont considérablement changé selon les bifurcations des différents paradigmes de l’histoire scientifique du domaine. Cette transformation des objets de l’IA a des conséquences importantes sur la manière dont nous débattons de leur régulation.Une troisième ligne de questionnement tient à la difficile maîtrise politique du développement des technologies, un thème classique des études de la gouvernance des technologies émergentes.De très grandes variétés de documents sortiront de cette « vague de l’éthique de l’IA », avec une intention commune : « proposer des cadres d’actions lisibles pour les développeurs de solutions d’IA, à partir des principes de haut niveau comme la transparence, l’équité, la responsabilité ou la robustesse ». Au moins 84 lignes directrices éthiques ont ainsi été élaborées pour fournir ces principes de haut niveau comme base pour le développement éthique de l’IA. « Un ensemble diversifié de questions est désormais mis en avant : « les biais de l’apprentissage automatique, les risques de manipulation par les systèmes de recommandations, l’interprétabilité des classifications, etc. Autant de thèmes qui sont aujourd’hui traités par la recherche et qui suscitent de riches controverses scientifiques ».Deux thématiques traversent ce dossier : l’institutionnalisation du contrôle de l’IA, d’une part, les controverses, promesses et mobilisations, d’autre part.Institutionnalisation du contrôle de l’IA« Comment sont débattues les manières d’encadrer l’intelligence artificielle ? Quelles sont les normes qui s’imposent ? » Pour répondre à ces questions, une bonne partie des analyses se tournent actuellement vers l’Artificial Intelligence Act de l’Union européenne. « Comme dans d’autres domaines, la Commission européenne cherche, avec son projet de réglementation, à concilier l’extension d’un immense et extrêmement profitable marché avec la prévention de dommages sur les individus et la société ».En dressant une « cartographie des conflits de définition », Bilel Benbouzid, Yannick Meneceur et Nathalie Alisa Smuha montrent que l’Artificial Intelligence Act, en se concentrant sur les produits et en reposant sur le paradigme des risques, ne traite que d’un aspect limité de l’Intelligence Artificielle et de son contrôle. Ils-elle observent l’existence d’au moins quatre arènes normatives différenciées : « les réflexions spéculatives (notamment transhumanistes) sur les dangers d’une superintelligence et le problème de son alignement avec les valeurs humaines ; l’auto-responsabilisation des chercheurs développant une science régulatoire entièrement consacrée à la certification technique des machines ; la critique des effets néfastes des systèmes d’IA sur les droits fondamentaux ; enfin, la régulation européenne du marché par le contrôle de la sécurité du fait des produits et service de l’IA ». Les auteurs montrent « comment l’espace social de la régulation s’est structuré autour d’une tendance qui évolue d’un contrôle in abstracto vers un contrôle in concreto. Ainsi, d’une régulation principielle et abstraite, le régulateur européen s’est rendu progressivement à une régulation concrète, locale, produit par produit, secteur par secteur, en partie parce que les objets de l’IA sont des réalités produisant des effets tangibles comme les accidents et les discriminations ».A travers le cas des systèmes d’IA d’aide à la détection et au diagnostic en imagerie médicale, Léo Mignot et Émilien Schultz montrent comment le contrôle de l’IA dans ce secteur procède d’une régulation autonome, à la fois professionnelle et économique. « Ce ne sont ni les agences de santé, ni le droit ou des normes techniques qui encadrent pour l’instant la construction et l’usage des dispositifs, mais les normes professionnelles des radiologues. L’enquête révèle que les préoccupations des acteurs sont très éloignées de la manière dont le problème est posé dans le débat public ». Le problème du contrôle social apparaît alors comme celui de savoir qui contrôle quoi ? « En matière de radiologie, l’État reste assez peu impliqué dans la régulation, si bien que la responsabilité des acteurs en matière de diagnostics assistés par des systèmes d’IA reste, en l’état actuel, entre les mains des industriels et des réseaux professionnels ».Ljupcho Grozdanovski revient sur la question de la responsabilité en cas de dysfonctionnement d’une machine apprenante évoluant sans l’intervention directe de son concepteur et de son utilisateur. Cette question juridique, très ancienne en droit, rebondit avec le machine learning, les processus de prise de décision des machines contemporaines qui y recourent restant « sinon incompréhensibles pour l’entendement humain, du moins difficiles à retracer avec les méthodes disponibles ». « Peut-on assimiler les systèmes d’IA les plus avancés à des agents, ce qui impliquerait de leur reconnaître des droits et des devoirs ? Quels sont les critères à utiliser pour désigner un humain responsable dans le cas d’un dommage causé par un système d’IA ? ». « La mise en œuvre de la responsabilité en droit en matière de système d’IA est une des pistes de recherche les plus urgentes pour les juristes ».Controverses, promesses et mobilisationsAu-delà des formes institutionnelles de régulation de l’IA, ce numéro propose aussi d’examiner la manière dont son développement s’insère au sein d’un ensemble de controverses, de promesses et de mobilisations.Maxime Crépel et Dominique Cardon proposent une cartographie des controverses autour de l’IA dans la presse anglo-saxonne à partir de méthodes digitales déployées sur un corpus de 29 342 articles publiés entre 2015 et 2019. En utilisant une méthode d’apprentissage automatique, ils ont procédé à la détection des 7 % d’articles ayant une coloration critique afin d’identifier les principaux objets de controverses entourant une gamme très ouverte de systèmes techniques qualifiés d’IA par les journalistes. L’intérêt de cette analyse est de différencier deux ensembles d’objets, les robots et les algorithmes, qui sont associés à des types de discours de presse très différents : la prophétie et la critique. « Si la philosophie et la réflexion éthique nourrissent la critique de la vie artificielle des robots, les enjeux politiques du contrôle des algorithmes s’alignent eux beaucoup plus clairement sur d’autres formes de régulation relatives au travail, aux enjeux de discrimination ou aux questions de transparence et d’asymétrie d’information et de pouvoir ».Jonathan Roberge, Guillaume Dandurand, Kevin Morin et Marius Senneville reviennent sur l’aventure industrielle et politique de l’entreprise Element AI, qui visait à faire du Canada un des pôles dominants de l’intelligence artificielle mondiale. En documentant l’histoire d’ Element AI, ils font apparaître l’immense capacité de persuasion dont cette innovation technologique est porteuse. « Rien pourtant ne va fonctionner comme prévu. Les promesses entourant Element AI vont brutalement s’effondrer, défaisant un tissu de croyances, de financements et d’aménagements des règles publiques pour encourager cet écosystème ». Les auteurs montrent surtout que « même en trouvant les arrangements les plus facilitants pour encourager son développement industriel, la traduction de la prophétie de l’IA en services opérationnels est incertaine et parfois improbable ».Ke Huang, pour sa part, analyse les mobilisations des travailleurs d’une plateforme de livraison chinoise, Meituan. L’enquête ethnographique menée dans trois villes chinoises permet de faire apparaître les formes de résistance et les points de friction soulevés par les travailleurs pour demander des régulations spécifiques des plateformes. « Le contrôle de l’IA dans ce cas, ne se joue pas « sur la scène abstraite et universelle de l’éthique mais dans la négociation de règles spécifiques et professionnelles qui sont propres aux multiples domaines d’application dans lesquels l’IA est en train de s’insérer ».SommaireBilel Benbouzid et Dominique Cardon : Contrôler les IABilel Benbouzid, Yannick Meneceur, Nathalie Alisa Smuha : Quatre nuances de régulation de l’intelligence artificielle. Une cartographie des conflits de définitionLéo Mignot, Émilien Schultz : Les innovations d’intelligence artificielle en radiologie à l’épreuve des régulations du système de santéLjupcho Grozdanovski : L’agentivité algorithmique, fiction futuriste ou impératif de justice procédurale ? Réflexions sur l’avenir du régime de responsabilité du fait de produits défectueux dans l’Union européenneMaxime Crépel, Dominique Cardon : Robots vs algorithmes. Prophétie et critique dans la représentation médiatique des controverses de l’IAJonathan Roberge, Guillaume Dandurand, Kevin Morin, Marius Senneville : Les narvals et les licornes se cachent-ils pour mourir ? De la cybernétique, de la gouvernance et d’Element AIKe Huang : Implications éthiques du système algorithmique et pratiques des travailleurs des plateformes de livraison de repas. Le cas de Meituan