Le dernier numéro thématique de la revue Tic & société porte sur l’analyse du phénomène des données massives en tant que dispositif algorithmique de collecte et d’accumulation de celles-ci, permettant leur traitement par des mécanismes d’intelligence artificielle. Plus spécifiquement, ce numéro entend interroger les conséquences de ces dispositifs d’automatisation de la production, de la circulation et de la consommation des données sur les modalités de reproduction de la société
Maxime Ouellet, coordinateur de ce numéro, s’attache à « poser les bases conceptuelles de l’élaboration d’une théorie critique de la gouvernance algorithmique en montrant comment les développements contemporains de l’intelligence artificielle participent à une disqualification de la lettre au profit du nombre, c’est-à-dire à la substitution de la langue par le code (informatique). Sur le plan sociopolitique, cette mutation conduit à la mise en place d’une nouvelle forme de régulation de la pratique sociale, la gouvernance algorithmique, qui repose sur un processus d’automatisation de la production de connaissances ».
Baptiste Rappin remonte aux sources épistémologiques de cette mutation, qui a été qualifiée de « gouvernementalité algorithmique » ou encore de « société automatique ».« Dans un monde univoque gouverné par la logique du calcul algorithmique, dans lequel la déduction se substitue à la symbolisation, les individus sont sommés de s’adapter en temps réel aux conditions de leur milieu, ils sont contraints d’interagir directement avec autrui, sur le mode de l’ajustement mutuel, évoluant ainsi dans un plan horizontal d’immanence au sein duquel logique algorithmique et logique contractuelle se renforcent l’une l’autre ».
Samuel Cossette montre comment ce processus d’automatisation du langage affecte les modalités générales de reproduction sociétale. L’analyse porte plus spécifiquement sur les récents développements dans le domaine de l’argumentation mining, un champ de recherche à la rencontre du Big Data et de la linguistique computationnelle. « Si l’argumentation mining participe d’une logique post-politique propre à la gouvernementalité algorithmique, il n’en demeure pas moins que le langage humain dépasse encore aujourd’hui grandement ce qu’il est possible de traiter de façon informatique. L’auteur conclut en ce sens que c’est dans la dimension symbolique et affective particulière au langage humain qu’on peut trouver les ressources pour résister à la raison algorithmique».
David Myles et Martin Blais ont entrepris d’analyser des guides-conseils développés autour de l’application de rencontres amoureuses Tinder. Les auteurs montrent que ces guides invoquent généralement l’opacité des algorithmes de Tinder pour inciter leurs utilisateurs à «hacker» l’application. «La notion de « hack » ne renvoie pas ici à la capacité des utilisateurs à manipuler le système informatique, mais plutôt à « l’importance pour les usagers de moduler leurs comportements afin de les rendre plus algorithmiquement intelligibles, et ce, notamment en fonction de leur genre ». Les algorithmes de Tinder, concluent les auteurs, participent à la reproduction d’une économie spéculative des rencontres amoureuses».
Arnaud Claes et ses coauteurs approfondissent la critique de l’hyperpersonnalisation des contenus médiatiques en l’opérationnalisant dans deux cas d’étude, l’un portant sur l’appropriation des systèmes de recommandation par les jeunes dans le cadre de leur consommation médiatique, l’autre portant sur la modélisation de dispositifs algorithmiques alternatifs qui permettraient d’accroître la diversité des contenus: « le phénomène des bulles de filtre constitue une forme d’aliénation dans le sens où la définit Simondon, c’est-à-dire comme une absence de culture technique. Pour contrer ce phénomène, ils plaident en faveur d’une « acculturation technique » qui permettrait de s’émanciper de cette aliénation induite par les algorithmes».
Frédérick Bruneault et Andréane Sabourin Laflamme passent en revue les principales théories éthiques qui cherchent à encadrer d’un point de vue normatif les développements contemporains de l’intelligence artificielle. Ils pointent une polarisation entre deux positions, substantialiste et déflationniste. « Si la position substantialiste repose sur une conception déterministe selon laquelle la technique se développerait de manière autonome, engendrant ainsi la crainte d’une potentielle destruction de l’humanité, la perspective déflationniste repose quant à elle sur une vision instrumentale qui tire son fondement philosophique de la tradition libérale pour qui l’individu est un acteur rationnel (...) Ces perspectives reposant sur des conceptions acritiques de la technique qui ignorent les rapports de pouvoir impliqués dans le développement du numérique et de la gouvernance algorithmique», les auteurs privilégient une troisième perspective, informationaliste, développée par le philosophe Luciano Floridi.
Sommaire- Maxime Ouellet : Logique algorithmique et reproduction sociétale: les médiations sociales saisies par les algorithmes
- Maxime Ouellet : Pour une théorie critique de la gouvernance algorithmique et de l’intelligence artificielle
- Baptiste Rappin : D’univocité en rétroaction : la critique de la cybernétique dans la pensée de Heidegger
- Samuel Cossette : Langage, post-politique et automatisation : critique préventive de l’argumentation artificielle [Texte intégral]
- David Myles et Martin Blais : Dix petits hacks Tinder : les algorithmes au service d’une économie spéculative des rencontres amoureuses et sexuelles
- Arnaud Claes, Victor Wiard, Heidi Mercenier, Thibault Philippette, Marie Dufrasne, Arnaud Browet et Raphaël Jungers : Algorithmes de recommandation et culture technique : penser le dialogue entre éducation et design
- Frédérick Bruneault et Andréane Sabourin Laflamme : Éthique de l’intelligence artificielle et ubiquité sociale des technologies de l’information et de la communication : comment penser les enjeux éthiques de l’IA dans nos sociétés de l’information ?
Référence :