Lecture en cours
Faire consentir à un avenir probable ou l’instrumentalisation algorithmique

Faire consentir à un avenir probable ou l’instrumentalisation algorithmiqueTemps de lecture : 8 minutes

Le fétichisme de la quantification ininterrompue du monde et la puissance divinatoire que ses rentiers nous louent reposent sur un empirisme naïf, non-dénué de présupposés théoriques, et pour le moins, technocratiques. Dans cet extrait, Cédric Durand montre ainsi que cette posture épistémologique relève d’une stratégie économique qui vise à enregistrer, surveiller et orienter les comportements. Il s’agit pour les firmes du capitalisme de plateformes de maximiser leurs profits par l’optimisation du degré de certitude des probabilités qu’elles produisent et instrumentalisent, en extrayant toujours plus de données sur la vie des individus, incités à se soumettre en retour au modèle prédictif qui leur est proposé.

Cet extrait est tiré du chapitre 2 de l’ouvrage de Cédric Durand, Technoféodalisme. Critique de l’économie numérique, © Editions La Découverte, Paris, 2020. Silo remercie l’éditeur et l’auteur de nous avoir autorisés à le reproduire ici.

Gouvernementalité algorithmique et capitalisme de la surveillance

Trois éléments principaux caractérisent les Big Data : le fait d’être générées en continu, de viser simultanément à l’exhaustivité et à la granularité, et d’être produites de façon flexible afin de pouvoir toujours s’annexer des sources de données supplémentaires[1]. Autrement dit, les Big Data agrègent des informations relevant de différents domaines, non nécessairement liés les uns aux autres au préalable. Ces données hétérogènes sont traitées de manière agnostique : on fait apparaître des relations sans chercher à les expliquer. Ces propriétés des Big Data nourrissent une épistémologie empiriste naïve, l’idée étant que ce nouveau régime de connaissance procéderait par pure induction automatique – les données livreraient la vérité sans passer par le détour de la théorie. Or il n’en est rien[2]. Les données, aussi massives soient-elles, relèvent du domaine de la représentation, elles expriment un point de vue nécessairement partiel et ne font sens qu’en lien avec une connaissance préalablement constituée. Elles ne sont pas innocentes. Elles contiennent de la théorie, cristallisée dans les algorithmes qui les organisent, sachant que la recherche de régularité qui les gouverne présuppose la construction d’hypothèses.

Les Big Data sont aussi lestées de biais sociaux et de rapports de domination. Les programmes d’intelligence artificielle ne se contentent pas de refléter les inégalités raciales ou de genre incrustées dans les institutions et les rapports de pouvoir, ils peuvent contribuer à les amplifier[3]. Les préjugés qu’ils comportent sont en effet intégrés à leur tour dans d’autres résultats algorithmiques. Il est ainsi apparu que Word Embedding, un programme d’analyse linguistique, classifiait les noms à connotations européennes-américaines comme étant agréables, et les noms africains-américains, désagréables. Autre exemple : les bases de données qui entraînent les algorithmes des véhicules autonomes à reconnaître les piétons étant surtout constituées de personnes à peau claire, les machines détectent systématiquement moins bien les piétons à peau sombre, qui encourent donc un risque accru de collision. On appelle « injustice prédictive » les implications négatives de ces biais dans la vie quotidienne[4].

Les Big Data ne sont pas neutres. Mais, même si les biais et les préjugés qu’elles colportent pouvaient être corrigés, les inquiétudes ne seraient pas pour autant levées. Antoinette Rouvroy et Thomas Berns proposent le concept de « gouvernementalité algorithmique » pour désigner « un certain type de rationalité (a) normative ou (b) politique reposant sur la récolte, l’agrégation et l’analyse automatisée de données en quantité massive de manière à modéliser, anticiper et affecter par avance les comportements possibles »[5]. Cette forme de gouvernementalité contourne les sujets humains et les prive de réflexivité. Il s’agit, résument-ils, de « produire du passage à l’acte sans formation ni formulation de désir »[6]. Les individus sont absolutisés, pris dans la complexité de leurs multiples déterminations, mais aussi désarticulés, réduits à des suites de mesures qui les enferment dans des possibles probabilisables. À l’image d’Alphaville, la cité futuriste imaginée par Jean-Luc Godard, la société gouvernée par les algorithmes se met à ressembler à « une société technique comme celle des termites ou des fourmis » où « les gens sont devenus esclaves des probabilités »[7].

La tentative de réduire les existences aux probabilités porte en elle le risque de dessaisir les individus et les communautés de la maîtrise de leurs devenirs. Privées de leur capacité à défier les probabilités, c’est-à-dire à mettre en crise le réel, les subjectivités perdent toute leur puissance. Ce risque de déréalisation n’a rien d’une fatalité, mais il ne cesse de croître sous les effets de l’instrumentalisation de la gouvernementalité algorithmique dans les stratégies de profit des firmes du numérique.

 

Big Other veille sur un monde d’où l’on ne s’échappe pas

La mobilisation des Big Data par les firmes relève d’un projet social que Shoshana Zuboff nomme le « capitalisme de la surveillance »[8]. La stratégie de profit sur laquelle ce système repose consiste à prévoir et à modifier le comportement humain en vue de générer des revenus et de contrôler les marchés. Le capitalisme de la surveillance exige par conséquent une connaissance unilatérale et exhaustive de l’expérience humaine, qu’il transforme en données comportementales génératrices de prédiction. Informées par les Big Data, la suggestion et la prescription augmentent la prédictibilité des comportements à des fins de ciblage marchand. Mais le capitalisme de la surveillance ne s’arrête pas là. L’horizon de la quête d’une prévision toujours plus précise, indique Zuboff, c’est le pilotage du comportement.

Ce Big Other (« Grand Autre ») qui absorbe toutes les données que nous lui concédons en vient à nous connaître mieux que nous-même. Il explore tout, depuis les détails de notre correspondance jusqu’aux mouvements dans notre chambre à coucher en passant par l’inventaire de nos consommations. Par le biais d’expérimentations massives en ligne, il apprend à guider nos actions et finit par incarner un nouveau genre de totalitarisme. Là où le totalitarisme du XXe siècle opérait par la violence, ce nouveau pouvoir, qualifié par Zuboff d’« instrumentariste », opère par la modification du comportement.

Hayek et Keynes, bien qu’opposés sur presque tous les sujets, partageaient la conviction que l’économie était au fond un problème d’information et de connaissance. Cela conduisit Keynes à mettre l’accent sur l’incertitude radicale, et les implications de celle-ci dans la psychologie des acteurs économiques. Selon lui, la politique économique doit prendre en compte cette dimension psychologique du comportement économique et être à même, par une intervention vigoureuse, de contrecarrer les spirales dépressives par lesquelles un sentiment négatif se mue en anticipations autoréalisatrices. À l’inverse, pour Hayek, le caractère intrinsèquement dispersé de la connaissance est incompatible avec l’intervention publique. Seul le marché permet de mobiliser des connaissances qui sont par essence inaccessibles, du fait de leur caractère tacite et situé. En conséquence, toute perturbation de la dynamique concurrentielle ne peut que détériorer la qualité du processus cognitif à l’échelle de la société et, de ce fait, conduire à de mauvaises décisions économiques[9].

Le propre de la nouvelle logique d’accumulation est d’opérer un renversement par rapport aux préoccupations de Hayek et de Keynes. Ce qui est central, ce n’est plus l’incertitude ou l’inconnaissable mais, au contraire, le prédictible. Zuboff voit dans les stratégies des capitalistes de la surveillance une « course à l’augmentation des degrés de certitude » où ceux-ci n’ont d’autre choix que de resserrer leur emprise sur l’activité sociale. Chacun à sa manière, Amazon, Google et Facebook renforcent ce lien primordial entre extension de la surveillance et valorisation […]

 

Facebook et l’intégration logicielle extensive

Ce principe de mise en contexte n’a cessé de s’affiner. Il tend à intégrer toutes les traces numériques laissées par chacun dans ses activités, dont les données relatives à son réseau social, ses déplacements, ses historiques d’achats, ainsi que ses informations personnelles – voire intimes –, administratives, financières, professionnelles. Il a été démontré que Facebook recevait directement, et sans que les utilisateurs n’en soient avertis, les données de certaines applications mobiles. C’est le cas notamment d’un programme de méditation appelée Breethe, et d’un autre appelé Instant Heart Rate , vanté comme « le premier, le plus rapide et le plus précis des cardiofréquencemètres portatifs », ou encore de l’application Flo. Cette dernière propose d’« enregistrer plus de 30 symptômes et activités afin de générer, à partir de l’intelligence artificielle, les prédictions les plus précises concernant le cycle menstruel et l’ovulation » et promet de mieux « connaître son corps en détectant des motifs physiques et émotionnels récurrents ». Dans chacun de ces cas, des informations, que ce soit sur les méditations, le rythme cardiaque ou la date d’ovulation, sont transmises à Facebook.

Les données collectées proviennent de petits programmes intégrés aux applications ou aux sites Web appelés Software Development Kits (SDK). Ils permettent de les enrichir par des fonctionnalités avancées : ils transmettent à une plateforme d’analyse des données telles que le nombre et la durée des sessions, la localisation, le type de terminal utilisé, mais aussi des informations entrées par les utilisateurs dans l’application, ce qui permet aux entreprises de mieux connaître le comportement des usagers et de mieux cibler la publicité qui leur est destinée.

Facebook Analytics propose ainsi des « analyses centrées sur les personnes pour un monde omni-canal »[10]. Il promet aux entrepreneurs une « compréhension approfondie des lieux et comportements des personnes interagissant avec leur entreprise à travers leur site Web, leurs applications, leur page Facebook et bien plus encore » grâce à « des statistiques recueillies auprès de la communauté de 2 milliards de personnes ». Conformément à la thèse de l’unscaling[11], qui pointe la possibilité d’associer échelle d’opération réduite et puissance des Big Data, cette firme géante propose des services informatiques sophistiqués, impossibles à mettre en œuvre pour une entreprise de taille moyenne.

Par le canal des SDK, le réseau social accède à des sources additionnelles de données personnelles qu’il met en relation avec les données utilisateurs qu’il possède déjà, densifiant ainsi son savoir sur les existences individuelles. Cela lui permet de faire des études de marché sophistiquées, d’alimenter le processus algorithmique afin de sélectionner finement le contenu à afficher sur le profil des utilisateurs et, bien sûr, de vendre des publicités de plus en plus ciblées. Selon le Wall Street Journal, qui a mené une enquête sur ces SDK, ces données d’applications mobiles sont cruciales pour les profits de Facebook :

En raison des connaissances accumulées par Facebook sur le comportement des utilisateurs, l’entreprise peut offrir aux spécialistes du marketing un meilleur retour sur investissement que la plupart des autres firmes. Par exemple, lorsque ceux-ci veulent cibler des utilisateurs amateurs d’exercice physique ou bien des personnes qui sont à la recherche d’une nouvelle voiture de sport, ces publicités ont un prix par clic plus élevé. C’est la raison pour laquelle les revenus de Facebook sont en hausse[12].

Dans cette course à la ressource permettant d’extraire l’information pertinente, les géants du Web veillent jalousement sur les données qu’ils collectent eux-mêmes ou s’approprient chez leurs partenaires. Mais ils ont aussi recours, pour les compléter, à des courtiers spécialisés dans la compilation de fichiers :

Oracle possède ou travaille avec plus de 80 courtiers qui canalisent un océan de données […], notamment le comportement d’achat des consommateurs en magasin, les transactions financières, les comportements sur les médias sociaux et les informations démographiques. La société prétend vendre des données sur plus de 300 millions de personnes dans le monde, avec 30 000 attributs de données par individu, et mettre « plus de 80 % de la population Internet américaine à portée de votre doigt »[13].

Avec 30 000 attributs par individu et des dispositifs de traçage multiples et enchevêtrés, on en sait beaucoup sur chacun. Cet avantage informationnel tiré de l’exploration systématique des données constitue ce que Zuboff appelle un « surplus comportemental », une connaissance holistique qui offre une position surplomblante à l’organisation qui la contrôle, et lui permet de ne la mobiliser que par rapport aux objectifs qu’elle se donne. Ainsi, l’information pertinente pour l’utilisateur ne sera divulguée que si elle converge avec l’impératif de valorisation.

La nouveauté et la force de l’argument de Zuboff, c’est de montrer où nous mène cette dynamique : l’horizon du capitalisme de la surveillance n’est pas d’accroître la prédictibilité des comportements, mais bel et bien de les piloter […]

[1] Rob Kitchin, « Big Data, new epistemologies and paradigm shifts », Big Data & Society, 2014, vol. 1, no 1.

[2] Ibid., p. 4-5 ; Jean-Christophe Plantin et Federica Russo, « D’abord les données, ensuite la méthode ? Big Data et déterminisme en sciences sociales », Socio. La nouvelle revue des sciences sociales, 2016, no 6, p. 97-115.

[3] Safiya Umoja Noble, Algorithms of Oppression. How Search Engines Reinforce Racism, New York University Press, New York, 2018 ; James Zou et Londa Schiebinger, « AI can be sexist and racist – it’s time to make it fair », nature.com, 18 juillet 2018.

[4] Benjamin Wilson, Judy Hoffman et Jamie Morgenstern, « Predictive inequity in object detection », arXiv preprint, 2019.

[5] Antoinette Rouvroy et Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux, 2013, vol. 177, no 1, p. 173.

[6] Ibid., p. 177.

[7] Jean-Luc Godard, Alphaville, 1965.

[8] Shoshana Zuboff, « Big Other : surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 2015, vol. 30, no 1, p. 75 ; Shoshana Zuboff, The Age of Surveillance Capitalism. The Fight for the Future at the New Frontier of Power, PublicAffairs Books, New York, 2019.

[9] Philip Mirowski et Edward M. Nik-Khah, The Knowledge We Have Lost in Information. The History of Information in Modern Economics, Oxford University Press, New York, 2017.

[10] Facebook, « Facebook Analytics : drive growth to Web, mobile & more », février 2019, en ligne.

[11] Hemant Taneja, Unscaled. How IA and New Generation of Upstarts Are Creating the Economy of the Future, PublicAffairs Books, New York, 2018.

[12] Sam Scheschner et Mark Secada, « You give apps sensitive personal information. Then they tell Facebook », Wall Street Journal, 22 février 2019.

[13] Madhumita Murgia et Aliya Ram, « Data brokers : regulators try to rein in the “privacy deathstars” », Financial Times, 8 janvier 2019.

Pour citer cet article

Cédric Durand, « Faire consentir à un avenir probable ou l’instrumentalisation algorithmique », Silomag 15, juillet 2022. URL : https://silogora.org/faire-consentir-a-un-avenir-probable-ou-linstrumentalisation-algorithmique/

Réagir

Si vous souhaitez réagir à cet article, le critiquer, le compléter, l’illustrer ou encore y ajouter des notes de lecture, vous pouvez proposer une contribution au comité de rédaction. Pour cela, vous pouvez envoyer votre texte à cette adresse : contact@silogora.org

AGORA DES PENSÉES CRITIQUES
Une collaboration

Mentions légales Crédits