Lecture en cours
La captation algorithmique des consommateurs: du problème de la crédulité à celui de la vigilance épistémique

La captation algorithmique des consommateurs: du problème de la crédulité à celui de la vigilance épistémiqueTemps de lecture : 9 minutes

Cela fait bien longtemps que les marchands cherchent à comprendre les états mentaux des consommateurs afin d’orienter leurs décisions d’achat. Avec le développement des innovations numériques actuelles, ce travail de captation d’informations est institué par le biais de nouveaux dispositifs sociotechniques. Ces dispositifs participent alors à instaurer une forme de gouvernance algorithmique des marchés qui posent des problèmes cognitifs et sociaux, nécessitant d’être mieux décrits et compris. C’est ce à quoi s’attelle Jean-Sébastien Vayre dans cet article, en discutant du poids des algorithmes dans la fabrication des consommateurs.

La captation de l’attention des consommateurs est depuis longtemps au cœur des systèmes d’information marchands. Avant même que la vente se professionnalise pour devenir une science destinée à rationaliser la pratique des acteurs économiques[1], les marchands travaillent à exploiter leur théorie de l’esprit pour alimenter leurs affaires. Les boutiquiers du XIXème siècle passent déjà du temps à se représenter les états mentaux de leurs clients, c’est-à-dire à chercher à comprendre leurs cultures, leurs modes de vie et leurs désirs,  afin d’orienter leurs décisions d’achat. S’ils ne disposent évidemment pas des ressources informatiques actuelles, les acteurs économiques du XIXème siècle mobilisent mille et une techniques pour capter leurs clients. Comme le montre Franck Cochoy[2], ils déploient depuis bien longtemps des dispositifs marchands pour susciter la curiosité des consommateurs et les enrôler dans le processus d’achat. Autrement dit, la relation commerciale a toujours fait l’objet d’un travail de communication qui, s’il n’a pas toujours été réalisé de façon aussi réflexive qu’à l’heure actuelle, n’en reste pas moins une activité de captation dans le sens où :

  • les marchands ont toujours réalisé un travail plus ou moins formalisé de représentation de leurs clients, c’est-à-dire de compréhension visant à fabriquer des figures plus ou moins abstraites des consommateurs ;
  • les marchands ont toujours cherché à orienter les états mentaux de ces mêmes clients en leur communiquant des informations plus ou moins personnalisées en fonction de la compréhension qu’ils en ont.

S’il a une histoire ancienne, le travail de captation effectué par les acteurs économiques a toutefois pris des formes différentes au cours du temps. Pour Emmanuel Kessous[3], les pays occidentaux ont élaboré, depuis la naissance de la société de consommation, des systèmes d’information marchands qui composent trois grandes façons de capter l’attention des consommateurs. Au début du XXème siècle et à la suite du développement du taylorisme, les marchés sont en effet structurés autour d’un système de captation dont la finalité est d’écouler les stocks des entreprises. À ce moment, il existe une certaine homogénéité entre les acteurs de l’offre. La communication marchande, peu abondante, est alors organisée autour de la qualité et du prix des produits. Avec l’avènement du toyotisme, le développement de la mondialisation et celui de l’informatisation des organisations, les systèmes de captation de l’attention des consommateurs se modifient. À partir des années 1980 et avec l’essor de la communication numérique, l’information devient une ressource cognitive qui inonde rapidement les marchés. De telle sorte que l’attention des consommateurs devient un bien rare que les marchands ont du mal à exploiter. Ils sont de cette façon conduits à rationaliser leurs pratiques de communication par le biais de la technique de la segmentation. Cette masse que forment les consommateurs des pays occidentaux est ainsi divisée en groupes d’individus partageant des caractéristiques communes de façon à permettre aux commerçants d’industrialiser des modes de communication qui se veulent plus ciblés et performants qu’avant. Aujourd’hui, avec le développement des mégadonnées et de l’intelligence artificielle, les acteurs économiques poussent cette logique de segmentation encore plus loin en cherchant à instituer ce qu’ils appellent le commerce de précision[4]. La captation de l’attention des consommateurs se veut alors individualisée dans la mesure où les marchands réalisent aujourd’hui un important travail d’automatisation de la gestion de la relation client qui doit permettre la personnalisation des environnements numériques marchands. Aussi, nous proposons dans cette contribution d’exposer brièvement ces techniques de captation qui sont aujourd’hui déployées dans la sphère du marché et de pointer quelques-uns des enjeux cognitifs et sociaux qui y sont associés.

 

Vers une gouvernance algorithmique a-normative des marchés ?

 

Les premiers outils de personnalisation des environnements numériques déployés par les commerçants prennent la forme de moteurs d’inférence et véhiculent par là même des types de normativité facilement identifiables, à tout le moins pour les chercheurs et les professionnels intéressés par ces technologies[5]. Les systèmes de recommandation de première génération recouvrent par exemple des dispositifs de modélisation des appétences des consommateurs dont le fonctionnement repose sur une définition claire et précise : les consommateurs sont susceptibles d’aimer des biens qui ressemblent à ceux qu’ils ont déjà achetés, ou encore, à ceux qu’ils ont déjà plus ou moins explicitement déclarés comme intéressants. Un peu plus tard, des systèmes de recommandation de deuxième génération sont nés, notamment avec le développement du web dit social. Mais, encore une fois, ces systèmes recouvrent une définition claire et précise de la manière dont il est possible de capter l’attention des consommateurs : ces systèmes sont entièrement fondés sur l’hypothèse que les consommateurs sont susceptibles d’aimer les biens qu’apprécient les autres consommateurs qui ont le même profil, que ce soit du point de vue sociodémographique, ou encore, de celui de l’activité de consommation. En d’autres termes, ces deux premières générations d’algorithme de captation de l’attention des consommateurs encapsulent les représentations que leurs concepteurs se font des appétences des consommateurs, en leur conférant de cette manière un pouvoir normatif non négligeable.

Pour différents auteurs, comme Antoinette Rouvroy et Thomas Berns[6], les systèmes actuellement élaborés par les commerçants pour capter l’attention de leurs clients participent à l’institution d’une nouvelle forme de gouvernementalité qui se distingue nettement de celle que mettent en œuvre les algorithmes que nous venons de présenter. Ils défendent l’idée qu’avec le développement des big data, les commerçants ont aujourd’hui accès à une gigantesque quantité d’informations qui constitue, pour eux, un double numérique de la réalité. Les puissances de calcul informatique dont ils disposent maintenant leur permettent alors de traiter ces données de façon à saisir les consommateurs, non plus « par le haut », c’est-à-dire à l’aide d’une définition claire et précise sur la manière dont il est possible de prédire leurs appétences, mais « par le bas », c’est-à-dire sans réaliser aucune hypothèse forte sur ces appétences, mais en laissant les algorithmes les découvrir par eux-mêmes[7]. Antoinette Rouvroy et Thomas Berns en concluent alors que ces techniques de captation de l’attention instaurent des formes de gouvernementalité qui n’ont pas de précédent et qui ont la particularité d’être présentées comme a-normatives dans le sens où elles se fondent sur des technologies algorithmiques qui ont la capacité de saisir le réel de façon immanente.

 

Gouverner les consommateurs en organisant leur environnement selon un critère d’utilité

 

De notre point de vue, l’argument défendu par Antoinette Rouvroy et Thomas Berns a l’avantage de pointer les limites du projet politique qui accompagne le développement de ces nouveaux systèmes de captation. Il présuppose en effet que le réel peut se gouverner par lui-même. Il s’agit d’une remarque importante car cette présupposition est bel et bien partagée par une bonne partie de ceux qui conçoivent ces technologies. Elle n’en reste pas moins trompeuse dans la mesure où les algorithmes d’apprentissage qui sont actuellement mobilisés pour modéliser les appétences des consommateurs n’atteignent évidemment pas la réalité de manière immanente. Un peu à la manière de l’apprentissage humain, celui que réalisent les machines fait l’objet de biais qui sont multiples et qui véhiculent diverses formes de normativité[8]. De manière générale, les concepteurs de ces technologies opèrent effectivement un important travail de structuration des bases de données qui permettent cet apprentissage en réglant le point de vue que la machine porte sur la réalité. De même, la conception d’un algorithme d’apprentissage implique généralement, à tout le moins en bout de chaîne, de prêter à la machine un certain nombre de critères lui permettant d’auto-évaluer et, partant, d’auto-réviser ces apprentissages de façon à améliorer sa performance. Bien souvent, ces critères sont, par exemple, le temps de consultation des produits, le nombre de cliques, de likes, le fait ou non de placer le produit dans le panier, ou encore, de l’acheter. Ils constituent en ce sens des critères d’optimisation qui ont pour principale finalité de permettre à la machine de communiquer aux consommateurs des informations les engageant toujours plus avant dans le processus d’achat. Ces critères influent fortement sur les modélisations des consommateurs et, par conséquent, sur les types d’informations que l’algorithme leur communique. Il est clair que ces modélisations et communications prendraient par exemple des formes très différentes si ces algorithmes n’étaient pas conçus pour optimiser l’engagement des internautes sur la plateforme consultée, mais plutôt pour minimiser, par exemple, leur désorientation !

Cette forme de gouvernementalité qu’institue les systèmes de captation numérique sur les marchés n’est donc pas a-normative : ces systèmes ne permettent pas vraiment de gouverner le réel par le réel. Ils instaurent en revanche des modes de gouvernance sur les marchés qui sont différents de ceux qui existaient avant. En référence aux travaux de Michel Foucault[9], ces systèmes ne constituent pas, en effet, des dispositifs de biopouvoir dont l’objectif est de discipliner les consommateurs par la contrainte. Car ils n’ont pas pour fonction de jouer directement sur les joueurs du jeu marchand. Leur finalité est bien différente : elle consiste plutôt à jouer sur les règles du jeu marchand en adaptant l’environnement de consommation en fonction des appétences des clients pour orienter leur comportement selon un critère d’utilité particulier. Le développement des technologies de captation numérique pose en ce sens des questions politiques qui méritent d’être mieux considérées.

 

Gouvernementalité algorithmique et vigilance épistémique

 

Le développement de la gouvernementalité algorithmique dans la sphère du marché soulève en effet des problèmes cognitifs et sociaux importants. Pour certains, cette gouvernementalité participe à l’avènement d’une apocalypse cognitive, dévoilant la part la plus sombre de l’humanité au risque d’un effondrement de leur raison[10]. Elle révèlerait ainsi la nature crédule d’êtres vulnérables, à la fois manipulables et manipulés par les systèmes de captations numériques. Une telle théorie des effets forts des communications marchandes, aussi séduisante soit-elle, n’en reste pas moins très discutable sur les plans scientifique et politique. Si ces systèmes de captation n’encouragent pas toujours l’institution de bons canaux de communication sur les marchés, ce type de théorie ne rend d’après nous pas correctement compte de la réalité et ne permet pas, par conséquent, de décrire et de comprendre correctement le problème socioéconomique qu’elle pose. Hugo Mercier[11] et Sacha Altay[12] soutiennent par exemple que les internautes ne sont pas aussi crédules qu’il n’y paraît et disposent d’une certaine vigilance épistémique, c’est-à-dire de capacités cognitives leur permettant d’évaluer la qualité des informations qui leur sont communiquées. De ce point de vue, le véritable problème est plutôt que ces systèmes de captation ne permettent pas aux producteurs et aux consommateurs de se représenter correctement les états mentaux de leur vis-à-vis et ainsi de pouvoir exercer efficacement leur vigilance épistémique. Les internautes ne sont pas des êtres profondément irrationnels guidés par des pulsions animales que les algorithmes seraient aujourd’hui capables de révéler. D’après nous, le problème est plutôt que, hormis le fait qu’ils participent à faire exister le capitalisme numérique financier dans lequel nous vivons et qui fait, à juste titre, l’objet de nombreuses critiques scientifiques[13], ces systèmes n’encouragent pas l’institution de bons canaux de communication entre producteurs et consommateurs d’informations, notamment dans la mesure où ils ne permettent pas toujours de cultiver convenablement la vigilance épistémique des internautes. Car ces systèmes ne favorisent pas vraiment l’expression collective des capacités cognitives qui permettent aux consommateurs d’évaluer les informations qui leur sont communiquées.

[1] Franck Cochoy, Une histoire du marketing : discipliner l’économie de marché, Paris, La Découverte, 2019.

[2] Franck Cochoy, De la curiosité. L’art de la séduction marchande, Paris, Armand Colin, 2011.

[3] Emmanuel Kessous, L’attention au monde : sociologie des données personnelles à l’ère numérique, Paris, Armand Colin, 2012.

[4] Jean-Sébastien Vayre, « L’évolution de la grande distribution et de son système d’information : ou comment l’organisation des marchés est devenue un jeu de main compliquée », Les mardis de la socio, Toulouse, Université Toulouse Jean Jaurès, 2015.

[5] Jean-Sébastien Vayre, « Une histoire de machines à recommander des biens de consommation : de l’Internet documentaire à l’Internet des données‪ », Études de communication, 2017, n° 49, pp. 89-106.

[6] Antoinette Rouvroy, Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », Réseaux, 2013, vol. 1, n° 177, pp. 163-196.

[7] Dominique Cardon, À quoi rêvent les algorithmes : nos vies à l’heure des big data, Paris, Seuil, 2015.

[8] Jean-Sébastien Vayre, « Comment décrire les technologies d’apprentissage artificiel ? Le cas des machines à prédire », Réseaux, 2018, vol. 5, n° 211, pp. 69-104.

[9] Michel Foucault, Dits et écrits (1954-1988), tome 4 : 1980-1988, Paris, Gallimard, 1994.

[10] Cf. par exemple Gérald Bronner, Apocalypse cognitive. Paris, PUF, 2021.

[11] Hugo Mercier, Not born yesterday: the science of who we trust and what we believe, Princeton, Princeton University Press, 2020.

[12] Sacha Altay, Understanding misinformation and fighting for information, Paris, Université Paris Sciences et Lettres, 2021.

[13] Antonio Casilli, En attendant les robots. Enquête sur le travail du clic, Paris, Seuil, 2019.

Pour citer cet article

Jean-Sébastien Vayre, « La captation algorithmique des consommateurs : du problème de la crédulité à celui de la vigilance épistémique », Silomag, n°16, janvier 2023. URL: https://silogora.org/la-captation-algorithmique-des-consommateurs-du-probleme-de-la-credulite-a-celui-de-la-vigilance-epistemique/

Réagir

Si vous souhaitez réagir à cet article, le critiquer, le compléter, l’illustrer ou encore y ajouter des notes de lecture, vous pouvez proposer une contribution au comité de rédaction. Pour cela, vous pouvez envoyer votre texte à cette adresse : contact@silogora.org

AGORA DES PENSÉES CRITIQUES
Une collaboration

Mentions légales Crédits