V — La surveillance

Chapitre V — Le capitalisme de surveillance — quand le produit, c’est vous

Le modèle est familier à tout le monde sans être vraiment compris par grand-monde. Google, Facebook, Instagram, TikTok, YouTube, Twitter/X, Amazon dans sa dimension publicitaire, Netflix dans sa dimension algorithmique. Le produit est gratuit. Le client n’est pas celui qui l’utilise. Le client est l’annonceur qui achète l’attention et les prédictions comportementales que les données de l’utilisateur permettent de générer.

Shoshana Zuboff a nommé le mécanisme dans The Age of Surveillance Capitalism (2019), et le nom a pris : surveillance capitalism, ou capitalisme de surveillance. Le livre de Zuboff est fondamental pour avoir montré que ce n’est pas un détail technologique ni une pathologie marginale — c’est un mode d’extraction économique distinct, avec ses propres règles et ses propres effets. Ce chapitre repositionne le mécanisme de Zuboff sur les trois variables de notre grille, pour voir si elles le capturent correctement et ce qu’elles en révèlent.

L’idée centrale de Zuboff est simple : la donnée comportementale n’est pas un sous-produit du service que Google ou Facebook rendent à leurs utilisateurs. Elle en est le vrai produit. Ce que Google vend, ce n’est pas des résultats de recherche ; ce qu’il vend, c’est la capacité à prédire ce que vous allez faire ensuite — et à orienter, si possible, ce que vous allez faire ensuite. Cette capacité, raffinée sur des milliards d’interactions, devient un actif économique dont la valeur se mesure en centaines de milliards de dollars de capitalisation. Vous n’êtes pas l’utilisateur. Vous êtes la matière première.

5.1 — Position sur les trois variables

Concurrence. Faible. Les effets de réseau et les économies d’échelle sur les données produisent un régime de winner-takes-all : le premier service qui accumule suffisamment d’utilisateurs devient indéboulonnable, parce que chaque utilisateur supplémentaire rend le service plus précieux pour les suivants (votre réseau social est là où sont vos amis) et parce que chaque donnée supplémentaire améliore les modèles prédictifs (plus vous avez de données, plus les publicités sont pertinentes, plus les annonceurs paient). On peut théoriquement changer de service — quitter Facebook pour Mastodon, quitter Google pour DuckDuckGo —, mais le coût social et pratique de la sortie est si élevé que presque personne ne l’exerce. La concurrence existe sur le papier. Elle n’existe pas dans la vie des utilisateurs ordinaires.

Capture. Élevée — mais c’est une capture d’une nature différente de celle du chapitre précédent. Ce n’est pas, en premier lieu, la capture du régulateur politique par l’industrie (cette capture existe aussi, et le cas Cambridge Analytica, que nous verrons au chapitre 21, le documente en détail). C’est une capture cognitive : la capture de l’attention et du comportement. L’utilisateur n’est pas un citoyen privé de son vote — son vote reste formellement libre. Il est un sujet dont le comportement est prédit et, dans la mesure du possible, orienté. La différence entre les deux est la même qu’entre un régime qui truque les élections et un régime qui fabrique l’opinion : le résultat est similaire, le mécanisme est radicalement différent, et le traitement devrait l’être aussi. Le mot capitalisme, pourtant, recouvre les deux.

Consentement. Invisible. C’est la position la plus nouvelle et la plus difficile à cerner. Formellement, l’utilisateur a « consenti » — il a cliqué sur « j’accepte » en bas des conditions d’utilisation. Effectivement, il n’a rien consenti du tout, parce qu’il n’a pas lu ces conditions (les études montrent qu’il faudrait plusieurs semaines à temps plein pour lire les conditions de tous les services qu’un utilisateur moyen accepte dans une année), parce que ces conditions changent sans préavis effectif, parce que les refuser signifie renoncer à des services devenus nécessaires pour travailler et socialiser, et surtout parce que l’architecture même du service est conçue pour que le consentement ne soit jamais un acte conscient. On fait défiler un fil, on clique sur un bouton lumineux, on laisse tomber ses données dans un collecteur invisible — et l’on appelle ça consentir. Ce n’est pas du consentement. C’est la fiction du consentement, et cette fiction est précisément ce que la position « invisible » de l’axe vertical désigne.

5.2 — Ce qui distingue la surveillance de la connivence

Il faut marquer clairement une distinction que le mot unique capitalisme tend à effacer. Le chapitre précédent décrivait la connivence — un mécanisme qui capte le politique, le régulateur, le législateur, le processus par lequel les règles sont fabriquées. Ce chapitre décrit la surveillance — un mécanisme qui capte la cognition, l’attention, la capacité de choisir.

Les deux produisent des résultats similaires : une dégradation silencieuse du consentement et une concentration de la décision dans les mains d’acteurs que personne n’a choisis. Mais les mécanismes sont distincts, et les traitements devraient l’être aussi.

La connivence se traite par la transparence des processus de décision politique : publier les calendriers, interdire le pantouflage, rendre obligatoire la déclaration des réunions de lobby, plafonner le financement électoral. Ces mesures ne touchent pas aux données personnelles ni aux algorithmes — elles visent la relation entre l’économique et le politique.

La surveillance se traite par la portabilité des données, l’interopérabilité imposée entre plateformes, la transparence algorithmique, la réglementation du ciblage comportemental, l’interdiction de certaines architectures de conception conçues pour exploiter les biais cognitifs. Ces mesures ne touchent pas au lobbying — elles visent la relation entre la plateforme et l’utilisateur.

Un gouvernement qui voudrait sérieusement traiter les deux a besoin de deux boîtes à outils, pas d’une seule. Et tant qu’on parle du « capitalisme » en général, on cherche en vain la pilule unique qui soignerait les deux — laquelle n’existe pas. Pire : les pilules qui soignent l’un aggravent parfois l’autre. Une régulation de la publicité en ligne qui renforce les exigences techniques ne touche pas la capture politique — elle crée seulement une nouvelle barrière à l’entrée qui favorise, encore, les grandes plateformes contre les alternatives émergentes. Soigner la surveillance par un remède calibré pour la connivence revient à donner de l’insuline à quelqu’un qui ne souffre pas de diabète. Nous reviendrons en détail sur cette analogie au chapitre 14.

5.3 — Contre-argument — le droit de sortie existe-t-il ?

Une objection doit être posée honnêtement. L’utilisateur peut quitter Facebook. Le droit de sortie existe formellement. On ne l’enferme pas. On ne le menace pas. On ne confisque pas son passeport. Alors de quoi se plaint-on, exactement ?

La réponse passe par une distinction subtile mais importante : le coût de la sortie est-il un coût de sortie structurel ou un simple inconvénient qu’on peut choisir d’assumer ?

Quitter Facebook coûte, concrètement : le réseau social (pas seulement les contacts, mais la mémoire partagée d’années de publications, de photos, d’événements), la visibilité dans un monde où certaines interactions sociales passent désormais exclusivement par la plateforme, l’accès à des groupes d’intérêt ou d’entraide dont beaucoup n’existent qu’ici, et — dans certains métiers (artisans, artistes, petits commerçants, journalistes indépendants) — une part substantielle du chiffre d’affaires. Ce n’est pas tout à fait du même ordre que quitter un supermarché pour un autre.

C’est exactement le même débat — et c’est une remarque que le livre fera plusieurs fois — que celui des Amish qui quittent leur communauté. La sortie est formellement possible ; elle l’a toujours été ; personne ne poursuit physiquement celui qui part. Mais l’exercice du droit a un coût social réel qui transforme le « choix » en quelque chose de plus compliqué qu’un choix. Le curseur du consentement n’est pas un interrupteur à deux positions. Il est un gradient, et les plateformes de surveillance ont précisément pour effet de placer leurs utilisateurs dans les zones intermédiaires — ni libres, ni prisonniers, quelque part entre les deux.

Un autre niveau d’objection va plus loin. Si les gens consentent à être surveillés en échange de services gratuits, de quel droit un philosophe ou un régulateur viendrait-il leur dire que leur consentement n’en est pas un ? La question est légitime, et la réponse doit être posée avec soin. Ce livre ne prétend pas qu’on « exploite » les utilisateurs de TikTok contre leur gré. Il prétend que l’architecture du produit est conçue pour que le consentement soit minimalement conscient, et qu’une large part du comportement résulte non d’un choix délibéré mais d’une réponse biochimique à une architecture dopaminergique. Le chapitre 12, qui introduira le type A (l’addiction), reviendra précisément sur ce point. Pour l’instant, il suffit de noter que la question « ont-ils consenti ? » n’a pas la même réponse si l’on mesure le consentement par le clic ou par la capacité effective à dire non. Et le carré que le livre construira plus loin ne tranche pas cette question par une opinion morale — il la tranche par des tests mesurables.

Signets

Aucun signet

🌍 Langue

Chargement des langues...
Le
capitalisme
⚖️ Premier principe.
Deuxième principe.
💪 Troisième principe.

Conclusion du splash.

⤵️