Retour à l'accueil

 

L’âge du capitalisme de surveillance

Autrice : Shoshana Zuboff

 

Introduction

 

L’autrice pose la question de savoir si la civilisation de l’information est un lieu habitable. Comment éviter d’être asservis à la technologie ? L’idée d’un « chez-soi » s’évanouit avec l’émergence de l’informatique ubiquitaire et du big data. Avec l’émergence du capitalisme de surveillance, ce capitalisme qui « revendique unilatéralement l’expérience humaine comme matière première gratuite destinée à être traduite en données comportementales ».

 

En effet, l’intelligence artificielle capte un _surplus comportemental_ (données) pour le transformer en _produits de prédiction_ sur un _marché des comportements futurs_. « Les données comportementales les plus prédictives s’obtiennent en intervenant directement pour inciter (_nudge_) et influencer, ajuster (_tune_) et aiguillonner (_herd_) le comportement vers des résultats rentables ». Il ne s’agit donc pas seulement de prédire, mais aussi d’orienter les comportements. Le capitalisme de surveillance fait naître un nouveau type de pouvoir : « l’instrumentarisme » (instrumentalisation du comportement des uns pour servir les fins d’autres).

 

Le triomphe du capitalisme de surveillance s’explique par l’absence de précédents : en bouleversant les catégories d’analyse habituelles, il s’auto-immunise contre la contestation. L’autrice nous invite dans cet ouvrage à tenter d’en comprendre les mécanismes pour mieux l’affronter. Premier défi : refuser la confusion entre le capitalisme de surveillance avec les technologies qu’il utilise, qui risquerait d’induire l’idée que le capitalisme de surveillance est une propriété inhérente au numérique, et son avènement inévitable.

 

I. Les fondements du capitalisme de surveillance

 

Dans cette première partie, l'autrice étudie les fondements du capitalisme de surveillance : ses origines et les premiers temps de son élaboration

 

# Les bases du capitalisme de surveillance

 

Pour Zuboff, l’émergence d’Apple comme acteur dominant du marché de la distribution musicale permet d’illustrer les bases sur lesquelles s’est fondé le capitalisme de surveillance. « Tout comme Ford avait fait appel à une nouvelle consommation de masse, Apple fut la première entreprise à connaître un succès commercial explosif en faisant appel à une société nouvelle d’individus et à leur demande de consommation individualisée » (iTunes).

 

Ce succès s’explique par la collision entre deux forces historiques opposées : d’un côté, le processus d’individualisation (~émergence de l’idée d’un droit à l’autodétermination) caractéristique de la modernité industrielle, et de l’autre l’émergence, plus récente, du paradigme néolibéral (~autorité absolue du « marché libre » où opèrent des entreprises dont la fonction objective est la maximisation de la valeur actionnariale). Cette collision se cristallise, à l’orée du XXIe siècle, dans des sociétés hautement éduquées (alphabétisation etc.) mais dont le niveau d’inégalités est semblable à celui de l’ère préindustrielle (cf. Piketty). Zygmunt Bauman résume cette dynamique en quelques mots : un « gouffre béant entre le droit à s’affirmer et la capacité de contrôler les paramètres sociaux qui permet cette affirmation de soi. C’est de ce gouffre abyssal qu’émanent les effluves les plus délétères contaminant la vie des individus contemporains ».

 

Pendant la première décennie du XXIe siècle, Apple a semblé apporter une réponse parfaite à cette crise de la modernité, en opérant une synthèse entre les aspirations individuelles à la l’autodétermination (consommer ce que je veux, comme je veux, «think different») et les impératifs actionnariaux des entreprises capitalistes.

 

# Le surplus comportemental

 

Mais, par son modèle d’affaires, c’est Google plus qu’Apple qui illustre les mécanismes du capitalisme de surveillance. « Google est au capitalisme de surveillance ce que Ford Motor Company et General Motors étaient au capitalisme managérial basé sur la production de masse ». Google a créé un mode opératoire extrêmement innovant en s’appuyant sur quatre nouveaux types usages de l’informatique : « extraction et analyse de données », « nouvelles formes de contrats dues à un meilleur contrôle », « personnalisation et customisation » et « expériences continues ».

 

L’utilisation de nos traces numériques par Google a d’abord commencé, dans les années 1990, avec l’intention d’améliorer la performance du moteur de recherche. Lorsque notre ordinateur interagit avec un serveur, il laisse en effet derrière lui un ‘journal’ (log) de ces interactions. Ces données permettent à Google de mieux interpréter les requêtes effectuées sur son moteur de recherche et d’améliorer le service aux internautes. Zuboff nomme cette dynamique « cycle de réinvestissement de la valeur comportementale ».

 

Lors de l’éclatement de la bulle Internet, les fondateurs de Google, profondément opposés à l’idée d’un modèle d’affaires reposant sur la publicité, trouvent un compromis : Google Adwords devra gagner plus d’argent pour satisfaire les investisseurs, à condition que les publicités proposées soient pertinentes pour les utilisateurs (contrairement aux autres acteurs du web, qui se contentaient d’offrir des espaces publicitaires au plus offrant). Des technologies de pistage comme les cookies seront désormais utilisées, non pas pour améliorer le service aux internautes mais pour leur proposer des publicités ciblées . La précision des « données du profil utilisateur » permet à Google de proposer un modèle d’affaires innovant : les annonceurs rémunèrent Google en fonction du nombre de clics sur les liens publicitaires, pas du nombre de vues. Le volume de données personnelles récoltées explose : ce sont ces données, nécessaires au modèle d’affaires de Google mais non aux utilisateurs, que Zuboff désigne sous le nom de « surplus comportemental ».

 

Avec Google, le capitalisme de surveillance se hisse rapidement à une position dominante à la fin des années 2000.

 

# Les douves autour du château

 

Pour Zuboff, le modèle de Google s’appuie sur une dynamique bien documentée du capitalisme, depuis Marx jusqu’à David Harvey en passant par Polanyi et Arendt : l’accumulation par dépossession, qui consiste à identifier des espaces anthropologiques non protégés où des actifs/ressources peuvent être acquis à très bas coût en vue de rémunérer du capital. Polanyi avait identifié 3 marchandises fictives nées de cette dynamique : le travail (marchandisation de l’activité humaine), la terre (marchandisation de la nature) et la monnaie (marchandisation des échanges). Pour Zuboff, une quatrième marchandise fictive apparaît : « l’expérience humaine est assujettie aux mécanismes du marché du capitalisme de surveillance et renaît en tant que _comportement_ ».

 

Cette logique implacable s’appuie d’abord sur une stratégie des fondateurs de Google consistant à protéger leur liberté d’entreprendre à tout prix. Google est la première entreprise de la Silicon Valley à avoir mis en place une structure actionnariale asymétrique, dans laquelle les actions des fondateurs leurs accordent davantage de poids dans les prises de décision que les actions des investisseurs externes. En outre, pour protéger leur capacité d’extraction de données, Google et Facebook militent activement à éviter toute contrainte juridique dans le cyberespace (cf. lobbying à Bruxelles). Comme dans le cas des « barons voleurs » du Gilded Age, Zuboff attribue aux capitalistes de surveillance une profonde méfiance vis-à-vis de la démocratie (perçue comme incompatible avec l’autorégulation des marchés).

 

Par ailleurs, « Google et le projet plus large de surveillance capitaliste furent les bénéficiaires d’un double développement qui a contribué à donner à la mutation de la surveillance un habitat protecteur unique en son genre » :

- Un « air du temps néolibéral » propice à la légitimation d’une idéologie « cyberlibertarienne ». Cette idéologie, décrite par F Pasquale comme « un fondamentalisme de la liberté d’expression », a bénéficié aux US du soutien de la Cour Suprême (qui a transposé son interprétation du 1er amendement sur la liberté d’expression à la liberté d’entreprendre) et de lois votées par le Congrès (Communications Decency Act, empêchant les plateformes d’êtres poursuivies pour les contenus postés par leurs utilisateurs).

- Un tournant sécuritaire au lendemain des attentats du 11/9/2001, qui a mis un terme aux premières tentatives de régulation de l’utilisation des données personnelles par la Federal Trade Commission. Ce tournant s’est d’abord traduit par un rapprochement entre Google et la CIA/NSA. Zuboff souligne une forme de proximité idéologique entre les capitalistes de surveillance et le monde du renseignement : l’aspiration à un même type de vide juridique facilitant la collecte et l’analyse.

 

Enfin, Google s’est protégé de toute forme de contestation en « fortifiant » ses chaînes d’approvisionnement « dans quatre arènes clés ». Un : Google a mis ses méthodes d’analyse prédictive au service de l’arène politique (campagnes d’Obama en 2008 et 2012). Deux : de plus en plus d’échanges de personnels entre Google et la sphère gouvernementale. Trois : un lobbying de plus en plus lourd au niveau fédéral. Quatre : une puissante stratégie d’influence dans la recherche universitaire (ingérence via des financements).

 

# L’élaboration du capitalisme de surveillance : kidnapper, accaparer, rivaliser

 

Google et Facebook sont soumis à un impératif d’extraction qui les pousse à étendre sans cesse le champ de captation des données : « expansion continue de l’architecture d’extraction en vue d’acquérir de la matière première à grande échelle pour alimenter un coûteux processus de fabrication de produits de prédiction susceptibles d’attirer et de retenir davantage de clients ». Gmail et Android constituent désormais des vecteurs puissants de production de surplus comportemental. Quelles sont les conséquences de cet impératif d’extraction ?

 

Première conséquence : parce que le surplus comportemental ne peut se construire qu’en tablant sur des économies d’échelle (agrégation de traces individuelles), sa recherche par l’entreprise produit un besoin d’exclusivité : Google Search ne tolère pas la concurrence. L’enjeu est d’accaparer l’approvisionnement en matière première (données). Ainsi, Android ne produit aucun bénéfice direct pour Google. Il est un moyen d’attirer du trafic sur les autres produits de Google. Aujourd’hui, la moindre application mobile (lampe de poche, météo…) peut comporter des dizaines de trackers… et Android est devenu un quasi-monopole.

 

Deuxième conséquence de cet impératif d’extraction : se met en place un « cycle de la dépossession », articulé autour de quatre étapes, que Zuboff illustre avec Google Streetview. Première étape : l’incursion dans un espace non protégé. Dans le cas de Streetview, cet espace non protégé, c’est l’espace public : rues, façades, routes, places, parcs. Entre 2007 et 2009, les voitures de Google, surmontées de caméras et équipées de dispositifs espions aspirant toutes les données non chiffrées transmises par les antennes wifi privées sillonnent les rues du monde entier. Deuxième étape : l’accoutumance du public au mécanisme d’extraction. Le projet Streetview ayant la capacité à avancer rapidement, les régulateurs sont toujours à la traîne (première investigation fédérale en 2013). Troisième étape : adaptation. Des poursuites judiciaires sont entamées à l’encontre de Google Streetview dans de nombreux pays. Google répond en s’adaptant aux exigences gouvernementales (ex. floutage de visages). Quatrième étape : redirection. Streetview, au travers de plusieurs projets, devient peu à peu l’infrastructure incontournable de nouveaux marchés (réalité virtuelle, réalité augmentée) : il trouve « nouvelle vie en contribuant à l’expansion décisive des marchés des comportements futurs à la fois en ligne et dans le monde réel ».

 

L’autrice prend l’exemple des Google Glass pour montrer comment l’entreprise affine progressivement sa stratégie de dépossession, en s’aventurant sur des terrains plus audacieux encore. Après une réaction de rejet du public en 2015, le projet est redirigé vers le lieu de travail : Glass devient GlassEnterpriseEdition. Pour Zuboff, le cycle de la dépossession se décline en « un processus politique et matériel complexe et parfaitement orchestré dont on peut très bien discerner les étapes et prédire la dynamique ».

 

Google n’est désormais plus le seul acteur à mener une telle stratégie. La compétition est de plus en plus féroce. Pour une entreprise comme Microsoft, la surveillance est un moyen de restaurer un leadership en perte de vitesse. Des projets comme le moteur Bing et le rachat de LinkedIn lui permettent d’accaparer des données pour développer des algorithmes (notamment Cortana) susceptibles de rivaliser avec Google.

 

Les GAFA sont ceux qui ont créé le capitalisme de surveillance. « Magnétisée » par eux, une seconde vague d’acteurs les a suivi de près : il s’agit du secteur des télécoms et plus particulièrement des FAI. Leur maîtrise de l’infrastructure telecom leur confère un potentiel de surveillance immense. Aux US, Verizon et AT&T ont ainsi développé de nouveaux types de trackers « indélébiles ». Verizon acquiert AOL pour son savoir-faire en matière de tracking publicitaire. Un mouvement de lobbying puissant se structure afin de démanteler les réglementations sur la vie privée obtenues par la FCC en 2016.

 

# La division du savoir dans la société

 

Pour Zuboff, tout comme le capitalisme industriel se caractérisait par une division sociale du travail, c’est la division sociale du savoir qui caractérise le capitalisme de surveillance. La division du savoir répond à trois questions : qui sait ? Qui décide ? Qui décide qui décide ?

 

« La première, « Qui sait ? », concerne la répartition du savoir et l’éventuelle inclusion ou exclusion de l’occasion d’apprendre. La deuxième question, « Qui décide ? », concerne l’autorité : il s’agit de savoir quelles personnes, quelles institutions ou quels processus désignent ceux qui sont inclus dans l’apprentissage, ce qu’ils sont capables d’apprendre et de quelle manière ils peuvent agir sur leur savoir. Quelle est la base légitime de l’autorité ? La troisième question, « Qui décide qui décide ? », concerne le pouvoir. »

 

Pour Durkheim, le principe de la division du travail, d’abord conçu comme une condition de l’efficacité économique dans l’enceinte de l’entreprise, a fini par structurer la société entière parce que, le capitalisme industriel ayant défait les liens de solidarité traditionnels, la société avait besoin d’une nouvelle forme de solidarité. «  La division du savoir suit le même chemin migratoire du domaine économique au domaine social ».

 

Les capitalistes de surveillance sont « le nouveau clergé » d’une société structurée par un principe de division du savoir. Dans un contexte où « la capacité du monde à produire de l’information a largement excédé sa capacité à les traiter et à les stocker », les sociétés comme Google préemptent les capacités de recherche scientifiques, transforment l’industrie de la micro-informatique (conception de puces électroniques spécialisées dans les opérations de deep learning) pour développer un savoir privé et inaccessible au public.

 

Avec cette dynamique de privatisation sans précédent, « la division du savoir dans la société vire au pathologique ». Pour Zuboff, « exiger des capitalistes de surveillance le respect de la confidentialité ou faire pression pour obtenir l’arrêt de la surveillance commerciale reviendrait à demander à Henry Ford de fabriquer à la main chaque Model T ». « Cette concentration de savoir sans précédent génère une concentration de pouvoir également sans précédent, et donc des asymétries qu’il faut comprendre comme la privatisation non autorisée de la division du savoir dans la société ».

 

II. L’avancée du capitalisme de surveillance

 

Le capitalisme de surveillance a migré du monde en ligne au monde réel, une conséquence de la compétition pour des produits de prédiction qui approchent la certitude.

 

Le commerce du réel

 

Dans cette seconde partie, l’autrice introduit un nouveau concept clé de sa pensée : l’impératif de prédiction. Tout comme l’impératif d’extraction était le résultat de forces concurrentielles qui actionnaient un besoin de surplus comportemental à grande échelle, l’impératif de prédiction apparaît lorsque l’intensité concurrentielle devient telle que l’extraction de données devient insuffisante. Ce n’est alors plus la capacité des entreprises à tracer les comportements qui crée un avantage concurrentiel : c’est leur capacité à les anticiper.

 

Et tout comme l’impératif d’extraction s’incarnait dans la recherche d’économies d’échelle, l’impératif de prédiction se traduit par deux types de stratégies chez les capitalistes de surveillance : les économies de gamme et les économies d’action.

 

- Les économies de gamme consistent à diversifier le surplus comportemental, à la fois en étendant les opérations d’extractions du monde virtuel au monde réel, et en les approfondissant, c’est-à-dire en s’intéressant au fonctionnement intime des individus (personnalité, humeurs, émotions…), « un surplus comportemental hautement prédictif ».

- Les économies d’action sont des interventions « destinées à améliorer la certitude de la prédiction en réalisant un certain nombre d’actions : elles incitent (nudge), elles ajustent (tune), elles aiguillonnent (herd). […] Les économies d’action signifient que les architectures automatiques du monde réel doivent être capables de savoir aussi bien que de faire. L’architecture d’extraction est couplée avec une nouvelle architecture d’exécution. »

 

« Ce nouveau niveau d’intensité concurrentielle caractérisé par la gamme et l’action intensifie le caractère envahissant des opérations d’approvisionnement et génère une nouvelle ère du commerce de surveillance […] : le commerce du réel ».

 

Le mouvement latéral d’économies de gamme vers le « monde réel » s’opère progressivement grâce à une stratégie de déploiement de l’Internet des objets, visant, selon les termes d’un cadre d’IBM à « liquéfier le monde matériel ». Ces données du monde matériel que les capitalistes de surveillance n’ont pas encore réussi à capter sont désignées sous le terme de _dark data._

 

Le mouvement vertical d’économies de gamme vers les subjectivités individuelles s’observe notamment chez les acteurs du secteur assurantiel, qui développent des approches d’analyse et de prédiction du risque individualisées (ex. risque d’accident automobile).

 

Zuboff désigne par « décontrat » la « caractéristique de l’ensemble plus vaste que sont les moyens de modification des comportements » (nudging, tuning, herding) : l’automatisation de procédures unilatérales qui « fabrique de la certitude en substituant des procédures automatisées aux promesses, au dialogue, au sens partagé, à la résolution des problèmes, au règlement des conflits et à la confiance ».

 

Ces nouvelles opérations du capitalisme de surveillance se déploient dans une idéologie avérée au sein de la communauté high tech : « l’inévitabilisme ». Or, cette idéologie pose un problème politique évident : « l’inévitabilisme exclut le choix, la participation volontaire. Il ne laisse aucune place à la volonté humaine comme autrice du futur. Ce qui soulève quelques questions : à quel moment la revendication inévitabiliste d’une extraction et d’une exécution ubiquitaires se fait-elle excès de pouvoir ?

 

La restitution : de l’expérience aux données

 

Zuboff nomme restitution « les pratiques opérationnelles et concrètes par le biais desquelles la dépossession est accomplie : l’expérience humaine est la matière première d’une datafication et en tout ce qui s’ensuit, de la fabrication à la vente. La description détaillée de ces pratiques intermédiaires illustre le fait que le dispositif ubiquitaire n’est pas un miroir qui se contente de réfléchir. De fait, il crée ses propres stocks de savoir dans l’acte même de la restitution. »

 

La première dimension des économies de gamme est l’extension des opérations d’extraction du surplus comportemental au monde réel : c’est ce qu’elle appelle la « restitution du corps ». Le smartphone est un instrument clé de cette nouvelle dynamique du capitalisme de surveillance, notamment grâce à ses capacités de géolocalisation (que ce soit à l’aide du GPS, de la triangulation opérée grâce aux antennes 2/3/4G ou des réseaux wifi). « Même sans désanonymisation, les métadonnées de géolocalisation constituent une concentration de savoir sans égale au cœur des entreprises privées et un extraordinaire avantage dans la division du savoir ».

 

En plus des smartphones, « les accessoires connectés et leurs applications fournissent un autre terrain d’essai dans l’acte de restitution du corps ». Dans ce domaine, « les services de santé sont un terrain d’essai particulièrement actif des accessoires connectés » (ex. domotique dédiée aux seniors).

 

La restitution depuis les profondeurs

 

La seconde dimension des économies de gamme est l’extension des opérations d’extraction du surplus comportemental aux subjectivités, à la vie intime des individus. Cette « invasion » se poursuit « sous la bannière de la personnalisation ». C’est dans cette optique que Google Now, Cortana ou Alexa ont vu le jour : pour « savoir ce que vous voulez et vous le dire avant que vous posiez la question », selon les termes de l’économiste en chef de Google. De nouveaux outils de captation qui s’appuient sur l’apprentissage machine pour développer un nouveau type d’interaction humain-machine : la conversation. L’interprétation des commandes vocales est devenu le nouveau Graal du capitalisme de surveillance.

 

Dès 2011, une équipe de chercheurs du Maryland découvre que l’analyse des simples métadonnées d’utilisation sur Facebook (fréquence, nombre de contacts…) permet de créer des mesures comportementales (modèle OCEAN des 5 traits de personnalité) bien plus efficaces que l’analyse des informations fournies par les utilisateurs (religion, séries préférées…). Ce modèle sera rapidement décliné, avec une efficacité comparable (marge d’erreur de 11-18%) sur les autres réseaux sociaux. Cambridge Analytica reprendra plus tard ces même travaux. Grâce au bouton Like, la marge d’erreur des analyses psychométriques réalisées à partir des données Facebook avait quasiment disparu en 2015. À la même époque, IBM développe un référentiel d’analyse encore plus précis. « Grâce à la restitution, une poignée de traits de caractère à présent identifiables (cela inclut le « besoin d’être aimé ») prédisent la capacité à « apprécier une marque » ». FBLearner Flow, « la nouvelle colonne vertébrale IA » de Facebook, a développé un moteur de prédiction qui se targue, à partir de « billiards de points de données », de réaliser des « prédictions de fidélité » à une marque – un outil précieux sur le marché publicitaire.

 

Mais c’est avec l’analyse automatique des émotions (notamment via la reconnaissance faciale) que le projet de personnalisation développe des capacités inédites de réification de nos subjectivités. Réification, car là encore, les émotions sont un levier commercial : « plus les gens sont émus, plus ils dépensent ». Grâce au machine learning, des acteurs comme Affectiva sont capables de détecter des palettes d’émotion de plus en plus complexes. Le secteur du marketing et de la publicité s’est rué sur ces innovations qui, alors qu’elle auraient pu être appliquées dans des optiques d’auto-accomplissement et de plus grande réflexivité des utilisateurs, servent à instrumentaliser les subjectivités… « On peut tout me prendre : cette liberté intérieure de créer du sens demeur[ait] mon ultime sanctuaire. »

 

Faites-les danser : les économies d’action

 

La puissance de l’Internet des objets ne consiste pas simplement à extraire de l’information partout et en tout temps : elle réside dans la capacité à modifier le monde réel en temps réel. C’est ce qu’on appelle la capacité d’actuation, et c’est là que se jouent les économies d’action, que l’autrice décline en trois approches.

 

- La première est le tuning (ajustement), qui peut prendre la forme d’incitations subliminales mais aussi et surtout la forme de nudges. Le nudging est « tout élément d’une architecture du choix qui modifie le comportement des individus d’une manière prévisible ».

- La deuxième est le herding (aiguillonnage), qui « repose sur un contrôle des éléments essentiels du contexte immédiat d’un individu », comme le « décontrat » mentionné plus haut. Un exemple simple à comprendre est le blocage à distance d’un moteur de voiture pour s’assurer que l’utilisateur ne conduise pas.

- La troisième est le conditionnement, méthode développée par B.F. Skinner qui s’appuie sur des mécanismes de renforcement des comportements souhaités (« conditionnement opérant »).

 

L’expérimentation (sur les utilisateurs) est une méthode clé dans le développement de ces approches par les capitalistes de surveillance. Zuboff prend l’exemple du jeu Pokemon Go pour illustrer cette dynamique. Créé par la startup Niantic Labs, à l’origine incubée au sein de Google et dirigée par l’ancien VP de la division geo (GoogleMaps) de Google et fondateur de Keyhole, une startup de cartographie cofinancée par la CIA, Pokemon Go fut lancé en 2016. Comme tous les jeux, il comprend trois « rangs d’actions » : sa dynamique (qui guide l’énergie et la motivation du jeu : émotions, narration...), sa mécanique (définition des modes d’engagement du joueur : compétition, collaboration, relais...) et ses composants (quêtes, badges, classements…). Autant de dimensions qui définissent le comportement des joueurs. Niantic s’était engagé à proposer un jeu sans publicité. Mais le jeu s’appuie sur la réalité augmentée : pour y jouer, il faut « sortir dans le monde réel ». Il s’avéra rapidement que le modèle d’affaires du jeu reposait sur une logique de « lieux sponsorisés » : des commerces payaient Niantic pour attirer des joueurs chez eux.

 

Le droit au temps futur

 

« La volonté est l’organe par lequel nous convoquons notre futur pour le faire exister […] _C’est ainsi que l’affirmation du libre arbitre est également celle du droit au temps futur comme condition d’une vie pleinement humaine_. » La revendication du droit au temps futur devient nécessaire « parce qu’il y a danger ». Elle est une condition essentielle de l’exercice du libre arbitre, de la liberté.

 

 

III. Du pouvoir instrumentarien pour une troisième modernité

 

Troisième partie : réorientation du monde réel vers le monde social, la société elle-même devenant le nouvel objet d’extraction et de contrôle. L’autrice s’intéresse ici à la manière dont le capitalisme de surveillance reconfigure les rapports de pouvoir et l’organisation de la société. « Au moment où le capitalisme de surveillance s’impose comme forme dominante du capitalisme de l’information, nous devons nous poser cette question : de quelle sorte de civilisation est-il l’augure ? »

 

Deux types de pouvoir

 

Pour Zuboff, le capitalisme de surveillance augure un nouveau type de pouvoir : l’instrumentarisme, qu’elle définit comme « l’instrumentation et l’instrumentalisation du comportement à des fins de modification, de prédiction, de monétisation et de contrôle. »

 

L’autrice insiste sur la nécessité de ne pas confondre ce nouveau type de pouvoir avec le totalitarisme – sous peine d’échouer à le contester. Le totalitarisme, sous sa forme fasciste et communiste, constituait un projet de destruction et de reconstruction de la société toute entière au nom de sa purification (respectivement au nom de la race et de la classe). « Le pouvoir totalitaire ne peut pas être imposé par un contrôle à distance ». La terreur exercée sur les corps et les esprits permet d’atomiser les liens sociaux traditionnels et de donner une place encore plus centrale au parti.

 

L’horizon du pouvoir instrumentarien est opposé à celui du totalitarisme : il n’utilise pas la violence mais la modification des comportements. Il est indifférent à nos émotions, nos intentions, nos motifs. Il trouve ses racines dans le behaviorisme radical, école de pensée fondée par le psychologue-chercheur Skinner. Pour les behavioristes, le comportement humain ne peut être étudié de manière véritablement scientifique qu’en se départissant de l’idée qu’il faut comprendre l’intériorité des êtres humains : seul le comportement observable, seul ce qui est mesurable compte. Le behaviorisme radical, hautement déterministe, considère l’idée de liberté comme une illusion. Plus les capacités de mesure comportementales seront amenées à progresser, plus l’intrication des stimuli déterminant les comportements s’éclaire en dissolvant cette illusion du libre arbitre. Pour Skinner, « la croyance en un « homme autonome » est une source régressive de résistance à un futur rationnel, une « explication alternative du comportement » qui fait obstacle au progrès de la société. »

 

Totalitarisme d’un côté, instrumentarisme de l’autre : à chacune de ces formes de pouvoir correspond une utopie spécifique. Le _1984_ d’Orwell décrit l’utopie totalitaire : domination des âmes, toute-puissance d’un parti unique. L’utopie instrumentarienne est restituée dans un roman de Skinner : _Walden Two_. « Une utopie technique qui promettait un futur d’égalité sociale et d’harmonie dépassionnée fondée sur le point de vue de l’Autre, ‘organisme parmi les organismes’, comme objet d’une ‘ingénierie comportementale’ [...] Censée illustrer la possibilité d’un ordre social accompli qui transcende l’usage de la force et rejette le besoin de dominer l’âme humaine », cette vision s’incarne en fait parfaitement dans le capitalisme de surveillance.

 

Big Other et l’essor du pouvoir instrumentarien

 

Pour l’autrice, « le pouvoir instrumentarien cultive une ‘manière de savoir’ inhabituel, qui allie ‘l’indifférence formelle’ de l’optique néolibérale à la perspective observationnelle du béhaviorisme radical » (le point de vue surplombant de l’Autre). Elle nomme _Big Other_ ce pouvoir désincarné, en référence à _1984._

 

Pourquoi « big other » plutôt que « big brother » ? Justement parce que big brother était la figure du totalitarisme, non pas celle du pouvoir instrumentarien. Les distinctions clés entre ces deux modèles du pouvoir sont résumées dans le tableau ci-contre.

 

Pour Zuboff, le point le plus saillant de cette distinction entre totalitarisme et instrumentarisme réside probablement dans leur finalité. L’instrumentarisme vise à transformer le marché « en un projet de certitude totale ». Elle reprend la pensée d’Arendt pour identifier le problème de ce projet, qui ne se borne pas à prédire les comportements en les observant mais cherche aussi à les modifier : « ce qu’il y a de fâcheux dans les théories modernes du comportement, ce n’est pas qu’elles sont fausses, c’est qu’elles peuvent devenir vraies, c’est qu’elles sont, en fait, la meilleure mise en concepts possible de certaines tendances évidentes de la société moderne. On peut parfaitement concevoir que l’époque moderne – qui commença par une explosion d’activité humaine si neuve, si riche de promesses – s’achève dans la passivité la plus inerte, la plus stérile ».

 

L’instrumentarisme est donc, pour l’autrice « la malédiction de notre siècle ». Cette malédiction s’incarne particulièrement bien dans le projet de surveillance chinois, où « le but est de parvenir à des résultats garantis d’ordre social plutôt que commercial en utilisant les moyens instrumentariens de modification des comportements ». On pourrait tenter d’argumenter que la Chine n’est pas un pays capitaliste à proprement parler : mais tout comme en Occident, « le pouvoir est détenu par les propriétaires des moyens de modification des comportements ».

 

Pour l’autrice, nous nous trouvons face à une bifurcation du projet capitaliste. Et « l’une des voies conduit vers la possibilité d’une déclaration synthétique pour une troisième modernité fondée sur le renforcement des institutions démocratiques ». Mais ce n’est pas la voie sur laquelle nous sommes engagés pour le moment.

 

Une utopie de la certitude

 

« Le totalitarisme recherche la totalité comme condition politique et s’appuie sur la violence pour libérer la voie. L’instrumentarisme recherche la totalité comme domination de marché et compte pour libérer la voie sur son contrôle de la division du savoir dans la société, rendue possible et assurée par Big Other. En résulte une application du pouvoir instrumentarien à l’optimisation sociale pour le bien des objectifs de marché : une utopie de la certitude […] Cette promesse d’un âge magique joue un rôle stratégique : dans le même temps, il détourne notre attention des ambitions totalisantes du capitalisme de surveillance, lesquelles comprennent par nécessité « les gens » en tant qu’« objets de première classe » et légitime lesdites ambitions. »

 

Dans cette utopie, la machine joue le rôle de modèle des relations sociales. Nous sommes tous appelés, soit à ressembler davantage à des machines, soit à leur faire davantage confiance.

 

Le collectif instrumentarien

 

L’utopie instrumentarienne passe donc nécessairement aussi par une captation et une restitution des relations au sein de la société. Le « social » est longtemps demeuré insaisissable pour le capitalisme de surveillance. Mais le milieu de la recherche universitaire a fourni aux entreprises un nouveau type d’outil capable d’objectifier les relations - les « sociomètres ». Pentland, universitaire et entrepreneur, fut l’un des premiers à proposer d’utiliser les données des téléphones portables pour découvrir des règles et des structures dans l’organisation sociale. Dans son ouvrage _Social Physics_, Pentland développe une approche mécaniste de l’analyse des relations sociales, en s’appuyant sur la théorie des graphes. Pour lui, « les phénomènes sociaux ne sont en fait que des agrégations de milliards de menues transactions entre individus ». Il identifie deux « lois » fondamentales du comportement social : 1) la qualité du « flux d’idées » dans un groupe social détermine l’émergence ou non d’idées nouvelles dans un groupe ; 2) les nouvelles idées deviennent des habitudes à l’échelle d’une population en suivant un mécanisme mimétique « d’apprentissage social ». On voit comment, dans cette vision purement instrumentarienne, la « ruche sociale » (métaphore de la société instrumentarienne retenue par Zuboff) et la « ruche automatique » se superposent sans pouvoir être dissociées.

 

L’autrice identifie cinq principes qui décrivent les relations sociales dans une société instrumentarienne :

- Contrôler les comportements pour le bien commun (les inquiétudes quant à la violation de la vie privée devant pour cela être transcendées / contournées / manipulées)

- Remplacer la politique par les plans (pour Skinner comme pour Pentland, la conflictualité inhérente à la politique est une « source de friction qui [met] en péril l’efficacité rationnelle de la communauté comme « super-organisme » unique et ultra-performant »)

- Atteindre l’harmonie par le biais de la pression sociale (Pentland : « La physique sociale cherche à obtenir la coopération de tous les individus par le biais des incitations des réseaux sociaux »)

- Mettre l’utopisme en pratique (la société pilotée par les données n’est pas un idéal utopique, c’est « non seulement un objectif pratique et atteignable, mais également un impératif moral dans lequel les bénéfices du collectif pèsent plus lourd que toute autre considération »)

- Mettre à mort l’individualité (« le simple poids des incitations et de la séquence ubiquitaire connexion-contrôle-ajustement finira par venir à bout de sensibilités plus anciennes, telles que l’attachement à la vie privée »)

 

De la vie dans la ruche

 

Pour Zuboff, le meilleur moyen de comprendre en quoi consiste cette nouvelle « vie dans la ruche », c’est de s’intéresser à la manière dont les plus jeunes vivent la société moderne. « Nos enfants nous donnent à voir l’impact émotionnel que représente la vision de l’Autre : les jeunes gens en effet se retrouvent immergés dans la vie de la ruche, où l’autre est un ‘ça’ pour moi, et où je fais l’expérience de mon moi comme un ‘ça’ vu par les autres. » Nous commençons en effet à disposer du recul nécessaire pour comprendre, grâce à des études scientifiques, les impacts psychologiques de la vie dans les réseaux. Elle identifie six catégories de troubles émotionnels : l’addiction, l’incapacité à se débrancher, l’ennui, la confusion, la détresse et l’isolement.

 

« Les médias sociaux sont conçus de manière à séduire et à retenir des individus de toutes les générations, mais ils sont spécifiquement modelés sur la structure psychologique de l’adolescence et de l’émergence de l’âge adulte, périodes où l’on se tourne naturellement vers les « autres », et plus particulièrement vers les récompenses de la reconnaissance, de l’acceptation, de l’appartenance et de l’inclusion dans un groupe. Pour beaucoup, cette adaptation sur mesure, combinée aux dépendances concrètes de la participation sociale, font des médias sociaux un milieu vénéneux. »

 

L’autrice souligne que les mécanismes permettant de créer de l’addiction technologique n’ont pas été inventés par Facebook, mais par les acteurs du jeu vidéo et des casinos. Ces derniers cherchent à induire le joueur dans un état de conscience particulier, qu’un universitaire (Schüll) a nommé « la zone de la machine » : « un état d’oubli de soi dans lequel l’individu est transporté par un élan irrésistible qui lui donne l’impression ‘d’être joué par la machine’ » plutôt que de jouer avec elle. Pour cela, les concepteurs de casinos cherchent à éviter tout les éléments et stimuli susceptibles d’interrompre la fusion entre le joueur et la machine. Cet état de compulsion a cinq caractéristiques (Shaffer) : fréquence d’utilisation, durée de l’action, puissance, mode d’administration et spécificités des joueurs.

 

Comment les individus peuvent-ils bien vivre dans ce projet de ruche ? Les individus doivent continuer à « entretenir des ressources internes » pour « conserver une intimité et des relations ». Une tâche de plus en plus prenante et complexe, pour trois raisons :

- D’abord, parce que « le reflux de la société traditionnelle et l’évolution de la complexité sociale ont accéléré les processus d’individualisation [:] nous devons compter sur notre propre aptitude à nous construire et sur nos ressources intérieures »

- Ensuite, parce que « la connexion numérique est devenue un outil indispensable de participation sociale, en partie parce que les institutions ont massivement échoué à s’adapter aux besoins d’une nouvelle société d’individus »

- Enfin, parce que « le capitalisme de surveillance domine et instrumentalise les connections numériques » et que, contrairement aux patrons de casino, les capitalistes de surveillance opèrent dans le secret.

 

« Facebook se fie à ces pratiques spécifiques qui entretiennent la tendance des utilisateurs – et surtout des plus jeunes – à se connaître par ‘le regard extérieur sur soi-même’. Point essentiel : plus le besoin des ‘autres’ est satisfait, moins l’utilisateur est capable de s’engager dans un travail de construction du moi. » Les spécialistes nomment ce processus psychologique central dans l’expérience Facebook « comparaison sociale ». La comparaison sociale est un mécanisme naturel des sociétés humaines, inoffensif en soi. Mais les révolutions industrielles nous ont fait passer d’une ère où les individus vivaient en petits groupes sociaux au sein desquels les individus étaient semblables à une société de masse. Ainsi, « les chercheurs suggèrent que la généralisation de la télévision à partir des années 1950 a accru de manière prononcée l’intensité et la négativité de la comparaison sociale. […] Les médias sociaux inaugurent une ère nouvelle en matière d’intensité, de densité et d’omniprésence des processus de comparaison sociale, surtout pour les plus jeunes d’entre nous, qui sont « presque perpétuellement connectés » à une époque de leur vie où leur identité, leur voix et leur capacité d’agir au sens moral sont encore en chantier. » Dans ce nouveau contexte apparaissent donc de nouveaux troubles psychologiques comme le FOMO et des tendances inquiétantes (auto-objectification, diminution de la satisfaction existentielle…).

 

Pour l’autrice, la réussite du projet du capitalisme de surveillance consisterait en un « retour au troupeau » après quelques siècles d’individualité durement conquis (depuis l’idéal des Lumières jusqu’à l’individu psychologiquement autonome de la fin du XXe siècle). Car « dans ce processus, l’intériorité qui est la source nécessaire de l’action autonome et du jugement moral souffre, suffoque ».

 

Dernière caractéristique de cette vie dans la ruche : la logique totalisante du projet de surveillance, qui, comme le panoptique de Bentham, semble ne nous laisser aucune issue de sortie du capitalisme de surveillance. On ne peut pas vivre en-dehors de la ruche. Or, pour Zuboff, nous avons un «  besoin universel de refuge en un lieu où nous pouvons ‘être nous-mêmes’ ».

 

Le droit au sanctuaire

 

Pour l’autrice, des relations à soi et au monde riches et profondes ne peuvent se construire que dans l’expérience intime du « chez soi ». Mais, « selon les architectes de Big Other, ces murs devraient être abattus. Il ne doit pas y avoir de refuge. Le besoin primitif d’un nid, d’une coquille, est jeté, relégué, comme tous les détritus d’une époque vieillotte ». Ainsi, « la première citadelle à tomber est aussi la plus ancienne : c’est le principe du sanctuaire ».

 

Elle s’appuie sur la pensée de Bachelard pour rappeler que c’est dans le chez-soi que peut se constituer « un trésor de ‘fonctions intimes’ psychologiques complexes, de la plus grande importance pour la santé psychologique et la réussite du développement de l’individu : la contemplation, l’autonomie, la régénération, la confiance, la liberté, la créativité, la guérison, la catharsis et la dissimulation ».

 

Pour préserver ce sanctuaire qu’est la vie privée, nous devons donc faire « des déclarations synthétiques » pour contrer les déclarations du capitalisme de surveillance, en nous rappelant que « le fait de renforcer la protection vis-à-vis des intrusions de l’État ne nous arme pas contre l’assaut de nos sanctuaires par le pouvoir instrumentarien ». À ce titre, au moment de la publication de l’ouvrage, le RGPD constituait la principale initiative susceptible de contrer le capitalisme de surveillance – bien que Zuboff semble dans son livre avoir l’intuition (la prémonition?) que le RGPD ne serait pas suffisant, puisqu’elle rappelle que malgré le RGPD, « Google et Facebook prospèrent en Europe ». Elle rappelle en outre que le fait d’apprendre aux individus à se protéger individuellement des outils et techniques de surveillance du capitalisme est une fausse bonne idée : seule l’action collective peut permettre de contrer cette dynamique.

 

« Le plus grand danger, c’est que nous finissions par nous sentir chez nous dans cette vie sous verre ou dans la perspective de nous y soustraire. »

 

Conclusion

 

Il y a trois différences fondamentales entre capitalisme de surveillance et capitalisme de marché :

 

1. La revendication d’une liberté et d’un savoir illimités : les penseurs clés du capitalisme de marché, de Smith à Hayek, revendiquent l’idée que la liberté individuelle va de pair avec une forme d’ignorance sur le fonctionnement du marché (« main invisible »). Dans le capitalisme de surveillance, la relation entre liberté et ignorance s’inverse : c’est le savoir sans limites des capitalistes de surveillance qui leur donne une liberté infinie.

 

2. La disparition des liens organiques de réciprocité qui subsistaient avec le capitalisme de marché : si le néolibéralisme a rompu avec le pacte fordien qui voulait que les salaires augmentent en proportion de l’inflation, le capitalisme de surveillance va encore plus loin : « l’utilisateur » n’est ni client, ni employé, ce qui permet une disparition de la réciprocité dans la relation qui unit l’entreprise aux individus. La structure de ces nouvelles entreprises capitalistes implique beaucoup moins d’employés (et plus de machines) que dans le capitalisme industriel. Pour l’autrice, cette rupture annonce le divorce entre capitalisme et démocratie.

 

3. Une utopie sociale collectiviste « nourrie par l’indifférence radicale » : ces deux premières caractéristiques du capitalisme de surveillance se combinent pour en engendrer une troisième : l’utopie collectiviste. Une utopie qui se caractérise par un système de valeur inédit : l’indifférence radicale (la seule chose qui compte étant de faire que tout le monde soit connecté tout le temps).

 

Conclusion : qu’est-ce que le capitalisme de surveillance ? « Le capitalisme de surveillance est une forme sans limite qui ignore les distinctions anciennes entre marché et société, marché et monde, marché et individus. C’est une forme avide de profit dans laquelle la production est subordonnée à l’exploitation, les capitalistes de surveillance exigeant le contrôle sur des territoires humains, sociétaux et politiques situés bien au-delà de ce qui est d’ordinaire le champ d’action des entreprises privées ou du marché. Empruntons son point de vue à Karl Polanyi : le capitalisme de surveillance annexe l’expérience humaine aux dynamiques de marché de sorte qu’elle renaît en tant que comportement : c’est sa quatrième « marchandise fictive ». Les trois autres, telles que définies par Polanyi – terre, travail, argent – étaient soumises à la loi. Et même si cette dernière est imparfaite, les institutions du droit du travail, du droit de l’environnement et du droit bancaire sont des cadres réglementaires destinés à défendre la société (et la nature, la vie, les échanges financiers) des pires excès du pouvoir destructeur du capitalisme brut. L’expropriation de l’expérience humaine effectuée par le capitalisme de surveillance n’a pas connu de semblables garde-fous. »

 

Capitalisme de surveillance & démocratie : pour Adorno, « on doit accepter que le fascisme et la terreur qu’il causa étaient liés au fait que les autorités établies de longue date […] s’étaient écroulées, vermoulues, alors que les gens n’étaient pas encore disposés psychologiquement à l’autodétermination. Ils ne furent pas à la hauteur de la liberté qui leur était tombée entre les mains. […] Il nous est clair à présent que le capitalisme de surveillance vise à une domination encore plus vaste que son origine néolibérale ne le donnerait à penser : c’est ce qu’il fait cependant, affirmant son droit à la liberté et au savoir tout en espérant accomplir une vision collectiviste qui revendique la société dans sa totalité. Il a beau sonner comme Hayek ou même Smith, ses ambitions collectivistes et antidémocratiques en font un enfant insatiable qui dévore ses vieux pères. »

 

« La démocratie n’est pas invulnérable aux attaques du sans-précédent, mais la force de ses institutions est l’horloge qui détermine la durée et le caractère destructeur de cette faiblesse. Dans une société démocratique, le débat et la contestation qu’autorisent des institutions encore saines peuvent retourner l’opinion publique contre des sources inattendues d’oppression et d’injustice – et suivront enfin la loi et la jurisprudence. »