Si Google ou Meta ne facturent pas leurs services, c’est bien que leurs profits sont générés par ces marchés. Nos likes, notre historique et nos préférences sont autant d’informations qui servent à cibler et à prédire nos comportements, souvent sans notre consentement. En 2016 déjà, la compagnie mère de Google, Alphabet, dérivait 89 % de ses revenus de la publicité ciblée.
S’il est souvent admis que si l’on ne paie pas, c’est nous le produit, Zuboff retourne cette conception en suggérant que nos comportements ne sont que la « matière première » : agrégés, ils constituent une nébuleuse croissante de subjectivités individuelles, commodifiées pour la vente lucrative. Sous l’impulsion de ces profits, Big Data a investi massivement dans les techniques de collecte pour capturer ces données, que Zuboff nomme le « surplus comportemental ». L’augmentation du volume de données collectées accroît la valeur prédictive de ses produits, justifiant des offres plus importantes des publicitaires. Big Data serait ainsi au cœur d’un « nouvel ordre économique qui revendique l’expérience humaine comme matière première gratuite pour des pratiques commerciales cachées d’extraction, de prédiction et de vente », qu’elle nomme « capitalisme de surveillance ».
Le capitalisme de surveillance repose sur l’extraction massive de l’expérience humaine afin de transformer les comportements en produits prédictifs commercialisables
Désormais, affirme Zuboff, ces impératifs ne sont plus confinés à Internet, mais opèrent dans le « monde réel » par le biais « d’économies d’action ». Ces interventions comme le nudging, qui vise à influencer doucement nos décisions, ou le herding, qui vise à pousser activement des produits pour créer des « troupeaux » de consommation, ont pour finalité la manipulation comportementale à grande échelle. Ces techniques, qui incluent des notifications ciblées ou des suggestions Google Maps, affectent directement nos comportements dans des marchés réels. La surveillance réduit ainsi l’écart entre la réalité et la prédiction, cherchant à atteindre une forme de certitude comportementale. Plus grave encore, cette manipulation destitue notre capacité à l’auto-détermination, viciant ce que Zuboff nomme notre « droit au futur ».
Surveillance, néolibéralisme et gouvernementalité
Malgré la pertinence de cette critique, la singularité du capitalisme de surveillance peut être interrogée. Le philosophe Harry Parfitt suggère qu’une approche foucaldienne permet de mieux cerner cette surveillance moderne, qu’il considère comme une extension logique du néolibéralisme. Selon lui, il y a peu de raisons de penser que l’autonomie individuelle serait radicalement affectée, car les techniques de nudging et de herding décrites par Zuboff sont déjà constitutives d’un ordre néolibéral où les préférences sont continuellement évaluées en vue de la consommation. Les individus évoluent dans un espace de choix prédéterminé, où l’autonomie consiste essentiellement à sélectionner parmi des options déjà cadrées par le marché.
Parfitt suggère que le pouvoir gouvernemental ne vise pas à restreindre directement les individus, mais à organiser les conditions dans lesquelles ils exercent leur autonomie. Cette gouvernementalité s’appuie sur des technologies de pouvoir — marché, contrat de travail, dispositifs de performance — qui orientent les rationalités sans abolir la liberté. Dans le cadre néolibéral, ces dispositifs prétendent maximiser la liberté en transformant des habitudes contraintes en choix rationnels. L’homo œconomicus autonome est ainsi déjà le produit d’une architecture politique qui structure ses désirs et ses décisions.
Des technologies contemporaines de surveillance, comme Humanyze, plateforme analytique de gestion du personnel créée en 2010, illustrent cette continuité. Déployées comme outils d’optimisation et de performance, elles confirment l’existence d’une gouvernementalité néolibérale dans laquelle la surveillance n’est pas une rupture, mais un raffinement. La combinaison du néolibéralisme et des dispositifs de surveillance engendre une nouvelle forme de précarité, marquée par l’insécurité systémique et une atteinte diffuse à l’autonomie individuelle.
La surveillance numérique n’est pas une anomalie du néolibéralisme, mais l’un de ses instruments privilégiés pour stabiliser et orienter les rationalités individuelles.
Dans ce contexte, c’est moins la surveillance en elle-même que le capitalisme qui façonne ces rationalités politiques. La surveillance digitale agit comme une technologie de réduction des asymétries d’information, exacerbant une logique déjà présente. Elle rapproche dangereusement une utopie de la certitude totale des contraintes physiques d’un monde réel fondamentalement incertain.
Retour sur l’auteur
Avec The Age of Surveillance Capitalism, Shoshana Zuboff s’inscrit dans la postérité comme celle qui a donné un nom, une structure et une cohérence théorique à un phénomène encore diffus. Son apport décisif ne réside pas seulement dans la dénonciation de la collecte massive de données, mais dans l’identification d’une nouvelle logique d’accumulation, distincte du capitalisme industriel et informationnel. En conceptualisant le « surplus comportemental », elle montre que ce ne sont pas nos données isolées qui ont de la valeur, mais la capacité à transformer l’expérience humaine en prévisions exploitables. Là où d’autres voyaient une simple dérive technologique, Zuboff met au jour une rationalité économique autonome, animée par la quête de certitude comportementale et indifférente aux cadres juridiques, moraux ou démocratiques. Sa pensée marque ainsi un tournant : la surveillance cesse d’être un abus marginal pour devenir le principe organisateur d’un nouvel ordre économique.
Zuboff aujourd’hui
Antoinette Rouvroy et Thomas Berns prolongent son diagnostic à travers la notion de « gouvernementalité algorithmique », où la norme n’est plus prescrite mais induite statistiquement à partir de corrélations comportementales. Evgeny Morozov, plus critique, insiste sur la dimension politique et idéologique des plateformes, accusant Zuboff de sous-estimer le rôle des États et des stratégies géopolitiques dans l’essor de la surveillance. De leur côté, des philosophes comme Byung-Chul Han analysent les effets subjectifs de ces dispositifs, décrivant une intériorisation volontaire de la surveillance dans des sociétés où la transparence devient une valeur morale. Dans les débats actuels sur l’intelligence artificielle, la régulation des plateformes ou le travail algorithmique, le capitalisme de surveillance apparaît moins comme une théorie close que comme un cadre d’interprétation central, constamment retravaillé pour penser la recomposition du pouvoir, de l’autonomie et du futur dans les sociétés numériques.