"Nouveau millénaire, Défis libertaires"
Licence
"GNU / FDL"
attribution
pas de modification
pas d'usage commercial
Copyleft 2001 /2014

Moteur de recherche
interne avec Google

« Big Data », Gouvernance et Surveillance
Par Maxime Ouellet - André Mondoux - Marc Ménard - Maude Bonenfant - Fabien Richert


Origine http ://www.cricis.uqam.ca/IMG/pdf/Big_Data-GRICIS_final.pdf

Recherche effectuée dans le cadre du projet de recherche : La gouvernance des systèmes de communication
Présentée au Centre de recherche GRICIS Université du Québec à Montréal Septembre 2013

Résumé :

Ce rapport de recherche s’inscrit dans le cadre d’un programme de recherche initié par le GRICIS portant sur la gouvernance des systèmes de communication. Dans ce contexte, un groupe de recherche dédié à l’information et à la surveillance au quotidien a été créé. Le groupe entame un projet de recherche sur le «Big Data», la gouvernance et la surveillance, dont la première phase de problématisation fait l’objet de ce rapport. Le GRISQ (Groupe de recherche sur l’information et la surveillance au quotidien) est membre du centre de recherche GRICIS de l’Université du Québec à Montréal. Le rapport analyse comment le «Big Data» s’inscrit dans le cadre plus large des mutations sociétales liées au passage du gouvernement à la gouvernance, celle-ci étant comprise comme une nouvelle modalité de régulation de la pratique sociale fondée sur des mécanismes cybernétiques de contrôle et de surveillance.

Introduction : Le contexte de recherche

Depuis quelques années, l’expression « Big Data » est souvent utilisée dans les médias, le monde des affaires ou en informatique pour qualifier une nouvelle dynamique sociétale qui serait caractérisée non seulement par la production de quantités massives de données, mais surtout par les énormes bénéfices potentiels que recèlerait l’utilisation de nouveaux outils statistiques permettant d’analyser ces données.

La production massive de données est liée à l’usage de technologies numériques qui peuvent être caractérisées comme des « mnémotechnologies » (Stiegler, 2004), comme l’atteste notamment la généalogie des médias sociaux eux-mêmes. En effet, le terme blogue provient de l’anglais « web-log », le « log » étant le journal des transactions et actions effectuées. En ce sens, les médias socionumériques sont des dispositifs qui captent les traces des actions, traces qui aujourd’hui génèrent des quantités massives de données (« Big Data »). Dans cette recherche nous analysons le phénomène du « Big Data » selon une double problématique.

D’une part, comme nous le verrons dans la première section de ce rapport portant sur les questions épistémologiques entourant le «Big Data», la prolifération de données est à ce point massive, que de plus en plus la captation et l’analyse de celles-ci sont posées comme étant hors de portée humaine – « Too Big to Know » (Weinberger, 2012)

d’où la nécessité d’avoir recours à des outils et méthodes informatiques (algorithmes et ordinateurs) pour faire sens des données. Il est important également de souligner qu’au sein de cette dynamique, le sens n’est pas défini comme le résultat d’une médiation symbolique (construction sociale), mais au contraire comme le dévoilement du réel lui-

même. En effet, les opérations d’extraction et d’analyse de données sont définies comme du forage de données (data mining1), comme si la production, l’accès et l’analyse des données ne revêtaient pas des attributs propres à la construction sociale (dimensions idéologiques, politiques, économiques, etc.), comme s’il s’agissait de l’exploitation d’une donnée naturelle. Le « Big Data » contribue à la projection d’une position de surplomb face au Réel, position qui serait au-dessus des rapports politico-idéologiques.

1 Voir l’annexe de ce rapport pour une définition plus précise des diverses technologies du «Big Data».

En ce sens, le phénomène du « Big Data » participe à la même dynamique de « désymbolisation/dé- idéologisation » du rapport au Réel observée avec la notion d’État qui voit ses attributs sociopolitiques éclipsés par la notion de gouvernance, c’est-à-dire ayant un statut épistémologique « au-dessus » ou « à l’abri » du terrain sociopolitique. Voilà qui explique, avec l’utilisation du data mining comme outil privilégié d’analyse empirique du social, pourquoi le « Big Data » est étroitement associé à la notion de gouvernance (eGovernment, OpenData, etc.).

D’autre part, une large partie des données générées par les médias socionumériques sont le fruit de stratégies d’auto-expression identitaires (Mondoux 2009, 2011, 2012) dont la dynamique qui repose sur la diffusion des données personnelles (le moi) vers l’autre (être vu/reconnu publiquement), fait ainsi tomber les cloisons traditionnelles entre vie privée et sphère publique. Sous cet angle, le « Big Data » soulève la question de la surveillance, soit la circulation de données permettant le repérage, le profilage, voire l’identification des individus. La modélisation induite par le « Big Data » repose, en partie du moins, sur la production, la circulation et la consommation de données liées aux individus. De plus, la modélisation propre aux pratiques du « Big Data » est principalement utilisée dans un cadre visant à prédire les actions futures sur la base des comportements passés. Or, dans la mesure où la modélisation « Big Data » induit ses propres représentations sociales (un accès direct, non-idéologique au Réel), elle contribue ainsi à créer une dynamique de régulation sociale fondée sur l’adéquation – vue comme nécessaire et inévitable – des individus à ce qui est projeté non pas comme un modèle, mais bien le Réel lui-même. Autrement dit, comme nous le soutenons dans la deuxième partie du rapport intitulée «De Big Brother à Big Data : Prolégomènes au concept de security-entertainment complex », le « Big Data » serait un mode de (re)production sociale fondé sur la surveillance et le contrôle (préserver l’intégrité du Réel); ces derniers étant banalisés de par leur intégration au processus de définition du Réel (la modélisation).

L’objectif principal de cette recherche est d’évaluer dans quelle mesure les données, outils et méthodes caractéristiques du « Big Data », constituent des processus d’autorégulation qui s’assimilent à une dynamique de gouvernance et de surveillance. Pour ce faire, des objectifs plus spécifiques ont été formulés :

Cerner les logiques qui sous-tendent le « Big Data » en tant que processus de production, d’entreposage, de croisement et d’analyse de données laissées volontairement ou involontairement par les internautes;

Évaluer si les procédés d’automatisation de l’analyse des données propres au« Big Data » constituent des processus d’autorégulation d’intérêts privés pouvant prendre la forme de prophéties autoréalisatrices, notamment par une concentration accrue de la consommation sur un nombre réduits de biens;

Plus précisément, analyser comment ces processus d’autorégulation sont utilisés dans les systèmes et moteurs de recommandation d’achat de biens culturels;

Enfin, démontrer qu’à la source de ces différents processus se trouve une stratégie de réduction du risque entrepreneurial, visant une meilleure adéquation entre l’offre et la demande et l’accélération de la circulation dans le circuit économique.

Dans cette recherche nous tentons de cerner comment le « Big Data » s’inscrit dans le contexte plus large de transformation des modes de régulation sociale, plus spécifiquement selon une forme de gouvernance qui s’appuie sur des dispositifs cybernétiques. Il s’agit de comprendre comment le « Big Data » est lié à la fois à des modalités de contrôle et de surveillance afin d’en révéler les fondements idéologiques.

Le «Big Data» : définitions préliminaires

Selon certains auteurs, le boom du « Big Data » constituerait l’innovation de notre époque (Brynjolfsson et McAfee, 2011). Innovation dont les effets se feraient sentir dans tous les domaines, du monde des affaires à la science, en passant par la gestion gouvernementale et le monde des arts (The Economist, 2010). Pour d’autres, non seulement nos capacités à répondre aux questions fondamentales progressent à mesure que s’accroissent les faits colligés et analysés (Wired, 2008), mais le « Big Data » rendrait même à toute fin utile obsolète la méthode scientifique traditionnelle (Anderson, 2008). Comme l’affirment Cukier et Mayer-Schönberger :

dans de nombreux cas, il faudra renoncer à identifier les causes et se contenter de corrélations. Au lieu de chercher à comprendre précisément pourquoi une machine ne fonctionne plus, les chercheurs peuvent collecter et analyser des quantités massives d'informations relatives à cet événement et à tout ce qui lui est associé afin de repérer des régularités et d'établir dans quelles circonstances la machine risque de retomber en panne. Ils peuvent trouver une réponse au « comment », non au « pourquoi »; et, bien souvent, cela suffit (2013 : 20).

Le terme « Big Data » est néanmoins mal adapté : il a été utilisé en sciences pour faire référence à des ensembles de données suffisamment grands pour nécessiter l’utilisation de superordinateurs, alors que de vastes ensembles de données peuvent désormais être analysés sur des ordinateurs de bureau en utilisant des logiciels standards (Manovich, 2011). De ce fait, ce qui est nouveau, ce n’est pas la quantité de données disponibles, mais la capacité de mettre en relation plusieurs bases de données et, grâce à l’utilisation de méthodes de corrélation avancées, d’identifier des « patterns » d’information qui demeureraient autrement invisibles (Bollier 2010). Ainsi, les entreprises qui offrent des cartes de crédit, à partir des informations personnelles et financières de leurs clients et les données du recensement, développent des systèmes de détection des fraudes et d’évaluation des tendances d’achat des consommateurs (idem). De nombreux manufacturiers, distributeurs et détaillants analysent les données concernant les interactions entre les données sur leurs inventaires et leurs fournisseurs pour optimiser et réorienter leurs processus d’affaires (Brynjolfsson et McAfee, 2011), ou pour tenter d’offrir la bonne marchandise ou service au bon moment, au bon prix et par le bon canal de distribution à leurs clients (Davenport et al., 2011). Des entreprises comme Google et Amazon mènent, en temps réel et de façon continue, des expériences auprès de leurs utilisateurs pour tester de nouveaux produits et services, de nouveaux algorithmes ou de nouveaux designs (Bollier, 2010; Choi et Varian, 2011). De même, de nombreuses entreprises et les réseaux socionumériques, par le biais du développement d’outils de ciblage comportemental (comportement de navigation des individus, notamment), tentent de sélectionner quelles sont les meilleures publicités à offrir à une personne précise (Titiraga, 2011). Enfin, des producteurs, distributeurs ou diffuseurs de biens culturels (Amazon, Pandora, Netflix, Apple, TiVo, etc.) de même que des sites de rencontres ou des réseaux socionumériques comme Facebook, ont développé des systèmes de recommandation à partir de l’analyse des traces laissées volontairement ou involontairement par leurs utilisateurs (Grossman, 2010), ou même des systèmes tentant de prédire quel sera le succès d’un bien culturel particulier avant, pendant ou après sa création (Davenport et Harris, 2008).

Si les applications potentielles du « Big Data » sont importantes, les limites et problèmes sont toutefois nombreux, ce qui soulève plusieurs questions. D’abord, en ce qui concerne l’accès aux données. À cet égard, seules les entreprises et réseaux socionumériques ont un plein accès à des bases de données massives (surtout en ce qui concerne les données transactionnelles); certaines entreprises conservent leurs données pour usage interne, d’autres vont vendre l’accès à fort prix, et d’autres encore n’offriront un accès qu’à des ensembles réduits de données par le biais d’ « application programming interfaces » (API). Qui plus est, l’expertise informatique et statistique requise pour analyser les données ou même manipuler les API est loin d’être partagée par tous (Manovich, 2011). On peut ainsi postuler qu’un nouveau « digital divide » est en train de se créer entre les « Big Data rich » et les « Big Data poor » (Boyd et Crawford, 2011). La deuxième question concerne les prétentions à d’objectivité et de précision des outils du

« Big Data ». Tous les chercheurs interprètent les données sur lesquelles ils travaillent et, à l’évidence, opèrent des choix forcément subjectifs sur ce qui sera mesuré, les attributs et variables qui seront examinés et ceux qui seront ignorés (idem). La subjectivité demeure donc, même lorsqu’il s’agit d’analyser des bases de données massives. Qui plus est, un échantillon n’est pas forcément aléatoire parce qu’il est grand, ni nécessairement plus représentatif qu’un petit; et dans de nombreux cas (Facebook et Twitter, en particulier), les fonctions d’archivage et de recherche sont très limitées, ce qui implique une absence d’ancrage dans un quelconque contexte historique (Bollier, 2010). Par conséquent, il existe de nombreuses limites concernant les données utilisées dans une dynamique de « Big Data » et plusieurs biais dans les analyses sont susceptibles de se présenter. Troisième question soulevée, particulièrement en ce qui concerne les systèmes reposant sur des analyses comportementales : les commentaires, gazouillis, photos et autres participations en ligne ne sont pas forcément des fenêtres transparentes menant à l’imaginaire, aux intentions, motifs, opinions et idées des gens (Manovich, 2011). En fait, les gens construisent et gèrent leur présence publique sur Internet, la façon dont ils se présentent aux autres (Ellison et al., 2011). Ce qui nous amène à poser l’hypothèse que la portée des outils de profilage contextuel et comportemental est grandement limitée par le fait que ceux-ci n’analysent que des éléments constitutifs de l’homo oeconomicus, défini comme un individu cherchant à maximiser son utilité personnelle et dont les préférences, goûts et habitudes sont considérés comme fixes et nullement affectés par la mise en relation avec d’autres individus par le biais de ses activités communicationnelles. En ce sens, les systèmes de recommandation de biens culturels constituent un puissant révélateur des limites et travers de la logique du « Big Data » : loin de conforter les prétentions d’élargissement de l’accès à la diversité culturelle des tenants de la « longue traîne » (Anderson, 2004), le « Big Data », bien au contraire, est susceptible de renforcer la concentration des achats selon une dynamique de prophéties autoréalisatrices, les recommandations se concentrant forcément sur un nombre réduit de biens pour lesquels d’autres personnes ont déjà exprimé leurs préférences.

Approche théorique

Notre problématique se situe dans le cadre des théories critiques en communication. Nous mobilisons les apports de diverses perspectives afin de comprendre comment le Big Data consiste en une médiation sociale fondée sur l’information qui s’inscrit dans la dynamique des transformations sociétales plus larges propres au capitalisme avancé (Ouellet, 2011). Notre recherche s’appuie sur trois principaux corpus théoriques :

1) les recherches critiques sur la gouvernance;

2) les études en économie politique de la communication, et plus particulièrement les travaux portant sur l’économie de l’attention;

3) les études portant sur la surveillance dans le monde contemporain (surveillance studies).

La théorie critique de la gouvernance

Dans le cadre de la théorie critique inspirée par les travaux de l’École de Francfort (Adorno & Horkeimer, 1974), les phénomènes communicationnels en particulier sont compris comme étant des éléments qui sont médiatisés par une totalité sociétale, celle de la société capitaliste. Il est nécessaire en ce sens de comprendre comment le phénomène du Big Data s’inscrit dans les mutations institutionnelles propres au capitalisme avancé, lequel se caractérise à l’heure actuelle par un triple processus de globalisation, de financiarisation et d’informatisation. Au plan institutionnel, ces transformations participent au passage du gouvernement à la gouvernance (Rosenau, 1992), c’est-à-dire à la mise en place d’un mode de régulation de la pratique sociale a-politique qui se fonde sur une idéologie gestionnaire, plus particulière celle du risk-management. On peut dès lors assimiler le Big Data à une stratégie de gestion du risque appliquée à l’ensemble des facettes de la vie humaine. En effet, dans le capitalisme financiarisé, le risque est une nouvelle forme de médiation sociale fondée sur l’information (LiPuma et Lee, 2005). Le risque abstrait est mesurable et décomposable en unités homogènes qui peuvent être échangées sur les marchés boursiers (idem). En clair, le risque devient la principale marchandise qui est échangée sur les marchés. La gestion du risque devient l’activité principale des corporations plutôt que la production de biens et services, puisque les risques peuvent être par la suite transformés en titres qui sont échangés sur les marchés financiers et sujets à la valorisation capitalistique. Ainsi, dans une économie financiarisée, la valeur des actifs des entreprises ne portent pas tant sur les produits et services qu’ils produisent que sur leur capacité de contrôle communicationnel (Mouhoud et Plihon, 2009). Or, comme le souligne Hermet (2004), la gestion du risque est la finalité même de la gouvernance, y compris en ce qui concerne la gestion publique. La gouvernance se définit généralement comme « un processus de coordination d’acteurs, de groupes sociaux, d’institutions, pour atteindre des buts propres discutés et définis collectivement dans des environnements fragmentés et incertains » (Carrier et al., 2006) ou encore comme « les nouvelles formes interactives de gouvernement dans lesquelles les acteurs privés, les différentes organisations publiques, les groupes ou communautés de citoyens, ou d’autres types d’acteurs, prennent part à la formulation de la politique » (Marcou et al., 1997, p.140). Si le terme de gouvernance apparaît au XIIIe siècle en désignant « la façon de se conduire », ce n’est qu’au début des années 1930 que la notion prend une connotation proprement gestionnaire, analysée sous l’angle de la séparation entre la propriété et la gestion des entreprises (Moreau-Desfarge, 2008). Au tournant des années 1980, le terme s’insère au cœur des débats politiques et participe de ce fait au processus de managérialisation du politique (Gaulejac, 2005). Selon Rosenau (1992), une « bonne gouvernance » nécessite d’implanter des mécanismes communicationnels d’autorégulation en vue de transformer la conduite des gens. Ces mécanismes de contrôle fonctionnent non plus de manière hiérarchique, mais de manière horizontale (Rosenau, 1995). Ce modèle de gouvernance qui s’appuie sur des mécanismes cybernétiques d’autorégulation ne vise pas une forme d’équilibre homéostatique mais plutôt un processus évolutif de flux perpétuels. La gouvernance renvoie donc à une nouvelle modalité plus horizontale, participative et démocratique de gestion du pouvoir (Dufour, 2009). Axée sur le dialogue, elle repose sur une rationalité procédurale qui joue un rôle aussi important que la rationalité substantielle dans la mesure où l’accent est mis davantage sur le processus du dialogue que sur les finalités de la pratique. La gouvernance vise alors à assurer l’autorégulation des intérêts privés d’une multitude d’acteurs concernés par un problème ou une question spécifique (idem). Nous posons donc l’hypothèse que le Big Data s’inscrit dans le contexte du capitalisme avancé qui se caractérise par des processus de plus en plus rationnalisés visant à arrimer la surproduction avec la surconsommation afin de maintenir la dynamique d’auto- valorisation du capital. À titre d’exemple, les tentatives d’arrimage de l’offre et de la demande par la mise en place de systèmes de recommandation relèvent d’une forme de gouvernance, une stratégie de gestion du risque reposant sur des mécanismes communicationnels visant à transformer la « conduite des gens » (stimuler l’achat de biens culturels).

L’économie politique de la communication

Nous mobilisons également dans cette recherche certaines notions provenant de l’économie politique de la communication et de la théorie des industries culturelles. Les théoriciens des industries culturelles (Huet et alii, 1978; Flichy, 1980; Miège et alii, 1986; Bustamente et Zallo, 1988, Tremblay et Lacroix, 1991; Babe, 1995, Dorland (dir.), 1996 et Lacroix et Tremblay, 1997, entre autres) ont mis de l’avant, depuis la fin des années 1970, l’existence de grandes logiques génériques, ou modèles, permettant de caractériser ces industries (logique éditoriale, logique de flot, logique du club privé). Ce concept de logique renvoie aux formes institutionnalisées dominantes que revêtent la marchandisation et l’industrialisation de la culture à un moment de l’histoire. Ces modèles résultent d’une technique donnée, d’une articulation entre les formes précises des différentes fonctions économiques, des types de contenu, des modes de financement et des usages sociaux spécifiques (Tremblay et Lacroix, 2002). La détermination de ces modèles, comme l’observation de leur évolution, est fort utile à une compréhension globale de la dynamique d’ensemble des industries culturelles.

Par ailleurs, de nombreux auteurs, économistes en particulier, insistent depuis plusieurs années sur l’importance grandissante, dans nos systèmes économiques, des biens d’information, dont font partie les biens culturels. Pour ceux-ci, les propriétés physiques des biens d’information ressemblent à celles de l’information elle-même (Quah, 1999 et 2002), si bien que l’on doit faire appel à la microéconomie des rendements croissants et de la concurrence imparfaite pour en comprendre la dynamique (Shapiro et Varian, 1999; Varian, 2000 et DeLong et Froomkin, 2000). Du côté de la production, la structure de coût des biens informationnels, caractérisée par un coût fixe de production élevé et un coût de reproduction faible, favorise des rendements croissants. Du côté de la demande, le bien d’information est un bien d’expérience, sa valeur n’étant révélée qu’après la consommation (Nelson, 1970). D’où une incertitude fondamentale quant à la valeur d’usage d’un bien d’information et l’existence d’effets de réseaux (Liebowitz et Margolis, 1994 ; Economides, 1996). Ces effets de réseaux, que l’on peut également qualifier d’effets d’entraînements dans la demande, favorisent une concentration des ventes sur un petit nombre de titres, phénomène nommé par certains « Winner take-all markets » (Frank et Cook, 1995) ou « Superstardom » (Rosen, 1981 ; Adler, 1985 et 2005). Ces différentes caractéristiques se traduisent par des stratégies concurrentielles où prédominent la différenciation des produits, la discrimination des prix, la multiplication des versions et la vente par paquet (Varian, 1996 ; Shapiro et Varian, 1999 ; Ménard, 2004). Caractéristiques qui sont particulièrement pertinentes lorsqu’il s’agit d’analyser le comportement d’entreprises culturelles qui mettent en place des systèmes de recommandation de biens culturels, qui sont des biens informationnels et d’expérience.

Les recherches sur l’économie de l’attention (Goldhaber, 1997; Davenport et Beck, 2001; Kessous et al., 2010) pour leur part ont pour origine le constat de Simon (1971) à l’effet que dans un contexte de surcharge informationnelle la rareté se situe non pas dans l’information disponible, mais dans l’attention dont disposent les consommateurs pour traiter l’information. Partant de l’hypothèse que l’identité d’une personne est reflétée par un ensemble d’informations (déclaratives ou résultant de comportements de nature transactionnelle ou attentionnelle), y est postulé que l’analyse des « traces d’usages », ou « dépôts d’attention », permettrait d’identifier les préférences et caractéristiques sociodémographiques des individus, ce qui ouvre la voie à plusieurs modes de valorisation de l’attention : publicité, recommandation ou revente de fichiers à des tiers (Kessous, 2011). Les entreprises du web social ont d’ailleurs investit massivement dans le développement d’outils de ciblage contextuel et comportemental au cours des dernières années (Beuscart et Mellet, 2008). Cette approche souffre toutefois de deux limites importantes, soit l’assimilation des traces de navigation aux préférences des individus, la formation de celles-ci demeurant donc exogène à l’analyse (Auray et Gensollen, 2007) et la non prise en compte du fait que les individus construisent et gèrent leur présence en ligne (Boyd et Crawford, 2011). Malgré ces limites, ces travaux peuvent constituer un apport intéressant en ce qu’ils jettent un éclairage sur un élément central de la démarche marketing des entreprises, qui est de capter l’attention des consommateurs. Or les systèmes de recommandation visent précisément à capter l’attention des internautes en leur offrant des suggestions de biens supposés correspondre à leurs préférences révélées par l’analyse des informations laissées par ceux-ci (les « dépôts d’attention »). Analyse qui repose sur la logique même du « Big Data », soit la mise en relation statistique de données massives en vue de dégager des « patterns » d’information. Suivant ces travaux, nous avançons donc l’hypothèse que le développement de systèmes de recommandation vise à autoréguler l’offre et la demande grâce à un branchement direct du producteur (l’offre de produits) sur le consommateur (ses préférences révélées).

Les surveillance studies

Enfin, il est indéniable que l’effort de capter et d’analyser les « dépôts d’attention » des internautes à des fins commerciales s’inscrit comme une forme de surveillance et de contrôle. Ce champ de recherche (les surveillance studies), est balisé par deux courants principaux. On trouve d’une part un courant inspiré par le paradigme du panoptique foucaldien (Foucault, 1975) qui soutient que la prolifération des technologies de surveillance numérique nous plonge dans une société de contrôle (Deleuze, 1990) ou de surveillance généralisée (Lyon, 1994). D’autre part, des approches d’inspiration postmoderniste soutiennent que la surveillance s’opère désormais involontairement, de manière horizontale par la séduction, la participation et la ludification plutôt que par une forme de domination verticale (Lianos, 2003; Andrejevic, 2005). La particularité du contrôle postindustriel résiderait dans l’exigence d’autonomie et de conformité. La conceptualisation de la surveillance en termes de panoptique numérique global n’expliquerait donc pas pourquoi les citoyens et les consommateurs divulguent de manière délibérée et parfois même festive leurs données personnelles. Au contraire, les systèmes de recommandation semblent bien relever d’une dynamique de surveillance horizontale et involontaire, caractérisée par la mise en relation, via l’analyse statistique du « Big Data », des informations concernant une multitude d’internautes.

À partir de ces différents corpus théoriques, nous serons en mesure de comprendre en quoi le Big Data s’inscrit dans une nouvelle forme de régulation de la pratique sociale, la gouvernance, qui consiste à gérer l’ensemble des risques sociaux (la production, la consommation, la sécurité, etc) de manière probabiliste. Dans le cadre de cette recherche, nous avons tout d’abord analysé un rapport produit par un des principaux acteurs dans la mise en place du Big Data, IBM. Cette analyse préliminaire, qui se retrouve en annexe du présent rapport, nous a permis de comprendre quelles sont les principales techniques au fondement de la logique du Big Data. À la suite de cette analyse, nous verrons dans la première partie de cette recherche, comment le Big Data repose sur une forme de «néo- positivisme numérique» (Mosco, 2013) qui se présente comme étant a-idéologique, puisqu’il prétend être en mesure de connaître le Réel lui-même notamment à travers diverses techniques de forage de l’information en temps réel (data mining). Dans la seconde partie, nous explorons les fondements idéologiques du «Big Data» afin de montrer comment il tire ses origines dans la cybernétique, et comment il s’inscrit dans une nouvelle modalité de contrôle et de surveillance propre à la dynamique contemporaine du capitalisme néolibéral et financiarisé.

Partie I : Considérations épistémologiques sur le «Big Data»

Avec l’émergence des médias socionumériques, nous assistons à une augmentation significative de la production, de la circulation et de la consommation de données. Si l’abondance de données commerciales et financières n’est pas en soi nouvelle, la prolifération de données « sociales » (valeurs, opinions, jugements, etc.) constitue une nouveauté. Face à ce phénomène, loi des grands nombres aidant, plusieurs estiment que ces quantités massives « peuvent dire quelque chose » ; qu’elles forment un tout cohérent à l’image du social lui-même.

Face au rapport avec le Réel, deux principales postures philosophiques s’opposent. La tradition herméneutique postule que le Réel n’est pas accessible en soi ; qu’il est toujours une représentation/construction sur la base d’une médiation symbolique. La tradition positiviste affirme au contraire que les données de l’expérience permettent de connaître directement le Réel. Le «Big Data», en tant qu’ensemble de techniques informatiques d’analyse de données, est fondé sur la prémisse que ces pratiques permettent de révéler directement le Réel. Cependant, sous cet angle, la prolifération de données « sociales » pose deux défis majeurs : 1) comment appréhender des données qui sont essentiellement politiquement et idéologiquement chargées (socialement produites); et 2) comment rendre ces données significatives dans la mesure où elles sont à ce point si massivement produites qu’elles sont posées comme hors de portée de l’observateur (to big to know).

Le premier défi est relevé grâce à la théorie mathématique de l’information. D’une part, cette dernière permet de neutraliser la charge politico-idéologique en transformant le symbolique (l’information en son sens premier de rapport/action de mise en forme) en donnée, c’est-à-dire objectivant en soi. D’autre part, en raison de sa transformation en données quantifiables, l’information devient désormais sujette à des opérations de collecte, stockage et de gestion. Le second défi, c’est-à-dire la manière d’harnacher les vastes quantités de données, est à son tour relevé par les moyens mêmes de la production contemporaine de données : l’outil informatique en tant qu’automatisation du calcul.

Ceci n’est pas sans conséquence sur la dynamique des relations de pouvoir. En effet, le symbolique et ses charges politico-idéologiques étant soi-disant neutralisés, la légitimité du pouvoir repose donc moins sur le politique que sur les rapports processuels de contrôle et de gestion induits par la technique. Paraphrasant Saint-Simon qui appelait le passage du gouvernement des hommes à l’administration des choses, nous posons l’hypothèse que nous sommes en voie de passer du gouvernement des hommes à l’administration des hommes devenus des choses/données (la notion de « data double » - Lyon, 2007).

Le «Big Data» et le Réel

Le «Big Data» est la capacité de mettre en relation plusieurs bases de données et, grâce à l’utilisation de méthodes de corrélations avancées, identifier des patterns d’information qui autrement demeureraient invisibles. (Bollier, 2010). Des premiers supercalculateurs de l’après-guerre aux systèmes d’analyse des bases de données commerciales (Business Intelligence), l’idée d’analyser des données par traitement informatique n’est pas en soi nouvelle. Le «Big Data» poursuit cette généalogie en la propageant dans de nouvelles directions. Premièrement, il se distingue par la volonté explicite d’intégrer toutes les données (nous y reviendrons), puisqu’il entend colliger, en plus des données commerciales traditionnelles, celles produites par les médias socionumériques. Ce faisant, le «Big Data» pose pied dans le champ du « social », notamment grâce au sentiment analysis consistant au recours à des techniques d’analyse informatisée linguistique et littéraire pour identifier et extraire des données subjectives. (Pang et Lee, 2008) Deuxièmement, le «Big Data» s’inscrit dans une démarche explicitement proactive, motivée en cela par la velléité d’établir des corrélations annonciatrices de tendances futures (fraudes par cartes de crédit, publicités ciblées, offre et demande, fluctuations financières, etc.). Enfin, troisièmement, le «Big Data» se démarque par son application, autrefois du ressort exclusif du domaine des activités commerciales, aux activités de l’État (surveillance, protection et gestion du territoire).

Nourri par les données issues des médias socionumériques, le «Big Data» prétend en effet s’appliquer à l’ensemble du vivre-ensemble, contribuant ainsi à transformer l’État politique en gouvernance, soit la gestion des processus opérationnels sur la base d’une société désormais transformée en données. Ainsi, non seulement le «Big Data» est- il de plus en plus utilisé par exemple dans le cadre des campagnes politiques (intentions de vote) et les processus décisionnels au sein d’activités collectives (santé, éducation, etc.), mais il a le potentiel de passer carrément de la description à la prescription lorsque ses outils de projection et d’anticipation du risque sont appliqués au domaine de la « sécurité ».

En tant que modélisation, le «Big Data» possède deux principales caractéristiques, toutes issues de sa posture épistémologique précédemment soulignée. En tant qu’outil posé comme neutre et ayant un accès direct au Réel, il prétend à la représentation de la totalité (l’ubiquité du Réel) et à sa connaissance immédiate (temps réel).

Le Big Data entend intégrer et analyser toutes les données, c’est-à-dire les données traditionnelles structurées en bases de données, les métadonnées produites par l’analyse de ces données et les données non structurées des médias socionumériques (courriels, messages, affichage sur Facebook et Twitter, etc.). Cette idée de Réel est ce qui meut le dynamique de totalité, comme l’atteste notamment la célèbre initiative américaine Total Information Awareness qui visait à l’intégration de technologies informationnelles pour agréger des données, analyser des liens, développer des modèles descriptifs et prescriptifs en utilisant le forage de données (data mining) afin d’appliquer ces modèles à d'autres sources de données pour identifier les terroristes et les groupes de terroristes. Controversé, le programme fut coupé de fonds en 2003, mais il a repris vie grâce à un programme secret de la NSA que certains décrivent comme un véritable projet Manhattan contemporain et qui consisterait à établir des postes d’écoute à travers le pays afin de capter et analyser les milliards de courriels et appels téléphoniques en provenance et à destination des États-Unis2.

2 «The NSA Is Building the Country’s Biggest Spy Center (Watch What You Say) » in Wired, Wired.com, 15 mars 2012. Accédé le 3 février 2013.

Posé comme conforme au Réel, le «Big Data» est donc associé au forage de données, comme si les données constituaient une ressource naturelle/brute (sans médiation symbolique) du Réel. S’il est vrai que dans une optique heideggérienne la technique participe au dé-voilement du Réel, l’opération de désymbolisation repose sur ce qu’Heidegger appelait la représentation anthropologico-instrumentale de la technique et qui consiste à voir cette dernière uniquement comme un outil neutre assujetti à la volonté de l’usager. À l’aune du «Big Data», toute production technique de données est donc vue comme « naturelle », c’est-à-dire conforme à un Réel qui se présente comme « achevé » en soi.

Si l’opération de dévoilement du monde en marque également son achèvement, le monde n’est donc pas à être approprié : il est. Il n’est plus le fruit d’une praxis en tant que rapport dialectique entre le sujet et le monde ; il n ‘est plus le déploiement d’une relation temporelle psychiquement et collectivement individuante (Simondon, 2007). Voilà pourquoi le «Big Data» est, en son cœur, une dynamique qui trouve son paroxysme dans l’instantanéité. En effet, le «Big Data» repose sur l’importance d’obtenir les toutes dernières données ; l’idéal pour le «Big Data» serait ainsi d’être alimenté continuellement par le maintenant, c’est-à-dire être intégré à même les circuits de production, de circulation et de consommation des données : « This lifestream — a heterogeneous, content-searchable, real-time messaging stream — arrived in the form of blog posts and RSS feeds, Twitter and other chatstreams, and Facebook walls and timelines .» 3 Cette dynamique de temps réel pour le «Big Data» n’est pas un accident.

C’est dans l’ordre du temps réel, en effet, que le sens peut apparaître comme achevé (dispense de la médiation symbolique diachronique). C’est dans l’ordre du temps réel que l’activité préventive (gestion du risque) peut donner son efficacité maximale (passage de l’incertitude au risque probabilisable – donc quantifiable). Enfin, c’est seulement dans l’ordre du temps réel que peut être maintenue l’occultation de la médiation symbolique par le primat des rapports processuels (le fonctionnement en soi devient la téléologie du processus).

3 «The End of the Web, Search, and Computer as We Know It » in Wired, Wired.com, 1er février 2013. Accédé le 3 février 2013.

En ce sens, le phénomène du «Big Data» est conforme à ce que soulignait Negri : « La médiation est absorbée par la machine de production. […] C’est une forme de légitimation qui ne repose sur rien d’extérieur à elle-même et qui est reformulée sans cesse par développement de son propre langage d’autovalidation » (Negri, 2000 : 59).

Nous sommes ici en plein terrain heideggérien : l’humain se sert de la technique en s’en croyant le maître absolu (représentation anthropologico-instrumentale), ce qui l’induit à ignorer que celle-ci incarne également le pouvoir du pouvoir ; du coup, le sujet/Dasein confond son propre destin avec celui de la Technique. Au sein de l’univers du «Big Data», la production symbolique (idées, sentiments, valeurs, etc.) devient effectivement un flux de données produites par des « dividus » deleuziens, ce que par ailleurs avait bien anticipé Horkheimer : « Le perfectionnement des moyens techniques de propagation des Lumières s'accompagne ainsi d'un processus de déshumanisation. Le progrès menace d'anéantir le but même vers lequel il tend en principe : l'idée de l'homme » (Horkheimer, Adorno, 1974 : 3).

Une idéologie non-idéologique

Fondé sur l’immédiateté et la totalité, le «Big Data» participe à la (re)production du système-monde (Mondoux, Lacroix, 2009), c’est-à-dire qu’il nourrit des prétentions ontologiques : celles d’incarner le monde en soi par la simple « médiation » (neutre) de la technique. Cette velléité d’accéder directement au Réel n’est pas nouvelle en soi, comme l’attestent les positions épistémologiques traditionnelles empirico-positivistes. Cependant, alors que ces positions étaient jadis ancrées dans des ensembles idéologiques plus vastes (Progrès, Civilisation, etc.), elles sont désormais autoréférentielles : l’accès au Réel est devenu le but en soi ; les moyens sont devenus la fin. S’en suit l’émergence d’une idéologie (posture face au Réel) qui se présente comme non-idéologique (simple médiation technique) ; une idéologie que Labelle, s’appuyant sur les travaux de Lefort, décrit comme « invisible » et où « Le Réel n’est plus ramené à un autre que lui, il n’est plus mesuré à un étalon qui lui serait supérieur et qui lui donnerait son sens ; il parle, en principe, tout seul ; de lui-même et par lui-même. » (Labelle, 2011). En ce sens, le «Big Data» s’inscrit dans les dynamiques contemporaines d’occultation des catégories du politique et de l’idéologie comme agents de médiation (rapports au Réel) producteurs de sens.

Pourtant, et c’est la une critique que l’on peut adresser à Heidegger (Stiegler, 2006), il ne faut pas négliger le vivre-ensemble comme dimension essentielle de l’être- dans-le-monde ; que l’être-sous-la-main implique également une praxis, une appropriation collective. Comme le soulignait Lefebvre, la fin (supposée) de l’histoire reste un phénomène historique ; la prétention au non-idéologique (technique) reste une idéologie. La généalogie de la posture épistémologique du «Big Data» passe notamment par l’idéologie de la cybernétique. Articulée autour de la notion centrale d’homéostasie, la cybernétique présuppose ce que Simondon appelait la « bonne forme », la forme initiale, celle que l’homéostasie a pour mandat de (re)produire. En faisant l’économie de la genèse effective de la « bonne forme », l’avant comme moment où toutes les «formes» sont possibles et qui aurait ainsi ouvert la voie au pluralisme politico- idéologique propre au symbolique, l’épistémologie cybernétique arrive ainsi à hisser les rapports processuels au rang de finalité. Non seulement le Réel n’est plus soumis à la médiation symbolique (politico-idéologique), mais le politique et l’idéologique sont posés comme entraves au plein fonctionnement des rapports processuels (techniques) à la base du Réel.

Nous retrouvons ici l’idéologie du néo-libéralisme : une fois libéré des chaînes du politique (la liberté individuelle comme seule dimension effective), le marché saura donner naturellement sa pleine mesure. Posée comme le monde lui-même, l’idéologie néo-libérale se fait totalisante ; le monde cesse d’être un oikoumene, un monde à produire collectivement, pour incarner le Réel lui-même. En ce sens, comme le souligne Foessel, nous vivons dans l’après-fin du monde :

La fin du monde est devenue l’horizon du présent parce que les objets techniques définissent désormais à la place des hommes, ce qu’il est souhaitable de faire. L’image de la fin entérine le rétrécissement considérable de l’espace des possibles consécutif à l’apparition d’un univers d’instruments techniques qui se glissent entre l’homme et la nature. De ce point de vue, la fin du monde ne désigne pas tant un événement à venir dont il faudrait retarder l’échéance qu’une formule qui caractérise la physionomie du présent. Elle a déjà eu lieu et nous vivons après la fin du monde (Foessel, 2012, p. 12).

Conformément au capitalisme informationnel (Dean, 2009), le «Big Data» participe de cette production de la totalité en transformant le monde en données cumulables, stockables, gérables et du coup « marchandisables ». En prônant la gestion du risque par anticipation des tendances, le «Big Data» reconduit l’idée du Réel comme une machina, c’est-à-dire une entité dont le but est de déployer sa pleine et optimale production ; la production étant ici soumise aux impératifs d’un capitalisme qui se réifie désormais en tant que catégorie du Réel (l’économie). Ainsi, comme le soulignait Jameson, il est plus facile d’envisager la fin du monde que celle du capitalisme… (Jameson cité par Keucheyan, 2010 : 75).

Tel que souligné précédemment, le «Big Data» participe à une dynamique d’accélération du temps, propageant ainsi l’idée que le Réel est essentiellement un processus et que pour l’accéder il faut le saisir dans son mouvement même. Contrairement à ce que l’on pourrait penser, cette primauté du temps réel n’est pas le propre de notre actualité technologique. Marx, déjà, avait noté cette propension comme trait significatif du capitalisme :

Plus le capital est développé, plus vaste est donc le marché où il circule; or, plus est grande la trajectoire spatiale de sa circulation, plus il tendra à une extension spatiale du marché et donc à une destruction de l’espace grâce au temps (Marx, 1858 : 59).

Le capital tend, de par sa nature même, à dépasser toutes les limites de l’espace. La création des conditions mêmes de l’échange (moyens de communication et de transport) devient en conséquence une nécessité impérieuse pour lui : il brise l’espace au moyen du temps […] le capital se met donc en devoir de produire les moyens de communication et de transport (Idem : 34).

3. Le «Big Data» et les rapports de pouvoirs

Depuis Foucault (1975), l’idée que tout ordre sociohistorique est fondé sur des rapports de pouvoir où le sujet se discipline lui-même (panopticon) est plus ou moins tenue pour acquise. Cependant, les avis divergent quant à savoir si nous sommes dans une société disciplinaire ou de contrôle. En effet, peut-on encore parler de discipline lorsque cet ordre, pour reprendre l’expression de Lefort (Lefort, 1986), ne fait plus l’épreuve de son institution, c’est-à-dire qu’il n’est plus représenté comme politico-idéologique ? Sommes-nous toujours dans la discipline quand l’impératif du temps réel, ce qu’Edwards nommait le béhaviorisme cybernétique (Edwards, 1996), œuvre directement à transformer une adhésion d’ordre éthique à une dynamique mue par les pulsions ? Plus près de nous, Rosa signale que :

Les sociétés modernes sont régulées, coordonnées et dominées par un régime temporel rigoureux et strict qui n’est pas articulé en termes éthiques. Les sujets modernes peuvent donc être décrits comme n’étant restreints qu’à minima par des règles et des sanctions éthiques, et par conséquent comme étant libres, alors qu’ils sont régentés, dominés et réprimés par un régime-temps en grande partie invisible, dépolitisé, indiscuté sous-théorisé et inarticulé (Rosa, 2012 : 8).

En ce sens, l’émancipation (empowerment) chantée par les médias socionumériques qui alimentent le «Big Data», relève bel et bien au contraire d’une forme de pouvoir coercitif : « Le temps de la valeur est celui du présent perpétuel qui agit comme norme et qui possède la particularité de s’imposer aux agents de façon coercitive. » (Fischbach, 2011 : 85). Cette dynamique est d’autant plus renforcée qu’elle mise sur l’évidente et « naturelle » adéquation au Réel. Autrement dit, l’intégration (éthique) au monde se fait désormais sur la base de l’impossibilité d’être à l’extérieur ; toute extériorité brisant la prétention à l’ontologie (être le Réel/monde). Voilà pourquoi, à la limite, toute altérité ne marque plus seulement le retour du politique et de l’idéologie, mais il revêt l’apparence du Mal (Dean, 2009) puisqu’il remet en cause le « monde » lui- même. Il faut donc garder le sujet constamment à l’intérieur du « monde » : ce à quoi participe la dynamique du Big Data en reposant sur la production constante d’individus qui sont continuellement « branchés » (AOAC – Always On Always Connected), et ce, avec des outils qui ont comme principales caractéristiques d’automatiser le stockage des traces de leur utilisation. En ce sens, le Big Data peut être vu comme une gouvernance fondée sur la gestion des traces (surveillance) laissées par les individus.

En tant qu’outil technique qui se pose simultanément comme ontologie (le Réel) et médiation, le phénomène de «Big Data» devient donc une dynamique auto-réalisante : il lui suffit de se projeter comme Réel pour effectivement modeler les comportements conformément à ce qui est du coup se voit confirmé dans son statut ontologique. Cette auto-référentialité est ce qui permet au «Big Data» de faire l’économie (apparente) d’une médiation symbolique (tiers symbolisant) et d’être simultanément processus de production et de contrôle. Ainsi, les outils de production du monde et des individus (Facebook se décrit comme un « social utility ») sont les mêmes qui déploient également comme dynamiques de surveillance et de contrôle ainsi banalisés puisqu’ils vus comme les moyens même d’intégrer et participer au vivre-ensemble. Comme nous le verrons dans la prochaine section de ce rapport, avec le «Big Data», nous sommes passés du contrôle de la production à la production du contrôle…

Partie II : De Big Brother à Big Data : Prolégomènes au concept de security- entertainment complex »

Pourquoi le divertissement parvient-il à ses fins ? Parce que le divertissement est terreur.

Pourquoi est-il terreur ?

Parce qu’il nous désarme totalement. L’absence de sérieux avec lequel la terreur entre en scène fait que nous nous ouvrons imprudemment à elle et nous livrons pieds et poings liés bien plus facilement qu’à la terreur habituelle, celle qui, en uniforme, nous accule et nous fait trembler; que nous perdons l’envie de résister avant même d’être terrorisés; que nous assimilons ce qu’on nous a fait ingurgiter avant même de pressentir ce que nous avons ingurgité – et tout cela signifie que nous pouvons être vaincus par le divertissement avant même de commencer à le combattre.
Gunther Anders, L’obsolescence de l’homme. Tome II. Sur la destruction de la vie à l’époque de la troisième révolution industrielle, 2011, p. 136

La publicité télévisuelle d’Apple de son nouvel ordinateur Macintosh, diffusée lors du Super Bowl du 22 janvier 1984, est désormais un classique : une athlète isolée, pourchassée par les autorités, fracasse l’image géante d’un dictateur au milieu de sa diatribe propagandiste, libérant ainsi la masse d’individus qui étaient sous son emprise. Le message est aussi simple que puissant : la créativité et la singularité vaincront l’homogénéisation et la conformité. À bien des égards, cette publicité était annonciatrice de la dynamique que nous vivons aujourd’hui où des millions d’usagers des médias socionumériques, des individus décrits comme émancipés des grandes idéologies (empowered), font circuler des quantités massives d’informations personnelles. Malheureusement, celles-ci forment également une trame qui dit-on peut être appréhendée directement par la puissance des algorithmes, et ce, en des modélisations capables de prédire le futur («Big Data»). De plus en plus, les tenants de la gouvernance se tournent vers ces puissants outils numériques qui sont en voie de s’intégrer directement à même les circuits de production, circulation et consommation de l’information. Désormais, nous vivons sous le regard analytique des machines à calculer. «Big Data» serait-il devenu le nouveau Big Brother ?

S’inspirant de l’auteur de science-fiction Bruce Sterling (2009), Nigel Thrift reprend le concept de « security-entertainement complex » – successeur du complexe militaro-industriel – qu’il définit comme une dynamique «founded on the ubiquity of `active' data, the intelligence-gathering principles and outcomes of both the security and the entertainment industries have become remarkably similar in their aims, based on models that can track activity through a pervasive sphere of information which no longer cuts space up but suffuses it» (2011 : 13). Pour Thrift, cette dynamique est imputable au déploiement de technologies induisant un nouvel âge de l’information caractérisé par la construction en cours d’une nouvelle ontologie. Plus encore, Thrift soutient la possible coexistence – et hybridation – d’ontologies multiples et, du coup, intègre cette notion clé dans la dynamique globale des constructions socioculturelles. Le security-entertainement complex marquerait l’émergence de nouvelles pratiques sociotechniques modifiant l’organisation, l’analyse, la présentation, le stockage et la diffusion de l’information, créant ainsi un nouveau rapport au Réel présenté comme une nouvelle ontologie.

Nous reconnaissons avec Thrift que nous sommes en présence d’une nouvelle « ontologie » ou plus précisément d’un nouveau rapport sociohistorique au réel marqué par l’occultation de la médiation symbolique/institutionnelle (Freitag,2007; Stiegler, 2004) par la technique (Mondoux, 2011) comme tecknè heideggérienne de dé/voilement du monde. En tant que phénomène technique de collecte et représentation de quantités massives d’informations, le «Big Data» contribue à produire l’apparence d’un lien direct entre l’usager et le réel, induisant un nouveau paradigme de « everywhere, all of the time, forever » en cela conforme à une définition du Réel. Cette occultation de la médiation symbolique marque également la mise en retrait des rapports politico-idéologiques – ce que nous avons décrit comme étant l’hyperindividualisme (Mondoux, 2009, 2011) – soit le primat de l’individu qui prétend devenir par et pour lui-même sans autre détermination que son libre arbitre. Cette dynamique du « je », où priment identité personnelle et jouissance, se manifeste notamment dans les médias socionumériques par des pratiques de quêtes/expressions identitaires comme sources de production et circulation de données personnelles dans l’espace public. Ceci permet de distinguer le forage de données du «Big Data» : alors que le premier consistait à exploiter des bases de données commerciales et publiques structurées et plutôt statiques, le second intègre en plus la production en temps réel de données personnelles non structurées formant des quantités massives de données pouvant être mises en relation afin d’inférer des conclusions par l’utilisation de méthodes de corrélation avancées (Bollier, 2010). L’idée étant que le Réel est traduisible en données et se laisse appréhender directement par elles; obtenir toutes les données (totalité) équivaudrait au réel lui-même. Nous sommes donc bel et bien ici dans un rapport « ontologique » au sens où Thrift l’entend.

Cependant, adopter la notion de construction sociale d’ontologies rend nécessaire de voir celles-ci comme étant également des discours issus d’une dynamique politico- idéologique. En d’autres termes, conformément à ce que Heidegger nommait la représentation anthropologico-instrumentale de la technique, soit la tecknè comme étant également le fruit d’une instrumentalisation par l’usager, nous serions en présence d’une idéologie qui se (re)présente/(re)produit sur une base en apparence non idéologique ou technique. Nous nommons cette dynamique sociohistorique système-monde (Lacroix & Mondoux, 2009), soit une organisation sociale fondée sur la prétention à incarner le Réel lui-même par le biais d’une technique posée comme neutre et ainsi rendue d’autant plus acceptable aux yeux d’individus portés à rejeter toute forme d’autorité extérieure à leur libre arbitre (hyperindividualisme). Maintenir la prétention à incarner le Réel/monde exige de réfuter toute forme d’extériorité (on ne saurait être extérieur au monde…). Voilà pourquoi, comme le souligne Jodi Dean (2009), l’apparition de l’idéologie est vue comme le Mal lui-même puisqu’elle détruit en quelque sorte la construction ontologique (le Réel lui-même comme « non-idéologique »). Ceci rend donc nécessaire de constamment garder le sujet « à l’intérieur » par une combinaison d’incitatifs et de surveillance. En ce sens, le «Big Data» fait de la surveillance un élément constitutif du Réel, la banalise en l’intégrant à même les dynamiques de production (technè) de l’ontologie/Réel. Ainsi, une même plateforme technologique permet à la fois la production d’informations par les individus, leur circulation, leur mise en mémoire et les rend ainsi repérables, interrogeables et modélisables. En ce sens, le «Big Data» participe à une dynamique de production et reproduction d’une ontologie qui occulte le recours au symbolique et à la transcendance. Pour paraphraser Simondon, le «Big Data» est la technique livrée à elle-même; comme si le Réel se traduisait par un ensemble de données « neutres » exemptes de toute idéologie.

Or, la technique est autant portée que porteuse de valeurs. Les technologies numériques sont porteuses des valeurs de l’époque où elles furent créées, plus particulièrement celles du complexe militaro-industriel : un monde dont la téléologie est donnée, exempté de faire l’épreuve de son institution (médiation symbolique/idéologique/politique), un monde où la surveillance et le contrôle sont intégrés à même sa production. Inscrites dans les outils, ces valeurs allaient suivre la diffusion des technologies numériques dans les autres sphères d’activités humaines; d’abord dans la finance, puis ensuite, avec le «Big Data», à l’ensemble des activités commerciales puis sociales. Il nous faut donc débusquer l’idéologie et le politique dans la technique. Pour ce faire, le concept de security-entertainment complex sera effectivement utile. Bien que Thrift souligne avec justesse que la généalogie du security-entertainment complex passe par le complexe militaro-industriel, il n’explique pas le passage de l’un à l’autre. Nous avançons que la coupure entre les deux relève davantage d’une continuité où les valeurs du premier expliquent le second. Nous posons que la technique, plus spécifiquement la technologie numérique contemporaine, est effectivement une forme de mémoire (Leroi-Gourhan, 1993; Stiegler, 2006; Mondoux, 2011) porteuse d’une forme de rationalité militaire fondée sur les valeurs de contrôle, de production et de surveillance (Mattelart, 2011; Edwards, 1996). C’est par la diffusion et l’adoption de la technologie numérique que ces valeurs sont passées du militaire au monde de la finance et des grandes industries, puis à l’ensemble des activités économiques et sociales. Sur ce dernier point, le rôle des industries culturelles a été – et est toujours – majeur. En effet, dans un monde marqué par l’hyperindividualisme, soit le refus de l’autorité et la valorisation de la jouissance, la conformité aux valeurs et normes sociales se fait par une « persuasion soft » (Lipovetski 1984), soit en misant sur la personnalisation et la gratification comme moteurs d’une adhésion volontaire. En plus des liens directs et indirects entre l’industrie du jeu et le militaire, le phénomène gamification, soit l’extension des rapports techniques et ludiques propres aux jeux à d’autres contextes communicationnels, joue un rôle important dans la stimulation de la production de données personnelles. La gamification alimente le «Big Data» et ainsi participe à la dynamique de construction d’une « ontologie » – d’un rapport au Réel – fondée sur la production, la circulation, la surveillance, la collecte, l’analyse et la modélisation de données en vue de produire, ultimement, un plein contrôle garantissant une gestion parfaite du risque.

Les origines militaires du «Big Data» : la cybernétique

Historiquement, les technologies numériques sont apparues autour des recherches menées et/ou financées par les militaires américains, dont le Department of Advanced Research Projects Agency (DARPA), et qui ont mené à la création des premiers supercalculateurs. C’est dans ce terroir que s’est développée l’idéologie cybernétique que nous aborderons ici. L’histoire est désormais célèbre : Norbert Wiener, père de la cybernétique, débuta ses travaux par des recherches financées par le DARPA en vue de mettre au point des canons anti-aériens, ce qui lui permit de développer les bases de la cybernétique autour de la notion centrale de rétroaction. En fait, ce que voulait l’armée américaine était une machine à prédire l’avenir d’objets en mouvement; pour Wiener, c’était d’injecter de l’ordre dans ce qui semblait aléatoire.

Les valeurs « ontologisantes » de la cybernétique peuvent être débusquées en analysant ses fondements épistémologiques et peuvent être regroupées autour de quatre principaux points : la transformation de l’information en données, l’idée de totalité, la prédictibilité et, ultimement, l’adéquation au réel grâce à la totalité de ces données.

Une des grandes conséquences de la théorie mathématique de l’information (Shannon, 1948) a été de séparer le contenant du contenu (Breton, 1987). Ainsi, ce qui était rapport et mise en forme (l’information) devenait donnée, c’est-à-dire une unité probabiliste d’un groupe d’appartenance plus large. Un jeu de cartes, par exemple, ne renvoyait plus qu’à lui-même (chacune ayant une probabilité d’occurrence de 1/52). Tout rapport au symbolique et au sens se voit ainsi évacué au profit d’une matrice de données fermée sur elle-même. Sous cet angle, rien d’étonnant alors de constater la place qu’occupent les notions de rétroaction et d’homéostasie. Elles servent essentiellement à reproduire ce que Simondon nommait la « bonne forme », la structure posée comme initiale et à partir de laquelle est dérivée la téléologie d’un système. La structure et sa téléologie étant posées dès le départ, il n'y alors plus besoin de faire intervenir le symbolique et les dimensions idéologico-politiques. Pourtant, comme l’ont souligné Simondon (2004) et Lefebvre (1979), il suffit de poser la question de l’origine de cette « bonne forme » (en terme cybernétique : quelle téléologie choisir) pour en faire ressortir les dimensions symboliques, idéologiques et politiques. Politiquement parlant, l’idéologie cybernétique porte naturellement au statu quo, soit la reproduction des conditions existantes.

La seconde caractéristique épistémologique de la cybernétique est l’idée de totalité. La matrice autoréférentielle ne saurait fonctionner que si elle est complète, c’est- à-dire que si elle comporte déjà en soi toutes les possibilités :

The ideal computing machine must then have all its data inserted at the beginning, and must be free as possible from human intervention to the very end. This means that not only must the numerical data be inserted at the beginning, but also all the rules for combining them, in the form of instructions covering every situation which may arise in the course of computation (Wiener, 1948 : 19; les soulignements sont de nous).

C’est en ce sens qu’Edwards (1996) parle de « closed-world », d’un monde (totalité) refermé sur lui-même, c’est-à-dire « achevé ». Et puisqu’il est ainsi « atteignable » (niant l’écart entre le Réel et la représentation propre au symbolique), il devient donc ainsi pleinement rationnel, pleinement contrôlable. C’est ici que s’annonce ce qui va devenir le complexe militaro-industriel : le passage du contrôle de la production à la production du contrôle, la transformation de l’incertitude inhérente au régime symbolique à la gestion rationnelle du risque.

En ce sens, la prédictibilité constitue la troisième caractéristique ontologique : à sa base même, la cybernétique est toute axée vers la prévision du futur. Désigné par Wiener comme Saint Patron de la cybernétique, celui qui a opérationnalisé le système binaire, Leibniz, s’est dit inspiré par le Yi-King chinois, un art divinatoire. À partir de Dieu (1) et du néant (0), Leibniz croyait pouvoir traduire la totalité du monde dans un langage parfait basé sur les mathématiques. Par la suite, ayant modélisé le réel sous forme de données mathématiques, Wiener transformera celles-ci en séries stochastiques, c’est-à-dire une modélisation à partir de laquelle il est possible d’extrapoler par corrélations les données suivantes (le futur). Wiener répondait ainsi parfaitement à la commande de l’armée : anticiper la position future d’un objet (avion) afin de l’atteindre avec un tir balistique. De cette modélisation, quatrième caractéristique ontologique, se dégage une représentation de l’humain comme machine à calculer. Pour Wiener, la machine et l’humain sont tous deux régis par une même dynamique temporelle de devenir qui est de nature communicationnelle : « […] the much more fundamental notion of message, whether this should be transmitted by electrical, mechanical, or nervous means » (Wiener, 1948 : 8). Ainsi modélisé, l’humain agit effectivement comme une machine : il effectue le traitement des messages entrants en messages sortants, ce qu’Edwards (1996) a qualifié de « béhaviorisme cybernétique ». Il en va d'ailleurs de même avec la vie en groupe, du social lui-même : « It is possible to give a sort of measurement to this by comparing the number of decisions entering a group from the outside with the number of decisions made in the group. We can thus measure the autonomy of the group » (Wiener, 1948 : 158).

Au final, la cybernétique aura contribué à créer une représentation d'un monde achevé, entièrement rationnel, contrôlable et prédictible; un monde où le symbolique est occulté et avec lui l’idéologie, le politique et l’histoire. Mais, comme l’a signalé Lefebvre (1971), la fin de l’histoire reste un phénomène historique; la fin de l’idéologie constitue toujours de l’idéologie. Et c’est justement sur le terrain du social, lieu de l’intersubjectivité et de son inévitable médiation symbolique, que Wiener et la cybernétique se heurtent à des défis de taille. Constatant avec surprise le manque évident d’homéostasie au sein de la société, Wiener ne peut se résoudre à avancer une solution (ni la science, ni le marché, ni le politique) et laissera ainsi cette question cruciale en suspend (1948 : 158-159). C’est ici que nous touchons la cinquième et dernière caractéristique ontologique de la cybernétique : une idéologie qui se présente comme non idéologique, c’est-à-dire technique (primat des moyens et processus sur les fins). Or, si une idéologie ne se présente plus comme discours sur le monde, mais bien comme le monde lui-même, elle nourrit alors la prétention d’être le monde, d’être liée directement (sans médiation symbolique) au Réel lui-même. En retour, cette velléité se traduit par un renforcement du contrôle : on ne saurait être à l’extérieur du monde sans mettre à nu/détruire cette prétention d’être le monde. Voilà pourquoi l’intégration à ce monde se fait sur la base d’être à l'extérieur de celui-ci, c’est-à-dire banalisée par son intégration aux processus de socialisation (on songe notamment à Facebook où l’intersubjectivité/amitié est déployée sous la forme de pratiques consistant à révéler ce que l’on fait, pense et où nous sommes en temps réel). De plus, toute émergence d’un rapport idéologique fera beaucoup plus que d’engager un rapport de pluralité symbolique/sociopolitique : elle sera vue comme une menace envers le monde, soit le Mal lui-même (Dean, 2009).

Les fondements idéologiques du Big Data : la globalisation néolibérale et la financiarisation de l'économie

La théorisation de la cybernétique aura des conséquences majeures sur notre façon de penser notre rapport au monde qui vont au-delà de l'informatisation des rapports sociaux. La globalisation néolibérale et la financiarisation de l'économie sont d'autres transformations qui tirent leurs sources au cœur des théories cybernétiques et qui expliquent les fondements idéologiques du «Big Data». Comme le soutien l’historien de l’économie Philip Mirowski (2000), la transformation épistémologique fondamentale dans le domaine économique depuis la Deuxième Guerre mondiale a consisté à conceptualiser les agents économiques en termes de processeurs informationnels et, corollairement, le marché comme mécanisme cybernétique de transmission de l’information. En fait, dès les années 1940, Friedrich Von Hayek fera une analogie entre le marché et un système cybernétique de rétroaction de l’information. Hayek (1945) soutient que le problème économique fondamental n’est pas tant l’allocation des ressources rares de façon optimale que la question de l’utilisation du savoir ou des informations. Selon lui, le marché est un mécanisme de communication qui prend la forme d’une boucle de rétroaction en permettant aux divers entrepreneurs individuels — qui sont ici compris comme des processeurs informationnels — d’ajuster leurs comportements en fonction des informations transmises par leur environnement. Le capitalisme devient ainsi cybernétique en ce que le marché, tout comme le modèle mathématique de l’information de Shannon-Weaver, vise à réduire les « bruits » qui empêchent le système communicationnel des prix de fonctionner efficacement.

Selon Mirowski (2000), l’introduction des problématiques issues de la cybernétique dans le domaine économique doit être située dans le contexte de la Guerre Froide et de la montée du complexe militaro-industriel où la science doit de plus en plus répondre aux problématiques soulevées par les enjeux militaires. Dans ce contexte, une convergence entre les théories cybernétiques et les théories économiques néoclassiques verra le jour, notamment grâce au financement des travaux en économétrie par la RAND corporation et la Cowles commission4. En ce sens, si Hayek est à l’origine du Manifeste de la révolution cybernétique en économie, on doit son application pratique à l’ouvrage de John von Neuman et d’Oscar Morgenstern Theory of games and economic behavior (1944). La théorie des jeux a été développée par Von Neuman – qui a travaillé sur le projet du premier supercalculateur UNIVAC - pendant la Seconde Guerre mondiale dans le cadre d’une recherche financée par l’armée américaine. Elle consiste à appliquer les principes de calcul de risque afin d’élaborer des stratégies militaires. Son application au fonctionnement des marchés s’est faite à la suite de sa rencontre avec l’économiste Oscar Morgenstern. Leur intention est alors de quantifier les incertitudes induites par le marché, ce qui permettrait de maximiser les prises de décision d’acteurs considérés comme rationnels et maximisateurs de leur utilité. Selon la théorie des jeux, il s’agit de quantifier l’ensemble des informations passées des agents économiques afin de prédire les utilités qu’un acteur rationnel peut s’attendre à obtenir dans le marché (expected utility). L’application des principes cybernétiques au fonctionnement des marchés trouvera une fonction pratique dans les années 1970 dans le contexte de l’augmentation de la volatilité liée à la déréglementation des marchés financiers. Un des développements théoriques majeurs dans le domaine de la finance moderne est l’élaboration de la théorie des marchés efficients.

4 La Cowles commission for research in economics est un groupe de recherche créé en 1932 à l'Université du Colorado. Elle est à l’origine de la mathématisation de la science économique après la seconde guerre mondiale.

Élaborée dans les années 1970 par Eugène Fama (1970), elle postule que le prix des actions reflète la connaissance collective des marchés au sujet des performances futures d’une entreprise. Les raffinements théoriques issus de la théorie des marchés efficients ont permis de calculer la valeur des produits dérivés (futures, options) qui sont aux fondements de l’actuel régime d’accumulation financiarisée.

Ces produits dérivés ont été créés à partir d’un modèle mathématique, le modèle Black-Scholes, dont les calculs complexes n’auraient pas été possibles sans l’utilisation d’ordinateurs puissants qui analysent un nombre abyssal de données. L’idée principale qui sous-tend le modèle développé par Black et Scholes, et qui viendra révolutionner la pratique de la finance, est que le marché est en mesure de décrire et de prédire les variations des risques abstraits en mesurant leur variation dans le temps (Bernstein, 2005). Bref, le marché est en mesure de communiquer toutes les informations nécessaires afin d’attribuer une valeur aux produits dérivés. Le marché des produits dérivés est apparu à la bourse de Chicago en 1973, en même temps que les politiques de déréglementation des taux de change. L’application de la théorie cybernétique au domaine financier a ainsi légitimé et dépolitisé la pratique de la spéculation financière en lui attribuant un caractère scientifique. On comprend alors mieux l'intérêt que représente le Big Data dans le domaine économique puisque plus l'information sera « parfaite », moins les risques seront grands.

Plus encore, une automatisation dans la production et le traitement des données puis dans les actions qui seront prises a été envisagée comme une amélioration du système économique. La chute des accords de Bretton Woods qui est au fondement de l’actuel mouvement de financiarisation de l’économie, a consisté à remplacer les anciennes médiations institutionnelles qui permettaient aux États de contrôler politiquement la monnaie dans le régime fordiste par la logique d’automatisation propre aux marchés financiers informatisés. Le projet de dénationalisation de la monnaie souhaité par Hayek s’est réalisé grâce à sa dématérialisation notamment au moyen des produits dérivés qui agissent maintenant comme un nouvel étalon de mesure de la valeur fondé sur l’information. En 1984, Walter Wriston, le président de Citicorp, une des premières banques à informatiser ses activités, soutenait d’ailleurs que :

It is also fair to say it has created an entirely new system of world finance based on the incredibly rapid flow of information round the world. I would argue that, what one might call the information standard has replaced the gold standard and indeed even the system invented at Bretton Woods. (W.Wriston, cité par Hamilton, 1986 : 30).

La « révolution » imaginée par les néolibéraux dans la lignée de Friedrich Von Hayek a consisté à appliquer les principes de la cybernétique au fonctionnement des marchés, transformant ainsi symboliquement le capitalisme en un vaste système de rétroaction de l’information. Dans la foulée des thèses hayekiennes, la pensée néolibérale a accusé le collectivisme de conduire au « chemin de la servitude » (Hayek, 1944). Selon Hayek, le contrôle de l’information par une entité monopoliste (l’État) mènerait inévitablement les sociétés sur la voie du totalitarisme. Selon Walter Wriston, la dissolution des capacités régulatrices de l’État aurait émancipé les individus face au contrôle et à la surveillance étatique :

What we have seen and said is that information technology has demolished time and distance. But instead of increasing the power of government and, thus, validating Orwell’s image that Big Brother watched our every move, that proposition has been stood on its head and we have all wound up watching Big Brother (1997 : 1).

Les propos de Wriston illustre l’illusion de l’idéologie libérale qui soutient que le marché serait le résultat de l’interaction harmonieuse des intérêts particuliers. Au contraire, la libéralisation des taux de change à la suite de la fin des accords de Bretton Woods démontre que cette dernière participe d’une logique d’extension de la dynamique de contrôle organisationnel et de surveillance propre au capitalisme avancé. En effet, dans le contexte d’une augmentation de l’incertitude liée à la volatilité des marchés financiers, les firmes adoptent les principes du risk management et leurs fonctions principales passent de la production de biens et marchandises à la gestion et au contrôle d’informations — principalement financières — afin de pallier les risques engendrés par un environnement monétaire plus complexe. Dans une économie financiarisée, la gestion du risque devient l’activité principale de la firme plutôt que la production de biens et services, puisque les risques peuvent être par la suite transformés en titres qui sont échangés sur les marchés financiers et sujets à la valorisation capitalistique. La valeur des actifs des entreprises ne porte donc pas tant sur les produits et services qu’ils produisent que sur leur capacité de surveillance des informations du marché et de contrôle communicationnel des risques (Lipuma & Lee, 2005).

Le «Big Data» et le risk management : de la surveillance de l'entreprise à celle de l'individu

Plus nous nous rapprochons d'une totalité des données qui seraient en adéquation avec le réel, plus la prédictibilité devient fiable. En ce sens, le «Big Data» serait en mesure de créer un système automatisé d’investissement, comme le high frequency trading (Laumonier, 2013), afin de régler les problèmes informationnels du marché (Roth, 2009). Comme le souligne Laumonier :

Un trader à haute fréquence est un robot, [..] un mélange de code informatique et de puces électroniques dont la tâche n’est guère éloignée de celle de Deep Blue : observer et décider. Grâce à des centaines d’algorithmes (certains traitent les informations, d’autres prennent des décisions, d’autres encore font le lien entre les deux, sans compter ceux qui assurent le routage entre les différentes plateformes, etc.), les machines tentent d’aller plus vite les unes que les autres dans le but de saisir une opportunité qui aurait échappé aux concurrents en raison de leur inattention ou de leur lenteur (2013 : 70).

Il s’agirait notamment, selon certains de ses promoteurs, d’utiliser les techniques de data mining et de sentiment analysis afin de prédire les comportements futurs des marchés à partir des traces informationnelles qui sont laissées par les usagers des médias socionumériques comme Twitter et Facebook (Bollen & al, 2010). C’est également dans cette optique que Robert Shiller (2003), un des principaux théoriciens de la finance béhaviorale, proposait à la suite de l’effondrement de la bulle Internet de démocratiser la finance par les technologies de l’information et de la communication (TIC) en appliquant au domaine financier les principes issus de la cybernétique. Selon Shiller, les « clients de Wall Street jouissent de bénéfices qui devraient être étendus aux clients de Wal Mart » (2003 : 1). En appliquant les principes de la théorie cybernétique au domaine financier, il serait possible de construire une base de données à l’échelle internationale, la Global Risk Information Database (GRID). Chaque individu calculerait et gérerait rationnellement les divers risques encourus tout au long de sa vie économique (perte d’emploi, dévaluation de l’hypothèque, maladie, etc.) et pallierait ainsi les incertitudes du marché en s’assurant en conséquence. Les TIC stabiliseraient non seulement les fluctuations économiques liées à la dynamique de financiarisation, mais ils diminueraient également les inégalités économiques et réactiveraient l’idéal d’une démocratie de propriétaires sous une forme financiarisée (Shiller, 2003 : 16-17).

En ce sens, on peut soutenir que l’application du «Big Data» au domaine financier participe d’une logique de surveillance néolibérale que le théoricien de l’économie politique internationale Stephen Gill (1995) nomme le Global Panopticon. Dans le Global Panopticon, l’autorégulation de l’ordre mondial s’effectue par l’instrumentalisation des désirs individuels. La surveillance accrue des comportements individuels au moyen des techniques du Big Data comme les enquêtes de crédit sur les informations personnelles et l’implantation d’outils informatiques qui mesurent le rendement des employés (Hearn, 2013), participent d’une logique disciplinaire qui vise à gouverner en instrumentalisant la liberté individuelle de sorte que les désirs de chacun s’alignent sur les objectifs prédéterminés par la dynamique valorisation du capital globalisé.

Ainsi, la spécificité du néolibéralisme repose sur le fait que la sécurité économique, qui reposait sur l’État dans le contexte de la régulation providentialiste, est maintenant transférée à l’individu qui est responsable de gérer lui-même ses risques à la manière d’une entreprise. Sous l’État-providence, la légitimation de la logique de socialisation des risques provenait de l’incertitude face à l’avenir. Grâce aux avancées technoscientifiques fondées sur la capacité cybernétique de prévisibilité dont le «Big Data» décuple les possibilités et l'efficacité, il est maintenant possible d’individualiser le risque. Par exemple, en colligeant l’ensemble des informations sur les conduites d’un individu (son alimentation, son hygiène de vie, voire sur ses gènes), il est possible, selon les promoteurs du «Big Data», de prédire les risques sur la santé individuelle, ce qui contraint le sujet à gérer à la manière d’une entreprise son capital-santé en vue d’optimiser sa vie. Selon Esther Dyson, PDG de EDventure Holdings, un fond d’investissement dans le domaine de la santé, le «Big Data» permettrait ainsi aux individus de titriser leur santé :

The challenge in health insurance from the insurers’ point of view is that it’s not really worth it to pay for prevention because some other insurance company is going to reap the benefits later on,” she said. So if a person’s health were assigned a monetary value, much as financial instruments “securitize” intangible risks, then insurance companies would have a financial motive to provide preventive care. The financial value of a person’s health would be reflected in a schedule of health care fees; if the actual cost of medical care were less than the predicted cost, then the insurer would make money after providing preventive care (Bollier 2010 : 32).

En ce sens, le «Big Data» prétend régler le problème de la planification économique évoqué par Hayek, selon lequel la complexité — qui provient de la dispersion des connaissances — empêche toute forme d’intervention centralisée de réguler les interactions sociales. Dans le régime de la gouvernance néolibérale, l’information devient un nouvel objet de savoir transformé en entité ontologique — voire en principe cosmologique — et vise à administrer et à ordonner les relations sociales, économiques, politiques, culturelles et même militaires (Dillon & Reid, 2001 : 56). S’appuyant sur les principes issus de la cybernétique, le «Big Data» repose sur une logique de risk management au cœur de la gouvernance néolibérale. Le risk management consiste à rendre visible les risques qui sont en soi imperceptibles au moyen de l’abstraction, de la quantification et de l’objectivation des informations provenant de l’activité sociale (Power, 2004). Grâce à des algorithmes sophistiqués, le «Big Data» a ainsi la prétention de colliger le savoir tacite des individus (révélé par leurs traces informationnelles) afin d’assurer un ordre autorégulé et plus prévisible où toutes les activités humaines sont modélisées.

Le «Big Data» et la surveillance dans la société bureaucratique de consommation programmée : l’exemple des systèmes de recommandation

Comme nous l’avons soutenu dans les sections précédentes, la dynamique d’accumulation du capitalisme financiarisé procède d’une rationalité qui présente des caractéristiques semblables à la logique tayloriste et fordiste. Au contraire de l’idéologie néolibérale qui prétend que l’autorégulation de la société provient du libre choix des individus, il faut reconnaître que les volontés particulières sont déterminées à l’avance par le mécanisme de planification du marché. Dans le néolibéralisme, la liberté cède sa place à l’adaptation individuelle perpétuelle face aux signaux qui sont envoyés par le marché. Il convient en ce sens de rappeler que le principal problème économique selon Hayek est celui de l’impossibilité de la planification économique centralisée dans la mesure où une autorité centrale est incapable de détenir l’ensemble des informations possédées par les divers agents économiques. Selon Hayek, si la planification économique doit être décentralisée, il n’en demeure pas moins qu’une gigantesque armature technocratique est essentielle afin de trouver un débouché pour la surproduction inhérente à la dynamique du système industriel. Pour gouverner de manière efficiente, un immense processus d’ingénierie sociale doit être mis en place préalablement (surveillance généralisée, technologie de contrôle, normes comptables, audits, etc.).

Il faut donc se demander si le capitalisme financiarisé ne consisterait-il pas plutôt en une extension du taylorisme en ce que sa rationalité instrumentale s’étend au-delà de la sphère du travail pour subsumer l’ensemble de la vie humaine ? Comme le montre l’exemple du «Big Data», la principale différence ne reposerait-elle pas sur le fait que l’ingénieur financier et informatique du régime d’accumulation financiarisé vienne remplacer l’hégémonie de l’ingénieur industriel du régime fordiste ? De fait, pour l’ingénieur qui applique la méthode tayloriste, ce sont les gestes des travailleurs qu’il convient de surveiller afin de les décomposer pour ainsi assurer l’efficience du procès de production. Pour l’ingénieur financier et informatique, il s’agit plutôt de décomposer chacune des facettes de la corporation et de la vie humaine elle-même, qui sont considérées comme des informations objectivables et transformables en risques. Ces risques objectivés, qui sont par la suite traduits sous la forme de titres, peuvent être échangés sur les marchés financiers et être sujets à la valorisation capitalistique.

Bureaucratie et liberté sont paradoxalement compatibles dans le régime néolibéral, puisqu’il s’agit de «forcer» les individus à faire des choix en programmant leurs intérêts, qui doivent être compatibles avec le régime d’accumulation. D’ailleurs, comme le soulignait Galbraith dans The New Industrial State (1967), l’introduction de la technologie dans le système productif exige des investissements massifs de la part des firmes, ce qui rend de plus en plus risqué de laisser au consommateur seul le choix de décider ce qui doit être produit. Dans le contexte du capitalisme avancé, la publicité et le marketing occupent un rôle central de planification de la consommation, c’est pourquoi Henri Lefebvre qualifie le capitalisme avancé de « société bureaucratique de consommation programmée » (1968). Selon Lefebvre, un nouveau type anthropologique surgit dans cette société bureaucratique de consommation programmée : le cybernanthrope :

Le cybernanthrope n’investit qu’à coup sûr. Selon ses supputations. Les énergies limitées dont il dispose, il en calcule l’application […]. Pas de gaspillage. Il se gère avec une rationalité technicienne qui découle d’une double origine : la science physique, la science de l’entreprise. C’est une parodie d’auto-gestion (1967 : 217).

Il est un domaine où l’incertitude est une constituante incontournable que les industriels ont tenté de surmonter et qui constitue un exemple phare afin de comprendre les liens entre la cybernétique et le «Big Data» : les industries culturelles. Depuis la fin de la Deuxième Guerre mondiale, les industries culturelles ont constitué un champ privilégié d’expansion du capitalisme et, plus généralement, l’ensemble du secteur du divertissement a progressé considérablement en taille ainsi qu'en diversité. Non seulement l’industrie du divertissement est-elle devenue omniprésente, mais la demande en innovation technologique provenant de ce secteur dépasse désormais celui du domaine militaire5. En ce sens, le passage du military-industrial complex au security-entertainment complex s’explique par le fait que les technologies de surveillance qui étaient autrefois conçus par le secteur militaire sont maintenant principalement développées dans l’industrie du divertissement et récupérées par les militaires (Bauman & Lyon, 2013 ; The Economist, 2009). Comme le souligne Thrift :

From the base of consumer electronics, through the constant innovations in the spatial customization of pleasure found in mass leisure industries like toys or pornography, through branding, gaming, and other spatial practices to the intricate design of experience spaces, entertainment has become a quotidian element of life, found in all of its interstices amongst all age groups (2011 : 12).

5 Selon Dillon & Reid (2001) : «US and allied forces still require customised information technology but have come to rely increasingly on the civil commercial information market […]The military market now makes up to about 2% of US demand for information technology, down from 25% in 1975» (p. 64).

Or, un bien culturel est un bien symbolique, c’est-à-dire porteur d’identité, de valeurs et de sens (UNESCO, 2001), et un bien d’expérience (Caves, 2000) : on ne peut pas connaître la valeur d’un bien culturel avant d’avoir fait l’expérience de sa consommation. Le consommateur se trouve ainsi confronté à une incertitude radicale, son processus d’évaluation étant non seulement complexe et susceptible de se différencier selon le contexte, l’espace et le temps, mais ne pouvant être complété avant la consommation du bien. Incertitude qui s’avère par ailleurs symétrique (Caves, 2000; Ménard, 2004), car le marchand ne sait pas non plus si le client va apprécier le bien culturel qu’il essaie de lui vendre.

La gestion du risque, ou plus précisément la transformation de l’incertitude (par nature non probabilisable) en risque probabilisable, est donc le grand défi auquel sont confrontées les entreprises du domaine de la culture et du divertissement. Avec le «Big Data», on prétend relever ce défi en accumulant et traitant une grande quantité de données sur le consommateur afin de créer un « profil » permettant, grâce à un traitement algorithmique, de prévoir son comportement futur. Par exemple, grâce aux systèmes de recommandation, on affirme pouvoir prédire les biens qui seront consommés par un individu en se basant sur son comportement passé et un ensemble d'autres données (comportements des autres consommateurs similaires, attributs des items, etc.). En ce sens, les systèmes de recommandation sont l’une des plus anciennes applications du «Big Data»6 et sont désormais omniprésents dans l’offre de biens culturels en ligne (Amazon, Pandora, Netflix, Apple, TiVO, etc.). Leur objectif est de proposer au consommateur un dispositif lui permettant de faire des choix : « Driven by computer algorithms, recommenders help consumers by selecting products they will probably like and might buy based on their browsing, searches, purchases, and preferences » (Konstant & Riedl, 2012).

Ces systèmes proposent des recommandations personnalisées, conformément aux visées de la cybernétique et de l'hyperindividualisme où les données peuvent être accumulées en quantité suffisamment grande pour être en adéquation avec le réel et chacune de ses constituantes – dont chaque être humain. La recommandation vise à susciter un achat immédiat en jouant sur le désir et l’impulsivité de chaque consommateur : on lui propose un bien qu’il devrait aimer et qu’il peut acheter immédiatement, sans devoir mettre en branle une démarche complexe de recherche et d’analyse d’informations. Son processus décisionnel est simplifié à l’extrême, en plus d’être orienté vers un choix restreint de biens correspondants à ce qu’il a déjà aimé. Ainsi, non seulement évite-t-on les « erreurs » de consommation (l’achat d’un bien que le consommateur n’aimera pas), mais on comprime le temps de consommation (entre le moment de désir et l’achat), accélérant du même coup le cycle marchand.

Pour rendre performant ces systèmes et ainsi limiter les risques, on filtre les contenus afin de ne conserver que les données les plus pertinentes pour un utilisateur, en prédisant l’opinion que celui-ci portera sur les biens qu’il ne connaît pas encore. Trois types d’approches sont utilisées pour produire des recommandations : le filtrage collaboratif, le filtrage basé sur le contenu et le filtrage hybride (Nageswara & Talwar, 2008; Adomavicius & Tuzhilin, 2005; Poirier, 2011). Le filtrage collaboratif se base sur les appréciations données par un ensemble d’utilisateurs sur un ensemble d’items.

6 Le premier système de recommandation, un système de filtrage et de partage de l’information nommé Tapestry, fut développé en 1992 (Nageswara Rao et Talwar 2008 : 19-21).

On recommandera à un usager les items hautement évalués dans le passé par d’autres usagers qui présentent avec lui des similarités de goûts et préférences. Le filtrage basé sur le contenu se base sur la description ou les attributs des items. Plutôt que d’utiliser une corrélation usager-items, on utilise alors une corrélation item-item. On recommandera à l’usager de nouveaux biens possédant des propriétés similaires à ceux qu’il a bien notés. Comme son nom l’indique, le filtrage hybride consiste à combiner les deux méthodes précédentes, de manière à résoudre certains problèmes rencontrés par les systèmes ayant une approche unique.

La modélisation de ces systèmes repose sur quatre hypothèses de base qui s'inscrivent tout à fait dans la théorie cybernétique des marchés. La première consiste à affirmer que les individus, particulièrement sur le Web, sont de plus en plus confrontés à une surcharge informationnelle, ce qui est reflétée par le «Big Data» – « Too Big to Know » (Weinberger, 2012) – d’où la nécessité d’avoir recours à des outils et méthodes informatiques. La deuxième hypothèse prend appui sur le constat de Simon (1971) selon qui la rareté, dans un contexte de surcharge informationnelle, ne se situe plus dans l’information disponible, mais dans l’attention dont disposent les consommateurs pour traiter cette information7 (Goldhaber 1997; Davenport et Beck 2001; Kessous, Mellet et Zouinar 2010; Kessous 2012). La troisième hypothèse postule que les goûts et préférences des individus peuvent être révélés par un ensemble d’informations. Ces informations, devenues « données », peuvent être déclaratives (réponses à un questionnaire, commentaires, avis, etc.), mais aussi être générées par le comportement même des individus de manière automatique et involontaire. Mathiesen, dans la préface de Internet and Surveillance (2011), montre que les internautes laissent des « traces d’usage » lorsqu’ils naviguent sur le Web (pages fréquentées, temps passé sur chaque page, achats, transactions bancaires, etc.). Ces traces peuvent être analysées comme des « dépôts d’attention », lesquels seraient révélateurs des préférences et caractéristiques des individus (Kessous 2012). Ces traces numériques sont à la source même du «Big Data» et plus leur production augmente, plus la prédictibilité des comportements devient précise.

7 Simon cherchait cependant avant tout à développer le concept d’une rationalité limitée, procédurale plutôt que substantive.

Il faut alors surveiller de près et en temps réel la production de toutes les traces d’usage d’un individu, car, selon la quatrième hypothèse de ces systèmes de recommandation, ces traces d’usage peuvent être valorisées (monétisées) de différentes manières par ceux qui sont en mesure de les colliger et de les analyser (Kessous 2012) : on peut développer une publicité ciblée, vendre les données sur les utilisateurs à des tiers, utiliser ces données pour améliorer un service récurrent (réservation de chambre d’hôtel, demande de taxi…) ou susciter la vente directe en recommandant des articles à des fins de consommation.

Ces hypothèses ne sont pas sans conséquences pour l'individu et s'inscrivent tout à fait dans la visée d'un monde rationnel défini par la cybernétique où la gestion du risque est rendue possible par la modélisation des comportements humains. En effet, la première conséquence idéologique de cette modélisation est de représenter l’utilisateur comme un consommateur de type homo oeconomicus, c’est-à-dire un individu rationnel, doté de préférences stables dans le temps et qui organise sa consommation de façon à maximiser son utilité sous réserve des contraintes qui lui sont imposées. Certes, on reconnaît l’imperfection de cet homo oeconomicus, puisque l’on postule qu’il aura des défaillances cognitives en situation de surcharge informationnelle. C’est précisément pourquoi, d’ailleurs, on lui propose de faire le traitement cognitif à sa place. Avant la modélisation et l'autonomisation des désirs de l'homo oeconomicus, le processus décisionnel d'achat se fondait sur une médiation symbolique qui reposait sur le traitement cognitif d’un ensemble d’informations (recommandations éditoriales, recommandations intersubjectives, etc.). À cette médiation ancrée dans l’environnement social et l’univers symbolique de l’individu, on substitue désormais une médiation technique qui se prétend neutre et plus efficace, puisque le dispositif est en mesure de traiter toutes les informations disponibles et de révéler les préférences d’un individu mieux qu’il ne pourrait le faire lui-même. Ce consommateur dépossédé de ses facultés cognitives voit son incertitude sur la valeur des biens se réduire, mais les alternatives auxquelles il est désormais confronté sont aussi grandement limitées : un système de recommandation ne lui proposera en effet qu’un sous-ensemble prédéterminé des biens disponibles, un univers de possibilités singulièrement appauvri où les choix sont prédéfinis.

En ce sens, la seconde conséquence de la présentation de la consommation de produits culturels sous forme de données modélisables est de déposséder les biens de leur valeur symbolique. On caractérise les biens par un ensemble d’informations, caractéristiques ou attributs supposés révéler leurs qualités intrinsèques. On prétend ainsi que les choses existent en elles-mêmes et par elles-mêmes, sans médiation symbolique, politique ou idéologique. En objectivant un bien culturel et en le caractérisant par un ensemble de données, on lui retire sa valeur symbolique. On le réifie, on le transforme en marchandise dont les qualités intrinsèques et immuables peuvent être nommées et précisées, et donc objectivement reconnues par tous : la subjectivité est évacuée du processus puisqu'elle est objectivée dans un ensemble de données « neutres » qui s'accumuleront sous la forme du «Big Data».

Ainsi, la troisième conséquence de cette modélisation sous forme de système de recommandation est de créer une homogénéisation de la consommation. Un système de recommandation aura une forte tendance à recommander les articles qui possèdent les meilleures évaluations, ce qui créé un effet d’entraînement vers les articles les plus populaires (Hosanagar & al., 2012). Les éléments hautement évalués par un utilisateur représentent ce qu’il connaît déjà; on lui recommandera donc des articles très semblables à ce qu’il a déjà bien évalué. Les systèmes de recommandation sont donc susceptibles d’enfermer leur utilisateur dans un couloir de « déjà vu », dans un univers spécialisé qu’il connaît et apprécie déjà. Au nom de la personnalisation, les systèmes de recommandation produisent de la conformité et génèrent des prophéties que l’on peut qualifier d’autoréalisatrices, car on aimera forcément ce que l’on aime déjà. Cette conséquence renforce d'autant plus le risk management alors que la multiplication des comportements et l'imprévisibilité de la consommation sont diminuées.

Ainsi, les systèmes de recommandations dépossèdent l’usager de ses facultés cognitives. Ils dépossèdent les biens de leur valeur symbolique et produisent de la conformité en homogénéisant les choix de consommation. En ce sens, ils constituent des systèmes de surveillance banalisée dont l’objectif est de gérer le risque économique de l’échange marchand. Il s’agit bien d’une médiation technique, mais qui devient système d’autorégulation de l’offre et de la demande par une algorithmisation et une automatisation du traitement des données favorisant l’accélération de la circulation dans le circuit économique. Sous le régime d’une économie immatérielle (Gorz, 2004) où le fonctionnement de l’ensemble de l’économie s’assimile de plus en plus à celui des industries culturelles, le recours à ce type de médiation technique tend d’ailleurs à se généraliser. Ainsi, l’utilisation de systèmes de recommandation est loin de se limiter à l’univers culturel, puisqu’on y est de plus en plus souvent confrontés, que l’on recherche un hôtel, un restaurant, une destination voyage, des amis sur Facebook ou l’âme sœur sur un site de rencontre. Ces systèmes de recommandation constituent donc de puissants dispositifs de surveillance, quatrième et dernière conséquence de cette modélisation des comportements. Ces systèmes reposent sur le suivi, la collecte et l’analyse des traces laissées par les internautes. Certes, ceux-ci divulguent d’eux-mêmes, et parfois avec un bel enthousiasme, une multitude d’informations les concernant (déclarations factuelles, jugement sur différents produits, avis et commentaires, etc.), mais la plupart des informations sont récoltées via l’analyse de leur comportement de navigation et d’achat, sans qu’ils en soient la plupart du temps conscients. Cela semble donc bien valider les approches qui soutiennent que la surveillance s’opère désormais involontairement et de manière horizontale par la séduction, la participation et la ludification plutôt que par une forme de domination verticale (Lianos, 2003; Andrejevic, 2005).

Produire des traces numériques tout en « s'amusant » : la gamification comme forme de surveillance

Nous voyons donc avec l'exemple des systèmes de recommandation que plus il y aura production de traces numériques, plus nous nous rapprocherons d'une présentation parfaite du réel où la prédictibilité deviendra de plus en plus fiable puisque toutes les données seront prises en ligne de compte dans le « calcul ». Les systèmes de recommandation deviendront « parfaits » puisqu'ils seront en adéquation avec les goûts et les désirs des consommateurs – surtout dans le contexte du passage de la satisfaction de besoins à la création de besoins... Cette prétention à la totalité du réel traduisible en données est le fantasme qu'incarne le «Big Data» qui doit se nourrir d'une production croissante de données afin d'atteindre cette perfection. Or, afin de favoriser la production de traces numériques par les individus, des stratégies de gamification sont de plus en plus utilisées pour que l'individu ait envie de rester connecté et de se dévoiler.

La gamification est définie comme étant l'utilisation de l’état d’esprit et de la mécanique du jeu pour résoudre des problèmes et faire participer les usagers (Zichermann & Cunningham, 2011). Il n'est pas nécessairement question de jeu à proprement parler, mais d'éléments propres à une vision agonistique du jeu où il y a une forme de « compétition » ou de « collaboration » entre les membres d'un même « groupe » afin d'atteindre un but en rationnalisant la « solution la plus optimale » pour gagner. Cette vision du jeu a été largement influencée à la fois par la théorie des jeux de von Neumann et Morgenstern (1944), à la fois par les jeux vidéo dont l'industrie partage de nombreux liens avec le monde militaire. Ces liens ont d’ailleurs été largement démontrés par James Der Derian (2001) et le « military-industrial-media-entertainment complex »; Kline, Dyer-Whiteford et de Peuter (2003) avec le « military industrial complex »; Roger Stahl (2009) et le « militainment », etc. En ce sens, le military-industrial complex n'est pas étranger au security-entertainment complex puisque l'idéologie de l'un modélise la représentation de l'autre, mais cette façon de concevoir le monde est rendue acceptable grâce au divertissement où « divertir » prend le sens de « détourner l'esprit de quelqu'un de ce qui occupe ». Or, aujourd’hui, il n’est plus seulement question de « l'industrie du divertissement », mais de stratégies de diversion des esprits alors que les rapports de communication et les rapports sociaux sont eux-mêmes ludifiés. Le rapport au monde prend la forme d’un jeu où l'individu n'est désormais plus dressé grâce à des ordres hiérarchiques, mais grâce à des stratégies ludiques transversales qui le détournent des enjeux cruciaux.

En effet, la gamification incarne la forme achevée du « security-entertainment complex » où les comportements sont façonnés de manière « rationnelle » à des fins de contrôle, mais sous une forme ludifiée et, donc, plus difficile à remettre en question, le jeu étant présenté comme « inoffensif ». Néanmoins, conformément au béhaviorisme cybernétique et à la vision néolibérale de Hayek où l'humain est traduisible en données et est lui aussi une « machine », il est possible de modéliser ses comportements puis de les dresser avec des stratégies qualifiées aujourd’hui de « ludiques ». La gamification incite les individus à faire des choix, mais ces choix sont prédéfinis et prédéterminés par un ensemble d'algorithmes probabilistes afin, ultimement, de programmer leur comportement (comme nous l’avons vu avec les systèmes de recommandation). Il y a consommation et production programmées grâce à un profilage qui non seulement prédit, mais performe le réel en diminuant d'autant plus le risque (et le libre arbitre). Cette vision hautement béhavioriste de la gamification se reflète dans les objectifs de gratification que les systèmes de points, de badges, de classement, de barres de progression, de collection et d'échange d'items, de statut, de découvertes expriment. Présentée comme la solution miracle et la tendance majeure du monde des affaires pour augmenter la productivité des employés et la consommation, la gamification est principalement définie à partir des termes « engagement, motivation, behavioral change and productivity » (Marczewski, 2013). Les tenants de la gamification (Edery & Mollick, 2008; Zichermann & Linder, 2010; Zichermann & Cunningham, 2011) croient qu'elle accroît la fidélité des clients, capte l'attention des consommateurs, évacue les sources de frustration, rend invisible les stratégies de manipulation, stimule les employés, etc. et ce, en laissant l'impression à l'internaute ou l’employé d'avoir le plein contrôle sur ses activités.

Il faut comprendre que cette programmation comportementale est rendue possible grâce à une ludification de la technique qui la rend « jouissive » et s’éloigne, en fait, de toute rationalité. Dans le contexte de l'hyperindividualisme où l’individu est mû par la recherche de la gratification, la gamification apparaît comme étant la forme toute désignée pour le faire agir : l'individu « choisit » d'agir, de manière ludique, pour son bon plaisir, selon ses désirs. Cette recherche de plaisir devient un droit que naturalise l'individu dans un processus « de la jouissance pour soi ». Le «Big Data» aidant, les stratégies de gamification peuvent même être personnalisées, accroissant ainsi leur efficacité et le sentiment que les actions posées par l'individu sont propres à lui – comme s'il décidait entièrement de son « sort ». La gamification stimule alors la production de données en rendant « amusante » toute activité en ligne et en personnifiant le rapport à la technique : c’est la marge de jeu que l’individu croit posséder. La gamification agit ainsi comme « voile » de la surveillance en donnant l’impression que le pouvoir est détenu par l’individu. Cette stratégie dissimule d’autant mieux les processus de surveillance et la collecte massive de données sur l’individu qu’il se croit libre de ses actions.

Or, cette marge de liberté est entièrement contrôlée par les dispositifs techniques et les enjeux marchands et politiques. Le concept même de jeu est instrumentalisé, faisant de la liberté de l'individu une liberté factice de rester connecté afin de produire des traces numériques, d’augmenter la consommation et, de ce fait, la productivité capitaliste. L'angoisse que pourrait susciter la prise de conscience de cette perte réelle de libre arbitre est subsumée par un sentiment de sécurité « d'être à l'intérieur », de « faire parti du monde ». Les stratégies de gamification paraissent rassurantes, faisant de la technologie quelque chose de simple à comprendre et simple à contrôler. Les interfaces, présentées de manière ludique afin de simplifier des actions complexes et un système informatique de plus en plus difficile à appréhender dans son ensemble, donne un sentiment de « contrôle » sur la machine. Apple a d'ailleurs poussé à son paroxysme cette logique avec son design et sa navigation ludiques ainsi qu'en traduisant le monde en applications toutes simples (que le slogan « There's an app for that » illustre parfaitement). La gamification donne un sentiment de maîtrise sur un monde de plus en plus technicisé qui échappe pourtant à l'individu désormais traduit en « données » monnayables et où chacune de ses actions est sujette à surveillance.

De la surveillance à la sécurité : « le security-entertainement complex »

Ainsi, aujourd'hui, le «Big Data» tout comme la surveillance ne peuvent plus se penser hors de ces stratégies ludiques de « diversion » qui permettent la cueillette massive d'informations. Si la production massive de données sur les agissements de l'internaute ne paraît pas à ses yeux « problématique », c'est que les bénéfices et le plaisir personnalisés offert par la technique surpassent les désagréments qu'une surveillance pourrait lui occasionner – s’il en était conscient puisque bien peu d’internautes en sont au fait. La surveillance est lubrifiée grâce à la gamification, présentée comme a-politique et a-idéologique puisque conçue pour la jouissance individuelle seulement. Le système de surveillance ludifié permet ainsi la production massive d'informations sur l'individu afin d'établir des profils de plus en plus atomisés et précieux pour le circuit marchand sans que l'individu n'y perçoive de problème. Bauman et Lyon parlent d'ailleurs de « liquid surveillance » où la « surveillance softens especially in the consumer realm » (2013 : 2).

Or, cette surveillance de l'individu et la logique de profilage rendue performante grâce au «Big Data» ne sont pas seulement utilisées dans le contexte marchand, mais aussi dans les stratégies de gouvernance et de sécurité. En effet, selon McGinnis (2012) les mécanismes du «Big Data» garantiraient le maintien de l’autorité de manière plus flexible que les mécanismes rigides du modèle bureaucratique propre à la modernité politique. En ce sens, dans la gouvernance néolibérale, les discours sur la sécurité n’ont plus comme objet de référence la souveraineté territoriale, mais plutôt la vie humaine elle-même, laquelle est conçue en terme informationnelle (Dillon, 2008). De fait, à la suite de la guerre du Vietnam, l’armée américaine entreprend une révolution dans les affaires militaires qui consiste à mettre en place un système de communication informatisé dont le but est d’agir préemptivement sur les attaques ennemies. La Revolution in military affairs (RMA) vise à éliminer l’erreur humaine en appliquant des algorithmes informatisés qui utilisent la même logique de calcul de risque que l’on retrouve dans le secteur financier pour prédire le cours des produits dérivés (Martin, 2004). À titre d’exemple, le Pentagone a élaboré via le DARPA, la même agence qui à l’époque avait financé les travaux de Wiener, un projet visant à mettre en place une bourse du terrorisme dont la fonction était de coter les risques d’attentats. Deux entreprises privées avaient été contactées, Net Exchange et Neotek, afin d’élaborer ce projet qui visait à accroître l’efficacité dans la lutte contre le terrorisme. La mise en place de la bourse contre le terrorisme reposait explicitement sur la théorie des marchés efficients qui prétend que le marché est en mesure de prédire les comportements futurs en agrégeant l’ensemble des informations dispersées et parfois cachés (Looney, 2003).

Si le projet de bourse du terrorisme a avorté en raison des tollés qu’il a suscités dans l’opinion publique, il n’en demeure pas moins que les nouvelles pratiques en matière de sécurité reposent de plus en plus sur des acteurs privés qui utilisent des modes de gestion fondés sur le risk management. On assiste ainsi au passage du military- industrial complex au security-entertainment complex dans lequel un processus de sous- traitance de la sécurité s’effectue vers le secteur privé. Ce processus de sous-traitance ne consiste pas en un désengagement de l’État, mais augmente plutôt sa capacité de surveillance en mettant en place des pratiques décentralisée de risk management. Par exemple, la pratique du data mining, qui est une des principales techniques du «Big Data», est actuellement utilisée par le gouvernement américain afin de prévenir les attaques terroristes. Le data mining a pour prétention de prédire les comportements des individus à risque en visualisant l’ensemble des traces informationnelles qu’ils laissent dans leur vie quotidienne. L’origine des algorithmes qui servent à recomposer l’identité d’un individu provient des techniques développées dans les années 1990 par les mathématiciens d’IBM qui ont utilisé les informations provenant des codes à barres des produits afin de prédire les comportements d’achats futurs des consommateurs (Amoore & De Goede, 2009). En effet, le Total Information Awareness (TIA) de l’armée américaine, un chaînon important dans la généalogie entre le forage de données et le «Big Data», est développé par le DARPA. Le TIA consistait à utiliser les techniques de forage de données sur un vaste ensemble de données publiques et financières (données des cartes de crédits, déplacements aériens, relevés bancaires, etc.) à des fins de lutte au terrorisme. Lancé en 2002, le programme vit ses activités coupées court par le Congrès en 2003 qui y voyait de sérieux risques envers la vie privée des citoyens.

Néanmoins, depuis le 11 septembre, se met en place une industrie de la sécurité qui s’appuie sur l’État pour assurer ses conditions de rentabilité, à un tel point que l’OCDE voit dans l’économie de la sécurité un secteur en pleine expansion dans les pays industrialisés (OCDE, 2004). Le «Big Data» s’inscrit dans cette dynamique de relance économique selon Van Roeckel, le U.S. chief information officer :

As a free open data stream, we almost overnight created $100 billion in value to the marketplace, […]“The government is sitting on a treasure drove of data,” […] “We’re opening data, and looking at what we can do. We can greatly impact the lives of every American by just unlocking simple prices of data.” “We’re at the verge, the tipping point of the data economy,” […] “We’re just now starting to seeing companies founded on government data. The combination of cloud and Big Data can not only create useful insights, but also can create incredible value — not only the value we provide downstream in areas such as public safety and GPS, but real value in the way we think about decision making, the way we think about creating mission-based systems. There’s a definite multiplier effect at that intersection (McKendrick, 2013).

Le «Big Data» amplifie l’imbrication entre l’État et l’entreprise propre au capitalisme avancé. Comme le soulignait Galbraith : «En réalité, le système industriel est inextricablement lié à l’État. Il n’échappe à personne que la grande entreprise moderne est un bras de l’État; et celui-ci dans des circonstances importantes, est lui-même un instrument du système industriel » (1967 : 314). La principale différence réside dans un nouvel agencement entre acteurs privés et publics où la logique sécuritaire qui est de plus en plus sous-traitée à l’entreprise privée sert les intérêts de l’État. En ce sens, le «Big Data» induit toujours une forme de surveillance verticale qui s’appuie sur la surveillance latérale, laquelle est décuplée par l’intégration des TIC dans la vie quotidienne. Le «Big Data» fonctionne à travers une logique binaire d’inclusion/exclusion qui repose sur un discours de légitimation qui insiste sur les possibilités de libération que permettraient la technologie face aux institutions disciplinaires. Selon Thomas Friedman :

the democratization of technology, finance and information – which have changed how we communicate, how we invest and how we look at the world – gave birth to all the key elements in today’s globalization system. They are what blew away the walls. They are what created the network’s which enable each of us now to reach around the world and become Super-empowered individuals (1999 : 139).

Il reste que ce «Super-empowered individual» s’émancipe principalement dans la consommation, notamment au moyen des systèmes de recommandation qui prétendent lui offrir des marchandises spécifiquement confectionnés en fonction de ses désirs. Ces « inclus » — ceux qui possèdent un bon dossier de crédit, les actionnaires, les membres de l’élite managériale, les classes moyennes supérieures− doivent dévoiler délibérément ou non leurs informations afin d’être jugés crédibles auprès des créanciers et ainsi avoir accès au crédit à la consommation. Si cet accès augmente à la fois leur crédit à la consommation, leur mobilité, leur capacité de choix économique et leurs possibilités d’investissements financiers, leur inclusion se fait au prix d’une adaptation continuelle à la logique d’accélération au fondement de la dynamique de valorisation du capital. Comme le souligne Zygmunt Bauman, l’inclus est un individu en mouvement, « condamné à l’être » (1999 : 130). Dans ce contexte, la gamification est une stratégie efficace pour rendre acceptable ce système pour l'hyperindividu, mais si la bonne citoyenneté se définit en fonction de sa capacité de consommation et de sa mobilité, elle se fait au détriment de la capacité collective d’agir politiquement sur les finalités que prend la société. Comme le souligne Frank Fishbach : «Les néo-sujets sont ainsi convaincus que plus ils perdent en capacité de contrôle démocratique, en capacité de régulation politique et de maîtrise collective de leur vie sociale, et plus ils sont gagnants parce qu’ils suppriment ainsi les freins à leur mobilité et les entraves à leur flexibilité» (2011 : 38). Confinés à l’immobilisme, les « exclus » sont constamment traqués par le pouvoir panoptique, et subissent fréquemment la répression de « l’État pénal » (Wacquant, 2004; Passavant, 2005). Les exclus sont considérés comme des classes dangereuses, alors que les inclus — les citoyens-consommateurs — acceptent passivement leur perte de liberté politique dans un contexte où les médias socionumériques et les appareils de mobilité numériques reposent sur le principe du divertissement généralisé. Comme le soulignait Adorno et Horkeimer dans leur essai La production industrielle des biens culturels :

S’amuser signifie être d’accord […] S’amuser signifie toujours : ne penser à rien, oublier la souffrance même là où elle est montrée. Il s’agit au fond, d’une forme d’impuissance. C’est effectivement une fuite, mais pas comme on le prétend, une fuite devant la triste réalité ; c’est au contraire une fuite devant la dernière volonté de résistance que cette réalité peut encore avoir laissé subsisté en chacun. La libération promise par l’amusement est la libération de penser en tant que négation (1974 : 153).

Suivant Adorno et Horkeimer, on peut soutenir que le «Big Data» s’inscrit dans la logique de désinstitutionalisation du pouvoir politique propre aux sociétés capitalistes avancées; dynamique qui, plutôt que d’émanciper les sujets, participe à la consolidation d’une forme abstraite, quasi-objective et dépersonnalisée - technique - de domination imposée par la dynamique de valorisation du capital. La discipline imposée par les institutions laisse place à l’auto-contrôle et à la surveillance mutuelle permanente, l’expression de soi devenant le seul gage de reconnaissance en l’absence d’une réelle reconnaissance institutionnelle de la subjectivité sous la forme de la citoyenneté politique. Cette transformation des modalités de régulation de la pratique en fonction de l’imaginaire cybernétique propre au «Big Data» se caractérise par le passage du complexe militaro-industriel au security-entertainement complex. Dans le security- entertainment complex, l’État sous-traite son pouvoir disciplinaire aux corporations privées pour mettre en place une nouvelle gouvernementalité (Foucault, 1978-1979) qui repose sur un mélange de surveillance et de gamification.

Annexe : Le «Big Data» en question

Nous proposons ici un court compte-rendu d’un rapport d’IBM (2012) – acteur majeur voire même pionnier dans la question du «Big Data». Ce rapport fait l’état des lieux du «Big Data» et surtout explicite le rôle qu’il est appelé à occuper dans les stratégies d’entreprise. Avec l’aide de l’université d’oxford, le IBM Institute for Business Value a interviewé 1144 professionnel (responsable IT ou business manager).

Deux tendances se dégagent principalement de ce rapport et qui semble être à la base du phénomène «Big Data» :

La possibilité de numériser à peu près n’importe quoi est l’une des conséquences directes dans la production d’une énorme quantité de données souvent qualifiées de non structurées et difficilement stockables dans les entrepôts de données : donné streaming, données de localisation géospatiale, etc..

Le développement de nouvelles technologies et techniques qui sont capables d’extraire et d’organiser des tendances intéressantes dans ces grandes quantités de données. Capacité limitée quelques années encore auparavant.

Le rapport préconise plusieurs recommandations aux entreprises pour tirer profit du «Big Data» :
Focaliser ses efforts initiaux sur les résultats centrés sur les consommateurs
Développer un plan à grande échelle d’intégration du «Big Data»
Commencer avec les données existantes pour obtenir des résultats à court terme
Renforcer les capacités d'analyse basée sur les priorités commerciales
Créer un dossier commercial basé sur des résultats mesurables.
Ce rapport permet de déconstruire le concept de «Big Data» en quatre dimensions.

Quatre dimensions du «Big Data»

Volume : Cette dimension correspond à la quantité de données que les entreprises se forcent de traiter et d’analyser pour améliorer des décisions marketing, entreprenariale. En revanche cette quantité de données varie selon l’entreprise et selon la localisation géographique. La moitié des répondants évaluent la quantité de données entre le térabyte et le pétabyte tandis que 30 % n’ont pas vraiment connaissance de la quantité qui transite dans leur organisation.

Variété : Différents types de données et de sources. Il s’agit pour les entreprises de gérer la complexité de plusieurs types de données souvent structuré, semi-structuré ou non structuré. L’augmentation de nouveaux dispositifs, capteurs a contribué à la production exponentielle de données audio, vidéo, textes, click stream, fichiers de log, etc.

Vélocité : Les données sont constamment en mouvement. La vitesse à laquelle une donnée est créée, traitée et analysée continue d’augmenter. Certaines de ces données doivent être traitées en temps réels pour avoir une valeur au sein de l’entreprise telle que la fraude en temps réel.

Véracité : La véracité réfère le niveau de fiabilité associé à un certain type de donnée. Même les meilleures méthodes de nettoyage de données sont encore à parfaire et ne peuvent encore prévoir le caractère imprévisible inhérent aux conditions météorologiques, conjoncture économique ou encore décisions futures d’achat des consommateurs.

Les objectifs du «Big Data» pour les entreprises

Les entreprises voient clairement les bénéfices du «Big Data» comme fournissant une meilleure compréhension des consommateurs et même prévoir leur comportement d’achat. Les transactions, interaction multicanal, média socio-numériques, carte de fidélisation sont autant d’informations permettant aux entreprises de mieux profiler les consommateurs.

Le rapport donne l’exemple de la Ford Focus Electric qui produit une large quantité de donnés pendant que le conducteur est au volant ou se gare. Pendant que le conducteur roule, il est constamment informé de l’état de son véhicule, l’accélération, la batterie. Les ingénieurs reçoivent également les habitudes de conduite, quand et où les conducteurs rechargent leur voiture.

«Big Data» Sources

Ce rapport met également en exergue le rôle d’abord prépondérant des ressources en interne comme principales données traitées, analysées structurées et standardisées au sein de l’entreprise. Les données issues des différentes transactions, évènements ou encore courriels des consommateurs sont devenus trop grands pour être traités à partir d’un système traditionnel. Bien trop souvent, ces données ne sont que collectées et jamais analysées.

Capacités d’analyse du «Big Data»

Plus de 75 % des sondés utilisent des techniques d’analyse tels que des enquêtes ou du reporting et des techniques de data mining pour analyser le «Big Data» tandis que plus de 67 % affirment utiliser des modèles prédictifs. Ce sont souvent les premières techniques pour commencer à analyser et interpréter le «Big Data» surtout quand les données sont stockées dans des bases de données relationnelles.

Techniques et technologies du «Big Data»

Voyons maintenant plus en détail les techniques et technologies du «Big Data». Cette liste est non exhaustive, elle présente seulement les éléments les plus cités dans une bibliographie sans cesse plus abondante – bibliographie dans laquelle l’éditeur O’Reilly est très présente.

Pour rendre compte de la valeur des données du «Big Data», il existe de nombreuses techniques et technologies qui ont été développées pour analyser, manipuler, extraire et visualiser le «Big Data».

Nombre d’entre elles émergent de plusieurs disciplines différentes telles que l’informatique, les mathématiques appliquées, les sciences économiques et les statistiques. Certaines de ces techniques sont développées par les entreprises ou dans la recherche.

Data Mining

Le plus important sans doute, connu sous le nom de data mining. Concept connu également sous le nom de fouille et exploration de données. Ces techniques d’exploration de données, plus communément appelées data mining, ne sont pas nouvelles, puisqu’il est possible déjà à partir du XVIIe siècle d’observer des techniques de modélisation et de probabilité. En 1662 par exemple, le démographe John Graunt analysait les registres de mortalité de la ville de Londres pour développer un système de prévention d’apparition de la peste. Un siècle plus tard, le mathématicien Thomas Bayes travaille sur des nouvelles lois de probabilité encore utilisées aujourd’hui dans la lutte contre le spam (méthode d’inférence bayésienne). Néanmoins la production sans cesse plus importante de données a favorisé une rationalisation de méthodes qui visent extraire des tendances ou modèles à partir d’une grande quantité de données par la combinaison de méthodes statistiques, automatiques ou semi-automatiques.

Ces techniques incluent justement les règles d’association, le clustering, la classification et la régression. Le mining customer data permet par exemple d’identifier des segments de consommateurs enclins à répondre à une offre, le mining human resources data permet quant à lui d’identifier les caractéristiques des employés les plus productifs, ou de modéliser les habitudes d’achat des consommateurs.

Règle d'association (Association rule learning)

Méthode populaire utilisée pour découvrir des relations entre deux ou plusieurs variables présentes dans de grandes bases de données. De nombreux algorithmes tels qu’Apriori, Eclat, FP-Growth ou encore OPUS génèrent et testent des règles possibles. Une application concrète de cette technique dans les données de vente dans un supermarché pourrait formuler les prévisions d’achat d’un consommateur qui par exemple serait susceptible d’acheter un hamburger en achetant des oignons et des pommes de terre. De telles informations peuvent alors influencer des décisions marketing mix (prix, placement, produit, promotion). Les règles d’associations sont utilisées le data mining.

Classification

Ensemble de techniques visant à identifier les catégories auxquelles appartiennent les nouvelles données basées sur une expérience antérieure de données déjà catégorisées. La classification permet alors de prédire des segments spécifiques comportementaux du consommateur par exemple la décision d’achat, le taux d’intérêt et consommation. Méthode appliquée dans le data mining.

Apprentissage automatique (machine learning)

L’apprentissage automatique est un des champs d’études de l’intelligence artificielle. C’est un ensemble de techniques qui visent le design et le développement d’algorithmes autorisant les machines (au sens large) à reconnaître, comprendre et apprendre, automatiquement des modèles complexes et à prendre des décisions de traitement de ces données. Des systèmes complexes peuvent alors être traités par ces machines. Les algorithmes permettent à un système piloté par une machine ou un robot de moduler et de formuler ses analyses et comportements en réponse basée sur une analyse de données empiriques provenant d’une base de données. Il s'agit pour un logiciel de diviser un groupe hétérogène de données, en sous-groupes de manière à ce que les données considérées comme les plus similaires soient associées au sein d'un groupe homogène et qu'au contraire les données considérées comme différentes se retrouvent dans d'autres groupes distincts; l'objectif étant de permettre une extraction de connaissance organisée à partir de ces données.

Traitement automatique du langage naturel

Discipline à la frontière de la linguistique, de l’informatique et de l’intelligence artificielle qui utilise des algorithmes et des techniques informatiques pour analyser le langage naturel humain, techniques dérivées de l’apprentissage automatique. Ces techniques utilisent le sentiment analysis dans les médias socio-numériques pour mesurer l’efficience d’une campagne de marque sur les consommateurs. C’est une application du « natural langage processing » et d’autres techniques d’analyse pour identifier et extraire des informations subjectives issues de plusieurs supports textuels. Ces analyses identifient alors les particularités et aspects de la qualité d’un sentiment exprimé et du degré et de la force de ce sentiment. Certaines entreprises appliquent alors l’analyse de ces sentiments pour observer les médias socio numériques et déterminer comment les consommateurs réagissent à leurs produits et actions. Ces techniques supposent un forage donc dans les technologies relationnelles qui engramment les relations faisant suite à la grammatisation de la parole dans l'écriture, puis du geste dans la machine-outil.

Les technologies «Big Data»

Voici une liste non exhaustive des technologies utilisées pour gérer, manipuler, confronter les données du «Big Data».

Bigtable

Big Table est un système de gestion de base de données compressées, développé et exploité par Google. Les projets libres tels que Hbase, Cassandra ou encore Hypertable se sont inspirées de ce modèle de base de données orientée colonne8. Bigtable permet de gérer et structurer des données pouvant atteindre le petabyte. Les projets tels que Google Earth, Google Finance utilisent ce modèle de gestion de base de données.

Cassandra

Base de données qui stocke les données par colonne et non par ligne qui permet d’ajouter des colonnes plus facilement aux tables. Modèle de base de données Open Source inspiré de la version propriétaire de Google Bigtable. Ce système permet de gérer une grosse quantité de données. Ce système est une solution NoSQL9 initialement développée par Facebook.

Hadoop

Hadoop est un framework open source développé pour traiter une large quantité de données et travailler avec des milliers de noeuds et des pétaoctets de données. Il a été inspiré par les publications MapReduce, Google FS et BigTable de Google. Il a été originellement développé par Yahoo mais est maintenant pris en charge comme projet de l’Apache Software Foundation.

Mapreduce

Framework introduit par Google pour traiter une grosse quantité de données dans un système distribué

8 Base de données qui stocke les données par colonne et non par ligne qui permet d’ajouter des colonnes plus facilement aux tables.

9 NoSQL désigne une catégorie de systèmes de gestion de base de données (SGBD) qui s'affranchit de l'architecture classique des bases relationnelles. L'unité logique n'y est plus la table, et les données ne sont en général pas manipulées avec SQL. Un modèle typique en NoSQL est le système clé-valeur, avec une base de donnée pouvant se résumer à un simple tableau associatif unidimensionnel avec des millions voire des milliards d'entrées. Parmi les applications typiques, on retrouve des analyses temps-réel, statistiques, du stockage de logs, etc.

R

Langage de programmation open-source qui propose un écosystème pour faire des calculs statistiques et des graphiques. Ce langage est devenu une référence auprès des statisticiens pour développer des logiciels statistiques et faire de l’analyse de données. R fait parti d’un projet GNU.

Les acteurs qui participent à l’utilisation, le stockage et l’échange de ces données.

Data Collectors

Chaque fois que nous utilisons un appareil numérique, tels qu'un PC ou un téléphone cellulaire (que ce soit au travail ou dans les loisirs), nous générons des données. Nous pouvons également générer des données en croisant un certain nombre de dispositifs (qui ne nous appartiennent pas, mais recueillent encore des données nous concernant), comme les lecteurs de cartes RFID, 2 NoSQL désigne une catégorie de systèmes de gestion de base de données (SGBD) qui s'affranchit de l'architecture classique des bases relationnelles. L'unité logique n'y est plus la table, et les données ne sont en général pas manipulées avec SQL. Un modèle typique en NoSQL est le système clé-valeur, avec une base de donnée pouvant se résumer à un simple tableau associatif unidimensionnel avec des millions voire des milliards d'entrées. Parmi les applications typiques, on retrouve des analyses temps-réel, statistiques, du stockage de logs, etc. lecteur de carte de fidélité et de crédit, ou encore caméras de vidéosurveillance (situé dans les espaces publics et privés). Toutes ces données sont collectées par quelqu'un (ou plusieurs) dans un certain but, avec ou sans notre consentement. Le plus souvent, ces informations sont ensuite vendues ou louées à des tiers.

Data Markets (the Aggregators)

Les Data Markets sont des plateformes où les utilisateurs (individus, entreprises, et organismes gouvernementaux) peuvent rechercher des ensembles de données spécifiques qui répondent à leurs besoins et ensuite les télécharger (gratuitement ou moyennant des frais, en fonction du contenu de ces données). Les Data Markets peuvent être très spécifiques (en se concentrant sur un segment, par exemple), ou très larges (plusieurs sujets ou publics, tracking des comportements ou d'autres renseignements). Thomson Reuters fournit des données permettant d’évaluer le risque de faire des affaires avec un individu ou une société; InfoChimps propose une large gamme d'ensembles de données; Gnip se concentre sur la diffusion des informations depuis les médias sociaux; Microsoft Azure offre des ensembles de données et des services pour ses clients et ses partenaires. Il y a aussi des marchés de données qui se spécialisent en fonction de l'intérêt des annonceurs, comme Rapleaf, Acxiom, ChoicePoint (maintenant Reed Elsevier), Quantcast, et BluKai, qui fournissent des profils d'utilisateurs ciblés (y compris les adresses e-mail, adresses, noms de résidents, revenus, réseaux sociaux, etc.) par l'agrégation de plusieurs ensembles de données via l'utilisation de dispositifs de tracking et de profilage.

Data Users :

Ce sont les personnes ou les organisations qui achètent ou obtiennent un accès gratuit aux données, généralement par le biais d'applications (surveillance des médias sociaux, l'analyse de vente, gestion de la relation client, suivi d’une demande, gestion des stocks, etc.) Par exemple, si nous avons déjà regardé quelqu'un (ou nous-mêmes) sur Spokeo, nous travaillons avec un certain nombre d'ensembles de données qui ont été combinées par Spokeo afin de fournir ce profil recherché

Bibliographie

Adler, M. (1985), « Stardom and Talent », The American Economic Review, vol.75, no 1, march, p.208-212.

Adomavicius, G., et A. Tuzhilin (2005), « Toward the next generation of recommender systems : a survey of the state-of-the-art and possible extensions », IEEE Transactions on Knowledge and Data Engineering, vol. 17, no 6, p. 734-749.

Adorno, Theodor et Max Horkheimer (1974), La dialectique de la raison, Paris : Gallimard.

Amoore, Louise & de Goede, Marieke (2009), «Cultural political economies of the War on terror», in Jacqueline Best & Matthew Parerson (eds) Cultural Political Economy, New York : Routledge.

Anderson, Chris (2004), « The Long Tail », Wired, vol.12, no 10, octobre. [En ligne]

http ://www.wired.com/wired/archive/12.10/tail.html

Anderson, Chris (2008), « The End of Theory : The Data Deluge Makes the Scientific Method Obsolete », Wired, 16 juin. [En ligne]
http ://www.wired.com/science/discoveries/magazine/16-07/pb_theory

Andrejevic, M. (2005) « The Work of Watching One Another : Lateral Surveillance, Risk, and Governance », Surveillance and Society, 2(4), p. 479-497.

Auray, Nicolas et Michel Gensollen (2007), « Internet et la synthèse collective des goûts », in Assouly, Olivier (ed.), Goûts à vendre : essais sur la captation esthétique, Paris : Éditions du regard

Babe, R. E. (1995), Communication and the transformation of Economics. Essays in Information, Public Policy and Political Economy, Boulder (Co.) : Westview Press.

Beuscart, J.-S. et K. Mellet (2008), « Business Models of the Web 2.0 : Advertising or the Tale of Two Stories », Communications & Strategies, Special Issue, novembre, p.165-181.

Bauman, Zygmunt (1999), Le coût humain de la mondialisation, Paris : Hachette Littératures.

Bauman, Zygmunt & David Lyon (2013), Liquid Surveillance : A Conversation, John Wiley and Sons Ltd.

Bernstein, Peter L. (2005), Capital Ideas : The Improbable Origins of Modern Wall Street. (2nd edition) N.Y : John Wiley & Sons.

Bollen, Johan; Mao, Huina ,& Zeng, Xiao-Jun 2010), Twitter mood predicts the stock market, On line : http ://arxiv.org/pdf/1010.3003&embedded=true

Bollier, David (2010), The promise and perils of Big Data, Washington : The Aspen institute.

Boyd, Danah et Kate Crawford (2011), Six Provocations for Big Data, présentation au symposium “A Decade in Internet Time : Symposium on the Dynamics of the Internet and Society”, Oxford Internet Institute, 21 septembre. [En ligne]
http ://ssrn.com/abstract=1926431

Breton, Philippe (1987), Une histoire de l’informatique, Paris : Seuil.

Brynjolfsson, Erik et Andrew McAfee (2011), « The Big Data Boom is the Innovation Story of Our Time », The Atlantic, 21 novembre. [En ligne]
http ://www.theatlantic.com/business/archive/2011/11/the-big-data-boom-is-the- innovation-story-of-our-time/248215/

Bustamante, E. et R. Zallo (1988), Las industrias culturales en Espana, Madrid : Akal.

Carrier, Mario et al. (2006), « La reconstruction de la légitimité des collectivités rurales. Entre gouvernement et gouvernance », dans M. Carrier et S. Côté (dir.), Gouvernance et territoires ruraux, Québec : PUQ, p. 41-63.

Caves, R. E. (2000), Creative Industries. Contracts Between Art and Commerce, Cambridge (Mass.) et London : Harvard University Press.

Choi, Hyunyoung et Hal Varian (2011), Predicting the Present with Google Trends, Keynote address at the Australian Conference of Economists, July 2011, Research Paper, 18 décembre [En ligne]
http ://people.ischool.berkeley.edu/~hal/Papers/2011/ptp.pdf

Cukier, Kenneth, et Viktor Mayer-Schönberger (2013), «Au-delà de l'espionnage technologique Mise en données du monde, le déluge numérique», Le monde diplomatique, 2013, p.1-21.

Davenport, T. H. et J. C. Beck (2001), The Attention Economy : Understanding the New Currency of Business, Harvard : Harvard Business School Press.

Davenport, Thomas H. et Jeanne G. Harris (2009), « What People Want (and How to Predict It) », MIT Sloan Management Review, 9 janvier. [En ligne]
http ://sloanreview.mit.edu/the-magazine/2009-winter/50207/what-people-want-and-how- to-predict-it/

Davenport, Thomas H., Leandro Dalle Mule et John Lucker (2011), « Know What Your Customers Want Before They Do », Harvard Business Review, décembre. [En ligne]

http ://theinformationdj.com/wp-content/uploads/2012/02/know-what-your-customer- wants-before.pdf

Dean, J. (2009), Democracy and other Neoliberal Fantaisies, Durham : Duke University Press.

Deleuze, Gilles (1990), « Post-scriptum sur les sociétés de contrôle », L'autre journal, no.1, mai 1990.

DeLong, J. B. et A. M. Froomkin (2000), « Speculative Microeconomics for Tomorrow’s Economy » dans Kahn D. et H. Varian (dir.), Internet Publishing and Beyond : The Economics of Digital Information and Intellectual Property, Cambridge : MIT Press, p.6- 44.

Der Derian, James (2001), Virtuous War : Mapping The Military- Industrial-media- entertainment Network, New York : Basic Books.

Dillon, Michael & Julian Reid (2001) «Global Liberal Governance : Biopolitics, Security and War», Millenium, vol. 3, no 1, p. 41-66.

Dillon, Michael (2008) Underwrtting security, Security Dialogue, vol. 39, no 2-3, p. 309- 332.

Dorland, M. (dir.) (1996), The Cultural Industries in Canada : Problems, Policies and Prospects, Toronto : J. Lorimer & Co.

Dufour, Dany-Robert (2009), « La gouvernance comme nouvelle forme de contrôle social », Connexions, vol. 1, no 91, p.41-54.

Economides, N. (1996), « The Economics of Network », International Journal of Industrial Organization, vol. 14, no 2, mars, p. 673-699.

The Economist (2009), « Military use of consumer technology : War games », The economist, December 10th 2009, On line : http ://www.economist.com/node/15063872

The Economist (2010), « Data, Data Everywhere. Special Report : Managing Information », The Economist, 25 février.

Edery, D. & E. Mollick (2008), Changing the Game : How Video Games Are Transforming the Future of Business, New Jersey : FT Press.

Edwards, Paul N. (1996), The Closed World. Cambridge : MIT Press.

Ellison, N., R. Heino et J. Gibbs (2006), « Managing impressions online : Self- presentation processes in the online dating environment », Journal of Computer-Mediated Communication, 11(2). [En ligne] http ://jcmc.indiana.edu/vol11/issue2/ellison.html

Fama, Eugene (1970), «Efficient Capital Markets : a Review of Theory and Empirical Work», Journal of Finance, vol. 25, no 2, p. 383-417.

Flichy, Patrice (1980), Les industries de l’imaginaire : pour une analyse économique des médias, Grenoble : Presses universitaires de Grenoble, 2e édition, 1991.

Fischbach, Franck (2011.), La privation de monde. Temps, espace et capital, Paris : Librairie philosophique J. Vrin.

Foessel, Michaël,(2012), Après la fin du monde. Critique de la raison apocalyptique, Paris : Seuil.

Foucault, Michel (1975), Surveiller et Punir, Paris : Gallimard.

Foucault, Michel ([1978-1979] 2004), Naissance de la biopolitique : cours au Collège de France, Paris : Seuil/Gallimard.

Frank, R. H. et P. J. Cook (1995), The Winner-Take-All Society : Why the Few at the Top Get so Much More than the Rest of Us, New York : Penguin Books.

Freitag, Michel (2007), Dialectique et société, 2. Culture, pouvoir, contrôle. Les modes de reproduction formels de la société, Montréal : Éditions Saint-Martin.

Friedman, Thomas L. (2000) The Lexus and the Olive Tree : Understanding Globalization, New York : Anchor Books.

Galbraith, John Kenneth (1967) The New Industrial State, Boston : Houghton Mifflin.

Gaulejac, Vincent (2005), La société malade de la gestion : Idéologie gestionnaire, pouvoir managérial et harcèlement social, Paris : Seuil.

Goldhaber, M. H. (1997), « The Attention Economy on the Net », First Monday, vol. 2, no 4. [En ligne] :
http ://www.firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/519/440

Gorz, André (2003), L’Immatériel, Paris : Galilée.

Grossman, Lev (2010), « How Computers Know What We Want – Before We do », Time Magazine, 27 mai. [En ligne]
http ://www.time.com/time/magazine/article/0,9171,1992403,00.html

Hamilton, Adrian (1986) The Financial Revolution, Middlesex : Penguin Books. Hayek, Friedrich (1944), The Road to serfdom, Chicago : University of Chicago Press.

Hayek, Friedrich (1945), «The Use of Knowledge in Society», American Economic Review, 35 : 519-30.

Hearn, Stuart (2013), «The role of big data in employee performance development», HR Zone, 6 juin, En ligne : http ://www.hrzone.com/topic/managing-people/role-big-data- employee-performance-development/138929

Hermet, Guy (2004), « Un régime à pluralisme limité ? À propos de la gouvernance démocratique », Revue française de science politique, vol 54, no 1, p.158-178.

Hosanagar, K., D. Fleder, D. Lee et A. Buja (2012), Will the Global Village Fracture into Tribes : Recommender Systems and their Effects on Consumers, The Wharton School, University of Pennsylvania, octobre. [En ligne] http ://ssrn.com/abstract=1321962

Huet, A., J. Ion, A. Lefèvre, B. Miège et R. Péron (1978), Capitalisme et industries culturelles, Grenoble : Presses Universitaires de Grenoble.

IBM (2012), Analytics : The real-world use of big data. How innovative enterprises extract value from uncertain data, IBM Corporation.

Keucheyan, Razmig (2010), Hémisphère gauche. Une cartographie des nouvelles pensées critiques, Montréal, Lux.

Kessous, E. (2012), L’attention au monde. Sociologie des données personnelles à l’ère numérique, Paris : Armand Colin.

Kessous, E., K. Mellet et M. Zouinar (2010), « L’économie de l’attention : entre protection des ressources cognitives et extraction de la valeur », Sociologie du travail, vol. 52, no 3, juillet, p.359-373.

Kline, S., N. Dyer-Whiteford & G. de Peuter (2003), Digital Play : The Interaction of Technology, Culture, and Marketing, Montreal : McGill-Queen's University Press.

Konstan, J. A. et J. Riedl (2012), « Deconstructing Recommender Systems. How Amazon and Netflix predict your preferences and prod you to purchase », IEEE Spectrum, 24 septembre. [En ligne]

http ://spectrum.ieee.org/computing/software/deconstructing-recommender-systems

Labelle, Gilles, 2007, « Essai sur l’idéologie dominante de la démocratie avancée (ou : à quoi sert le différentialisme ?) », dans Stéphane Vibert (dir.), Pluralisme et démocratie. Entre culture, droit et politique, Montréal, Québec Amérique, pp. 103-125.

Lacroix, J.-G. & G. Tremblay (1997), «The 'Information Society' and Cultural Industries Theory», numéro spécial, Current Sociology, vol. 45, no 4.

Laumonier, Alexandre (2013), «6» : Marchés financiers. Le Soulèvement des machines, Bruxelles : Cordes sensibles.

Lefebvre, Henri (1967), Position contre les technocrates, Paris : Éditions Gonthier. Lefebvre, Henri (1968), La vie quotidienne dans le monde moderne, Paris : Gallimard. Lefebvre, Henri (1971), L’idéologie structuraliste. Paris : Seuil.

Lefort, Claude. 1986. Essais sur le politique. Paris : Points.

Leroi-Gourhan, A. (1993), L’homme et la matière. Paris : Albin Michel.

Lianos, M. (2003), « Deleuze, Foucault et le nouveau contrôle », Mana, no.12-13, pp.17- 38.

Liebowitz, S. J. et S. E. Margolis (1994), « Network Externalities : An Uncommon Tragedy », Journal of Economic Perspectives, vol. 8, no 2, printemps.

LiPuma, Edward & Benjamin Lee (2005), « Financial derivatives and the rise of circulation«, Economy and Society, vol. 34, no 3, p.404-427.

Looney, Robert (2003) « DARPA's Policy Analysis Market for Intelligence : Outside the Box or Off the Wall ? », Strategic Insights, Volume II, Issue 9 (September 2003)

Lyon, David, 2007. Surveillance Studies : An Overview, New York, Polity.

Manovich, Lev (2011), Trending : The promises and the Challenges of Big Social Data. [En ligne] http ://www.manovich.net/DOCS/Manovich_trending_paper.pdf

Marczewski, A. (2013), Gamification : A Simple Introduction & a Bit More, Amazon Digital Services.

Marcou, Gérard, François Rangeon et Jean-Louis Thibaut (1997), « Les relations contractuelles entre collectivités publiques », dans Francis Godard, Le gouvernement des villes. Territoire et pouvoir, Paris : Ed. Descartes & Cie.

Martin, Randy (2004), «America as Risk/Securitizing the Other», Interventions, vol. 6, no 3, p. 351-361.

Marx, Karl, 1968 [1858]. Grundrisse. Fondement de la critique de l’économie politique, vol. 3, Paris, Éditions anthropos.

Mattelart, A. (2001), Histoire de la société de l’information, Paris : La Découverte.

Mcginnis, John O. (2012), Accelerating Democracy : Tranforming Governance Through Technology, Princeton : Princeton University Press.

McKendrick, Joe (2013), «Cloud and Big Data, Together : A Huge Springboard to Innovation», Forbes, 17th April 2013. [En ligne] : http ://www.forbes.com/sites/joemckendrick/2013/03/17/cloud-and-big-data-together-a- huge-springboard-to-innovation.

Ménard, M. (2004), Éléments pour une économie des industries culturelles, Montréal : Société de développement des entreprises culturelles du Québec.

Miège, B., P. Pajon et J.-M. Salaün (1986), L’industrialisation de l’audiovisuel. Des programmes pour les nouveaux médias, Paris : Aubier.

Mirowski, Philip (2000), Machine Dreams : How economics becomes a cyborg science, Cambridge : Cambridge University Press.

Mondoux, André et Lacroix, Jean-Guy (2009), « Fausse et vraie diversité culturelle dans le système-monde », in Théorêt, Yves (dir.), David contre Goliath : La Convention sur la protection et la promotion de la diversité des expressions culturelles de l’UNESCO, Montréal : Éditions Hurtubise.

Mondoux, André (2009), « Émancipation et aliénation à l’heure du surdéterminisme technique : le cas du service Internet Facebook » in Gaëtan Tremblay (dir.) L’émancipation hier et aujourd’hui. Perspectives françaises et québécoises, Québec : Presses de l’université du Québec.

Mondoux, André (2011),« Identité numérique et surveillance », Les cahiers du numérique, no 1, pp.1-13.

Mondoux, André (2011), Histoire sociale des technologies numériques. De 1945 à nos jours, Québec : Éditions Nota bene.

Mondoux, André (2012), « Technique et individuation : la part du social », in

Mobilisation de l’objet technique dans la production de soi, sous la dir. de C. Perraton,

O. Kane et F. Dumais, Presses de l’Université du Québec, collection « Cahiers du gerse», p. 37-56.

Moreau-Desfarge, Philippe (2008), La gouvernance, Paris : PUF.

Mosco, Vincent (2013), «To the cloud : Big Data in a turbulent world», CAMRI Seminar ,

25 septembre. [En ligne] : http ://www.westminster.ac.uk/research/a- z/camri/seminars/camri-seminar-calendar/2013/to-the-cloud-big-data-in-a-turbulent- world

Mouhoud, El Mouhoub et Dominique Plihon (2009), Le savoir et la finance, Paris : La Découverte.

Nageswara Rao, K. et V. G. Talwar (2008), « Application domain and functional classification of recommender systems a survey », Desidoc journal of library and information technology, vol. 28, pages 17–36.

Negri, Antonio, & Michael Hardt (2000), Empire, Paris, 10/18.

Nelson, P. (1970), « Information and Consumer Behaviour », The Journal of Political Economy, vol. 78, no 2, p. 311-329.

OCDE (2004), L’économie de la sécurité, Paris : OCDE.

Ouellet, Maxime (2011), «Mutation du politique et capitalisme avancé : une généalogie

«critique» de la gouvernance», Étude remise au GRICIS effectuée dans le cadre du projet de recherche La gouvernance des systèmes de communication, mai.

Pang, B. & L. Lee (2008), « Foundations and Trends » in Information Retrieval, vol. 2, no 1–2, p.1–135.

Passavant, Paul (2005), «The Strong Neo-liberal State : Crime, Consumption, Governance», Theory and Event, vol. 8, no 3.

Poirier, D. (2011), Des textes communautaires à la recommandation, Thèse de doctorat, Université d’Orléans, Informatique, février.

Power, Michael (2004), The Risk Management of Everything : Rethinking the Politics of Uncertainty, London : Demos.

Quah, D. T. (1999), The Weightless Economy in Economic Development, Discussion Paper no 417, Centre for Economic Performance, London School of Economics Department, Londres, février.

Quah, D. T. (2002), Digital Goods and the New Economy, Discussion Paper no 563, Centre for Economic Performance, London School of Economics Department, Londres, décembre.

Roth, Daniel (2009), «Road Map for Financial Recovery : Radical Transparency Now!», Wired, February 23. [En ligne]
http ://www.wired.com/techbiz/it/magazine/17- 03/wp_reboot.

Rosa, Hartmut (2012) Aliénation et accélération. Vers une théorie critique de la modernité tardive, Paris, La Découverte.

Rosen, S. (1981), « The Economics of Superstar », The American Economic Review, vol. 71, no 5, décembre, p.845-858.

Rosenau, James (1992), Governance without government : order and change in world politics, New York : Cambridge University Press.

Rosenau, James (1995), « Governance in the Twenty-first Century », Global Governance, No.1, p.13-43.

Shannon, Claude E. (1948), «A Mathematical Theory of Communication», Bell System Technical Journal, vol., 27, no 3, p. 379–423.

Shiller, Robert (2003), The new financial order : risk in the 21st century, Princeton (NJ) : Princeton University Press.

Shapiro, C. et H. Varian (1999), Économie de l’information. Guide stratégique de l’économie des réseaux, Paris-Bruxelles : De Boeck Université.

Simon, Herbert (1971), « Designing Organizations for the Information-Rich World », in Greenberger, M. (ed.), Computers, Communication, and the Public Interest, Baltimore, MD : The Johns Hopkins Press, p.37-72

Simondon, Gilbert (2005), L’individuation à la lumière des notions de formes et d’informations, Grenoble : Million.

Stahl, Roger (2009), Militainment, Inc. : War, Media, and Popular Culture, New York : Routledge.

Stiegler, Bernard (2004), De la misère symbolique, 1. L’époque hyperindustrielle, Paris : Galilée.

Stiegler, Bernard, (2006a), « Le théâtre de l’individuation. Déphasage et résolution chez Simondon et Heidegger » in Vaysse, Jean-Marie (dir.), Technique, monde, individuation, Hildeshim : Georg Olms Verlag, p. 61.

Thrift, N. (2011), « Lifeworld Inc and what to do about it » in Environment and Planning D : Society and Space, vol. 29, p. 5 -26,

Titiriga, Remus (2011), « Social Transparency through Recommendation Engines and its Challenges : Looking Beyond Privacy », Informatica Economica, vol.15, no 4, p.147-154. [En ligne] : http ://ssrn.com/abstract=1944728

Tremblay, G. et J.-G. Lacroix, avec la collaboration de M. Ménard et M.-J. Régnier (1991), Télévision : deuxième dynastie, Sainte-Foy : Presses de l’Université du Québec.

Tremblay, G. et J.-G. Lacroix (2002), « La marchandisation et l’industrialisation de la culture », dans Lemieux, D. (dir.), Traité de la culture, Sainte-Foy : Les Éditions de l’IQRC, Presses de l’Université Laval, p. 263-282.

UNESCO (2001), Universal Declaration on Cultural Diversity, vol.1 Resolutions, Paris : UNESCO.

Varian, H. (1996), « Differential Pricing and Efficiency », First Monday, Second Issue.

Varian, H. (2000), Buying, Sharing and Renting Information Goods, Technical Report, University of California at Berkeley, janvier.

Von Neuman, John, & Morgenstern, Oskar ([1944], 1964), Theory of Games and Economic Behavior, New York : Wiley.

Wacquant, Loïc (2004), Punir les pauvres : le nouveau gouvernement de l'insécurité sociale, Marseille : Agone.

Weaver, Warren and Shannon, Claude E. (1963), The Mathematical Theory of Communication, Chicago : University of Illinois Press.

Weinberger, D. (2012), Too Big to Know : Rethinking Knowledge Now That the Facts Aren't the Facts, Experts Are Everywhere, and the Smartest Person in the Room Is the Room, New York : Basis Books.

Wiener, Norbert (1948), Cybernetics, or control and communication in the Animal and the Machine, New York : Wiley.

Wiener, Norbert (1954), The Human Use of Human Beings : Cybernetics and Society, Boston : Da Capo Press.

Wired (2008) « The Petabyte Age : Because More Isn't Just More – More Is Different », Wired, 16 juin.

Zichermann, G. & C. Cunningham (2011), Gamification by Design : Implementing Game Mechanics in Web and Mobile Apps, Sebastopol (CA) : O'Reilly Media.

Zichermann, G. & J. Linder (2010), Game-Based Marketing : Inspire Customer Loyalty Through Rewards, Challenges, and Contests, John Wiley & Sons Ltd.