"Nouveau millénaire, Défis libertaires"
Licence
"GNU / FDL"
attribution
pas de modification
pas d'usage commercial
Copyleft 2001 /2015

Moteur de recherche
interne avec Google
Détecter et prévenir :
de la digitalisation des corps et de la docilité des normes.
July 2009
ANTOINETTE ROUVROY ET THOMAS BERNS

Origine : http://works.bepress.com/antoinette_rouvroy/30

Détecter et prévenir : de la digitalisation des corps et de la docilité des normes. 1

ANTOINETTE ROUVROY* ET THOMAS BERNS**

*Chercheur qualifié du F.R.S. - FNRS au Centre de Recherche Informatique et Droit de l’Université de Namur.
**Maître de conférence en philosophie à l’Université Libre de Bruxelles et à l’Université de Liège et chercheur au Centre de philosophie du droit de l’Université Libre de Bruxelles.

1 Ce texte fait suite à un article intitulé « Le corps statistique », à paraître dans un numéro coordonné par Pierre Daled de La pensée et les hommes. Ce précédent article à caractère résolument philosophique portait sur la nature de ce que nous avions appelé le « gouvernement statistique ». La présente contribution en constitue une version légèrement modifiée et augmentée.

"LE NOUVEAU POUVOIR STATISTIQUE Ou quand le contrôle s'exerce sur un réel normé, docile et sans événement car constitué de corps « numériques »..." Antoinette Rouvroy et Thomas Berns  http://1libertaire.free.fr/NewPouvoirStat.html


Introduction.

D’une manière quelque peu intempestive sans doute eût égard au thème général de l’ouvrage – gouverner par les corps -et aux pensées de la biopolitique qui s’y déploient, il s’agit ici de tenter d’identifier en quoi les nouvelles technologies de l’observation, de l’information, de la communication et de la réseautique, procédant à la digitalisation de la vie même, intensifiant la ‘dispersion’ ou la ‘dividualisation’ du sujet humain1, tout en alimentant le mythe de sa prévisibilité, donnent lieu à une nouvelle forme de gouvernementalité irréductible aux « arts de gouverner » décrits par Foucault sous les traits du pastorat, de la raison d’État, de la police ou du libéralisme, et dont il importe d’identifier les spécificités épistémologiques, stratégiques et tactiques.

Alors que, par exemple, dans la société disciplinaire, le pouvoir s’actualise par la production de corps identifiés, stables, fixes, assujettis par la norme, rendus dociles à la faveur de leur inscription et de leur attachement direct et passionné aux institutions spécifiques dans lesquelles ils sont organisés, contrôlés en fonction des tâches spécifiques qu’ils ont à y accomplir, le gouvernement statistique ou algorithmique se désintéresse tant des « unités » constituées par les corps individuels que des « masses » constituées par les populations. La gouvernementalité statistique s’intéresse à quelque chose de beaucoup plus abstrait, de beaucoup plus fantomatique: la prédiction et surtout la préemption des comportements, par l’application d’algorithmes de profilage à des quantités massives de données, et par la structuration (physique, architecturale, informationnelle) du champ d’action possible des individus. Le résultat en est que l’on assiste à l’abandon progressif, par le pouvoir, de l’axe ‘topologique’ – orienté vers la contrainte des corps et la maîtrise du territoire – au profit de l’axe ‘temporel’ – la structuration du champ d’action possible des corps, la maîtrise, à un stade préconscient si possible2, de ce que peuvent les corps.3

1 Voir notamment Michael Dillon et Luis Lobo-Guerrero, « The Biopolitical Imaginary of Species-being », Theory, Culture & Society, 2009, Vol. 26(1): 1– 23 ; David V. Ruffolo, « Rhizomatic Bodies: Thinking through the Virtualities of Control Societies » , Rhizomes, 17, Hiver 2008. 2 suivant la logique actuarielle même qui compte comme ‘conditions préexistantes’ et met à charge des souscripteurs plutôt que de l’assureur les

Il s’agira donc ici d’envisager les nouvelles technologies de détection, de classification, et d’évaluation anticipative des comportements et intentions non pas sous l’angle, le plus évident en droit, des atteintes actuelles ou potentielles au droit à la protection de la vie privée et à la protection des données à caractère personnel, mais de considérer ces dispositifs technologiques à la fois en fonction des nouveaux modes de production du « savoir » qu’ils constituent, qui rendent « sensible» par avance ce qui n’est pas (encore), et des effets de pouvoir qui en découlent.

Nous parlons donc du « corps statistique » dans la mesure où nous voulons analyser la gouvernementalité contemporaine en ce qu’elle tente de dire de prédire et d’orienter les comportements (et intentions), et en ce que, à ce titre, elle se présenterait

1) comme statistique, au sens où elle repose fondamentalement sur l’exploitation de grandes quantités de données – signifiantes ou non aux yeux des individus eux-mêmes -recueillies dans une multitude de contextes de vie et d’action hétérogènes les uns aux autres, et sur la ‘découverte’ algorithmique de corrélations prédictives des comportements futurs et dommages causés par des circonstances connues du souscripteur au moment de la signature du contrat.

2) comme capable d’éradiquer l’incertitude et l’imprévisibilité des comportements individuels grâce au traitement de leur multiplicité, laquelle serait de la sorte objectivée comme si la totalité de l’agir humain pouvait être bel et bien prise en considération, comme si nous n’avions affaire qu’à un ensemble de corps et que des opérations de calcul – la découverte de corrélations – sur l’ensemble devait permettre de prédire le comportement de chaque individu.

Le gouvernement algorithmique vise non plus à maîtriser l’actuel, à dompter la sauvagerie des faits, mais à structurer le possible, à éradiquer le ‘virtuel’, cette dimension de possibilité ou de potentialité d’où provient que l’actuel tremble toujours un peu d’un devenir ‘autre’ qui constitue, justement, sa singularité alors même qu’il n’est pas encore objectivement connu.

3 Brian Massumi, “Perception attack. Note sur un temps de guerre”, Multitudes, 2008/4, n°34, pp. 74-83.

Notons en passant que ce déplacement de l'axe 'topologique' de l’actualité du corps vers l'axe 'temporel' du possible, du probable, du virtuel accompagne et accélère la dissipation des universaux de la philosophie politique, dont la figure de l’Etat, et celle du sujet.

L’Etat, expliquait Michel Foucault, « pas plus actuellement sans doute que dans le cours de son histoire, n’a eu cette unité, cette individualité, cette fonctionalité rigoureuse et, je dirais même, cette importance ; après tout l’Etat n’est peut-être qu’une réalité composite, une abstraction mythifiée dont l’importance est beaucoup plus réduite qu’on ne croit. »4 Que ce soit sous la forme redoutée du « monstre froid », ou sous la forme réductrice d’analyses assimilant l’Etat à un certain nombre de fonctions mais rendant « tout de même l’Etat absolument essentiel comme cîble à attaquer et (…) comme position privilégiée à occuper », c’est bien de la « survalorisation du problème de l’Etat » que Michel Foucault entendait notamment échapper en dirigeant son attention sur la « gouvernementalité ». Les processus plus récents de privatisation, de décentralisation, de dévolution des fonctions des institutions étatiques à des institutions infra-ou supra-nationales, le déclin de la participation politique et des investissements publics... confirment, si besoin en était, le déclin de « l’importance » de l’Etat, dont l’assise territoriale elle-même semble gagnée par une sorte de flou, ne marquant plus ni les limites de son intervention, ni ne garantissant plus l’‘étanchéité’ de ses frontières.

S’agissant du ‘sujet’, Althusser, Butler, Duster, Fanon, Foucault, Lacan, et bien d’autres encore nous ont depuis longtemps persuadés qu’il est toujours dépossédé, dans une certaine mesure, des conditions mêmes de son émergence, puisqu’il est toujours précédé par l’idéologie, les normes, le langage qu’il incorpore pour se constituer.5 L’identité du sujet, de même que son autonomie, est moins un phénomène observable qu’un processus, une ‘performance’ : elle se constitue en ‘rendant compte’ d’elle-même et est à ce titre essentiellement et fondamentalement relationnelle.

4 Michel Foucault, « La ‘gouvernementalité’ », cours du Collège de France, année 1977-1978 : « Sécurité, Territoire et Population », 4ème leçon, 1er février 1978.
La «gouvernementalité» Michel Foucault Dits Ecrits Tome III texte n°239    http://1libertaire.free.fr/MFoucault136.html

5 Voir notamment Fabienne Brugère et Guillaume Le Blanc, Judith Butler. Trouble dans le sujet, trouble dans les normes, PUF, coll. débats philosophiques, 2009.

L’autonomie individuelle n’est donc pas une capacité purement individuelle et psychique : elle a des bases sociales et matérielles. Il en va du corps comme de l’identité. Le corps toujours indique un monde au-delà de lui-même par un mouvement qui le pousse au-delà de ses propres limites, de son actualité, un mouvement qui est de fait un mouvement des limites corporelles. Ce mouvement, ce « trouble », explique Butler, serait en fait essentiel à ce que « sont » les corps. Ces corps, comme actualités ou comme devenirs, dans les conditions contemporaines de développement et de convergence technologique, paraissent de moins en moins étanches à l’univers techno-scientifique dans lequel ils évoluent.7

Nous entendons donc corps non pas dans son sens biologique et sa positivité matérielle – désertée par la nouvelle forme de gouvernementalité statistique qui nous intéresse ici -mais comme ce qui, quelle qu’en soit la nature réelle, est le résultat d’une réduction « informatique » à un ensemble de corrélations pouvant être abstraites de toute intentionnalité et même de toute causalité.

6 Judith Butler, Bodies that Matter. On the Discursive Limits of « Sex », Preface, Routledge, 1993.7 Voir Donna Haraway, Simians, Cyborgs and Women: The Reinvention of Nature, Routledge, 1991 ; Andy Clark, Supersizing the Mind. Embodiment, Action, and Cognitive Extension, Oxford University Press, 2008 ; N. Katherine Hayles, “Traumas of Code”, Critical Inquiry, Vol.33, n.1, 2006, p.140. : « Enmeshed within this flow of data, human behavior is increasingly integrated with the technological nonconscious through somatic responses, haptic feedback, gestural interactions, and a wide variety of other cognitive activities that are habitual and repetitive and that therefore fall below the threshold of conscious awareness. Mediating between these habits and the intelligent machines that entrain them are layers of code. Code, then, afects both linguistic and non linguistic human behavior. Just as code is at once a language system and an agent commanding the computer’s performances, so it interacts with and influences human agency expressed somatically, implemented for example through habits and postures. Because of its cognitive power, code is uniquely suited to perform this mediating role across the entire spectrum of the extended human cognitive system. Through this multilayered addressing, code becomes a powerful resource through which new communication channels can be opened between conscious, unconscious, and non conscious human cognitions. »

Le corps statistique en ce sens évacue les dimensions « physique » et « linguistique » qui caractérisent notamment le corps subjectif : ni l’expérience physique du corps, ni le récit autobiographique du sujet ne sont plus « autorisés », ne font plus « autorité », au sens où leur « auteur » détiendrait l’« autorité » nécessaire pour en contrôler l’intelligibilité et l’interprétation. Les choses se passent comme si le sens n’était plus « produit », mais toujours déjà « donné », immanent aux choses elles-mêmes, et aux corps.8

Cette génération quasi spontanée du « corps statistique » à partir du « réel brut » – nonobstant l’intermédiation technologique nécessaire au calcul et aux opérations algorithmiques qui en constituent le « métabolisme » -cache sa puissance normative sous l’apparente neutralité de l’immanence ou de l’ « adéquation » à un réel entendu dès lors comme proprement « physique ».

C’est à ce titre aussi qu’il s’agit d’une application de la statistique, qui s’est certes émancipée de la tutelle de l’État, mais qui permet d’autant mieux d’en rencontrer les objectifs, à savoir : croiser un enjeu purement descriptif, appuyé par une pratique prétendument neutre de récolte de données, et un enjeu normatif. Cette possibilité de croiser le descriptif et le normatif repose entre autres sur la capacité réflexive de ce qui est décrit : dans la mesure où le pouvoir, à la différence de la violence et de la domination, ne s’applique jamais qu’à des objets dotés de capacités de récalcitrance, le maintien de la réflexivité de l’objet de la statistique est aussi ce qui permet de décrire la statistique comme l’instrument privilégié d’une certaine forme de pouvoir gouvernemental plutôt que comme un instrument de domination ou de violence dont l’effet serait précisément d’annihiler les capacités réflexives des entités (à la fois objets et sujets) à propos desquelles et sur lesquelles il s’exerce. Le gouvernement statistique s’est d’ailleurs toujours justifié à partir de son apparente « bénignité », laquelle résulte précisément du fait qu’elle suppose, fut-ce de manière implicite, un moment réflexif : il s’agit toujours « seulement » de gouverner dans un sens qui apparaîtrait évident et justifié par le sens commun, c’est-à-dire nécessairement bénin pour ceux qui sont gouvernés, tel est le fond de la légitimité du gouvernement statistique.

8 Le phénomène n’est pas absolument neuf, puisque Deleuze, dès 1969, expliquait que « (…) le sens est toujours un effet. Non pas seulement un effet au sens causal ; mais un effet au sens de « effet d’optique », « effet sonore », ou mieux effet de surface, effet de position, effet de langage. Un tel effet n’est nullement une apparence ou une illusion ; c’est un produit qui s’étale ou s’allonge à la surface, et qui est strictement coprésent, coextensif à sa propre cause, et qui détermine cette cause comme cause immanente, inséparable de ses effets, pur nihil ou x hors des effets eux-mêmes ». Gilles Deleuze, Logique du sens, Les Editions de Minuit, 1969, pp. 87-88.

Ainsi, au seuil de la modernité, William Petty, un des premiers grands démographes, insistait déjà sur le fait que la connaissance statistique de la population devait offrir les bases d’une « politique honnête et inoffensive »9.

Cette réflexivité supposée de l’objet de la statistique10 est donc cruciale pour cette dernière puisque c’est elle qui autorise le croisement de l’enjeu descriptif et de l’enjeu normatif et assure ainsi la légitimité de toute démarche statistique : c’est parce que l’action normative produite par une connaissance objective du détail des comportements des sujets ne repose que/ ou pourrait ne reposer que sur la capacité réflexive de ceux-ci (sur leur autocontrôle, leur sens commun) que la statistique ne relèverait pas d’une forme de gouvernement tyrannique11. Or cette prétendue réflexivité, même sous une forme supposée, de l’objet de la statistique apparaît à première vue comme mise en péril par l’évacuation radicale de l’intentionnalité dans la gouvernementalité statistique – ou algorithmique -contemporaine. C’est précisément ce point qui devient alors l’objet de notre étude : la possibilité d’une action normative qui reposerait sur une réflexivité non intentionnelle ; et c’est à ce titre qu’il s’agirait de penser une politique des corps.

9 John Graunt, Natural and Political Observations upon the Bills of Mortality, in: Economics Writings of Sir William Petty, vol. II, New York, 1963. Cette conclusion est plus que vraisemblablement écrite par William Petty, et non par Graunt. 10 Cette réflexivité de l’objet n’est d’ailleurs pas propre au traitement statistique ; elle est un phénomène induit par toute opération d’observation scientifique ou bureaucratique pratiquée à des fins de contrôle, d’assistance, d’organisation, d’éloignement etc. De telles opérations classificatoires affectent inévitablement les personnes ainsi catégorisées et cet impact sur les personnes, en retour, transforme la classification. Voir Ian Hacking, “Making Up People”, London Review of Books, 17 August 2007, 26(16). :“We think of these kinds of people as definite classes defined by definite properties. As we get to know more about these properties, we will be able to control, help, change, or emulate them better. But it’s not quite like that. They are moving targets because our investigations interact with them, and change them. And since they are changed, they are not quite the same kind of people as before. The target has moved. I call this the ‘looping effect’. Sometimes, our sciences create kinds of people that in a certain sense did not exist before. I call this ‘making up people’”.11 Dans Thomas Berns, Gouverner sans gouverner. Une archéologie politique de la statistique, PUF, 2009, il est montré combien ce fut là l’objet d’un débat explicite, à la fin du XVIe siècle, lorsque les premiers projets de recensement de personnes et des richesses furent projetés.

Nous commencerons par décrire un ensemble de pratiques normatives contemporaines relevant de la gouvernementalité statistique pour en relever les composantes inédites (I), pour ensuite adresser à cet ensemble de phénomènes une série de questions à caractère éthique, juridique et politique (II).

I – Quelques pratiques normatives contemporaines relevant de la gouvernementalité statistique.

Nous devons partir d’un constat élémentaire, mais incontournable : les activités de récoltes, de conservation et de traitement de données sur les comportements12 humains individuels ou collectifs, y compris parmi les plus ‘triviaux’ (ceux qui passent même inaperçus de la part de ceux qui les adoptent, et qui, précédemment n’ « intéressent » personne, n’étaient pas en eux-mêmes tenus pour signifiants) quelles que soient les fins de ces activités, ne sont désormais plus limitées, ni même freinées de manière essentielle par une inaccessibilité technique ou économique. Le caractère virtuellement infini des capacités de stockage et la diminution corrélative du coût des mémoires digitales facilement interconnectées rendant disponibles au traitement des quantités de données gigantesques devaient très tôt donner lieu au phénomène de dataveillance, d’un usage systématique des technologies de capture et de traitement de données à des fins de suivi et de surveillance des personnes et groupes de personnes13.

12 Nous entendrons la notion de « comportement » dans son sens le plus large, incluant les attitudes, choix, préférences exprimées, trajectoires, activités et interactions humaines.

13 La notion de « dataveillance » renvoie à l’usage systématique de systèmes de traitement de données à caractère personnel comme procédé privilégié de surveillance des activités et communications des individus et groupes d’individus (Roger Clarke, “Information Technology and Dataveillance,” Communications of the ACM, 1988, vol. 31, n. 5.

< http://www.anu.edu.au/people/Roger.Clarke/DV/CACM88.html >)

Ces activités de dataveillance ne sont plus non plus limitées, ou si peu, par la « récalcitrance » des individus auxquelles les données se rapportent ou qu’elles concernent. La banalisation d’une surveillance ‘démocratique et égalitaire’ qui ne prétend plus cibler personne a priori, mais s’applique à tout le monde par défaut, une surveillance à laquelle collaborent les institutions publiques et privées, se fondant dans l’ordinaire, ne suscite plus ni réticence ni résistance ; l’argument suivant lequel « qui n’a rien à cacher n’a rien à craindre de la surveillance », ajouté au confort de l’immédiateté, aux vertus de l’interaction et à la séduction narcissique de l’exposition personnelle l’emporte largement sur les réticences au dévoilement de la vie privée et de l’intimité.14

De cette augmentation de la quantité des données récoltées découlent, bien entendu, des changements qualitatifs dans les pratiques concernées, changements au sujet desquels nous poserons dans la seconde partie quelques questions d’ordre éthique et juridique. Cependant, il nous faut montrer avant cela en quoi cette évolution quantitative, dont les causes sont à la fois technologiques, sociologiques (érosion de la sensibilité aux questions de protection de la vie privée, auto-exposition et auto-surveillance), politiques (rationalité politique survalorisant le caractère prédictif des données relatives aux individus – au détriment des données contextuelles et structurelles ; place centrale occupée par la minimisation des risques et de la contingence dans les agendas politiques), et économiques (souci de remplacer par des dispositifs technologiques moins onéreux le personnel de sécurité déployé, depuis le 11 septembre 2001, dans tous les lieux stratégiques), induit aussi des changements de nature quant à la production des connaissances et des dispositifs de contrôle.

1. Nouveaux dispositifs de surveillance.

Si, en Europe, le gouvernement châtie peu et tue rarement, il surveille beaucoup. Sous la bannière d’une société de l’information soucieuse d’assurer sa sécurité, son efficacité et son confort, se déploient une série de programmes de recherche visant au développement de dispositifs d’observation multimodale, de classification et d’évaluation anticipative des comportements qui, fondés sur la biométrie, la vidéosurveillance et leurs variantes, « extraient » directement du corps humain des informations auxquelles est attribuée une valeur prédictive plus grande que celles que pourraient revêtir les déclarations et témoignages des individus. Le corps humain, dans la mesure où il devient possible d’en extraire des informations qu’il n’est pas loisible à l’individu de falsifier, devient ainsi la source privilégiée d’informations prédictives de ses comportements, préférences, attitudes futures.

14 Antoinette Rouvroy, « Réinventer d’art d’oublier et de se faire oublier dans la société de l’information », in. S. Lacour (ed.), La sécurité de l’individu numérisé, L’harmattan, 2008, pp. 249-278.

http://1libertaire.free.fr/ARouvroy18.html

Par exemple, parmi d’autres initiatives du même type, le projet HUMABIO développe des dispositifs de biométrie dynamique et intelligente, combinant une variété de capteurs capables de combiner des données visuelles, sonores et physiologiques afin de détecter et de suivre les mouvements, trajectoires, attitudes et expressions suspectes, à des fins sécuritaires.15 Un autre projet européen, SENSATION, développe des micro-et de nano-senseurs capables de contrôler, de manière discrète et non invasive, l’état physiologique des personnes en termes d’éveil, de fatigue, de stress, partout et à tout moment, au travail, à l’école, au théâtre…16 Microsoft, de son côté, déposait récemment une demande de brevet pour l’invention17 d’un dispositif combinant une série de capteurs de données contextuelles, physionomiques, physiologiques et biologiques reliés à l'ordinateur utilisé par un employé, et permettant de renseigner son patron sur son niveau de stress, son attention au travail, sa motivation, etc. Par ailleurs, l’analyse automatisée des mouvements des muscles du visage des consommateurs, détectés grâce à des systèmes de vidéosurveillance couplés à des systèmes d’analyse algorithmique, afin de détecter leurs émotions telles que le plaisir, l’intérêt ou l’ennui, le dégout, offrent des perspectives alléchantes en termes d’applications de type marketing ou publicitaires.18

L’ « intelligence » de ces dispositifs d’observation, de classification et d’évaluation anticipative des comportements, préférences et intentions réside dans les algorithmes qui leur permettent d’ interpréter eux-mêmes les données qu’ils enregistrent en fonction de critères de normalité ou d’anormalité, de désirabilité ou d’indésirabilité. Ces algorithmes sont construits sur une la base de corrélations statistique.

15 Human Monitoring and Authentication using Biodynamic Indicators and Behavioural Analysis : http://www.humabio-eu.org/

16 Advanced Sensor Fevelopment for Attention, Stress, Vigilance & Stleep/wakefulness Monitoring : http://www.sensation-eu.org/

17 http://appft1.uspto.gov/netacgi/nphParser?Sect1=PTO1&Sect2=HITOFF&d=PG01&p=1&u=%2Fnetahtml%2FPTO%2Fsrchnum.html&r=1&f=G&l=50&s1=%2220070300174%22.PGNR.&OS=DN/20070300174&RS=DN/2007030017

18 http://www.gfk.com/group/press_information/press_releases/004131/index.en.html

2. La production des corrélations statistiques.

Il est extrêmement difficile de scinder les opérations de « data­warehousing» (entreposage de données) et de « data-mining » (extraction de corrélations) des opérations de « profilage » stricto-sensu. Ce sont les trois ‘étapes’ complémentaires du même ‘rêve’ gouvernemental : détecter, classer et évaluer anticipativement les comportements humains. Rouages interdépendants d’un processus de production de savoir continu, dynamique et récursif, c’est comme ressorts d’un même dispositif qu’il faut concevoir la récolte massive de données a priori non finalisée (data-warehousing), la production de corrélations statistiques entre ces données et certains comportements, qu’il s’agisse par exemple d’une prédisposition à se porter acquéreur de tel ou tel bien ou service, d’une propension à adopter des comportements frauduleux, ou à commettre certaines infractions (data­mining ou construction de profils), et l’assignation des individus à des profils qui permettent d’inférer, avec une certaine marge d’incertitude, de la seule présence de ces caractéristiques observables chez ces individus, d’autres caractéristiques individuelles non observables, actuelles ou futures.

Le « data-mining » a notamment été défini dans un document émanant du United States General Accounting Office comme l’application de la technologie et des techniques de banques de données (comme l’analyse statistique et la modélisation) afin de découvrir les structures cachées et relations subtiles entre données et d’en inférer des règles permettant la prédiction de résultats futurs. Les objectifs du data­mining vont de l’amélioration des prestations et performances des services à la détection de terroristes potentiels en passant par la détection des fraudes, gaspillages et abus, l’analyse d’informations scientifiques et de recherche, la gestion des ressources humaines, la détection d’activités criminelles ou l’identification de structures de comportements menant à de telles activités. Le même rapport mentionnait qu’une grande partie du data-mining réalisé par l’État fédéral américain impliquaient l’usage de données à caractère personnel extraites de banques de données constituées par des organisations relevant tant du secteur privé que public.19

19 Report to the Ranking Minority Member, Subcommittee on Financial Management, the Budget, and International Security, Committee on Governmental Affairs, U.S. Senate, Data Mining. Federal Efforts to Cover a Wide Range of Uses, May 2004. < http://www.gao.gov/new.items/d04548.pdf> 20 Rien, ou très peu, n’y est considéré comme du « bruit », c’est-à-dire comme de l’information qu’il faut mieux écarter pour traiter un ensemble de important de données dans la mesure où elles seraient a priori non pertinentes – on peut dire ici qu’un savoir utile peut émerger directement d’une apparente cacophonie.21 Voir notamment Ian Ayres, Super Crunchers: Why Thinking-by-Numbers in the New Way to be Smart (using data to make better predictions), Bantam, 2007.

Le data-mining est donc une technique d’extraction ou de découverte automatisée de « savoir » à partir d’une grande masse de données. Utilisé tant dans le secteur public que privé, le « data-mining » est exemplaire d’une série de glissements contemporains dans le rapport au « réel » et dans les modes de gouvernement. Ce type de pratique présuppose, contrairement aux pratiques statistiques au sens strict, des récoltes de données massives dépourvues de toute hypothèse de départ qui viseraient à guider la récolte en question. De ce fait, la masse d’informations, dont des connaissances seront extraites par le biais de corrélations qui se construisent a posteriori, semble tellement brute, non triée20, tellement hétérogène, qu’elle peut être considérée comme le réel lui-même. Le point de départ des nouvelles pratiques de traitement des données semble toujours résider dans une objectivité qui résiste à toute contradiction, dès lors que sa première et même son unique qualité réside dans le caractère massif des informations qui la composent.

Les connaissances qui émergeront sur une telle base massive et non triée consisteront exclusivement dans l’apparition quasi spontanée, quasi organique (si l’on se rapporte à la métaphore du « corps statistique ») et en tout cas automatique, de corrélations suffisamment fortes pour être considérées comme intéressantes, c’est-à-dire douées d’une force prédictive. On a pu observer que la qualité de ces prédictions reposait bien moins sur le caractère sophistiqué de l’algorithme que sur le seul caractère massif des banques de données exploitées : une prédiction est plus fine si elle repose sur une grande quantité de données traitée à partir d’algorithme simple que le contraire.21 Un tel constat est, bien entendu, absolument relatif, et peu intéressant en tant que tel, si ce n’est qu’il permet de cerner la nature du savoir produit par de telles pratiques : ce savoir purement prédictif s’écarte largement de ce que l’on considère spontanément comme un savoir des causes ou des justifications des comportements. Rompant avec les ambitions modernes de la rationalité déductive reliant les phénomènes observables (c’est-à-dire les phénomènes préalablement sélectionnés comme objets d’observation et d’analyse en fonction de critères d’intérêt explicites ou implicites) à leurs causes, la rationalité statistique suit une logique inductive. Indifférente aux causes des phénomènes, elle s’ancre dans l’observation purement statistique de corrélations (indépendantes de toute logique) entre données recueillies d’une manière absolument non sélective dans une variété de contextes hétérogènes les uns aux autres.

Face au foisonnement anarchique et à l’irrégularité des comportements humains, le profilage (et les opérations de récolte de données et d’établissement de corrélations qui le précèdent) dispense de l’évaluation individualisée des risques, du mérite, des propensions diverses, des besoins de chaque individu et permet d’objectiver et d’ optimiser les autorisations d’accès à certains lieux, les mesures de contrôle administratif ou policier, la distribution ou la répartition des opportunités, des ressources et des offres de biens et de services en fonction des prédictions associées non plus à chaque personne individuellement, mais à chaque profil (on parle par exemple à cet égard de profils de consommateurs, de profils de risque… l’administration fiscale dispose d’une série de profils de fraudeurs). Les profils, sans identifier personne, assignent les mêmes ‘prédictions’ comportementales à tous ceux qui se trouvent présenter un certain nombre d’éléments repris dans lesdits profils quelles que soient les spécificités biographiques ou autres qu’ils puissent présenter par ailleurs. L’évaluation du mérite et du besoin, des aptitudes et des faiblesses des individus, voire de leurs intentions, tâche délicate s’il en est, mais qu’on sait rarement exempte de préjugés, est, par la grâce du profilage qui évite de devoir s’intéresser aux individus en tant qu’individus, rendue progressivement redondante.

Moins susceptible d’être biaisé par les préjugés humains (notamment vis-à-vis des groupes minoritaires ou historiquement discriminés), il serait néanmoins excessif d’affirmer que le ‘savoir’ produit par le profilage soit effectivement objectif au sens où l’on s’est longtemps référé à l’objectivité du savoir scientifique. Les systèmes informatiques impliqués dans les dispositifs de profilage ne sont pas conçus pour « observer » la complexité unique de chaque individu, mais pour classer les individus dans une variété de catégories hétérogènes de manière à pouvoir prédire leurs propensions à acheter certains biens à un certain prix, les risques qu’ils causent des frais à leurs assureurs potentiels, le danger qu’ils présentent pour autrui, ou toutes propensions que commerçants, assureurs, forces de maintien de l’ordre et bien d’autres peuvent trouver utiles de connaître par avance. La manière dont ce qu’il y a à connaître par avance est défini, le processus de problématisation, dépend forcément du type d’application envisagé (sécuritaire, actuariel, de marketing, de divertissement…). L’apparente ‘neutralité’ du profilage ne doit pas faire oublier la non-neutralité des applications diverses, aliénantes ou émancipatrices, dans lesquelles il peut s’inscrire. La relative ‘nouveauté’ du profilage et surtout de sa relative généralisation pourrait faire oublier les enjeux politiques de la « problématisation », c’est à dire, du choix des secteurs pour lesquels prévoir les comportements apparaît la meilleure façon de gouverner. Il ne s’agit cependant pas, de notre part, de simplement affirmer que toute production de savoir, même sur des bases automatisées, est sujette à caution parce qu’elle serait habitée par des enjeux de pouvoir et de contrôle, quels qu’ils soient et a fortiori lorsque ceux-ci sont ou peuvent rester voilés, et ce, pour plaider dès lors pour l’application dans ce champ d’une sorte de principe de précaution. La question n’est en effet pas, ou pas seulement, que l’objectivité prétendue n’est pas nécessairement rencontrée, mais plutôt qu’on se trouve face à un type de gouvernement qui noue un nouveau rapport à l’objectivité, et que c’est de cela qu’il s’agit avant tout de prendre acte.

Bien que paré des vertus d’efficacité et d’objectivité, le profilage semble procéder d’un processus qui reflèterait la réalité actuelle et future sans y toucher. Les exemples ne manquent pas, pourtant, du caractère ‘performatif’ des classifications impliquées. Dans la mesure où les opérations de profilages permettent d’ajuster les offres de biens et services, ou la communication de contenus informationnels (sur Internet) aux ‘préférences’ de chaque individu telles que ‘découvertes’ par inférence au départ de données relatives aux comportements et préférences que l’individu et/ou les individus auxquels le même profil a été assigné ont manifestés par le passé, il est difficile de contester l’idée que le profilage peut avoir un effet performatif sur les comportements qu’il est censé prédire : m’évitant d’être surpris par des informations et offres que je n’aurais pas déjà trouvées intéressants ou attractifs par le passé, mon profil agit comme un filtre qui, tout en augmentant la ‘pertinence’ de ce qui m’est proposé par rapport à mes attentes actuelles, restreint mes ‘chances’ de changer de point de vue, d’élargir le champ de mes intérêts. Le profilage me confirme dans mes goûts et mes intérêts passés et peut induire une sorte de rigidification de mes croyances, opinions, désirs et appétits en tous genres. Que je le veuille ou non, chaque répétition ira en retour renforcer le profil qui me sera ‘appliqué’ et dans lequel je n’aurai de cesse, inconsciemment, de me reconnaître.

Que j’aie moi-même un certain ‘contrôle’ sur mon ‘profil’ comme c’est le cas dans les réseaux sociaux tels que Facebook ou Twitter témoigne seulement d’une réconciliation entre gouvernement et interactivité : les réseaux sociaux, facteurs de convergence sociale et de surveillance mutuelle peuvent très bien fonctionner comme instruments ‘gouvernementaux’ dans la mesure où ils favorisent l’internalisation des normes tout en instituant des liens de fidélité et de dépendance, pouvant aller jusqu’aux ‘attachements passionnés’22 des individus vis-à-vis de leur ‘profil’, c’est-à-dire aux ‘performances identitaires’ exécutées en réponse, et qui viennent renforcer, les normes esthétiques, morales, de comportement en vigueur dans ces réseaux.

Pour autant, les comportements des individus qui peuvent être prédits sur la base massive d’opérations de data mining et de profilage sont le plus souvent dépourvus de toute inscription dans des contextes collectifs, et même intentionnels.23 À la différence des méthodes plus anciennes de profilage, comme le profilage ethnique auquel il est recouru plus ou moins explicitement et plus ou moins systématiquement dans le contexte pénal américain24, le profilage plus ‘dynamique’ et ‘individualisé’ que permettent les techniques de data-mining classent les individus dans une multitude de catégories hétérogènes les unes aux autres, d’une très grande plasticité, constamment évolutives, de telle manière que, ces classifications ne recoupant aucune catégorisation socialement éprouvée (appartenance ethnique, genre, préférences sexuelles, opinions politiques, convictions religieuses…), leur contestation au moyen d’actions collectives devient impensable, quels que soient de fait leurs effets potentiellement discriminatoires. Le caractère ‘invisible’ et surtout ‘inintelligible’ des processus algorithmiques empêche de fait toute contestation à leur endroit.

22 Judith Butler, The Psychic Life of Power, Stanford University Press, 1997.

23 Antoinette Rouvroy, « Governementality in an Age of Autonomic Computing : Technology, Virtuality and Utopia », in. Mireille Hildebrandt, Antoinette Rouvroy (eds.), Autonomic Computing and the Transformations of Human Agency. Philosophers of Law meet Philosophers of Technology, à paraître.

24 Bernard E. Harcourt, Against Prediction: Profiling, Policing, and Punishing in the Actuarial Age, University of Chicago Press, 2007 ; Bernard E. Harcourt, “Critique du champ penal à l’âge actuariel, Parisian Notebooks, The University of Chicago Center in Paris, 2007, n°3.

Comme l’explique Jonathan Simon, le prisme représentationnel institué par à l’usage actuariel de la statistique transforme les individus, autrefois perçus comme des êtres moraux ou rationnels, en simples localisations, éventuellement multiples, dans des tables de variations actuarielles. Ce glissement de l’agent moral au sujet actuariel témoigne d’un changement dans la manière suivant laquelle le pouvoir – de l’État et des grosses organisations publiques ou privées -s’exerce sur les individus. Les effets s’en font ressentir sur la manière dont nous nous percevons nous-mêmes, dont nous percevons nos communautés, et sur notre capacité de jugement moral et d’action politique.25 Outre cet effet de ‘démoralisation’ et de ‘dépolitisation’ des sujets, le gouvernement algorithmique radicalise, d’une manière essentielle, les processus d’individualisation26 -ou plutôt de ‘dividualisation’ -en cours, comme nous le verrons ci-dessous.

De cet ensemble de phénomènes s’impose donc massivement l’idée d’une objectivité radicale des productions de savoir en question : la possibilité absolument neuve qui serait ainsi ouverte est celle d’une correspondance, voire d’une adhérence ou même d’une adhésion parfaite et constante au réel concerné. S’agissant de technologies qui visent à détecter les intentions et les comportements futurs, nous devons plutôt parler d’une adhérence ‘anticipée’ au réel, le réel ou l’environnement étant sans cesse produit ou reproduit ou adapté sur la base des données collectées. Et dans la mesure où ces mêmes technologies servent souvent des objectifs de sécurité au sens large, qu’il s’agisse de prévention du terrorisme ou plus globalement de définir des profils à risque, on peut même dire qu’il y a finalement surtout adhérence à un réel évité, qui se vérifie dans la seule, mais dangereuse mesure où il ne se produit pas, fantomatique donc. Le ‘corps statistique’ serait dès lors porteur d’une ‘mémoire du futur’ alors que les raisons d’être des politiques qu’il sert sont précisément d’éviter l’actualisation de ce ‘futur’.

25 Jonathan Simon, “The Ideological Effects of Actuarial Practices”, Law and Society Review, 1988, vol.22, n.4, p. 772. 26 Sur les processus d’individualisation, voir notamment Ulrich Beck, Elisabeth Beck-Gernsheim, Individualization: Institutionalised Individualism and its Social and Political Consequences, Sage Publications, 2001. Pour une explicitation du rapport entre profilage, contrôle à distance, et individualisation, voir A. Rouvroy, “Réinventer l’art d’oublier et de se faire oublier dans la société de l’information”, Version augmentée du texte paru dans l’ouvrage collectif édité par Stéphanie Lacour, La sécurité de l’individu numérisé – Réflexions prospectives et internationales, L’Harmattan, 2009.

http://works.bepress.com/antoinette_rouvroy/5

http://1libertaire.free.fr/ARouvroy18.html

Il ne s’agit toutefois pas de penser que cette adhérence au réel résulte exclusivement de ce que le réel serait en fait produit par les normes prétendument tirées des comportements, comme si cette description du réel trouvait tout son sens dans son caractère performatif, comme si son observation n’était qu’une action sur un réel futur, et ce, d’autant plus que cette adhérence se jouerait sur le mode fantomatique mentionné. Il nous paraît en effet plus important, plus primordial, et plus en rupture par rapport aux pratiques normatives précédentes, de noter que le modèle général de gouvernement que nous cherchons à cerner est déjà entièrement à l’œuvre dans l’épistémologie qui le soutient : l’essentiel de sa force et de sa légitimité résiderait dans le fait que les normes qui le constituent sont immanentes au réel dont elles émergent sans réclamer en apparence aucune thèse sur ce réel, aucun appel explicite à une expertise, aucune décision. Cette immanence au réel est constitutive du gouvernement que nous questionnons, dans le sens que c’est par cette immanence que ça gouverne.

Un dernier élément primordial de ce point de vue descriptif : l’adhérence du gouvernement au réel suppose non seulement que les pratiques de savoir dont émergent les normes se développent sans hypothèse et même sans l’appui d’une expertise extrinsèque, mais aussi que les objets de ce savoir ne soient pas activement capturés par ces pratiques de savoir ; les objets de ce savoir, les comportements humains, sont eux-mêmes « producteurs » exclusifs du savoir qui se rapporte à eux : les traces laissées par les comportements des sujets, qui constituent l’objet du savoir statistique contemporain, se collectent « d’elles­mêmes ».

II -Problèmes éthiques et juridiques liés à ces pratiques normatives contemporaines.

Dans le cadre de la 'production' algorithmique de connaissances décrite ci-dessus, le savoir et les normes semblent générés de manière quasi spontanée comme s’il ne s’agissait plus de gouverner le réel, de manière transitive, mais de gouverner à partir du réel 27, en prenant acte de celui-ci. Tout est a priori enregistré parce que toute information, même insignifiante en elle-même, peut servir des finalités de profilage ou de calcul de risque. Ceci signifie que le « réel » qui sert de base « objective » au savoir et aux normes dans le cadre de la « gouvernance algorithmique » consiste en un ensemble de données, de ‘data points’ localisés dans des tables statistiques (actuarielles).

27 Voir à ce sujet Gouverner sans gouverner, op. cit., chapitre 1.

Dans cette production « passive » de savoir et de norme, le langage naturel n’intervient même plus pour 'dire' ni 'attester', ni 'témoigner' du réel28; il est en quelque sorte 'absorbé' par le réel, mis sur pied d'égalité avec le réel, assimilé aux 'faits bruts'. Il n'y a plus de différence entre discours langagier et 'discours' du corps. La 'digitalisation' du monde, ou le phénomène de 'dataveillance' éradique la distinction entre épistémès langagière, visuelle, sonore… ; tout - écrits, sons, images... - est 'traduit' en 'data points'.

Une série d'enjeux proprement 'gouvernementaux' découlent immédiatement de ces glissements épistémologiques.

Premièrement, l’évacuation de toute hypothèse à la base des récoltes de données, dont on a vu qu’elle caractérise le datamining, signifie que le gouvernement algorithmique qui en découle se légitime a priori sans faire référence à aucune finalité, et ce, en vertu de sa seule adhérence au réel.

Ce type de gouvernement entraîne d’ailleurs aussi une confusion quant aux justifications qui pourraient en être données a posteriori, les arguments évoqués à ce titre pouvant toujours et à la fois relever du confort des usagers concernés, de la sécurité collective et de l’intérêt marchand des intermédiaires qui prennent en charge ce gouvernement.

28 A propos du déclin, dans l’histoire, du poids des discours d'autorité et du témoignage comme manières de rendre le monde 'signifiant', voir notamment Ian Hacking, The Emergence of Probability: A Philosophical Study of Early Ideas About Probability, Induction and Statistical Inference, Cambridge university Press, 1975. Voir aussi Simon Shaffer, “Self Evidence”, Critical Inquiry, 1992, vol.18 n.2, p. 328: “inanimate bodies… are not capable of prepossessions, or giving us partial informations”, while “vulgar men may be influenced by predispositions, and so many circumstances, that they may easily give occasion to mistakes. So an inanimate body’s deeds could function as signs of some other state of affairs in a way that stories of vulgar humans could not.”

On peut bien sûr considérer que c’est là le propre de tout acte de gouvernement. Mais dans le cas présent, cette confusion est inhérente non plus à la confrontation des lectures critiques que l’on peut en faire, mais à la nature même d’une pratique de gouvernement qui s’exprime entièrement dans le rapport qu’elle établit au réel : récolter des données, indépendamment de toute hypothèse quant à leur intérêt spécifique relativement à une finalité (puisqu’aucune finalité n’est a priori définie), au point de pouvoir considérer que le réel lui-même est ainsi objectivement saisi, et laisser émerger des normes à partir des banques de données ainsi constituées, de manière telle que ces normes puissent in fine être considérées comme émanations quasi spontanées de ces données, bref gouverner à partir du réel, induit nécessairement que de telles normes pourront agir comme si elles n’étaient guidées par aucune finalité, mais seulement portées par les exigences mêmes du réel. Aucun seuil ne peut d’ailleurs être véritablement défini entre ce qui relève de la récolte d’information, avec les corrélations qui sont produites à leur sujet de manière automatisée, et l’usage qui est fait de ces données corrélées. La confusion notée est donc aussi celle qui porte sur la supposée différence entre description du réel et action normative à partir de celle-ci. Le fait que cette évacuation des finalités ou leur confusion et la véritable fusion que cela induit entre description et norme réduisent fondamentalement la possibilité d’une évaluation éthique est évident ; nous nous contenterons d’en prendre la mesure ci-dessous par un biais plus juridique, car le problème ne réside pas directement dans cette difficulté à produire une évaluation éthique, mais dans le fait que le droit continue de se nourrir d’une série d’arguments qui reposent, comme on le montrera, sur une éthique qui suppose qu’on peut se mouvoir sur le terrain des finalités, c’est-à-dire à cela même qui a été évacué de manière essentielle. Le législateur exigeant à la fois que l’activité de récolte et de traitement des données – lorsque les données ne sont pas irréversiblement anonymisées, et qu’elles restent donc des données à caractère personnel au sens du régime juridique de protection des données -soit nécessaire, proportionnelle et en rapport avec la finalité légitime déclarée de l’administration ou de l’organisme public ou privé qui y procède et, dans les cas où il est requis, que soient effectifs les droits des sujets concernés -lesquels doivent par exemple être avertis, le cas échéant, qu’une caméra les filme, avoir pu donner leur consentement préalablement à la récolte de ‘leurs’ données, avoir accès à ces données, pouvoir en demander la rectification ou l’effacement, etc., autant de prérogatives qui ne peuvent être de fait envisagées et exercées effectivement qu’au regard des finalités visées par l’activité de récolte en question.

Cet écart entre les pratiques de gouvernement et leur régulation juridique est exemplaire, car il ne témoigne plus d’une conflictualité frontale, mais plutôt d’une suite de mouvements d’esquive : gouverner consistant précisément à déployer des pratiques qui évitent le terrain sur lequel la règle juridique parvient à agir, d’où l’importance, pour les juristes confrontés à ces nouveaux dispositifs, de ne pas seulement évaluer l’applicabilité et l’effectivité du droit positif aux circonstances radicalement neuves de la société de surveillance, mais de s’efforcer de comprendre quelles sont types et les modalités d'exercice du pouvoir, et quelles sont les possibilités de résistance au pouvoir que les nouvelles technologies instituent lorsqu'elles paraissent menacer la vie privée et défier les régimes de protection des données. Ce n’est qu’ainsi qu’il sera possible de produire un cadre juridique capable de préserver ou d’élargir les possibilités de résistance, et d’émergence de contre-conduites, ce qui est un enjeu crucial si, comme Foucault l’affirmait : « Rien n’est politique, tout est politisable, tout peut devenir politique. La politique n’est rien de plus ni rien de moins que ce qui naît avec la résistance à la gouvernementalité, le premier soulèvement, le premier affrontement. »29 C’est bien la puissance d’agir normatif qui se trouve ici mise en question.

Deuxièmement, comme déjà évoqué précédemment, les sujets « constitués » par ce type de gouvernement ne sont en conséquence plus nécessairement des sujets 'moraux', faisant des choix animés par des intentions, intentions qui ne pourraient être orientées encore une fois que par les différentes finalités qu’ils se seraient fixés, et qui devraient être éventuellement confrontées aux finalités mêmes du gouvernement : ce type de gouvernementalité s'accommode très bien de l'amoralité des sujets, de leur incohérence. Il se contente des localisations multiples dans des tables actuarielles ou statistiques diverses. L'unité à laquelle s'adresse le pouvoir n'est plus l'individu unitaire, rationnel, égoïste, identifié à un 'territoire' corporel -cet individu-là n'intéresse plus le pouvoir. Pour structurer le champ d’action possible des individus, le pouvoir n’a plus à s’exercer ‘physiquement’ sur des individus identifiables ou identifiés, il peut a présent s'adresser uniquement et directement aux multiples 'facettes' hétéroclites, différenciées, contextuelles, éminemment changeantes, qui sont les miroitements partiels – fractions ou instantanés -d’existences individuelles dont le pouvoir peut à présent ignorer la complexité, et la vivacité.

29 Michel Foucault, Cours au Collège de France 1977-1978, Sécurité, Territoire, Population, p. 409.

Si l’objectif reste bien de produire in fine des comportements réguliers, c’est-à-dire prévisibles, les outils de cette rationalité gouvernementale n’ont plus pour cible directe des individus unifiés, porteurs d’une histoire personnelle, historique. La mesure de toute chose est « dividuelle »30, constituée d’une multitude de représentations numérisées, potentiellement contradictoires entre elles et en tout cas hétérogènes les unes aux autres. C’est cet « être » numérique constamment décomposé, recomposé, composite, qui intéresse à présent directement le pouvoir : l'instabilité du 'dividu', cette unité dépourvue de for intérieur, correspond à l'absence de 'projet' et d’hypothèse du gouvernement. Dans un régime de gouvernementalité statistique, il n’est plus attendu du sujet qu’il soit d’un seul bloc, ni qu’il fasse preuve de l’intériorisation des normes en s’identifiant et en rendant compte de soi auprès d’un pouvoir identifiable, le « pouvoir » -ou ce qu’il en reste -tolère d’autant mieux les irrégularités, les contradictions, les incohérences des individus qu’il produit leurs corps non plus en fonction de la manière dont les individus se perçoivent, s’assujettissent ou se subjectivisent, mais en fonction de ce que ces corps pourraient faire, en fonction des virtualités dont ils sont porteurs. Opérant indépendamment de la conscience ou de la subjectivité, la biométrie, par exemple, ne prend pas pour objet l’individu incarné, physique, corporel, mais un ‘sujet de données’ (data subject), lequel est ajusté à un ‘patron’ ou ‘modèle’ numérique à des fins d’identification. L’autorité ainsi s’applique par l’instauration de canaux numériques plutôt que par la conduite des individus physiques suivant des trajectoires prédéfinies. Les individus deviennent des dividus et les masses deviennent des banques d’information.31

Il s’agit cependant, dans notre manière même de comprendre les pratiques normatives en question avec la segmentation des individus qu’elles produisent, de toujours garder à l’esprit l’indétermination de leurs finalités. Ceci importe dans la mesure où toute interprétation en termes de « théorie du complot » est ainsi rendue impossible. Certes, un tel gouvernement algorithmique s’expose par principe, et en raison de l’absence de finalité a priori, à des récupérations multiples, c'est-à-dire à être repris et (re)déterminé en fonction des finalités les plus diverses (étant donné l’absence de finalité prédéfinie, les pratiques en question peuvent d’ailleurs toujours aussi se prêter à des usages émancipateurs).

30 Gilles Deleuze, « Post-scriptum sur les sociétés de contrôle », in Pourparlers, Editions de Minuit, 1990, p. 244, parle notamment de « la nouvelle médecine « sans médecin ni malade » qui dégage des malades potentiels et des sujets à risque, qui ne témoigne nullement d’un progrès vers l’individuation comme on le dit, mais substitue au corps individuel ou numérique le chiffre d’une matière « dividuelle » à contrôler. » 31 Erin Kruger, Shoshana Magnet, Joost Van Loon, « Biometric Revisions of the `Body' in Airports and US Welfare Reform », Body & Society, 2008, Vol. 14(2): 99–121. Voir aussi Deleuze, Op.cit., « on ne se trouve plus devant le couple masse – individu. Les individus sont devenus des « dividuels », et les masses, des échantillons, des données, des marchés, ou des « banques ».

http://1libertaire.free.fr/DeleuzePostScriptum.html

Mais ce qu’il nous semble avant tout important de noter c’est que cette disponibilité à une multiplicité d’applications et de récupération suppose donc une indétermination originaire. Et cette absence originaire de finalité ne signifie pas pour autant que les pratiques en question ne seraient pas encore normatives, qu’elles attendraient, pour agir, d’être reprises dans le cadre d’une efficacité stratégique dont les buts seraient déterminés dans un second temps : au contraire et paradoxalement, la normativité du gouvernement algorithmique est précisément à l’œuvre et légitimement à l’œuvre dans son absence de finalité ; son efficacité stratégique, lorsque cette normativité est mobilisée en vue d’une quelconque finalité, n’est jamais que la confirmation et l’émanation d’une disponibilité et d’une adhérence au réel qui la légitime a priori.

Toutefois, malgré cette multiplicité d’usages possibles, force est de constater que le gouvernement algorithmique, sans pouvoir ni vouloir proposer de ‘politique’ substantielle définie, a néanmoins pour but absolument générique et pour effet absolument concret, en organisant la prévisibilité des comportements, de réduire la contingence, et donc la variété – ou la spontanéité -des développements et transformations sociales et politiques possibles et pensables, au risque de rigidifier les structures de comportement, de figer les dynamiques sociales, et de porter ainsi atteinte à la vitalité politique globale. 32

Frédéric Neyrat parle à cet égard, quoi que dans le contexte sommes toutes différent de la « biopolitique des catastrophes », d’une hyperbiopolitique orientant les investissements, décisions et politiques non pas en fonction de ce qui existe, de dommages visibles, « mais des flux d’information, de boucles d’informations projectives et prospectives évoluant parfois heure par heure. L’hyper-biopolitique a pour modèle une sorte de gouvernance just in time, capable de répondre à la vitesse des dernières informations.

32 Faut-il s’étonner que, plutôt que la spontanéïté et l’imagination, la ‘résilience’, cette capacité à reprendre sa forme initiale suite à un choc reçu de l’extérieur, passe aujourd’hui pour l’une des principales vertus individuelles et collectives ? Voir notamment Christopher Zebrowski, « Governing the Network Society : A Biopolitical Critique of Resilience », Political Perspectives, 2009, Vol.3(1), http://www.politicalperspectives.org.uk/General/Issues/Vol3-1­2009/PDFs/4-Zebrowski.pdf

Lorsqu’elle est en ode conjuratoire, la biopolitique des catastrophes ne se fixe sur aucun dommage perçu, mais sur la possibilité du dommage. Ce serait sans compter avec l’effectivité de la catastrophe, soit le dommage réalisé – vache folle, canicule, tsunami, etc. C’est alors que l’hyper-biopolitique passe en mode régulatoire, et agit dans l’après-coup. Certes toujours en fonction des flux d’informations, avec l’idéal suivant : panser les plaies au moment même de leur ouverture, afin d’éviter l’installation de tout trauma – voire la répétition de ce même type de catastrophe : en mode régulatoire, l’hyper-biopolitique maintient sa dimension prospective dans son mode même de régulation. Comme s’il s’agissait, en définitive, de conjurer e qui a eu lieu et de réguler ce qui viendra… Inversant l’axe du temps, la politique-fiction devient ici véritablement fantasmatique. Mais au prix d’un oubli des conditions de la catastrophe qui a eu lieu (…) La biopolitique des catastrophes s’inscrit dans une temporalité qui a pour fonction de gérer la maintenance du présent par pré-vision du possible, prévenant ainsi la possibilité d’une éco-politique transformatrice. »33

Troisièmement, il y a dans tout cela quelque chose qui dérange, et que les juristes pensent peut-être un peu trop rapidement pouvoir qualifier en termes d’intrusion dans la vie privée ou de violation des règles de protection des données à caractère personnel, quitte éventuellement à suggérer des modifications du régime juridique pertinent34. Pourtant, ces régimes juridiques sont inaptes à fournir aux individus les conditions de réalisation de contre-conduites ou de résistance, prisonniers qu’ils sont d’une sorte d’individualisme méthodologique aveugle aux effets que nous venons de mentionner de la digitalisation de la vie même. Attachés à la figure de l’individu, du sujet de droit, ces régimes juridiques ignorent le fait que le type de gouvernementalité statistique ou algorithmique qu’elle rend possible n’a plus pour cible privilégiée l’actualité de l’individu identifié, ‘sujet de droit’, ‘sujet de données’, juridiquement protégé dans son autonomie, sa clôture, son intimité, mais une virtualité assez bien rendue par la figure deleuzienne du ‘dividu’, multiplicité ouverte et rhizomatique, un ‘devenir autre’. Face, par exemple, aux dispositifs de biométrie prédictive dont le but n’est plus seulement ou plus du tout l’identification ni l’authentification, mais bien plutôt la prédiction des comportements et intentions à des fins de prévention et de préemption, on perçoit bien que les revendications faisant de la proclamation et de la mise en oeuvre d’un « droit à l’anonymat » manquent partiellement leur cible.

33 Frédéric Neyrat, « Biopolitique des catastrophes », Multitudes, n.24 [online], printemps 2006.

34 Voir notamment Serge Gutwirth, Yves Poullet, Paul De Hert, Cécile de Terwangne and Sjaak Nouwt, (eds.), Reinventing Data Protection ?, Springer, 2009

Par ailleurs, l’abondance des études, rapports et publications dédiées à la problématique attestent des difficultés d’application, voire sur l’inadéquation, des régimes juridiques de protection de la vie privée35 et de protection des données à caractère personnel36 face au recueil massif et continu de données personnelles et contextuelles en tous genres, à leur traitement à des fins générales de profilage notamment, à leur conservation par défaut sans que soit énoncée a priori de finalité spécifique.

35 Le droit à la protection de la vie privée, du secret des lettres et de la correspondance, et du domicile est notamment énoncé à l’article 8 de la Convention européenne des droits de l’Homme. Le second paragraphe du même article énonce les conditions de légitimité des ingérences de l’Etat – ou de tiers, par l’effet horizontal de la Convention – dans la vie privée des individus. Il faut que ces ingérences soient nécessaires, dans une société démocratique, à la protection d’intérêts légitimes prépondérants, qu’elles soient strictement proportionnées à la poursuite de ces intérêts prépondérants.36 Le droit à la protection des données à caractère personnel – qui n’épuise pas le régime de protection de la vie privée – a été récemment institué au rang de droit fondamental par l’Article 8 de la Charte des Droits Fondamentaux de l’Union Européenne. Ses principaux instruments de protection sont la Convention n°108 du Conseil de l’Europe sur la protection des personnes physique à l’égard du traitement automatisé de données à caractère personnel et la Directive européenne 95/46 sur la protection des données à caractère personnel, à laquelle les législations nationales des Etats membres se conforment. Parmi les principes mis en œuvre par ces instruments se retrouvent les principes de finalité (la finalité du traitement de données doit être légitime, et il ne peut être procédé à un traitement de données pour des finalités autres que celles initialement déclarées), de proportionnalité (du traitement de données par rapport aux finalités poursuivies) et d’adéquation et de qualité des données (les traitements doivent être adéquats et les données doivent être exactes), de limitation dans le temps (principe d’effacement des données après un certain temps). A ces principes s’ajoutent une série de prérogatives individuelles des sujets comme le droit de connaître l’existence du traitement de données, d’accès et de rectification des données, et, dans un certain nombre de cas (lorsque la collecte et le traitement de données ne sont pas légitimés par la nécessité ou l’intérêt légitime du maître du fichier) la possibilité de consentir ou de ne pas consentir au traitement des données.

Il est d’ailleurs loin d’être établi que toutes ces données soient, techniquement, assimilables à des données à caractère personnel (c’est-à-dire des données relatives à des individus identifiés ou identifiables) au sens du régime juridique de protection 37 alors même que l’impact de ces traitements sur les personnes peut être au moins aussi significatif et potentiellement défavorable que des traitements de données à caractère personnel au sens traditionnel.38

On se trouve donc face au paradoxe suivant : quand bien même le caractère objectivement personnel des données en jeu est difficilement attestable, leur inscription dans le cadre général d’une gouvernementalité statistique qui ne se définit pourtant pas par le traitement qu’il entend leur réserver et qui ne se soucie même pas des personnes, mais seulement des fragments « dividuels » de celles-ci au point que leur accord pourrait toujours être supposé, induit la possibilité d’une action sur les environnements qui les dépasse nettement. Un élément extrêmement concret témoigne de ce paradoxe : les données dont l’anonymat est effectivement garanti permettent pourtant l’identification des sujets qu’elles concernent par leur simple mise en corrélation, mais la gouvernementalité qu’elles servent ne réclame en fait même plus cette identification dans la mesure la seule personnalisation des environnements – physiques et informationnels ­ est suffisante, et permet effectivement de structurer le champ d’action, et de pensée, possible.

Quatrièmement, au niveau ‘métajuridique’, l’abstraction, la temporalité et la portée du gouvernement algorithmique soulèvent des questions spécifiques. Voici un enjeu peut-être moins évident qui tient directement au type de ‘gouvernementalité’ installé par les dispositifs que nous avons évoqués.

37 A côté de cet aspect technique, on doit noter que cette catégorie des données personnelles, comme celle de la vie privée, et plus que tout autre régime de protection, ne se réduit pas à sa seule définition objective et trouve son sens, en amont, de manière politique et dialectique, dans son rapport à des actes de pouvoir. Or c’est une nouvelle fois sur ce seul terrain objectif que se meut le gouvernement algorithmique, en évacuant, comme on l’a vu toute perception des problèmes posés à partir d’un point de vue finaliste et en dépolitisant de la sorte les enjeux.38 Pour une évaluation de la pertinence et de l’applicabilité du régime européen de protection des données à caractère personnel aux traitements de données impliqués dans les dispositifs d’intelligence ambiante, voir Antoinette Rouvroy, « Privacy, Data Protection, and the Unprecedented Challenges Raised by Ambient Intelligence », Studies in Ethics, Law and Technology, Berkeley Electronic Press, Vol2, Issue 1, Article 3, 2008, pp. 1-54.

Cette gouvernementalité se caractérise par une certaine abstraction, c’est-à-dire une distance phénoménologique par rapport à l’expérience vécue. Elle est porteuse d’une temporalité propre, distincte elle aussi de la temporalité vécue. Enfin, elle se caractérise par sa portée non seulement prédictive, mais également préemptive.

Les 'dividus' sont de plus en plus 'distincts' et 'abstraits' par rapport aux récits individuels et collectifs qui sont porteurs d’une inactualité (ce devenir autre qui ne cesse de faire trembler l’actuel) que la gouvernementalité algorithmique tente ainsi de conjurer. Ils ont -sous forme digitalisée -une ‘vie’ propre (ils croissent constamment, en nombre et en sophistication, et sont mémorisés pour une durée virtuellement infinie sur des supports digitaux). Enfin, les ‘dividus’, traités suivant les algorithmes adéquats, permettent non seulement la prédiction, mais également la pré-emption des comportements. C’est-à­dire qu’ils permettent la structuration du champ d’action possible des individus 39, à un stade pré-conscient ; ils permettent, pour le dire autrement, la construction des préconditions de l’action des individus. Il résulte de tout ceci que ce ‘gouvernement algorithmique’ des comportements présente une série de menaces dans la mesure où il affecte certaines prérogatives subjectives essentielles à la vitalité sociale et politique:

- Le gouvernement algorithmique, dans la mesure où il institue le ‘corps statistique’ au départ de l’enregistrement, par défaut, de tous les événements, de tous les comportements, signifiants ou non pour ceux dont ils émanent, constitue aussi une sorte de ‘mémoire digitale totale’ aux capacités de stockage virtuellement infinies, de nature peut-être à porter atteinte à la ‘capacité d’oubli’ et, partant, à la mise en œuvre du ‘droit à l’oubli’ qui se trouvait garanti par l’obscurité pratique dans laquelle tombaient la plupart des faits et gestes posés, des phrases prononcées, une fois passé le temps nécessaire à l’oubli humain.

39 Michel Foucault, “La gouvernementalité”, In Dits et écrits, Paris, Gallimard, 1994, 635–657. Voir également, à propos des tactiques de gouvernement préemptif, Brian Massumi, “Perception attack. Note sur un temps de guerre”, Multitudes, 2008/4, n°34, pp. 74-83.

http://1libertaire.free.fr/MFoucault136.html

La très grande facilité de récupération et de recoupement des données enregistrées dans différents contextes, à différentes périodes, pour la construction et l’actualisation de ‘profils’ d’utilisateurs, de consommateurs, de délinquants potentiels, de fraudeurs... peut aussi contribuer à affecter aux individus les ‘traces’ de leurs comportements passés au titre d’un destin identitaire, au risque de les empêcher d’innover dans leurs usages des services et des technologies, de modifier leurs comportements de consommateurs, de ‘repartir à zéro’ dans leurs rapports à la société, à ses lois, à ses opportunités… 40

- La possibilité de désobéissance est, elle aussi, affectée par le caractère toujours plus préventif et pré-emptif, visant non plus à interdire ni à sanctionner certains actes illégaux ou dangereux, mais à les rendre physiquement impossibles. Alors que cette impossibilité de désobéissance peut paraître offrir à la loi une effectivité qu’elle n’aurait même pas pu rêver, la possibilité de désobéir reste néanmoins absolument nécessaire, non seulement dans la mesure où elle rend possible la désobéissance civile et ainsi, la résistance et la sortie de régimes gouvernementaux abusifs ou totalitaires, mais aussi, dans les régimes dits démocratiques, pour garantir des marges d’expérimentation normative, pour permettre la mise en débat des règles de droit positif éventuellement devant les cours et tribunaux, et ainsi éviter la rigidification – par dépolitisation -des normes. Les gains d‘efficacité’ offerts par le gouvernement préemptif ont un coût. S’ils dispensent, ne fût-ce que partiellement, de l’instance juridictionnelle – puisque les dispositifs préventifs et préemptifs évitent a priori que soient commis des actes illégaux, dangereux, imprudents ou jugés indésirables – et si donc le juge n’est plus guère appelé à décider de l’imputabilité, de la responsabilité et de la sanction, cette évacuation du juge déséquilibre l’architecture ‘démocratique’ qui repose précisément sur un pouvoir à trois têtes (législatif, exécutif, judiciaire), et sur une relation récursive entre les institutions législative et le judiciaire (le juge, constatant l’injustice’ d’une loi, rend publique cette injustice, ce qui peut obliger le législateur à en changer).

- Les impossibilités de la désobéissance et de l’oubli bornent de manière extérieure le processus normatif que nous décrivons ici, au même titre que la loi trouvait dans les réalités de la désobéissance et de l’oubli (ou même de la prescription) ses limites, son amont et son aval.

40 Antoinette Rouvroy, “Réinventer l’art d’oublier et de se faire oublier dans la société de l’information”, Version augmentée du texte paru dans l’ouvrage collectif édité par Stéphanie Lacour, La sécurité de l’individu numérisé – Réflexions prospectives et internationales, L’Harmattan, 2008.

http://works.bepress.com/antoinette_rouvroy/5


http://1libertaire.free.fr/ARouvroy18.html

Ne peut-on tenter de déterminer, au sein même du processus normatif statistique, envisagé dans sa rivalité par rapport à la normativité juridique, une possibilité qui serait désormais fondamentalement et constamment remise en question, là où elle était tout aussi fondamentalement et tout aussi constamment supposée, rencontrée, appelée, etc., dans le cadre de normativité juridique ? La possibilité de se rendre compte et de rendre compte41, par le langage notamment, et y compris en justice, de ce qui nous fait agir, enfin, semble également compromise. La connaissance purement prédictive n’équivaut en rien à ce que l’on considère spontanément comme un savoir des causes ou des justifications des comportements. Ceci signifie aussi que le gouvernement statistique du réel ne permet pas aux gouvernés de « rendre compte », par le langage, la plaidoirie, de leurs actions, attitudes, choix, etc. À l’évacuation du juge correspond l’évacuation d’une possibilité, pour le justiciable, de faire valoir son désaccord fondamental avec une loi qu’il estime injuste, ou les raisons personnelles et contextuelles qui justifient ou excusent son infraction ou doivent lui faire bénéficier de l’impact de circonstances atténuantes.

Ces trois « métadroits » (droit à l’oubli, droit à la désobéissance, droit de (se) rendre compte) nous semblent typiquement constitutifs, ou préconditionnels, à la jouissance par les individus des libertés garantiespar l’État de droit et constitutifs d’une pensée politique et éthique qui a fait du droit son garant, sa limite, son modèle de norme. C’est à ce titre, par exemple, que nous pouvons parler d’un « métadroit » à la désobéissance : non pas tant parce qu’il pourrait trouver son sens en termes de protection des comportements marginaux ou même comme garant du caractère historique et évolutif du droit, mais parce que nos sociétés fonctionnent globalement sur la base de l’idée qu’une norme peut être suivie ou pas, avec des conséquences bien sûr diverses (conséquences qui ne s’imposeront toutefois qu’après une procédure contradictoire bien spécifique). Nous ne voulons pas exclure a priori la possibilité que des normes qui ne permettent plus la désobéissance s’imposent désormais de manière légitime. Mais la question doit alors être posée comme telle. Surtout, et nous ne pouvons ici qu’évoquer ce point essentiel, un tel changement normatif doit être assorti d’une série de garantie : si ces normes qui empêchent la désobéissance, et a fortiori étant donné qu’elles empêchent la désobéissance, deviennent des normes centrales de notre vie en société, elles doivent être encadrées par certaines garanties démocratiques quant à leur production. Bref, les trois métadroits proposés permettent simplement d’ouvrir le débat sur ce changement de métabolisme normatif.

41 Voir à ce sujet Judith Butler, Giving an Account of Oneself, Fordham University Press, 2005.

La prédiction des comportements et même des intentions, que ces dispositifs algorithmiques de data mining, de profilage et d’environnements intelligents sont censés réaliser, suscite la prise de mesures préventives ou pré-emptives, voire l’adaptation en temps réel de certains éléments de l’environnement direct des personnes de manière à orienter les préférences, choix, intentions, comportements, à un stade préconscient. L’une des caractéristiques de ces dispositifs est justement leur relative invisibilité, leur caractère non obtrusif, leur naturalité en somme : ils sont censés se fondre littéralement dans l’environnement, tout en façonnant directement ce qui reste ou devient accessible à l’individu en termes de pensée et d’action. Que ces dispositifs (pour une bonne part encore au stade de prototypes) fonctionnent effectivement42, que la validité des prédictions et que la pertinence des adaptations subséquentes soient ou non démontrées ne change pas grand chose à la question de leur incidence normative : peut-être sommes-nous confrontés à une sorte de dispersion de l’intentionnalité, dont les conséquences, sur le plan de la responsabilité morale, de l’imputabilité et de la responsabilité juridique restent encore largement inexplorées ? Peut-être aussi le ‘corps statistique’ est-il une belle occasion d’en finir avec la croyance en l’existence d’un individu libre, autonome et rationnel qui ne serait pas toujours déjà façonné par ou en réaction à la norme ?

42 Répondant implicitement à l’accusation que lui adressait le philosophe communiste Massimo Cacciari dans le numéro de septembre-octobre 1977 de la revue Aut-Aut, Michel Foucault, dans le numéro de septembre-décembre 1978, pp. 3-11 de la même revue, répliquait que « Le pouvoir n’est jamais omnipotent, omniscient, au contraire ! Si les relations de pouvoir ont produit des formes d’enquête, d’analyses des modèles de savoir, c’est précisément parce que le pouvoir n’était pas omniscient, mais qu’il était aveugle, parcequ’il se trouvait dans une impasse. Si on a assisté au développement de tant de rapports de pouvoir, de tant de systèmes de contrôle, de tant de formes de surveillance, c’est précisément parce que le pouvoir était toujours impuissant. » (Michel Foucault, Dits et Ecrits, II, 1976-1988, Gallimard, 2001, p 629.)

En tout cas, il nous faut noter déjà la contradiction suivante : alors que le mode de gouvernement ‘néolibéral’ (qui donne lieu pour une bonne part au développement de cette gouvernementalité statistique) tend à ‘individualiser’ les risques et les responsabilités, à rendre les individus (au détriment de toute raison structurelle, collective ou environnementale) seuls responsables (moralement, économiquement, juridiquement) de ce qui leur arrive, cette ‘responsabilisation’ se heurte ici immédiatement au ‘mur’ cognitif, sorte d’écran ou de surface sur laquelle le réel est statistiquement représenté, mais qui ne permet plus de comprendre les causes – intentionnelles ou non -des phénomènes observés. Ce mur cognitif sépare les individus de la norme dont l’origine est ‘dés-identifiée’, qui les informe et les forme tout à la fois. Bref, on peut considérer que la poursuite même du processus de responsabilisation individuelle qui donne lieu à cette « dividualisation » des comportements par le gouvernement statistique produit finalement une sortie du socle de la responsabilité – sauf éventuellement à passer dans un régime de responsabilité objective.

Si l’on peut accepter que l’intentionnalité ne soit pas ou plus le critère décisif de l’autonomie individuelle, il nous semble au minimum que la possibilité de pouvoir se rendre compte et de pouvoir rendre compte, sinon des mobiles, du moins des raisons, impulsions, causes qui nous font choisir, agir, parler, etc. pourrait être élevée au rang de critère ultime et de condition nécessaire (sans être suffisante) d’une nouvelle forme d’autonomie individuelle à l’ère de la gouvernementalité statistique.

Conclusions : le corps statistique ou la dépolitisation des processus normatifs.

Ainsi, ce ne sont pas les sujets, les individus, qui se trouvent objectivés par les dispositifs de surveillance, mais seulement – et c’est notamment ce qui fait paraître le gouvernement statistique tellement inoffensif – leurs miroitements distincts et fragmentés, digitalisés. Comme cibles du pouvoir, ou plutôt du gouvernement, ils ne sont jamais saisis que partiellement, à travers la multitude changeante des ‘profils’ auxquels ils correspondent simultanément plutôt qu’en tant qu’individus unifiés, dotés d’une continuité et d’une cohérence internes, d’un ‘for intérieur’, d’une biographie propre. Ainsi fragmentés, dividuels, les sujets deviennent eux-mêmes la source ultime, ‘agissante’, ‘performante’, de la construction du savoir qui porte sur eux, et des normes qui les régissent. C’est à ce titre que l’adhérence du gouvernement statistique à ses multiples objets hétérogènes qui composent le réel, et donc au réel lui-même, peut être totale : les sujets, « dividualisés », se prêtent entièrement à leur propre gouvernement statistique, par les traces qu’ils laissent, par la répétition et/ou le fléchissement de ces traces, sans qu’aucune instance extérieure de surveillance active, aucune règle, aucune médiation – sinon une intermédiation purement technologique – ne soient plus nécessaires. C’est à ce titre aussi qu’on peut considérer que ce gouvernement statistique maintient et continue de supposer la réflexivité de ce qui est gouverné, alors même que cette réflexivité parvient à se passer d’une véritable intentionnalité qui réclamerait un questionnement sur les fins.

Peut-être pouvons-nous à cet égard poser l’hypothèse suivant laquelle la ‘gouvernementalité algorithmique’ opère et procède d’une inversion par rapport à toutes les conceptions qu’on a pu développer précédemment du rapport du corps à la norme, y compris les conceptions développées suivant la perspective foucaldienne de la discipline, à savoir : penser la production de corps dociles. Le ‘gouvernement algorithmique’ ne fonctionnerait plus tant à la domestication, à la disciplinarisation des corps, à leur assujettissement à la norme et à la subjectivation par la norme, qu’à la domestication de la norme par le corps (statistique), à la faveur d’une confiscation ou d’une absorption par la technologie du processus d’élaboration des normes. Dans le cas de cette nouvelle normativité statistique, les ‘performances’, régulières ou irrégulières par rapport à la norme statistique, influent directement sur la norme statistique, suivant un processus quasi physique pourrait-on dire. En effet, elles sont toutes enregistrées, et ces enregistrements sont tous également susceptibles d’enrichir le ‘corps statistique’. Au lieu d’induire une docilité des corps physiques, la normativité statistique ou algorithmique est elle-même ‘disciplinée’, ‘façonnée’ (atuned) par le réel, par les pratiques positives, par les événements du ‘réel’. La norme, sous cette modalité de gouvernement, est immanente au ‘corps statistique’, un corps infiniment multiple de chiffres dont le métabolisme algorithmique produit et affine en permanence des corrélations à partir des bases de données en perpétuelle expansion.

On l’a vu, cette inversion de la perspective disciplinaire pose une série d’enjeux inédits. Elle oblige en tout cas à réévaluer les rapports entre intentionnalité et normativité puisque la seconde parvient à être efficace et en apparence fondamentalement légitime sans faire appel à la seconde 43. Plus finement encore, elle incite à identifier les enjeux d’un accroissement du rôle de l’embodyment (incarnation), et d’un déclin corrélatif du rôle du langage et du débat dans les processus d’élaboration des normes.

Toutefois, ce que nous voulons avant tout pointer, en insistant sur l’adhérence au réel du gouvernement statistique contemporain et en notant pour terminer que cela pouvait témoigner d’une inversion du rapport de la norme aux corps, la première étant désormais domestiquées par les seconds, c’est un danger absolument général, de nature paradoxale, propre certes à toute forme de gouvernement statistique, mais rendu d’autant plus vif par sa forme algorithmique contemporaine : le danger d’une forme de gouvernement qui parviendrait à se penser et à se légitimer par son inoffensivité, sa bénignité, une forme de gouvernement qui apparaîtrait d’autant plus inoffensive qu’elle ne porterait directement que sur la norme elle-même et non plus sur les individus.

Ce danger est d’autant plus important que ces nouvelles modalités d’exercice du pouvoir, ou de structuration a priori du champ d’action possible, ne sont plus effectivement contraintes par les limites juridiques qu’imposent actuellement les régimes de protection de la vie privée et des données à caractère personnel, enfermés dans le cadre trop étroit, et légèrement hors champ, d’un individualisme méthodologique qui ne permet pas de penser, ni de représenter, et encore moins de protéger ce qu’il y aurait à protéger : une « puissance d’agir normatif » capable de d’affecter politiquement le « réel ». Concevoir cette puissance, essentielle à la vitalité individuelle et sociale exigerait de pouvoir penser ensemble, comme une seule et même « chose », l’intemporalité, la singularité et l’intempestif. Peut-être parviendrait-on alors enfin à « toucher » le ressort vital, la trame infime et gigantesque de ce qui nous fait être et nous échappe tout à la fois, cela qu’il faut protéger pour la raison même que nous ne savons pas où cela nous mène.

43 Dans un petit texte lumineux intitulé « La ceinture de sécurité » qui pourrait servir de préliminaire à tout questionnement sur les environnements intelligents, Bruno Latour montre que nous assistons à un déplacement de la « masse de moralité », celle-ci restant identique mais migrant vers les objets et les technologies.
http://www.bruno-latour.fr/poparticles/poparticle/P-31%20CEINTURE.html