|
Origine : http://works.bepress.com/antoinette_rouvroy/55
Antoinette Rouvroy. 2014. "Des données sans personne: le fétichisme de la donnée à caractère personnel à l'épreuve de l'idéologie des Big Data" Contribution en marge de l'Etude annuelle du Conseil d'Etat. Le numérique et les droits et libertés fondamentaux.
Parcourue par des logiques de flux et de valorisation des flux, notre époque serait marquée ou se démarquerait -si l’on peut dire -par une « explosion » des volumes de données numériques, reflétant le monde jusque dans ses moindres événements sous une forme éclatée, segmentée, distribuée, décontextualisée, déhistoricisée1, ou, pour le dire autrement, sous forme de données individuellement a-signifiantes mais quantifiables, opérant comme de purs signaux en provenance du monde connecté, métabolisables à grande vitesse par les systèmes informatiques. L’enregistrement systématique et par défaut de quantités massives de données numériques et les nouvelles possibilités d’agrégation de ces données (datamining) met à disposition des autorités publiques et des entreprises privées une nouvelle sorte de « savoir », fondé sur des données triviales, pas nécessairement privées par nature, mais qui, en raison de leur quantité (plus que de leur qualité), nous exposent individuellement et collectivement à une série de risques inédits, irréductibles aux enjeux de protection de la vie privée et de protection des données à caractère personnel.2 C’est de quelques-uns de ces risques inédits que nous voudrions esquisser ici une amorce de diagnostic. Disons tout de suite que ces risques inédits ne tiennent pas tant à une plus grande visibilité, ou à une perte relative d’anonymat ou d’intimité des individus qu’à :
1) un court-circuitage des capacités d’entendement, de volonté et d’énonciation des individus, et donc de la fonction-personne3, par des systèmes informatiques capables prendre de vitesse, littéralement, et de neutraliser ceux des effets de l’incertitude radicale qui seraient suspensifs des flux (de données, d’objets, de capitaux, de personnes,…) ;
2) une hypertrophie de la sphère privée (l’intensification de la personnalisation algorithmique des environnements et interactions numériques) ;
3) une raréfaction des occasions d’exposition des individus à des choses qui n’auraient pas été pré-vues pour eux, et donc un assèchement de l’espace public (comme espace de délibération, de formation de projets non rabattus sur la seule concurrence des intérêts individuels), ces choses non pré-vues, étant précisément constitutives du commun, ou de l’espace public.
1 Cette déhistoricisation questionne la possibilité même d’identifier ce qui, de ce qui surgit dans le monde contemporain serait susceptibles de “faire époque” ou de “faire événement”, indépendemment du phénomène de numérsation massive lui-même. 2 A cet égard, lire notamment Gray, David C. and Citron, Danielle Keats, « A Technology-Centered Approach to Quantitative Privacy », 14 août 2012. SSRN:
http://ssrn.com/abstract=2129439. 3
Notons d’emblée à propos de la fonction-personne – laquelle rappelle, inévitablement, la fonction-auteur chez Michel Foucault (« Qu’est-ce qu’un auteur ? », Bulletin de la Société française de philosophie, 63ème année, n.3, juillet-septembre 1969, pp. 73-104) – que l’ellipse de la personne dans les univers virtuels, à la différence de la disparition de l’auteur, ne donne lieu à aucune vacance de fonction, à aucun manque, l’ « intelligence des données » pourvoyant à tout.
1. Une carte sans territoire.
L’univers numérique se compose, dit-on, plus de mille-deux-cent milliards de milliards d’octets, dont quatre-vingt-dix pourcents auraient été produits dans des deux dernières années, et dont le nombre devrait être multiplié par dix d’ici 2020 en raison de la mise en réseau d’un nombre croissants d’objets équipés de puces RFID et capables de communiquer entre eux, et donc de produire, eux aussi, des quantités gigantesques de données.4
Il nous est difficile de nous représenter cette gigantesque carte sans territoire. A dire vrai, Big Data signifie surtout le franchissement d’un seuil à partir duquel nous serions contraints (par la quantité, la complexité, la rapidité de prolifération des données) d’abandonner les ambitions de la rationalité moderne consistant à relier les phénomènes à leurs causes, au profit d’une rationalité que l’on pourrait dire post-moderne, indifférente à la causalité, purement statistique, inductive, se bornant à repérer des patterns, c’est-à-dire des motifs formés par les corrélations observées non dans le monde physique mais entre des données numériques, indépendamment de toute explication causale. La répétition de ces « motifs » au sein de grandes quantités de données leur conférerais une valeur prédictive. Ainsi voit-on apparaître grâce à la visualisation algorithmique des relations subtiles (des relations qui n’auraient pas été perceptibles autrement) entre les données un tout nouveau type de « savoir », exploitable dans une multitude de domaines (astronomie, climatologie, épidémiologie, sciences sociales5, économie et finance6…). L’ « intelligence » des algorithmes consiste en leur capacité à traiter statistiquement ces quantités massives, complexes (textes, images, sons, localisations, trajectoires,…), relativement peu structurées, de données dans un temps record, pour en faire surgir non pas des relations causales explicatives mais des corrélations statistiquement signifiantes entre des éléments a priori sans rapport, c’est-à-dire des profils exploitables notamment pour détecter, sans avoir à les rencontrer ni à les interroger personnellement, les risques et opportunités dont sont porteuses des personnes. Devient alors actuel par avance ce qui n’existait que sur le mode de la potentialité. Le domaine d’application qui nous intéressera ici, bien sûr, sera celui de la modélisation ou du profilage des comportements humains à des fins diverses sur base des données émanant des individus, des contextes dans lesquels ils vivent, ou produites automatiquement.
2. Un univers sans sujet ni forme.
"Il s'est constitué un monde de qualités sans homme, d'expériences vécues sans personne pour les vivre." (Robert Musil, L'homme sans qualités, I, trad. Ph. Jacottet, Seuil, p. 179)
4 http://france.emc.com/leadership/digital-universe/index.htm
5 Pour une critique de l’exploitation des Big Data pour la recherche en sciences sociales, voir les travaux de Dominique Cardon.
6 Les algorithmes de trading à haute fréquence exécutent des transactions financières sur la base de recommandations faites par des algorithmes statistiques capables de détecter les fluctuations boursières avant qu’elles ne se produisent et d’y « réagir par avance » en quelques microsecondes. Au point que l’on pourrait se demander dans quelle mesure la rapidité de détection et de réaction pourrait évoquer le délit d’initié (je remercie pour cette suggestion stimulante Jérémy Grosman, doctorant au Centre de Recherche en Information, Droit et Société de l’Université de Namur).
A la différence du monde physique, l’univers numérique, déterritorialisé, n’est peuplé d’aucun objet, d’aucune forme résiliente, mais seulement de réseaux de données. A fortiori, aucun corps individuel, subjectif, actuel, susceptible d’événement, ne s’y peut rencontrer. L’unique sujet qui est aussi l’unique souverain de l’univers numérique est un corps statistique, impersonnel, virtuel, moulage générique et changeant des « risques et opportunités » détectés en temps réel, nourris de fragments infra-personnels d’existences quotidiennes agrégés à un niveau supra-individuel sous forme de modèles de comportements, ou profils, auxquels correspondent, par certaines combinaisons de traits chaque fois spécifiques, une multitude de personnes.
Aussi ne sommes-nous bien souvent même plus identifiables comme auteurs ni émetteurs des données « qui comptent » et qui nous gouvernent : les « données brutes », lesquelles sont de fait soigneusement nettoyées des traces de leur contexte originaire et de toute signification singulière.
Il en résulte que, contrairement à l’intuition majoritaire, nous n’avons peut-être jamais été, dans nos singularités respectives, moins significativement visibles que dans l’univers numérique. D’ailleurs, qui nous sommes singulièrement, quelle est notre histoire, quels sont nos rêves, quels sont nos projets – ces dimensions autobiographiques de nos personnes inaccessibles dans l’actualité pure de l’immédiateté -tout cela intéresse sans doute, dans des proportions variables, nos « amis » des réseaux dits sociaux, mais cela n’intéresse fondamentalement ni Google, ni Facebook, ni la NSA, ni Amazon, ni aucun de ceux qui nous « gouvernent ». Nous n’intéressons plus tous ceux-là, et d’autres encore, qu’en tant qu’agrégats temporaires de données exploitables en masse, à l’échelle industrielle, une fois décontextualisées, purifiées de tout ce qui aurait pu les rattacher à ce qui fait la singularité d’une vie. Pour construire un « profil » -afin de pouvoir « capitaliser » sur les risques et opportunités dont nous sommes porteurs -les données de nos voisins sont aussi bonnes que les nôtres. Comme les « modèles » ou « profils » sont construits au départ de données en provenance de grandes quantités d’individus, et que les données relatives à l’un des individus sont tout aussi (peu) signifiantes que celles d’un autre pour la modélisation, des données très peu personnelles, en très petite quantité, suffisent à produire à l’égard de n’importe quel individu des savoirs « nouveaux », c’est à dire à inférer certains éléments sans rapport immédiat avec les données « qui le concernent » mais qui permettent néanmoins de le « cataloguer »7. Nous ne faisons plus « autorité » en tant qu’individus, pour rendre compte de nous-mêmes face au profilage algorithmique.8
7 Martijn van Otterlo, « Counting Sheep: Automated Pro.ling, Predictions and Control », contribution à l’Amsterdam Privacy Conference des 7-10 octobre 2012.
8 C’est que, cette « autorité », cette responsabilité de choisir et d’énoncer, nous serions prèts à la sous-traiter à des machines “intelligentes”. C’est en tous les cas ce que pense Erik Schmidt, patron de Google: “En fait je pense que ce que veulent la plupart des gens, ce n’est pas que Google réponde à leurs questions mais leur dise ce qu’ils devraient faire”, confiait-il dans une interview publiée au Wall Street Journal (Interview par Holman W. Jenkins Jr., « Google and the Search for the Future. The Web icon's CEO on the mobile computing revolution, the future of newspapers, and privacy in the digital age. », Wall Street Journal, 14 août 2010)
« Ce qui est réel – pour autant que l’on puisse supposer qu’une telle chose existe en elle-même – n’importe pas ; ce qui importe est ce que l’on tient pour réel et dans la modernité ce que l’on tient pour réel est statistiquement enregistré »9.
On pourrait d’ailleurs faire l’hypothèse suivant laquelle ce serait en partie en raison de la chute spectaculaire du cours du récit, de l’expérience, du témoignage singuliers, du non numérisable dans les rapports que les individus peuvent avoir avec les bureaucraties tant privées que publiques (au profit d’un profilage plus ou moins systématique, plus ou moins automatique, dispensant de toute rencontre et de tout échange langagier), que se reportent dans l’espace des réseaux sociaux les performances identitaires ne trouvant plus à s’épanouir ailleurs. Après tout peut-être les pages personnelles, les murs Facebook et les comptes Twitter ne sont-ils rien d’autre que les avatars contemporains de l’intérieur bourgeois de la fin du 19ème Siècle décrit par Walter Benjamin, dans lequel « il n’est pas de recoin où l’habitant n’ait déjà laissé sa trace : sur les corniches avec ses bibelots, sur le fauteuil capitonné avec ses napperons, sur les fenêtres avec ses transparents, devant la cheminée avec son pare-étincelles. »10. Quelle meilleure manière en effet, pour se consoler de l’anonymat ou de l’insignifiance dans l’espace public, que de saturer son espace privé (autrefois) ou ses pages dites personnelles sur Internet de traces témoignant de son passage terrestre et de son statut social ?
Car si nous aimons à être in-finis pour les possibilités de nouveautés que cette absence de clôture définitive ménage – raison pour laquelle nous tenons à garantir juridiquement, à travers le droit à la protection de la vie privée notamment, une « forme d’immunité contre les contraintes déraisonnables dans la construction de sa propre identité »11-ce qu’il nous faut à tout prix éviter, « c’est l’horreur de n'avoir ni ombre ni reflet, d'être réduit à une existence absolument blanche, mate, devenue poreuse et comme vidée de sa substance. C'est l'épouvante d'être allégé de mon poids d'ombre intérieure, de cette douce fourrure trouble qui me double au-dedans et au-dehors de moi-même."12 Clément Rosset faisait remarquer qu’en français, « une personne, un certain homme, c’est aussi bien “personne” aucun homme: écho du lien originel qui soude le déterminé au non-déterminé, le quelque chose au n’importe quoi, la présence de mille chemins à l’absence de tout chemin.”13 Cette double face du mot « personne » installe, au cœur même de la subjectivité, au principe même des processus de subjectivation, cette ambivalence motrice : présence en devenir, « personne » est inclôturable. Dans l’univers de données sans personne, c’est dans sa double dimension de présence et d’inclôturabilité, dans son paradoxe ou son pli14 constitutif donc, que la « personne » se trouve escamotée.
9 Vassilis Skouteris, « Statistical Societies of Interchangeable Lives », Law and Critique, 2004, vol.15, n.2, p.15.
10 Walter Benjamin, “Expérience et pauvreté”, 1933.
11 Philip E. Agre, Marc Rotenberg (eds.), Technology and Privacy. The New Landscape, MIT Press, 1998, p. 3. :
“. . . control over personal information is control over an aspect of the identity one projects to the world, and the right to privacy is the freedom from unreasonable constraints on the construction of one's own identity.”
12 Michel Foucault, L'usage de la parole: deuxième série: langages de la folie : 4 -Le corps et ses doubles, 28 janvier 1963.
13 Clément Rosset, Le Réel. Traité de l’idiotie, Minuit, 1977/2004, pp.18-19.
14 Nous renvoyons bien sûr au pli deleuzien (Gilles Deleuze, Le pli. Leibniz et le baroque, Minuit, 1988). 3. Une mémoire par défaut.
3.1. La rétention par défaut des données transpirant de l’activité humaine.
La numérisation de la vie-même – qui en est aussi, dans une certaine mesure, une disqualification -résulte en partie seulement de l’exposition plus ou moins (in)volontaire de ceux que l’on appelle les internautes sur les réseaux dits sociaux, les blogs, et autres plateformes de l’Internet. Une partie des données sont donc « produites » ou « coproduites » par les individus, soit sciemment (lorsqu’ils génèrent du contenu sur Internet par exemple), soit à leur insu (lorsque leurs activités, interactions, trajectoires, sont enregistrées sous une forme numérique par des caméras de surveillance, par des dispositifs de géolocalisation, etc.).
En raison notamment des réglages par défaut des appareils numériques et des logiciels d’applications (qui conservent par exemple l’historique des recherches sur les moteurs de recherche à moins que l’utilisateur ne manifeste expressément sa volonté de ne pas conserver d’historique), c’est plutôt sur le mode de l’adhésion par défaut que du consentement libre et éclairé que les individus vivent cette prolifération des données enregistrées « dans les nuages », c’est-à-dire très loin de l’appareil de l’utilisateur, mais, contrairement à ce qu’évoque la métaphore nébuleuse, non pas de façon distribuée mais dans d’une manière très centralisée dans de gigantesques data centers.
Le succès des règles de conservation des données par défaut ou, pour le dire autrement, le manque de succès des options permettant de déroger à cette règle de conservation des données tient, si l’on en croit Cass R. Sunstein, se fondant sur l’économie comportementale, à la combinaison de trois facteurs principaux : 1) Le premier facteur est l’inertie des comportements dès-lors qu’effacer « ses traces » demande un effort dont on ne sait au juste s’il vaut vraiment la peine, étant donné que chacune des données émanant de nos activités en ligne nous paraît à nous-mêmes, a priori (indépendamment des opérations de recoupement, de croisement, de modélisation auxquelles elles pourraient contribuer), de peu d’importance. La règle par défaut, quand bien même nous avons la possibilité d’y déroger très facilement « en quelques clics » prévaudra toujours lorsque l’enjeu ponctuel, actuel, n’apparaît pas significatif aux yeux de l’internaute. 2) Le second facteur favorisant la règle de conservation par défaut consiste en ceci que, dans une situation d’incertitude quant à la marche à suivre, l’utilisateur moyen aura tendance à considérer que la règle par défaut, puisqu’elle a été pensée par d’autres que lui, réputés plus experts et puisqu’elle est probablement suivie par la plupart des autres personnes, est sans doute la meilleure option pour lui aussi. 3) Enfin, le troisième facteur consiste dans le fait que les individus soient généralement plus sensibles au risque de perdre un avantage dont ils ont ou croient avoir la jouissance en se maintenant dans la situation dans laquelle ils se trouvent qu’à l’opportunité de gagner quelque chose en changeant. C’est une variante du phénomène d’inertie mais à travers laquelle les concepteurs, des « designeurs », les « marketeurs » peuvent avoir une prise sur les individus : ils peuvent réduire la probabilité que les utilisateurs s’écartent de la règle par défaut dans l’ajustement des « règles de confidentialité » en évoquant tout ce qu’ils ont à perdre dans la mesure où la rétention des « traces numériques » est ce qui permet de leur offrir un service plus personnalisé, plus adapté à leurs besoins en temps réel en fonction du lieu où ils se trouvent, ou de leurs goûts, un service plus rapide et efficace, et que l’effacement leur fera perdre tous ces avantages suffira généralement à éviter que l’utilisateur ne s’écarte de la règle par défaut.15
Parce que l’autonomie individuelle, pour peu qu’elle existe, n’est pas une capacité purement psychique, mais qu’elle dépend de facteurs socio-économiques, éducatifs, de « design », les « architectures » du choix individuel – telles que les systèmes de règles par défaut -fondées sur des acquis de la psychologie sociale ou sur une détection algorithmique du profil psychologique de celui qu’on appelle l’utilisateur, devraient faire l’objet d’évaluations rigoureuses, spécialement lorsqu’elles sont l’œuvre d’acteurs dont les intérêts ne sont pas alignés sur ceux des « utilisateurs ». Nous ne saurions trop insister sur l’urgence de procéder à une typologie des acteurs du « numérique » et surtout de leurs « intérêts ». Cette voie nous semble plus prometteuse à l’heure actuelle qu’un arc-boutement de principe sur l’exigence illusoire d’un consentement libre et éclairé. Les architectures de choix construites par des acteurs dont les intérêts ne sont pas alignés sur ceux de l’utilisateur, incitant, par les moyens décrits plus haut, l’utilisateur à ne pas s’écarter de la règle par défaut, d’être en pratique incompatible avec ce qu’Henri Atlan, par exemple, appelle « l’expérience minimale du choix » qui « implique que plusieurs alternatives soient offertes et que le choix soit le facteur déterminant par lequel l’une d’entre elles est réalisée, passant ainsi du statut de possible à celui de réel, ou, plus précisément, d’actuel. En effet, cette expérience implique que l’ensemble des possibles ait une certaine forme de réalité, d’existence en tant que possibles, avant que l’un d’entre eux soit actualise. Que le choix lui-même ait été détermine par des causes que nous ne connaissons pas et qu’il nous semble “libre” au sens de non contraint pour cette raison, n’empêche pas que nous fassions l’expérience de cette existence des possibles et de l’actualisation de l’un d’entre eux, consécutive – temporellement et causalement – au choix que nous faisons. C’est pourquoi la nature de la réalité et des choix impose que l’on se pose la question de la nature du possible non actualisé et de la réalité de son existence.”16
Il nous semble, quoi qu’il en soit, que la règle par défaut prévaudra dans la plupart des cas, à moins que les internautes aient pris conscience, collectivement, de tout ce qu’ils ont à gagner, non en terme de confort, mais en termes de puissance d’agir, en s’en écartant et en effaçant leurs traces: non seulement un vague sentiment d’anonymat rassurant, mais la possibilité de n’être pas (trop) profilés, de n’être pas toujours déjà là où ils sont attendus, de voir, de lire, de consommer des choses qui n’auront pas été prévues pour eux, de n’être pas toujours déjà enfermés dans une bulle immunitaire hyper-personnalisée, mais, au contraire, d’être exposés et de participer à l’espace public en formant et en énonçant par eux-mêmes et pour autrui leurs motivations, leurs désirs, leurs raisons, leurs intentions, leurs projets, plutôt que de sous traiter à des machines le soin de personnaliser par avance leur environnement de telle manière qu’ils n’aient plus même à former pour eux-mêmes et à formuler pour leurs contemporains ce qu’ils pourraient bien désirer.
15 Cass R. Sunstein, « Impersonal Default Rules vs. Active Choices vs. Personalized Default Rules : A Triptych », 19 mai 2013, http://ssrn.com/abstract=2171343 16 Henri Atlan, Les étincelles de hasard, T. 2., Seuil, 2003, p. 77.
Par ailleurs, si l’on conçoit aisément que les données, y compris les données à caractère personnel, puissent être conservées et traitées lorsqu’elles sont nécessaires à la fourniture d’un service déterminé, et, précisément, personnalisant, il se pourrait fort bien que de nombreux opérateurs enregistrent et conservent des données en excès de ce qui serait strictement nécessaire aux services dont ils gratifient leur clientèle. Ainsi, la géolocalisation continue des utilisateurs ne peut être justifiée en dehors des moments où l’utilisateur utiliserait spécifiquement certaines applications (la recommandation automatisée de restaurants à proximité de là où il se trouve par exemple) nécessitant la géolocalisation, mais il est de fait extrêmement difficile pour un utilisateur de s’assurer que ses données sont traitées conformément aux engagements spécifiques de l’opérateur et en conformité avec la législation en vigueur, car, bien sûr, rien de tout cela ne se voit ni ne s’éprouve. Le principe de minimisation des données est donc systématiquement mis à mal, d’autant que, dans l’idéologie des Big Data, toute donnée triviale, y compris ce qui passerait, dans le contexte de traitements statistiques plus classiques, pour du « bruit », peut concourir à la production de profils.
De même, il est douteux que les utilisateurs de certains réseaux sociaux, en donnant leur consentement formel à la conservation et à l’exploitation de leurs données à des fins de recherche et d’amélioration des fonctionnalités du réseau aient réellement voulu donner la permission de se servir d’eux comme « cobayes » pour des expériences de psychologie sociale menées sur ce réseau et consistant à tenter de manipuler leurs émotions en triant, pendant un certain temps, le « fil d’actualités » auxquels ils étaient exposés de manière à étudier l’incidence, sur leur humeur, d’une exposition relativement prolongée à des expressions plutôt pessimistes, négatives, alarmistes, etc. C’est, cette fois, le principe de finalité qui se trouve mis à mal. Mais ce dernier est bien sûr également incompatible avec l’idéologie des Big Data, en cela soutenue par l’impératif de l’innovation érigé au rang de logique absolue.
3.2. Les données transpirant des objets communicants et les métadonnées.
A toutes ces données émanant directement de l’activité humaine (aujourd’hui, lorsque nous travaillons, consommons, nous déplaçons, nous « produisons » presqu’inévitablement de la donnée), s’ajoutent les données produites par les objets, de plus en plus nombreux, reliés à l’ « internet des objets », ainsi que les métadonnées, c’est-à-dire des données générées automatiquement et relatives au contexte des transactions et communications opérées via l’Internet : les dates et heures auxquelles ont lieu les transactions ou communications, les adresses IP des appareils de l’expéditeur et du destinataire, le lieu où une personne se trouvait la dernière fois qu’elle a relevé son courriel,… il s’agit d’informations transactionnelles et contextuelles à l’exclusion des contenus et des détails relatifs aux personnes. Les métadonnées ne font donc pas partie de la catégorie des données à caractère personnel17 et échappent de ce fait au champ d’application des régimes européens de protection des données à caractère personnel.
17 Nous n’entrerons pas ici dans les détails de la controverse relative à la qualification de l’adresse IP comme donnée à caractère personnel.
Bref, contrairement à ce que pourrait laisser croire un certain fétichisme de la donnée à caractère personnel, celle-ci n’occupe, dans l’univers numérique, qu’une place de plus en plus anecdotique. De plus, l’opposition entre données personnelles et données anonymes tend à s’estomper en raison des diverses techniques de « ré-identification » d’individus au départ de données anonymes (leurs données de connexion, la suite de leurs localisations GPS, …). De la même manière, les possibilités de croisement de données (de consommation, de localisation, de navigation sur Internet…) anonymes permet de générer à propos des personnes des informations sensibles (état de santé actuel ou futur, préférences sexuelles, convictions religieuses, opinions politiques,…). Ce sont toutes les catégories de données intervenant dans les régimes juridiques de protection des données à caractère personnel qui se trouvent perdre en pertinence pour les objectifs de protection qui sont les leurs.
4. Un nouveau régime de vérité : le réel comme tel.
Cette explosion des données, et la sorte de comportementalisme numérique qui l’accompagne, instaure un nouveau « régime de vérité »18 numérique, une nouvelle manière de rendre le monde signifiant : la « réalité » (ou ce qui en tient lieu) y serait saisie – à en croire l’idéologie des Big Data -non plus au niveau de ses représentations et transcriptions ou de ses interprétations individuelles ou collectives, mais au niveau quasiment atomique ou génétique de la « donnée », considérée comme un fait ultime, parlant d’elle-même sans médiation, dans un langage objectif situé au degré zéro de l’écriture, un langage constitué de suites interminables de 1 et de 0.
C’est l’utopie d’un accès immédiat au réel comme tel, à travers son « double » numérisé, et d’une modélisation anticipative du monde à même le monde numérisé lui-même 19 , transcendant toutes les formes instituées. Cette naturalisation de la « donnée » -qui a l’air d’émaner tellement directement du monde tel qu’il est qu’elle rendrait, selon certains, toute modélisation, toute théorie obsolète20-est bien sûr idéologique. Le « savoir » produit par le datamining apparaît particulièrement « neutre » : il n’apparaît pas comme le résultat de rapports de pouvoir et ne paraît favoriser ni défavoriser aucune portion de la population (à la différence du profilage ethnique par exemple). Cette atopie peut paraître providentielle, dans la mesure où elle semble permettre d’éviter l’aporie d’un savoir toujours situé (lié au fait que nous avons des corps, qui occupent une certaine place dans l’espace, qui ne nous permettent donc qu’un certain point de vue sur les choses), mais elle rend aussi ce « savoir » algorithmique inappropriable pour les êtres humains dans la mesure, justement, où il n’est pas situé.
18 C’est-à-dire de nouvelles manières, ou de nouveaux processus, à travers lesquels s’établit ce que l’on tient pour vrai. “(…) pourquoi en effet ne pas parler de régime de vérité pour désigner l’ensemble des procédés et institutions par lesquels les individus sont engagés et contraints à poser, dans certaines conditions et avec certains effets, , des actes bien définis de vérité? Pourquoi après tout ne pas parler des obligations de vérité comme [on parle] des contraintes politiques ou des obligations juridiques ? (…) Il y aurait des obligations de vérité qui imposeraient des actes de croyance, des professions de foi [ou] des aveux à fonction purificatrice.” (Michel Foucault, Le gouvernement des vivants, Cours au Collège de France, 1979-1980, EHESS, Gallimard, Seuil, 2012, p.92.)
19 Ian Ayres, Super Crunchers : Why thinking by numbers is the new way to be smart, Bantam, Août 2008. Voir aussi Alex Pentland, Social Physics, How Good Ideas Spread. The Lessons from a New Science, Penguin Press, 2014.
20 Chris Anderson, « The The End of Theory: The Data Deluge Makes the Scientific Method Obsolete”, Wired Magazine, 23 juin 2008.
L’idée étant que le « savoir » ou la « vérité » ne seraient plus construits mais toujours déjà là, immanents aux banques de données, dans l’attente d’être mis au jour par des algorithmes réalisant des opérations statistiques sur ces masses de données y découvrent des ensembles de corrélations permettant de modéliser les comportements, attitudes, trajectoires et événements du monde plus finement au fur et à mesure que la quantité de données disponibles s’accroit.
Nous en oublierions presque ce que nous martèlent depuis les années 1970, les Sciences and Technologies Studies à travers les écrits de Bruno Latour, de Steve Woolgar, de John Law, de Sheila Jasanov, notamment et, avant eux déjà, de Michel Foucault : à savoir que les « données » ne sont jamais « données », mais résultent toujours de processus de production (nos données d’identité elles-mêmes sont produites par l’Etat civil). Et les données du Big Data ne font pas exception21 – seulement, leur quantité, leur complexité, la vitesse à laquelle elles sont produites et remplacées par d’autres ne ménagent plus vraiment ni l’espace, ni le temps de la critique, des épreuves de validation, de véridiction. On se débrouille autrement : l’opérationnalité en « temps réel », la fiabilité sans vérité des «modèles » produits algorithmiquement, leur très grande plasticité (apprenant de leurs « erreurs », ils s’affinent en temps réel) compensent pragmatiquement les incertitudes de leur statut épistémologique.
A la passion de l’épreuve22, de la mise à l’épreuve du monde, des autres et de soi semble dès lors succéder une passion pour le réel immédiat – non plus le réalisme ni la justesse, ni l’élégance de la représentation, mais le réel comme tel -sans médiation, remisant au rang des gesticulations et fantasmes inutiles les actes d’énonciation, de transcription, de qualification, d’évaluation : « Data is enough », les données parlent d’elles-mêmes. A l’ubiquitaire crise de la représentation (politique, artistique, scientifique,…) l’idéologie des Big Data apporte une réponse radicale: nous n’avons plus rien à re-présenter, le « numérique » instaurant un régime d’actualité pure, absorbant dans le vortex du temps réel à la fois le passé et l’avenir, encore et déjà disponibles, sous forme latente, à même les jeux de données. Nous n’aurions plus à faire rapport de nos activités, le rapport étant simultané à l’activité, cette dernière produisant d’ellemême les données qui servent à affiner le profil de performance, y compris les projections de nos performances futures, en temps réel.
21 Irène Bastard, Dominique Cardon, Guilhem Fouetillou, Christophe Prieur, Stéphane Raux, « Travail et travailleurs de la donnée », InternetActu,
http://www.internetactu.net/2013/12/13/travail-et-travailleurs-de-ladonnee/
22 Avital Ronell, Test Drive. La passion de l’épreuve, Stock, 2009.
5. Résister aux sirènes de l’objectivité numérique au nom de la justice comme processus et horizon inclôturables.
Le caractère ubiquitaire, prétendument total, et en tous cas peu sélectif de la numérisation du monde, et l’objectivité mécanique de la constitution algorithmique des profils, en cela démocratique et égalitaire qu’ils visent tout le monde sans plus viser personne en particulier, tout cela fait de la catégorisation algorithmique un phénomène indépendant des systèmes de différenciations juridiques ou traditionnelles (en fonction du statut, de privilèges, d’avantages ou désavantages socio-économiques…) identifiés par Boltanski et Thévenot comme ce sur quoi s’appuie un modèle de cité qui en justifie ou en légitime les « états de grandeur » et dont l’existence est à la fois une condition et un effet des relations de pouvoir23. Si cette utopie d’un accès immédiat au réel comme tel, à travers son « double » numérisé, et d’une modélisation du monde social à même le monde numérisé lui-même24, transcendant toutes les formes instituées, a de quoi séduire le monde juridique, elle a aussi de quoi « vider le juridisme de ses appuis classiques » (la causalité, la succession temporelle, le sujet capable d’entendement et de volonté,…), et faire passer la « gouvernementalité algorithmique »25 pour une alternative (plus opérationnelle, moins couteuse,…)26 à l’Etat de droit et aux lourdeurs et incertitudes de ses scènes administrative, législative et judiciaire.27
La cécité du datamining relativement aux catégorisations socialement éprouvées, et discriminantes, son impartialité donc, serait, de l’avis de Tal Zarsky, l’une des mauvaises raisons pour lesquelles le datamining serait si mal perçu par la majorité. Zarsky présuppose qu’en général les individus relevant de « la majorité » préfèrent que la charge (en termes de coûts et d’inconvénients) des phénomènes de surveillance soit focalisée sur des groupes minoritaires spécifiques dépourvus de relais politiques plutôt que de subir eux aussi un système de surveillance qui y soumettrait tout le monde de manière égalitaire (sous une sorte de « voile d’ignorance »). L’hypothèse est bien sûr d’autant plus plausible que nous nous trouvons pris dans des formes d’organisation sociale dont l’on sait qu’elle favorise les comportements concurrentiels et sanctionne les comportements solidaires. Zarsky soutient donc que les réticences du public relativement à l’idée de substituer le datamining aux opérations humaines de détection et d’évaluation, inévitablement biaisées en défaveur des minorités les moins favorisées, relèvent de la tyrannie de la majorité28. C’est bien, une fois encore, l’objectivité et l’impartialité des processus algorithmiques hyper-vigilants mais plus aveugles que la justice, Thémis aux yeux bandés, qui se trouvent ainsi célébrées. « Etre objectif, c’est aspirer à un savoir qui ne garde aucune trace de celui qui sait, un savoir vierge, débarrassé des préjugés et des acquis, des fantasmes et des jugements, des attentes et des efforts.
23 Luc Boltanski et Laurent Thévenot, De la justification. Les économies de la grandeur, Gallimard, 1991, p.162.
24 Ian Ayres, Super Crunchers : why Thinking By Numbers is the new way to be smart, Bantam; Reprint edition (August 26, 2008)
25 Sur la notion de gouvernementalité algorithmique, nous nous permettons de renvoyer le lecteur à Antoinette Rouvroy, Thomas Berns, “Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation”, Réseaux, Politiques des algorithmes. Les métriques du web, N. 117, 2013/1, pp. 163-196.
26 Ryan Calo, « Code, Nudge, or Notice ?», Iowa Law Review, 2014, vol.99, no.2, pp. 773-802.
27 Antoinette Rouvroy, “Pour une défense de l’éprouvante inopérationnalité du droit face à l’opérationnalité sans épreuve du comportementalisme numérique”, Dissensus. Revue de Philosophie politique de l’Université de Liège, 2011, n.4. http://popups.ulg.ac.be/2031-4981/index.php?id=1269&file=1&pid=963
28 Tal Zarsky, “Governmental Data Mining and its Alternatives”, 2011, Penn State Law Review, Vol. 116, No. 2:
“if data mining is accepted by the legislature, it might only require limited judicial review. This is as opposed to the use of profiles and field officer discretion, which calls for greater scrutiny.”
L’objectivité est une vision aveugle, un regard sans inférence, sans interprétation, sans intelligence. »29
Mais sans doute faudrait-il problématiser davantage le rapport entre objectivité et justice. Les arguments fondés sur l’objectivité (ontologique, mécanique ou a-perspective30), ne sont-ils pas plutôt des injonctions d’obéissance aveugle, d’exclusion de toute forme de critique ou de problématisation, que l’ouverture d’une évaluation équitable, juste, des personnes et des situations ? Que penser d’une objectivité qui dispense de la critique, de la discussion, de la mise en procès ?
Par ailleurs, les opérations de datamining et de profilage n’apparaissent objectives et égalitaires que dans la mesure où l’on ignore qu’elles sont aveugles et sourdes à tout ce qui, du monde – les idiosyncrasies individuelles, les raisons des actions -ne se laisse pas traduire sous une forme numérique. Dès lors que l’on prend acte de leurs angles morts, il devient possible de comprendre en quoi ces catégorisations automatiques et « objectives », en ce qu’elles construisent une « réalité » en présupposant toutes choses égales par ailleurs, peuvent n’être pas « justes » sans pour autant cesser d’être objectives et impartiales. Pourtant, le propre du comportementalisme numérique est que son objectivité semble le dispenser de toute opération de justification, si par justification l’on entend « l’activité qui consiste à chercher les raisons d’une action ou des raisons pour soutenir une décision, une opinion ou autre expression symbolique, sur le motif qu’elle est juste ou raisonnable. »31
En d’autres termes, si le datamining peut effectivement se présenter comme un rempart contre la tyrannie de la majorité, les catégories qu’il produit ne sont pas nécessairement « justes » ni « équitables ». Elles le seraient si, par exemple, les notions de justice actuarielle (en fonction de laquelle toute distinction de traitement économiquement justifiée est actuariellement juste) et de justice sociale se recouvraient parfaitement, ce qui n’est bien évidemment pas le cas. Une distinction de traitement qui exclurait par exemple systématiquement les personnes victimes de violences conjugales du bénéfice de l’assurance vie, quel que soit le sexe, l’origine sociale de ces personnes, sur base d’une attribution de profil de risque établi par une méthode inductive de datamining, pourrait bien être algorithmiquement et économiquement « rationnelle », actuariellement justifiée, et socialement injuste. On perçois bien, en l’occurrence, le danger associé au déploiement d’un régime de vérité numérique impartiale et opérationnelle mais qui dispenserait de toute discussion politique, de toute décision collective, et de toute contestation relative aux critères de besoin, de mérite, de dangerosité, de capacités qui président aux catégorisations bureaucratique et/ou sécuritaire des individus et comportements. Dans la pratique du droit, la justice est un processus de construction continue qui présuppose et organise les possibilités de contestation de ses propres productions.
29 Lorraine Daston et Peter Galison, Objectivité, traduit par Sophie Renaut et Hélène Quiniou, Les presses du réel, 2012, p.25.
30 Lorraine Daston, “Objectivity and the escape from perspective”, Social Studies of Science, Vol. 22, 1992, p. 597-618.
31 Jerzy Wroblewski, “Définition de la justification”, Dictionnaire encyclopédique de théorie et de sociologie du droit, A.-J. Arnaud (dir.), Paris, LGDJ, 2ème edition, 1993, p.332.
Imaginons même que les processus de profilage deviennent extrêmement fins, précis, et qu’ils permettent de tenir compte en temps réel des variations les plus infimes dans les comportements individuels, et désarment l’objection souvent opposée aux statistiques « traditionnelles » : le fait qu’elles négligent nécessairement toute une série de facteurs et ne donnent de la réalité sociale qu’une vision biaisée par l’inévitable sélectivité des bases statistiques. Eh bien, quand bien même le bouquet de profils entourerait chaque personne d’une aura prédictive aussi bien ajustée qu’une seconde peau, il ne serait pas encore justifié de se passer de l’évaluation humaine et de la rencontre, car, précisément, l’objectivité « absolue » pour peu qu’elle existe un jour, serait incompatible avec l’idée d’une justice qui reste un horizon inatteignable et, parce qu’elle reste inatteignable, justifie la prudence du juge, le doute, le scepticisme, cela même qui conserve à la norme juridique une vivante plasticité32.
La proposition de Règlement du Parlement européen et du Conseil relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données (règlement général sur la protection des données)33 confirme d’ailleurs, en son Article 20 – reprenant et complétant, pour tenir compte des nouvelles possibilités de profilage algorithmique, l’Article 15 de la Directive 95/46/CE que la proposition de Règlement a vocation à remplacer – le principe suivant lequel
«Toute personne a le droit de ne pas être soumise à une mesure produisant des effets juridiques à son égard ou l'affectant de manière significative prise sur le seul fondement d'un traitement automatisé destiné à évaluer certains aspects personnels propres à cette personne physique ou à analyser ou prévoir en particulier le rendement professionnel de celle-ci, sa situation économique, sa localisation, son état de santé, ses préférences personnelles, sa fiabilité ou son comportement (…)”
Il nous semble que ce n’est pas tant le risque d’erreur de profilage qui justifie cette disposition que la considération suivant laquelle quand bien même les données traitées, individuellement, ne seraient à proprement parler des données à caractère personnel, il est néanmoins raisonnable de penser que les citoyens ont un intérêt légitime à ne pas voir des quantités substantielles d’informations à propos de leurs activités, trajectoires ou attitudes exploitées à des fins de profilage de leurs comportements par leurs gouvernements ou par des firmes privées.34 32 A cet égard voir Jacques Derrida dans Force de Loi : Les fondements mystiques de l’autorité, Galilée, 1994, paru précédemment en Anglais sous le titre « The force of law », in Deconstruction and the Possibility of Justice, Cornell, D, Rosenfield, M and Gray, D (eds), Routledge, 1992.
33 COM(2012) 11 final. Les exceptions au principe sont autorisées lorsque la mesure fondée sur le profilage est effectué dans le cadre de la conclusion ou de l'exécution d'un contrat, moyennant certaines conditions, ou est expressément autorisée par une législation de l’Union ou d’un Etat membre qui prévoit également des mesures appropriées garantissant la sauvegarde des intérêts légitimes de la personne concernée; ou encore lorsqu’elle est fondée sur le consentement de la personne concernée, sous certaines conditions. Dans tous les cas, lorsqu’une mesure est prise sur base du profilage automatique, les personnes concernées doivent être informées de l’existence de ce profilage, de la logique sous-tendant le traitement automatisée des données qui le concernent, et de ses effets escomptés pour sa personne. 6. La réalité augmentée du/au possible : clôture du réel numérisé.
La question est donc celle-ci : comment, et au nom de quoi limiter la prolifération des données susceptibles de nourrir les profilages dont nous sommes les cibles ? Nous n’avons appris à nous méfier que des traitements automatisés de données à caractère personnel, or celles-ci n’interviennent que marginalement dans les phénomènes qui nous intéressent ici. Cette fétichisation de la donnée personnelle – renforcée par le droit– nous fait passer à côté de ce qui fait aujourd’hui problème. Les formes de pouvoir qui s’exercent aujourd’hui sur les individus passent peut-être beaucoup moins par les traitements de données à caractère personnel et l’identification des individus que par des formes algorithmiques de catégorisations impersonnelles, évolutives en continu, des opportunités et des risques, c’est-àdire des formes de vie (attitudes, trajectoires,…). Un profil, ce n’est en réalité personne – personne n’y correspond totalement, et aucun profil ne vise qu’une seule personne, identifiée ou identifiable.
Pourtant, être profilé de telle ou telle manière, affecte les opportunités qui nous sont disponibles et, ainsi, l’espace de possibilités qui nous définit : non seulement ce que nous avons fait ou faisons, mais ce que nous aurions pu faire ou pourrions faire dans l’avenir.35 Avec le profilage algorithmique, le pouvoir a changé de cible : pas le probable, mais le potentiel, la potentialité pure, la dimension de virtualité dans le réel. Ce qui est visé – ce que l’on veut si pas éradiquer, au moins neutraliser dans ses effets suspensifs/interruptifs des flux -c’est la dimension de puissance des individus : leur propension à ne pas être là où on les attend, à vouloir quelque chose qui n’aurait pas été prévu pour eux, leur capacité à se découvrir radicalement neuf, à se surprendre eux-mêmes en quelque sorte. Dimension événementielle par excellence, c’est cette dimension, virtuelle sur le plan individuelle, et utopique sur le plan collectif, ce « reste » inactualisable36, qui est directement affecté et intentionnellement visée par les industriels du marketing, les professionnels de la sécurité, de la lute anti-terroriste, ou encore de la prévention des fraudes.
34 A cet égard, lire notamment Gray, David C. and Citron, Danielle Keats, « A Technology-Centered Approach to Quantitative Privacy », 14 août 2012. SSRN: http://ssrn.com/abstract=2129439.
35 A cet égard, voir Ian Hacking, “Making Up People”, London Review of Books, 2006, vol.26, no.16, pp. 23-26.
36 « Dans le rapport qu’une époque entretient avec elle-même, il y a toujours d’un côté ce qu’elle consomme et consume, et de l’autre ce reste, cet inachevé qui est très difficile à déterminer mais qu’on pourrait définir comme ce qu’elle n’a pas réalisé, ce à quoi elle a seulement pensé ou rêvé, et qui s’est déposé dans les œuvres, en tout cas dans certaines œuvres, mais aussi dans les paysages, les outils, les chants. Chaque époque dépose ainsi une couche qui reste en dormance pour plus tard. Et c’est alors qu’il faut être historien. L’historien, comme disait Benjamin, c’est celui qui convoque les morts au banquet des vivants. Et en particulier pour témoigner que ce à quoi ils avaient pensé n’est pas venu mais n’a pas disparu non plus, continue d’être là, est en latence et, d’une certaine manière, résiste. En ce sens, l’histoire est toujours un retour, mais qui est là pour réveiller cette formidable latence du passé et avec elle produire l’innovation. » (Jean-Christophe Bailly, « Tout passe, rien ne disparaît », Vacarme, n.50, 21 janvier 2010.)
Le « succès » de la « raison algorithmique » – qui est aussi une déraison (si l’on considère la manière assez radicale dont l’induction statistique s’écarte des ambitions de la rationalité « moderne » qui visait à comprendre et prédire les phénomènes en les reliant à leurs causes) –, est proportionnel à sa capacité à aider les bureaucraties tant privées que publiques à anticiper, à défaut de pouvoir les prévoir, les potentialités et virtualités dont les individus et les situations sont porteurs, c’est-à-dire à percevoir anticipativement ce qui n’est pas (encore) manifeste tout en dispensant du « travail » ou de l’effort, coûteux en temps et en argent, d’éprouver, tester, expérimenter, interroger le monde physique pour lui faire « dire » les puissances, possibilités, potentialités qu’il recèle. Nul besoin d’encore s’en remettre au témoignage, à l’aveu, à la confession, au discours d’expert ou d’autorité, ou au récit d’expérience. Nul besoin, non plus, pour anticiper ce qui peut advenir, de s’attacher à identifier les causes des phénomènes, ou encore les intentions des individus. L’induction algorithmique dispense de tout effort herméneutique, mais aussi de toute comparution des individus ou des objets « en personne », de toute communauté donc.
On pourrait croire que tout ceci n’est que science fiction. Il n’en est rien. Si l’on en croit Eric Schmidt, directeur chez Google, bientôt la technologie deviendra tellement efficace qu’il deviendra très difficile pour les personnes de voir ou consommer quelque chose qui n’aura pas été prévu pour eux.37 Bien sûr, dans le domaine du marketing, l’objectif n’est pas tant d’adapter l’offre aux désirs spontanés (pour peu qu’une telle chose existe) des individus mais plutôt d’adapter les désirs des individus à l’offre, en adaptant les stratégies de vente (le moment de l’envoi de la publicité, la manière de présenter le produit, d’en fixer le prix,…), le design de l’interface (de manière à susciter la confiance et l’envie de consommer) au profil de chacun.38 La librairie en ligne Amazon brevetait récemment un logiciel lui permettrait d’envoyer les marchandises vers ses clients avant même que ceux-ci n’aient procédé à l’acte d’achat39. Les centres d’appel téléphoniques de certaines entreprises, plutôt que d’évaluer les candidats sur la base du curriculm vitae et d’un entretien d’embauche, ont recours à des systèmes d’obtimisation de la force de travail (c’est l’expression employée par l’industrie du recrutement fondé sur le datamining) 40 qui détectent, parmi toutes les informations disponibles sur les réseaux sociaux notamment, non pas directement si le candidat possède les qualités requises mais s’il correspond à certains points de données a priori sans rapport causal (comme le fait d’être inscrit sur deux réseaux sociaux plutôt que sur trois ou sur un seul) mais statistiquement prédictifs d’une bonne performance pour le poste vacant,…41
La cible délibérée du gouvernement par les algorithmes est cette part d’incertitude radicale à laquelle la liberté individuelle est adossée, et qui en fait un événement jamais totalement actualisé, et donc toujours susceptible de développements imprévus. L’incertitude radicale – que les nouvelles pratiques d’anticipation et de préemption s’efforcent de court-circuiter ou de neutraliser -est évidemment coûteuse
37 http://online.wsj.com/news/articles/SB10001424052748704901104575423294099527212
38 A ce sujet, voir Ryan Calo, “Digital Market Manipulation”, George Washington Law Review, 82, 2014.
39 Greg Bensinger, “Amazon Wants to Ship Your Package Before You Buy It », The Wall Street Journal, 17 janvier 2014.
http://blogs.wsj.com/digits/2014/01/17/amazon-wants-to-ship-your-package-before-you-buy-it/
40 Voir par exemple Evolv, une entreprise qui propose ce genre de logiciel pour l’optimisation de la force de travail: http://www.evolv.net/
41 Hubert Guillaud, “L’emploi à l’épreuve des algorithmes”, InternetActu, 3 mai 2013,
http://www.internetactu.net/2013/05/03/lemploi-a-lepreuve-des-algorithmes/
. Ce coût, dans la société actuarielle, était pris en charge par des formes diverses de mutualisation du risque. Dans bien des domaines, la mutualisation des risques tend à faire place à une approche tentant de déterminer pour chacun ses « coûts réels » -une manière d’individualiser le risque et, du même coup, de détricoter les mécanismes de solidarité devant ce que l’on appelait autrefois « la providence ». Dans la société actuarielle, l’on se satisfaisait de dompter l’aléa en calculant les probabilités et en en répartissant la charge : cette répartition étant une manière de rendre supportable un reste incompressible d’incertitude radicale, l’excès du possible sur le probable. C’est précisément pour neutraliser ce reste que fleurissent aujourd’hui les politiques préemptives consistant à faire, anticipativement comme si l’événement redouté avait eu lieu et à prendre immédiatement les mesures s’imposant en conséquence (refus d’assurance à un fraudeur potentiel, élimination préventive d’un terroriste potentiel, orientation professionalisante des enfants sur base d’un profilage précoce,…).
La notion de « nominalisme dynamique » développée par Ian Hacking est à cet égard particulièrement pertinente pour décrire l’effet performatif des classifications ou profilages réalisées sur base de corrélations statistiques : lorsque les individus font ainsi l’objet de catégorisations scientifiques ou bureaucratiques, quelles qu’en soient les finalités (contrôle, surveillance, assistance, orientation scolaire ou professionnelle, organisation, marketing,…), ces catégorisations elles-mêmes affectent les personnes dans leurs comportements, ce qui a pour effet, en retour, d’affecter la classification.63
Cette clôture du numérique sur lui-même instaure une sorte de métabolisme normatif tout à fait étranger au métabolisme juridique dans lequel l’irréductibilité ou la non-coïncidence, ou l’excès de la personne, sa part d’ineffectué que l’on appelle aussi, paradoxalement, sa singularité, relativement à « la norme » -cette possibilité, ou cette faculté de désobéissance que le droit ménage « malgré lui » pourrait-on dire (car il ne suffit pas d’inscrire une obligation ou une interdiction dans la loi pour que la réalité s’y conforme) -mais aussi, le cas échéant, aux faits qui lui sont reprochés (si l’on prend l’exemple du procès pénal), cet excès donc de la personne est à la fois ce qui oblige à parler et ce qui constitue une part inconnue, irréductible, d’incertitude radicale – celle-là même qui inspire la prudence du juge – et qui a toujours constitué une provocation pour les institutions (dont les institutions législatives et judiciaires), de même que ce que l’on appelle communément la liberté a toujours constitué une provocation pour les formes instituées de pouvoir, provocation salutaire dans la mesure où, tenant le monde et ses représentations à distance l’un de l’autre, la liberté humaine, et, plus généralement, la couteuse incertitude à laquelle et dont elle participe,42 étant précisément
42 Pour Robert Musil, ce n’était pas la liberté humaine (en tant que libre-arbitre, et donc autorité sur/de soi-même), qui était source d’incertitude mais, bien plus profondément, le hasard, lui-même condition de possibilité des régularités observées. Dans cette perspective, c’est donc le hasard, et non la liberté, qui se présente comme arrière-fond nécessaire : “Dans la vie ordinaire, nous n’agissons pas suivant une motivation, mais selon la nécessité, dans un enchaînement de causes et d’effets; il est vrai qu’une part de nous-mêmes intervient dans cet enchaînement, nous permettant de nous juger libres. Cette liberté de la volonté est le pouvoir qu’a l’homme de faire volontairement ce qu’il veut involontairement. La motivation, elle, n’a aucun contact avec la volonté; on ne peut la soumettre à l’opposition de la contrainte et de la liberté, elle est l’extrême contrainte profonde et l’extrême liberté. (…) Ce qu’on appelle encore aujourd’hui un destin personnel est évincé par les événements d’ordre collectif qui relevant de la statistique.” (Robert Musil, Der Mann ohne Eigenschaften, in. Gesammelte Werke, Rowohlt Verlag, 1978, p. 608, cité par Jacques Bouveresse, Robert Musil. L’homme probable, le hasard, la moyenne et l’escargot de l’histoire, L’éclat, 1993, p. 102-103).
ce qui rend nécessaires les représentations institutionnelles et langagières, ouvre également la possibilité de la contradiction herméneutique43 et de la critique, « une pratique qui suspend le jugement et une occasion pour de nouvelles pratiques de valeurs fondée précisément sur cette suspension. » 44.
Dans son assaut de la « part inconnue d’incertitude radicale », et donc en vue d’amenuiser ou d’annihiler la distance entre la personne et la somme de ses profils, de plus en plus nombreux, de plus en plus précis, tellement précis qu’ils en viennent à évoquer une nouvelle sorte de positivisme, 45 la nouvelle rationalité algorithmique, faisant l’économie de toute institutionnalisation, et donc de toute transcription, érode (un peu plus) la logique de la représentation, et donc aussi les relations, échanges et symbolisations constitutives du commun.
Enfin, dans la mesure où l’ « intelligence des données », prétendument immanente et immédiate, supplanterait progressivement les formes de médiations à travers lesquelles nous nous représentons « le réel », il convient de se demander comment le Droit – dont la spécificité résiderait précisément dans la présence et l’intermédiation d’un tiers impartial et désintéressé, nous dit Kojève47,-serait encore en mesure de contenir, de borner, de limiter l’emprise de la gouvernementalité algorithmique, y compris sur les processus législatifs et judiciaires. Nous avons beaucoup à gagner, sans doute, et on ne cesse de nous le répéter - en termes de confort, de sécurité, d’opérationnalité, de connaissances aussi, dans certains domaines -à embrasser les Big Data. Sans doute nous faut-il aussi regarder en face et donner forme par des mots à ce que nous aurions à y perdre : un socle spatial, temporel, matériel, transindividuel, commun sans lequel les droits et libertés fondamentaux ne seraient plus les droits et libertés de personne, d’aucun homme.
43 Ce dont il s’agit, c’est de “voir à l’intérieur de la vue”, selon la formule de Max Ernst, ou de regarder comme on voit.
44 Michel Foucault, “Qu’est-ce que la critique?”, Compte rendu de la séance du 27 mai 1978, Bulletin de la Société française de Philosophie, avril-juin 1990. Il faut bien comprendre que la gouvernementalité algorithmique n’affecte pas tant les modalités du jugement -la manière suivant laquelle la réalité sociale se trouve subsumée dans des catégories préconstituées -qu’elle n’affecte, plus fondamentalement, les modalités de la critique – la manière dont sont produites les catégories à travers lesquelles le monde est appréhendé.
45 Théodor W. Adorno, Minima moralia. 1951 (texte 82) : «le positivisme réduit encore la distance entre pensée et réalité, distance que cette dernière ne tolère plus non plus. Intimidées, les pensées qui ne veulent être rien de plus que de simples abréviations des réalités effectives qu'elles désignent, perdent -en même temps que leur autonomie face à cette réalité -la force de la pénétrer."
46 Voir Pierre Legendre, De la société comme texte. Linéaments d’une anthropologie dogmatique, Fayard, 2001. 47Pour qu’il y ait Droit, il faut non seulement qu’il y ait des « justiciables » mais aussi, un tiers « impartial et désintéressé (...) Et on peut même dire que la spécificité du droit réside précisément dans la présence de ce tiers. Une interaction quelconque devient une situation juridique uniquement parce qu’elle provoque l’intervention d’un tiers. Aussi, pour comprendre le phénomène juridique, il faut analyser la personne de ce tiers. En tout cas il ne faut pas la négliger. » (Alexandre Kojève, Esquisse d’une phénoménologie du droit, Gallimard, coll. Tel, 1981, p.191.)
|
|