"Nouveau millénaire, Défis libertaires"
Licence
"GNU / FDL"
attribution
pas de modification
pas d'usage commercial
Copyleft 2001 /2014

Moteur de recherche
interne avec Google

GOUVERNEMENTALITÉ ALGORITHMIQUE ET PERSPECTIVES D’ÉMANCIPATION
Le disparate comme condition d’individuation par la relation ?
Antoinette ROUVROY Thomas BERNS
Mise en (n)ombres de la vie même : face à la gouvernementalité algorithmique, repenser le sujet comme puissance.
27 août 2012   Par Antoinette Rouvroy


Origine : http://www.cairn.info/revue-reseaux-2013-1-page-163.htm

Rouvroy Antoinette et Berns Thomas, « Gouvernementalité algorithmique et perspectives d'émancipation » Le disparate comme condition d'individuation par la relation ?,
Réseaux, 2013/1 n° 177, p. 163-196.

À la mémoire d’Alain Desrosières et en souvenir de conversations inspirantes. Nos travaux portent la trace de ses précieuses suggestions.


Les nouvelles opportunités d’agrégation, d’analyse et de corrélations statistiques au sein de quantités massives de données (les big data), nous éloignant des perspectives statistiques traditionnelles de l’homme moyen, semblent permettre de « saisir » la « réalité sociale » comme telle, de façon directe et immanente, dans une perspective émancipée de tout rapport à « la moyenne » ou à la « normale », ou, pour le dire autrement, affranchie de la « norme » 1. « Objectivité a-normative », ou même « télé-objectivité » (Virilio, 2006, p. 4), le nouveau régime de vérité numérique s’incarne dans une multitude de nouveaux systèmes automatiques de modélisation du « social » 2, à la fois à distance et en temps réel, accentuant la contextualisation et la personnalisation automatique des interactions sécuritaires, sanitaires, administratives, commerciales 3… Il nous importera ici d’évaluer dans quelle mesure, et avec quelles conséquences, ces usages algorithmiques de la statistique, forts de leur « télé-objectivité », leur permettraient à la fois de devenir le miroir des normativités les plus immanentes 4 à la société, antécédentes à toute mesure ou à tout rapport à la norme 5, à toute convention, à toute évaluation et aussi bien de contribuer à (re)produire et démultiplier cette normativité immanente (à la vie elle-même, dirait Canguilhem), fût-ce en obscurcissant alors les normativités sociales, rendant celles-ci, autant que possible, muettes, car intraduisibles sous une forme numérique.

1. Rappelons que la théorie de l’homme moyen développée par Quételet, est une théorie de « physique sociale », « normative » autant que « descriptive » : « un individu qui résumerait en lui-même, à une époque donnée, toutes les qualités de l’homme moyen, représenterait à la fois tout ce qu’il y a de grand, de beau et de bien », écrivait Quételet, mais, ajoutait-il, « une pareille identité ne peut guère se réaliser, et il n’est en général donné aux hommes de ressembler à ce type de perfection, que par un nombre de côtés plus ou moins grand » (Quételet, 1836, pp. 289-290.) Il va de soi que l’homme moyen, étalon et idéal, est différent des individus, et ne représente aucun d’eux, dans une perspective qui peut sembler radicalement antinominaliste.

2. Voir à cet égard la présentation des « Big Data in Action » par IBM : http://www-01.ibm. com/software/data/bigdata/industry.html.

3. Le « smarter marketing », ou marketing individualisé grâce au profilage algorithmique des consommateurs, se présente aujourd’hui comme une révolution transformant le marketing et la publicité en « services » dont la plus-value serait équitablement répartie entre les entreprises (meilleures performances de vente) et les consommateurs (les produits leur sont proposés en fonction de leurs profils individuels).

4. Les normes immanentes sont celles qui ne s’imposent pas de l’extérieur, mais surgissent spontanément, pourrait-on dire, de la vie elle-même, du monde lui-même, de façon indépendante de toute qualification, de toute évaluation et de toute délibération.

Il nous faut ici expliciter quelque peu cette indépendance par rapport à toute norme antécédente. Lorsque nous évoquons le caractère a-normatif de la gouvernementalité algorithmique, nous ne prétendons pas que les dispositifs techniques de la gouvernementalité algorithmique surgiraient spontanément du monde numérisé, de manière autonome et indépendante de toute intentionnalité humaine, de tout « script » technologique, ou que les applications, dans le domaine de la sécurité, du marketing ou du divertissement (pour ne citer que celles-là) intégrant ces systèmes algorithmiques auto-apprenants ne répondraient pas à une demande des acteurs 6. La critique que nous développons relativement à la gouvernementalité algorithmique n’ignore ni n’invalide en rien le point de vue des sciences and technology studies, mais qu’il nous soit permis de focaliser notre attention sur autre chose que les mécanismes de coconstruction entre dispositifs technologiques et acteurs humains. Nous disons simplement, ici, que le datamining, articulé à des finalités de profilage (quelles qu’en soient les applications), reconstruit, suivant une logique de corrélation, les cas singuliers émiettés par les codages, sans pour autant les rapporter à aucune norme générale, mais seulement à un système de rapports, éminemment évolutifs, entre diverses mesures, irréductibles à aucune moyenne. Cette émancipation par rapport à toute forme de moyenne tient notamment au caractère auto-apprenant de ces dispositifs, et peut être considérée comme essentielle à l’action normative contemporaine.

5. Le datamining, articulé à des finalités de profilage, reconstruit, suivant une logique de corrélation, les cas singuliers émiettés par les codages, sans pour autant les rapporter à aucune « norme » générale, mais plutôt à un système de rapports entre diverses mesures, irréductibles à aucune « moyenne ». Sur la distinction entre modèles de corrélation et de régression, voir Desrosières (1988).

6. Contrairement à ce que les métaphores organiques utilisées notamment par IBM pour les promouvoir en tant que prochaines étapes « naturelles » dans le développement des technologies de l’information, de la communication et de la réseautique, et en tant qu’éléments quasi naturels de l’évolution de l’espèce humaine elle-même, tendent à laisser entendre, nous avons montré les composantes idéologiques accompagnant l’émergence de l’informatique ubiquitaire, de l’intelligence ambiante ou de l’autonomic computing. Même dès lors que les machines deviennent de plus en plus « autonomes » et « intelligentes », elles restent bien sûr dépendantes de leur design initial, des intentions, scripts ou scenarii en fonction desquels elles ont été imaginées. Elles sont, dès leur conception (et quelles que soient les formes qu’elles prennent ensuite), porteuses des visions du monde, attentes et projections conscientes ou inconscientes de leurs concepteurs (Rouvroy, 2011).

Gouvernementalité algorithmique et perspectives d’émancipation

C’est de ce point de vue que nous pouvons également dire que la gouvernementalité algorithmique rompt avec l’origine conventionnelle de l’information statistique, telle que décrite par Alain Desrosières (1992, p. 132) : « L’information statistique ne tombe pas du ciel comme pur reflet d’une “réalité” antérieure à elle. Bien au contraire elle peut être vue comme le couronnement provisoire et fragile d’une série de conventions d’équivalence entre des êtres qu’une multitude de forces désordonnées cherche continuellement à différencier et à disjoindre. » De cette origine conventionnelle de l’information statistique, il résulte que « la tension entre le fait que cette information prétend être une référence du débat, et que, cependant elle peut toujours être remise en cause et devenir ainsi l’objet du débat, porte en elle une des difficultés majeures pour penser les conditions de possibilité d’un espace public ». Les usages particuliers de la statistique impliqués dans les opérations de datamining, parce qu’ils ne s’ancrent plus dans aucune convention, font échapper à cet écueil mais, comme nous allons le voir plus loin, ils ne sont pas pour autant générateurs d’espace public, mais du contraire sous couvert de « personnalisation » des offres d’information, de services et de produits, c’est plutôt à une colonisation de l’espace public par une sphère privée hypertrophiée que nous aurions affaire à l’ère de la gouvernementalité algorithmique, au point de faire craindre que les nouveaux modes de filtrage de l’information aboutissent à des formes d’immunisation informationnelles favorables à une radicalisation des opinions et à la disparition de l’expérience commune (Sunstein, 2009), sans même évoquer la tendance à la captation systématique de toute parcelle d’attention humaine disponible au profit d’intérêts privés (l’économie de l’attention), plutôt qu’au profit du débat démocratique et de l’intérêt général.

Nous commençons par décrire le fonctionnement de la statistique décisionnelle, entendue de manière très générique comme l’extraction automatisée d’informations pertinentes depuis des bases de données massives à des fins de prévision ou d’exclusion (consommation, risques, fidélisation, définition de clientèles nouvelles…). Pour rendre ceci manifeste, nous devons décomposer cette pratique statistique en trois étapes, qui concrètement se confondent (et sont d’ailleurs d’autant plus efficaces qu’elles se confondent). Nous montrerons chaque fois en quoi les sujets individuels sont en fait évités, au point de créer une sorte de double statistique des sujets, et du « réel ». Dans un deuxième temps, après avoir questionné ce double statistique, et indiqué qu’à ce stade il complique tout processus de subjectivation, nous tenterons de montrer que le gouvernement algorithmique se focalise dès lors non plus sur les individus, sur les sujets, mais sur les relations. Sur la base de ce constat, nous montrerons enfin à quel titre les relations elles-mêmes sont ainsi transformées, au point d’être paradoxalement substantifiées et de représenter une extraction du devenir, et donc un obstacle aux processus d’individuation – plutôt qu’une plus forte inscription dans celui-ci. Le devenir et les processus d’individuation réclament de la « disparation », c’est-à-dire des processus d’intégration de disparités ou différences dans un système coordonné, mais, de façon encore antécédente, ils réclament du « disparate » : une hétérogénéité des ordres de grandeur, une multiplicité des régimes d’existence, que la gouvernementalité algorithmique ne cesse d’étouffer en clôturant le réel (numérisé) sur lui-même 7.

LES TROIS « TEMPS » DE LA GOUVERNEMENTALITÉ ALGORITHMIQUE

Récolte de quantité massive de données et constitution de datawarehouses

Le premier temps est celui de la récolte et de la conservation automatisée en quantité massive de données non triées, ce qu’on peut appeler la dataveillance constitutive du big data. De fait, les données sont disponibles en quantités massives, en provenance de diverses sources. Les gouvernements les récoltent à des fins de sécurité, de contrôle, de gestion des ressources, d’optimisation des dépenses… ; les entreprises privées recueillent quantité de données à des fins de marketing et de publicité, d’individualisation des offres, d’amélioration de leur gestion des stocks ou de leurs offres de service, bref, en vue d’accroître leur efficacité commerciale et donc leurs profits… ; les scientifiques collectionnent les données à des fins d’acquisition et d’amélioration de connaissances… ; les individus eux-mêmes partagent bénévolement « leurs » données sur les réseaux sociaux, les blogs, les « mailing lists »… et toutes ces données sont conservées sous une forme électronique dans des « entrepôts de données » aux capacités de stockage virtuellement illimitées et potentiellement accessibles à tout moment à partir de n’importe quel ordinateur connecté à l’Internet quel que soit le lieu du globe où il se trouve.

7. « Gilbert Simondon montrait […] que l’individuation suppose d’abord un état métastable, c’est-à-dire l’existence d’une “disparation”, comme au moins deux ordres de grandeur ou deux échelles de réalité hétérogènes, entre lesquels des potentiels se répartissent. Cet état pré-individuel ne manque pourtant pas de singularités : les points remarquables ou singuliers sont définis par l’existence et la répartition des potentiels. Apparaît ainsi un champ “problématique” objectif, déterminé par la distance entre ordres hétérogènes. L’individuation surgit comme l’acte de solution d’un tel problème, ou, ce qui revient au même, comme l’actualisation du potentiel et la mise en communication des disparates » (Deleuze, 1968, p. 317).

Le fait que ces données soient récoltées et conservées autant que possible par défaut, qu’elles soient déliées de toute connaissance véritable des finalités recherchées par cette collecte d’information, c’est-à-dire des usages auxquels elles donneront lieu une fois corrélées à d’autres données, qu’elles consistent dans des informations qui sont plus abandonnées que cédées, des traces laissées et non des données transmises, mais sans apparaître pour autant comme « volées », qu’elles apparaissent aussi comme absolument quelconques et dispersées, tout cela donne lieu à une évacuation ou au minimum à un voilement de toute finalité, et à une minorisation de l’implication du sujet, et donc du consentement pouvant être donné à cette communication d’informations : nous semblons nous mouvoir ici au plus loin de toute forme d’intentionnalité.

Ces données apparaissent ainsi constitutives d’un comportementalisme numérique généralisé (Rouvroy, 2013a) dès lors qu’elles expriment ni plus ni moins que les multiples facettes du réel, le dédoublant dans sa totalité, mais de manière parfaitement segmentée, sans faire sens collectivement, sinon comme dédoublement du réel. Celui-ci nous semble être le phénomène le plus nouveau : qu’il s’agisse de conserver la trace d’un achat, d’un déplacement, de l’usage d’un mot ou d’une langue, chaque élément est ramené à sa nature la plus brute, c’est-à-dire être tout à la fois abstrait du contexte dans lequel il est survenu et réduit à « de la donnée ». Une donnée n’est plus qu’un signal expurgé de toute signification propre – et c’est bien sûr à ce titre que nous tolérons de laisser ces traces, mais c’est aussi ce qui semble assurer leur prétention à la plus parfaite objectivité : aussi hétérogènes, aussi peu intentionnées, tellement matérielles et si peu subjectives, de telles données ne peuvent mentir ! On doit d’ailleurs souligner ici le fait que l’évolution même des capacités technologiques renforce cette sorte d’objectivité de la donnée qui échappe à toute subjectivité : nos logiciels sont désormais capables de reconnaître les émotions, d’en faire de la donnée, de traduire les mouvements d’un visage, les colorations d’une peau en donnée statistique, par exemple pour mesurer l’attractivité d’un produit, le caractère (sub-)optimal de la disposition des marchandises dans un étalage, aussi bien que le caractère suspect d’un passager. Ce qui est intéressant, c’est le fait que de telles données ont comme principale caractéristique d’être parfaitement anodines, de pouvoir rester anonymes, et d’être non contrôlables. À ce titre, à la fois on ne répugne pas à les abandonner, dès lors qu’elles ne font pas sens (tant qu’elles ne sont pas corrélées, du moins), elles sont bien moins intrusives qu’une carte de fidélité, et elles semblent ne pas mentir, c’est-à-dire pouvoir être considérées comme parfaitement objectives ! Cette inoffensivité et cette objectivité sont l’une et l’autre dues à une sorte d’évitement de la subjectivité.

Traitement des données et production de connaissance

Le deuxième temps est celui du datamining proprement dit à savoir le traitement automatisé de ces quantités massives de données de manière à faire émerger des corrélations subtiles entre celles-ci. Ce qu’il nous semble ici fondamental de noter est le fait que nous nous trouvons ainsi face à une production de savoir (des savoirs statistiques constitués de simples corrélations) à partir d’informations non triées, et donc parfaitement hétérogènes, cette production de savoir étant automatisée, c’est-à-dire ne réclamant qu’un minimum d’intervention humaine, et surtout se passant de toute forme d’hypothèse préalable (comme c’était le cas avec la statistique traditionnelle qui « vérifiait » une hypothèse), c’est-à-dire évitant à nouveau toute forme de subjectivité. Le propre de ce qu’on appelle le machine learning est somme toute de rendre directement possible la production d’hypothèse à partir des données ellesmêmes. De la sorte, nous nous trouvons à nouveau face à l’idée d’un savoir dont l’objectivité pourrait paraître absolue, puisqu’il serait éloigné de toute intervention subjective (de toute formulation d’hypothèse, de tout tri entre ce qui est pertinent et ce qui ne serait que du « bruit », etc.). Les normes semblent émerger directement du réel lui-même. Ces normes ou ces « savoirs » ne sont cependant constitués « que » de corrélations 8, ce qui n’est pas en soi un problème, si l’on n’oublie pas, c’est la condition même d’un ethos scientifique et d’un ethos politique, de conserver un doute, d’entretenir une méfiance par rapport à la suffisance des corrélations, de maintenir la distinction entre corrélation et cause, de se méfier des « effets » autoperformatifs des corrélations (leur capacité rétroactive), d’éviter que des décisions produisant des effets juridiques à l’égard de personnes ou les affectant de manière significative ne soient prises sur le seul fondement d’un traitement de données automatisé 9, et de considérer que le propre de la politique (notamment le souci d’une mutualisation des risques) est de refuser d’agir sur la seule base de corrélations. Il semble important de rappeler ceci face à l’évolution vers un monde qui paraît de plus en plus fonctionner comme s’il était constitué lui-même de corrélations, comme si celles-ci étaient ce qu’il suffit d’établir pour en assurer le bon fonctionnement 10.

8. On peut citer ici C. Anderson, rédacteur en chef de Wired, dans L’âge des Petabits : « C’est un monde dans lequel des quantités massives de données et les mathématiques appliquées remplacent tous les autres outils qui pourraient être utilisés. Exit toutes les théories sur les comportements humains, de la linguistique à la sociologie. Oubliez la taxinomie, l’ontologie, et la psychologie. Qui peut savoir pourquoi les gens font ce qu’ils font ? Le fait est qu’ils le font, et que nous pouvons le tracer et mesurer avec une fidélité sans précédent. Si l’on a assez de données, les chiffres parlent d’eux-mêmes » (cité dans Cardon, 2012).

Action sur les comportements

Pour bien comprendre en quoi consiste le profilage algorithmique dont nous parlons ici, il faut percevoir la différence cruciale existant entre, d’une part, l’information au niveau individuel, laquelle est, le plus souvent, observable ou perceptible par l’individu auquel elle se rapporte, et, d’autre part, le savoir produit au niveau du profilage, qui n’est le plus souvent pas disponible aux individus ni perceptible par eux, mais qui leur est néanmoins appliqué de manière à en inférer un savoir ou des prévisions probabilistes quant à leurs préférences, intentions, propensions qui ne seraient pas autrement manifestes (Van Otterlo, 2013).

Le troisième temps est celui de l’usage de ces savoirs probabilistes statistiques à des fins d’anticipation des comportements individuels, qui sont rapportés à des profils définis sur la base de corrélations découvertes par datamining. Ce temps de l’application de la norme sur les comportements individuels, dont les exemples les plus évidents sont perceptibles dans les sphères les plus diverses de l’existence humaine (obtention d’un certain crédit, décision d’intervention chirurgicale, tarification d’un contrat d’assurance, suggestion d’achats ciblés sur des sites de vente en ligne) nous concerne moins ici, sinon pour noter premièrement que l’efficacité prédictive sera d’autant plus grande qu’elle sera le fruit de l’agrégation de données massives, c’est-à-dire de données qui sont « simplement » à la hauteur de la diversité du réel lui-même 11 ; et deuxièmement que cette action par anticipation sur les comportements individuels pourrait à l’avenir toujours plus se limiter à une intervention sur leur environnement, a fortiori dès lors que l’environnement lui-même est réactif et intelligent, c’est-à-dire qu’il récolte lui-même des données en temps réel par la démultiplication des capteurs, les transmet et les traite pour s’adapter sans cesse à des besoins et dangers spécifiques, ce qui est déjà au minimum le cas durant cette partie importante de la vie humaine durant laquelle les individus sont connectés.

9. Notons que le régime juridique européen de protection des données à caractère personnel protège explicitement les individus contre les décisions qui seraient prises à leur égard sur le seul fondement d’un traitement automatisé de données (voir l’article 15 de la directive 95/46/ CE). Mais les garanties offertes par la directive européenne ne s’appliquent qu’à condition que les traitements automatisés concernent des données à caractère personnel, c’est-à-dire des données se rapportant à des personnes identifiées ou identifiables. Or le profilage algorithmique peut très bien « fonctionner » avec des données anonymes.

10. La surenchère de prétention à l’objectivité est précisément et très concrètement l’oubli du choix politique : ainsi, l’idéal devenu possible d’une tarification exacte, adaptée en temps réel, s’adaptant sans cesse aux risques effectivement encourus, que ce soit dans le monde de l’assurance ou dans celui du transport, doit être pensé aussi comme une pure démutualisation des risques qui anéantit paradoxalement l’idée même de l’assurance ou de la mission de service public.

De la sorte à nouveau, on évite toute forme de contrainte directe sur l’individu pour préférer rendre, au niveau même de son environnement, sa désobéissance ou certaines formes de marginalité toujours plus improbables. Troisièmement, le profil « lié » au comportement d’un individu pourrait lui être adapté de façon parfaitement efficace, de par la démultiplication des corrélations employées, au point de sembler éviter l’usage de toute catégorie discriminante, et de pouvoir même prendre en compte ce qu’il y a de plus particulier dans chaque individu, de plus éloigné des grands nombres et des moyennes. Bref, nous nous trouvons face à la possibilité d’une normativité en apparence parfaitement « démocratique », dépourvue de référence à des classes et catégories générales – la cécité des algorithmes relativement aux catégorisations (sociales, politiques, religieuses, ethniques, de genre…) socialement éprouvées est d’ailleurs l’argument récurrent que brandissent ceux qui sont favorables à leur déploiement en lieu et place de l’évaluation humaine (dans les aéroports notamment) (Zarsky, 2011). Le datamining et le profilage algorithmique, dans leur rapport en apparence non sélectif au monde, semblent prendre en considération l’entièreté de chaque réel jusque dans ses aspects les plus triviaux et insignifiants, mettant tout le monde à égalité – l’homme d’affaires et la femme de ménage, le Sikh et l’Islandais. Il ne s’agit plus d’exclure ce qui sort de la moyenne, mais d’éviter l’imprévisible, de faire en sorte que chacun soit véritablement lui-même.

11. Nous devrions ici questionner la nature même de cette efficacité de la norme qui apparaît comme toujours plus solipsiste au sens où ce serait la réussite de la normativité elle-même qui est seulement en jeu (Berns, 2011). Ainsi, à titre d’exemple parmi bien d’autres, l’idéal encore très théorique sinon sur un plan politique d’une « evidence based medecine », avec l’appui statistique qu’elle réclame, ne permet plus d’imaginer non seulement le choix du patient, pourtant pris en considération depuis ses caractéristiques les plus spécifiques, mais même l’évolution scientifique.

UN GOUVERNEMENT SANS SUJET, MAIS PAS SANS CIBLE ?

Comme nous l’avons annoncé, les trois temps décrits se confondent, et leur fonctionnement normatif est d’autant plus puissant et processuel que ces trois temps se nourrissent mutuellement (masquant d’autant plus les finalités, éloignant d’autant plus de toute possibilité d’intentionnalité, s’adaptant d’autant plus à notre propre réalité, etc.). Par gouvernementalité algorithmique, nous désignons dès lors globalement un certain type de rationalité (a)normative ou (a)politique reposant sur la récolte, l’agrégation et l’analyse automatisée de données en quantité massive de manière à modéliser, anticiper et affecter par avance les comportements possibles. Si on se réfère au socle général de la pensée statistique 12, les déplacements apparents qui seraient produits actuellement par le passage du gouvernement statistique au gouvernement algorithmique, et qui donneraient sens à un phénomène de raréfaction des processus de subjectivation, sont donc les suivants : tout d’abord, une apparente individualisation de la statistique (avec l’antinomie évidente qui s’exprime ainsi), laquelle ne transiterait plus (ou ne semblerait plus transiter) par des références à l’homme moyen, pour donner place à l’idée qu’on deviendrait à soi-même son propre profil automatiquement attribué et évolutif en temps réel. Ensuite, un souci accru d’éviter le danger d’une pratique statistique tyrannique qui réduirait l’objet statistique à du bétail, en veillant à ce que cette pratique statistique se développe comme si notre accord était donné, puisque c’est en tant que nous sommes chacun uniques que le mode de gouvernement par les algorithmes prétend s’adresser à chacun à travers son profil. Plutôt que d’un accord, ou même d’un consentement, ce à quoi nous avons ici affaire relève de l’adhésion par défaut à une normativité aussi immanente que celle de la vie même ; la pratique statistique contemporaine inclurait donc, en elle-même, l’expression de l’adhésion tacite des individus. D’où un possible déclin de la réflexivité subjectivante, et l’éloignement des occasions de mise à l’épreuve des productions de « savoir » fondées sur le datamining et le profilage. La gouvernementalité algorithmique ne produit aucune subjectivation, elle contourne et évite les sujets humains réflexifs, elle se nourrit de données infra-individuelles insignifiantes en elles-mêmes, pour façonner des modèles de comportements ou profils supra-individuels sans jamais en appeler au sujet, sans jamais l’appeler à rendre compte par lui-même de ce qu’il est ni de ce qu’il pourrait devenir. Le moment de réflexivité, de critique, de récalcitrance, nécessaire pour qu’il y ait subjectivation semble sans cesse se compliquer ou être postposé (Rouvroy, 2011).

12. Voir entre autres Berns (2009), Desrosières (2000, 2008, 2009), Ewald (1986), Hacking (2006).

C’est que la gouvernementalité algorithmique, de par sa parfaite adaptation au « temps réel », sa « viralité » (plus on s’en sert, plus le système algorithmique s’affine et se perfectionne, puisque toute interaction entre le système et le monde se traduit par un enregistrement de données numérisées, un enrichissement corrélatif de la « base statistique », et une amélioration des performances des algorithmes), sa plasticité, rend la notion même de « raté » insignifiante : le « raté » ne peut, en d’autres termes, mettre le système en « crise », il est immédiatement réingurgité afin de raffiner encore les modèles ou profils de comportements. Par ailleurs, suivant l’objectif de l’application qui est faite des dispositifs algorithmiques – par exemple la prévention des fraudes, du crime, du terrorisme –, les « faux positifs » ne seront jamais interprétés comme des « ratés » puisque le système suit une logique de dépistage plutôt que de diagnostic : le but est de ne rater aucun vrai positif, quel que soit le taux de faux positifs.

Ce n’est bien sûr pas le projet, même accru, d’anticiper les comportements de manière individuelle et douce qui doit comme tel nous surprendre, voire nous inquiéter, même s’il convient d’emblée de souligner le paradoxe selon lequel, désormais, pour éradiquer ou minimiser l’incertitude, on s’en remet à des « appareils » non intentionnels, c’est-à-dire à des machines a-signifiantes, en abandonnant de la sorte l’ambition de donner de la signification aux événements, qui ne sont d’ailleurs plus nécessairement traités comme des événements, puisque chacun peut tout aussi bien être décomposé en réseau de données ré-agrégées à d’autres données, indépendantes des événements dont il pourrait être « actuellement » question. De la sorte, la gouvernementalité algorithmique ne cesse de « battre les cartes », ce qui nous sort de la perspective « historique » ou « généalogique » (Rouvroy, 2013b).

Le sujet de la gouvernementalité algorithmique est, de plus en plus, saisi par le « pouvoir », non pas à travers son corps physique, ni à travers sa conscience morale – prises traditionnelles du pouvoir dans sa forme juridico-discursive 13 – mais à travers les multiples « profils » qui lui sont assignés, souvent de manière automatique sur la base des traces numérisées de son existence et de ses trajectoires quotidiennes.

13. Aussi bien que de sa forme disciplinaire, pour reprendre les modélisations foucaldiennes du pouvoir. De ce point de vue, nous nous situerions ici dans la troisième modélisation du sont, à notre avis, aussi fausses l’une que l’autre. Voyons cela. l’individu au centre de tout et celle de la désubjectivation –

La gouvernementalité algorithmique correspond assez bien à ce que Foucault visait déjà sous son concept de dispositif de sécurité :
« La régulation d’un milieu dans lequel il ne s’agit pas tellement de fixer les limites, les frontières, dans lequel il ne s’agit pas tellement de déterminer les emplacements, mais surtout essentiellement de permettre, de garantir, d’assurer les circulations : circulation des gens, circulation des marchandises, circulation de l’air, etc. » (Foucault, 2004, p. 31).

Que les « prises » du pouvoir soient numériques plutôt que physiques ne signifie nullement que les individus soient réductibles, ontologiquement, existentiellement, à des réseaux de données recombinables par des appareils, ni qu’ils soient totalement sous l’emprise de leurs appareils. Cela signifie simplement que, quelles que soient par ailleurs leurs capacités d’entendement, de volonté, d’expression, ce n’est plus prioritairement à travers ces capacités qu’ils sont interpellés par le « pouvoir », mais plutôt à travers leurs « profils » (de fraudeur potentiel, de consommateur, de terroriste potentiel, d’élève à fort potentiel…). La gouvernementalité algorithmique intensifie encore les ambivalences de l’époque relativement à la question de l’individualisation. On considère souvent notre époque comme étant, d’une part celle de la victoire de l’individu au sens où nous constaterions une individualisation des services, étant donné la possibilité, offerte par les pratiques statistiques, de cibler de manière fine les besoins et les dangers propres à chaque individu, et, d’autre part, celle de la mise en danger de l’individu, dont l’intimité, la vie privée, l’autonomie, l’autodétermination seraient menacées par ces mêmes pratiques. D’aucuns évoquent même les risques d’une pure désubjectivation. Les deux hypothèses – celle de pouvoir analysée par Foucault, celle qui analyse les dispositifs de sécurité dans une perspective essentiellement régulatoire. L’évolution ici décrite consisterait à établir dans ce troisième modèle du pouvoir – le modèle des dispositifs de sécurité – de nouvelles ruptures. Le principe des dispositifs de sécurité, « c’est de ne prendre ni le point de vue de ce qui est empêché, ni le point de vue de ce qui est obligatoire, mais de prendre suffisamment de recul pour que l’on puisse saisir le point où les choses vont se produire, qu’elles soient souhaitables ou qu’elles ne le soient pas. […] La loi interdit, la discipline prescrit et la sécurité, sans interdire ou sans prescrire […] a essentiellement pour fonction de répondre à une réalité de manière à ce que cette réponse annule cette réalité à laquelle elle répond – l’annule, ou la limite ou la freine ou la règle. C’est cette régulation dans l’élément de la réalité qui est […] fondamental dans les dispositifs de sécurité » (Foucault, 2004, pp. 48-49).

La personnalisation est-elle réellement une forme d’individuation ?

IBM présente le marketing « individualisé » – « smart marketing » –, comme une révolution transformant le marketing et la publicité en « services aux consommateurs ». C’est le grand retour du consommateur-roi, lequel, placé au centre des préoccupations des entreprises, n’a même plus à concevoir ni exprimer ses désirs qui sont des ordres. Comme le dit Éric Schmidt, Directeur général de Google : « Nous savons en gros qui vous êtes, en gros ce qui vous intéresse, en gros qui sont vos amis [c’est-à-dire on connaît votre « banc de poissons »]. La technologie va être tellement bonne qu’il sera très difficile pour les gens de voir ou de consommer quelque chose qui n’a pas été quelque part ajusté pour eux » (c’est-à-dire qu’une prédiction en apparence individualisée serait possible). Cette forme d’individualisation s’apparente, de fait, à une hyper-segmentation et à une hyper-plasticité des offres commerciales davantage qu’à la prise en compte globale des besoins, désirs, propres à chaque personne. Au contraire, bien sûr, l’objectif n’est pas tant d’adapter l’offre aux désirs spontanés (pour peu qu’une telle chose existe) des individus, mais plutôt d’adapter les désirs des individus à l’offre, en adaptant les stratégies de vente (la manière de présenter le produit, d’en fixer le prix…) au profil de chacun. Ainsi, les stratégies de « dynamic pricing » ou d’adaptation du prix de certains services ou de certaines marchandises à la « willingness to pay » de chaque consommateur potentiel seraient déjà à l’oeuvre sur certains sites de vente de voyages aériens en ligne. Plus que d’individualisation, c’est bel et bien de segmentation de marché qu’il convient de parler ici. Un exemple, assez trivial : connectez-vous sur le site d’une compagnie aérienne dont on taira le nom (la compagnie Y) et renseignez-vous sur les prix d’un billet d’avion pour Pise, au départ de Bruxelles, avec un départ dans trois jours. Disons que s’affiche un prix de 180 euros. Trouvant le prix un peu trop élevé, vous vous rendez sur le site d’une autre compagnie (la compagnie Z), ou vous vous renseignez ailleurs, sur internet, pour trouver un billet moins cher. Mettons que vous ne trouviez pas mieux. Vous retournez alors sur le site de la compagnie Y et là – oh surprise – vous vous rendez compte que le prix du billet a augmenté de 50 euros en l’espace d’une demi-heure à peine, le temps que vous fassiez votre petite enquête. C’est, tout simplement, parce qu’un profil « voyageur captif » vous a été attribué : il a été détecté, d’après votre parcours sur internet et la date de départ souhaitée, que vous avez vraiment besoin de ce billet d’avion et que vous serez donc disposé(e) à dépenser 50 euros de plus pour obtenir ce billet, d’autant que vous aurez l’impression que si vous ne l’achetez pas rapidement, le prix ne fera que grimper. Si, au lieu de réagir « logiquement » en achetant au plus vite le billet, vous changez d’ordinateur, d’adresse IP, et vous rendez à nouveau sur le site de la compagnie aérienne, votre billet vous coûtera 180 euros au lieu de 230 euros. Explication ? Le premier réflexe, ce sur quoi le vendeur compte, c’est celui d’acheter au plus tôt, suivant l’« alerte » qui est lancée : le prix augmente, et vite. Dans ce cas-ci les conséquences sont relativement triviales. Mais on voit bien, dans cet exemple, que, plutôt que de respecter scrupuleusement les désirs individuels de chaque consommateur singulier, il s’agit, au contraire, se basant sur la détection automatique de certaines propensions (d’achat), de la détection de l’(in)élasticité de la demande individuelle relativement à une variation de prix, de susciter l’acte d’achat, sur le mode de la réponse-réflexe à un stimulus d’alerte court-circuitant la réflexivité individuelle et la formation du désir singulier.

C’est donc de produire du passage à l’acte sans formation ni formulation de désir qu’il s’agit. Le gouvernement algorithmique paraît de ce fait signer l’aboutissement d’un processus de dissipation des conditions spatiales, temporelles et langagières de la subjectivation et de l’individuation au profit d’une régulation objective, opérationnelle des conduites possibles, et ce, au départ de « données brutes » en elles-mêmes a-signifiantes, et dont le traitement statistique vise avant tout à accélérer les flux – épargnant toute forme de « détour » ou de « suspension réflexive » subjective entre les « stimuli » et leurs « réponses réflexes ». Que ce qui « coule » ainsi soit a-signifiant n’a plus aucune importance 14. Grâce au fait que les signaux numériques « peuvent être calculés quantitativement quelle que soit leur signification » (Eco, 1976, p. 20 cité par Genosko, 2008), tout se passe comme si la signification n’était plus absolument nécessaire, comme si l’univers était déjà – indépendamment de toute interprétation – saturé de sens, comme s’il n’était plus, dès lors, nécessaire de nous relier les uns aux autres par du langage signifiant, ni par aucune transcription symbolique, institutionnelle, conventionnelle.

14. Au contraire, même, que ce qui « coule » soit a-signifiant est précisément ce qui permet « l’asservissement machinique » : « Il y a un inconscient machinique moléculaire, qui relève de systèmes de codages, de systèmes automatiques, de systèmes de moulages, de systèmes d’emprunts, etc., qui ne mettent en jeu ni des chaînes sémiotiques, ni des phénomènes de subjectivation de rapports sujet/objet, ni des phénomènes de conscience ; qui mettent en jeu ce que j’appelle des phénomènes d’asservissement machinique, où des fonctions, des organes entrent directement en interaction avec des systèmes machiniques, des systèmes sémiotiques. L’exemple que je prends toujours, est celui de la conduite automobile en état de rêverie. Tout fonctionne en dehors de la conscience, tous les réflexes, on pense à autre chose, et même, à la limite, on dort ; et puis, il y a un signal sémiotique de réveil qui, d’un seul coup, fait reprendre conscience, et réinjecte des chaînes signifiantes. Il y a, donc, un inconscient d’asservissement machinique » (Guattari, 1980).

Les dispositifs de la gouvernementalité algorithmique parachèvent donc, semble-t-il, à la fois l’émancipation des signifiants par rapport aux signifiés (mise en nombres, recombinations algorithmiques des profils) et la substitution des signifiés aux signifiants (production de la réalité à même le monde – le seul réel qui « compte », pour la gouvernementalité algorithmique, est le réel numérique) (Rouvroy, 2013b). Cette affectation, à un stade préconscient, de l’action humaine, a tout à voir avec ce que Bernard Stiegler appelle la prolétarisation :
« La prolétarisation, c’est historiquement la perte du savoir du travailleur face à la machine qui a absorbé ce savoir. Aujourd’hui, la prolétarisation, c’est la standardisation des comportements à travers le marketing et les services, et la mécanisation des esprits par l’extériorisation des savoirs dans des systèmes tels que ces “esprits” ne savent plus rien de ces appareils de traitement de l’information qu’ils ne font plus que paramétrer : c’est précisément ce que montre la mathématisation électronique de la décision financière. Or cela affecte tout le monde : employés, médecins, concepteurs, intellectuels, dirigeants. De plus en plus d’ingénieurs participent à des processus techniques dont ils ignorent le fonctionnement, mais qui ruinent le monde » (Stiegler, 2011).

Maurizio Lazaratto résume par ailleurs assez bien la manière dont les sémiotiques a-signifiantes, dont le comportementalisme numérique est exemplaire, produisent l’asservissement machinique, plutôt que l’aliénation subjective :
« Si les sémiotiques signifiantes ont une fonction d’aliénation subjective, d’“assujettissement social”, les sémiotiques a-signifiantes ont une fonction d’“asservissement machinique”. Les sémiotiques a-signifiantes opèrent une synchronisation et une modulation des composantes pré-individuelles et pré-verbales de la subjectivité, en faisant fonctionner les affects, les perceptions, les émotions, etc., comme des pièces, des composantes, des éléments d’une machine (asservissement machinique). Nous pouvons fonctionner tous comme des composants d’input/output de machines sémiotiques, comme de simples relais de la télévision ou d’Internet, qui font passer et/ou empêchent le passage de l’information, de la communication, des affects. À la différence des sémiotiques signifiantes, les sémiotiques a-signifiantes ne connaissent ni les personnes, ni les rôles, ni les sujets. […] Dans le premier cas, le système parle et fait parler. Il indexe et rabat la multiplicité des sémiotiques pré-signifiantes et symboliques sur le langage, sur les chaînes linguistiques, en privilégiant ses fonctions représentatives. Tandis que, dans le deuxième cas, il ne fait pas de discours, il ne parle pas, mais il fonctionne, il met en mouvement, en se connectant directement sur le “système nerveux, sur le cerveau, sur la mémoire, etc.” en activant des relations affectives, transitivistes, transindividuelles difficilement attribuables à un sujet, à un individu, à un moi » (Lazaratto, 2006).

Les paradoxes de la personnalisation : une gouvernementalité algorithmique sans sujets mais compatible avec les phénomènes d’hyper-subjectivation contemporains

L’hypothèse de la désubjectivation, de la « mise en danger de l’individu », de sa dilution dans les réseaux, pour « impressionnante » qu’elle soit, n’est pas du tout évidente. On pourrait même dire que les réseaux sociaux, etc. – sans doute parce qu’ils sont, pour leurs usagers, parcourus de sémiotiques signifiantes – produisent des « hyper-sujets », que la production de subjectivité est devenue l’activité obnubilée d’un bon nombre de personnes, leur raison de vivre même. Il nous semble donc trop rapide de dire tout simplement que les transformations en cours ne produiraient que de la désubjectivation, parce qu’elles affaiblissent les remparts de l’intimité (et même cela n’est pas totalement évident : certains dispositifs de la société de l’information renforcent, au contraire, l’isolement des individus, les préservant d’interactions avec autrui…), de la vie privée, et parce qu’elles toucheraient peut-être aux conditions de l’autonomie et du libre choix (mais il faudrait encore voir dans quel sens cela se passe : des environnements intelligents qui nous dispenseraient de devoir en permanence faire des choix dans des domaines tout à fait triviaux peuvent aussi nous libérer l’esprit, nous rendre disponibles pour des tâches intellectuelles plus intéressantes, plus altruistes, etc.) Pourtant, impressionnées essentiellement par les risques de révélation d’informations personnelles, intimes ou sensibles, de divulgations inopportunes, de perte de contrôle des individus sur « leurs » profils, d’atteintes portées au principe de l’autonomie et de l’autodétermination individuelles, les législations de protection de la vie privée et des données à caractère personnel se sont essentiellement efforcées d’ériger, autour de l’individu, une série de « barrières » aux tonalités essentiellement défensives et restrictives.

Sans considérer ceci comme vain, nous voulons signaler ici avec force l’indifférence de ce « gouvernement algorithmique » pour les individus, dès lors qu’il se contente de s’intéresser et de contrôler notre « double statistique », c’est-à-dire des croisements de corrélations, produits de manière automatisée, et sur la base de quantités massives de données, elles-mêmes constituées ou récoltées « par défaut ». Bref, ce que nous sommes « en gros », pour reprendre la citation d’Éric Schmidt, ce n’est justement plus aucunement nous-mêmes (êtres singuliers). Et c’est justement cela le problème, problème qui, comme nous le verrons, relèverait plutôt d’une raréfaction des processus et occasions de subjectivation, d’une difficulté à devenir des sujets, que d’un phénomène de « désubjectivation » ou de mise en danger de l’individu.

Les choses étant ainsi balisées, revenons à la question du sujet, ou plutôt de son « évitement » dans le processus normatif en trois temps décrit ci-dessus. Ce qui se constate d’abord, c’est une difficulté à produire un sujet algorithmique qui se réfléchit ou se pense comme tel. Tout d’abord, comme on l’a vu, le consentement du sujet est faible quand il transmet de l’information (ces données qui peuvent souvent être utilisées tout en restant anonymes… mais elles pourraient aussi bien ne plus l’être, leur anonymat n’ayant lui-même plus qu’un sens tout relatif), non pas que celle-ci lui serait « volée », ce qui lui permettrait de s’y opposer, de se constituer comme sujet résistant contre un tel vol. Mais plutôt : on assiste à un affaiblissement considérable du caractère « délibéré » des divulgations d’informations – le plus souvent triviales, anodines, segmentées, décontextualisées – de ces « traces » dont la trajectoire et les usages subséquents sont, pour le « sujet », imprévisibles et incontrôlables même si le développement d’outils techniques devant permettre aux « utilisateurs » des services informatiques de mieux contrôler « leurs » données fait aujourd’hui l’objet d’investissements de recherche conséquents. Du point de vue de leur traitement, ensuite, on constate que les « savoirs » produits ont comme principale caractéristique de paraître émerger directement de la masse des données, sans que l’hypothèse menant à ces savoirs ne leur préexiste : les hypothèses sont elles-mêmes « générées » à partir des données. Enfin, l’action normative découlant de ces processus statistiques pourra toujours plus équivaloir à une action sur et donc par l’environnement, et toujours moins à une action sur l’individu lui-même. L’action de ce dernier n’est plus agie par confrontation directe à une norme extérieure – loi, moyenne, définition de la normalité –, mais ses possibles sont directement organisés au sein même de son environnement.

À ces trois titres, la force aussi bien que le danger de la généralisation des pratiques statistiques à laquelle nous assistons résideraient non pas dans leur caractère individuel, mais au contraire dans leur autonomie ou même dans leur indifférence par rapport à l’individu. Notre problème, pour l’exprimer de la manière la plus explicite, n’est pas d’être dépossédé de ce que nous considérerions comme nous étant propre, ou d’être contraint à céder des informations qui attenteraient à notre vie privée ou à notre liberté, mais il viendrait bien plus fondamentalement du fait que notre double statistique est trop détaché de nous, que nous n’avons pas de « rapport » avec lui, alors même que les actions normatives contemporaines se suffisent de ce double statistique pour être efficaces. En d’autres mots, là où le confessionnal fabrique le sujet de l’introspection qui sonde son âme, sa vertu, ses désirs et ses intentions les plus profondes puisqu’à travers le processus de l’aveu « celui qui parle s’engage à être ce qu’il affirme qu’il est, et, précisément, parce qu’il est cela » (Foucault, 2012, p. 5), là où la loi produit des sujets de droit soucieux de leur égalité et de l’impartialité des procédures, là où l’homme moyen apparaissait comme trop moyen par rapport à tout sujet singulier susceptible de se constituer contre cette moyenne, le gouvernement algorithmique ne donne ni lieu, ni prise à aucun sujet statistique actif, consistant, réflexif susceptible de le légitimer ou de lui résister 15. C’est précisément ce à quoi nous devons désormais veiller, essentiellement par la connaissance (même technique) et la reconnaissance de l’écart, de la différence entre ces représentations statistiques et ce qui constitue les individus dans les processus d’individuation qui sont les leurs, avec les moments de spontanéité, les événements, les pas de côté par rapport à des possibles anticipés, qui prévalent dans ces processus.

15. Notre analyse réclamerait d’être plus nuancée quant aux évolutions et ruptures à constater sur le plan d’une histoire longue des pratiques normatives. Le gouvernement algorithmique pourrait paraître renvoyer à certains mécanismes présents avant la généralisation de l’idée de la norme juridico-discursive, laquelle apparaîtrait alors bien plus comme l’exception que comme la règle dans cette histoire longue : si on questionne le fonctionnement normatif de la gouvernementalité algorithmique, ce qui en assure la légitimité, ce qui assied la puissance, on peut en effet avoir l’impression qu’il y a beaucoup plus de similitudes entre le sujet pécheur qui se confesse et la possibilité du sujet algorithmique contemporain, qu’entre ce dernier et le « sujet de droit », construit par la loi, dans la mesure où le sujet algorithmique et le sujet chrétien apparaîtraient l’un et l’autre comme le fruit d’un dialogue avec soi aidé par une médiation politique, spirituelle ou technique. C’est par exemple ce qu’on pourrait constater en se penchant sur des expériences, encore rares, comme le « Quantified Self » (voir l’article d’A.-S Pharabod, V. Nikolski et F. Granjon dans ce numéro). Indépendamment de la portée, de l’intérêt et de la représentativité réels de ce type d’expérience, il nous semble cependant utile de noter que la production et l’affinement du sujet « sain » qu’elle laisse entrevoir, si elle est certes aidée par la médiation technique ou statistique, a) présuppose un sujet qui s’affine, plus qu’elle ne témoigne d’un sujet qui se produit, b) repose sur un refus de l’usage général de la médiation technique au profit d’une réappropriation qui se prétend strictement individuelle, c’est-à-dire que la réflexivité dont elle témoigne, avec la conscience de la norme par le sujet en jeu, nous semble précisément étrangère au non-rapport que les individus peuvent à ce stade nouer à leur double statistique.

En revanche, ce qui nous semble moins dépassable, et dessiner donc à ce titre une véritable rupture, c’est l’apparition de possibilités de savoirs qui ne présupposeraient plus l’expression d’aucune hypothèse, et qui signeraient à ce titre la disparition, au moins dans une partie de l’espace social, de l’idée du projet 16. Il ne s’agit pas tant, de la sorte, de regretter la perte de l’idée du projet entendu comme applicable ou vérifiable, mais plutôt comme déplaçable, c’est-à-dire précisément comme pouvant éprouver des ratés et faire sur cette base histoire en étant sans cesse repris et transformé. Or, même pour un organisme, même pour la vie, pour l’organique en tant que lieu d’une activité normative, il y a du raté, du conflit, du monstrueux, de la limite et du dépassement de la limite, avec les déviations et les déplacements que cela induit dans la vie, comme l’a montré Canguilhem. Avec le gouvernement algorithmique, on tendrait à considérer la vie sociale comme la vie organique, mais en considérant celle-ci comme si les adaptations qui s’y développent ne relevaient plus de déplacements et de ratés, comme si elles ne pouvaient plus dès lors produire aucune crise ni interruption ni ne devaient plus réclamer aucune comparution ni mise à l’épreuve des sujets, ni des normes elles-mêmes.

Le champ d’action de ce « pouvoir » n’est pas situé dans le présent, mais dans l’avenir. Cette forme de gouvernement porte essentiellement sur ce qui pourrait advenir, sur les propensions plutôt que sur les actions commises, à la différence de la répression pénale ou des règles de la responsabilité civile, par exemple, qui ne se trouvent concernées que par des infractions qui auraient été commises ou qui seraient en train d’être commises (en cas de flagrant délit), ou des dommages qui auraient été causés. Plus activement, le gouvernement algorithmique non seulement perçoit le possible dans l’actuel, produisant une « réalité augmentée », une actualité dotée d’une « mémoire du futur », mais donne aussi consistance au rêve d’une sérendipité systématisée :
notre réel serait devenu le possible, nos normes veulent anticiper correctement et de manière immanente le possible, le meilleur moyen étant bien sûr de nous présenter un possible qui nous corresponde et dans lequel les sujets n’auraient plus qu’à se glisser.

16. À ce point dépourvue de projets, la gouvernementalité algorithmique présente peut-être une version radicale du gouvernement par l’objectif, au sens où Laurent Thévenot (2012) l’entend : « Dans le gouvernement par l’objectif, l’autorité légitime est certes déplacée et distribuée dans des choses, rendant difficile son appréhension et sa mise en question puisqu’elle s’impose au nom du réalisme et perd sa visibilité politique. »

La différence par rapport à la normativité juridico- discursive doit ici être soulignée : là où celle-ci était donnée, de manière discursive et publique, avant toute action sur les comportements, lesquels étaient donc contraints par elle, mais conservaient, au risque de la sanction, la possibilité de ne pas lui obéir, la normativité statistique est précisément ce qui n’est jamais donné au préalable, et qui résiste à toute discursivité, ce qui est incessamment contraint par les comportements eux-mêmes, et qui paradoxalement semble rendre impossible toute forme de désobéissance 17. Le résultat est que, si l’on reste dans une perspective individualiste, libérale, l’action sur les comportements, ce que nous appelons le « gouvernement algorithmique », apparaît à la fois comme fondamentalement inoffensif et comme parfaitement objectif, puisque fondé sur une réalité antécédente à toute manifestation d’entendement ou de volonté subjectifs, individuels ou collectifs, une réalité qui, paradoxalement, paraît d’autant plus fiable et objective qu’elle fait abstraction de notre entendement, pour nourrir le rêve d’un gouvernement parfaitement démocratique. Face à un tel « rêve », il convient au minimum de rappeler que nos comportements n’ont jamais été autant agis – observés, enregistrés, classés, évalués –, et ce sur des bases et en fonction de codes d’intelligibilité et de critères absolument opaques à la compréhension humaine, que sur cette base statistique. L’inoffensivité, la « passivité » du gouvernement algorithmique n’est alors qu’apparente : le gouvernement algorithmique « crée » une réalité au moins autant qu’il l’enregistre. Il suscite des « besoins » ou désirs de consommation, mais de la sorte il dépolitise les critères d’accès à certains lieux, biens ou services ; il dévalorise la politique (puisqu’il n’y aurait plus à décider, à trancher, dans des situations d’incertitude dès lors que celles-ci sont d’avance désamorcées) ; il dispense des institutions, du débat public ; il se substitue à la prévention (au profit de la seule préemption), etc. 18

S’il fallait resituer ce mouvement dans une perspective longue, et en résistant cette fois à la perspective de la pure nouveauté (laquelle n’aurait de sens que par rapport au modèle juridico-discursif), nous devons constater que ce gouvernement algorithmique approfondit encore l’idéal libéral d’une apparente disparition du projet même de gouverner : comme nous l’avons montré ailleurs (Berns, 2009), il ne s’agit plus de gouverner le réel, mais de gouverner à partir du réel.

17. À cet égard, nous nous permettons de renvoyer le lecteur à Rouvroy (2011).

18. Comme nous l’avons montré ailleurs, notamment dans Rouvroy (2012).

L’évolution technologico-politique ici décrite accomplit cette tendance 19, au point que le fait de ne pas (vouloir) être gouverné pourrait désormais équivaloir à ne pas se vouloir soi-même (et ce sans signifier pour autant que notre intimité aurait été violée).

Les relations comme cibles du « pouvoir » dans la gouvernementalité algorithmique ?

Au-delà de ce diagnostic encore moral et normatif, ou peut-être pour le renforcer, peut-on maintenant tenter de cerner ce au profit de quoi les sujets seraient évités ? Qu’est-ce qui est l’objet ou la cible des trois temps décrits, et plus globalement du gouvernement algorithmique, si ce ne sont pas les individus eux-mêmes ? Ou encore : que s’agit-il de gouverner en empêchant ou au moins en compliquant la possibilité même des processus de subjectivation ? Notre hypothèse est que l’objet – qui ne parvient donc pas à devenir sujet – du gouvernement algorithmique, ce sont précisément des relations : les données transmises sont des relations 20 et ne subsistent que comme relations ; les connaissances générées sont des relations de relations ; et les actions normatives qui en découlent sont des actions sur des relations (ou des environnements) référées à des relations de relations. C’est donc en tant qu’il serait, dans la réalité même de ses pratiques visant à organiser le possible, un gouvernement des relations que nous voulons maintenant tenter de cerner l’éventuelle nouveauté de ce gouvernement algorithmique.

Il s’agit donc à présent de transposer notre double interrogation (sur l’objectivité miroitante et la productivité de la statistique algorithmique) dans les registres simondonnien et deleuzien/guattarien. Nous voulons montrer que cette télé-objectivité productive à l’oeuvre dans les pratiques de datamining et de profilage algorithmique, alors qu’elle semble a priori quitter le registre du sujet et donc potentiellement permettre ce que Simondon désigne comme processus d’individuation transindividuel – qui ne se résume ni au je, ni au nous, mais désigne un processus de co-individuation du « je » et du « nous » produisant du social, c’est-à-dire des milieux associés où se forment des significations –, forclôt au contraire les possibilités de telles individuations transindividuelles en repliant les processus d’individuation sur la monade subjective.

19. Au même titre que d’autres pratiques du gouvernement contemporain, comme le rapport ou l’évaluation. Voir Berns (2011, 2012).

20. Le mot « relation », entendu ici dans son sens le plus brut, le moins habité, par lequel nous qualifions la donnée, nous sert seulement à attester d’une opération qui lie a et b en étant à même d’ignorer ce qui est derrière les termes ainsi liés. Comme nous le montrerons, toute la force du gouvernement algorithmique réside in fine dans sa capacité à « monadologiser » cette relation, au point que cette relation ne parvient précisément pas à saisir le devenir qui serait propre à la relationalité.

Par ailleurs, nous montrerons que l’abandon de toute forme d’« échelle », d’« étalon », de hiérarchie, au profit d’une normativité immanente et éminemment plastique (Deleuze et Guattari, 1980) n’est pas nécessairement favorable à l’émergence de formes de vie nouvelles au sens d’une émancipation décrite par Deleuze et Guattari sous la forme du dépassement du plan d’organisation par le plan d’immanence, d’une table rase des anciennes hiérarchies dans laquelle l’homme normal ou l’homme moyen occuperait une place majeure 21.

PERSPECTIVES TRANSINDIVIDUELLES ET RHIZOMATIQUES

L’incitation à aborder la gouvernementalité algorithmique sous l’angle simondonnien provient de ce que ce mode de gouvernement semble ne plus avoir pour appui et pour cible les sujets, mais les relations en tant qu’elles sont antérieures à leurs termes, c’est-à-dire non pas seulement les relations sociales, intersubjectives en tant qu’elles construisent les individus, en ce que tout individu serait considéré comme la somme de ces relations, mais plutôt les relations elles-mêmes indépendamment de toute individuation simple et linéaire, les relations en tant qu’elles restent inassignables aux individus qu’elles relient, au sens donc où de la « relationalité » subsisterait aussi pardelà les individus qu’elles lient. Faudrait-il donc, pour saisir à quoi nous avons affaire, passer avec Simondon d’une ontologie ou d’une métaphysique classique de la substance, centrée sur l’individu et les états (dans le cadre de laquelle on attribue des relations à un individu), à une ontologie de la relation (dans laquelle les relations « priment » ontologiquement sur les individus qu’elles traversent) ou encore à une ontogenèse soucieuse du devenir et donc de comprendre le mouvement même de l’individuation ? Il est important de noter d’emblée que cette hypothèse nous éloignerait à la fois d’un certain individualisme « nominaliste » (qui suppose la réalité des seuls individus à partir desquels éventuellement on pourrait abstraire des universaux), mais aussi d’un certain « réalisme » de type holiste qui présupposerait que les essences collectives, les genres, les classes préexistent aux individus, lesquels seraient entièrement subsumables dans les essences collectives.

21. L’objectif de la description rhizomatique de la connaissance n’était pas tant descriptif que « stratégique », légitimée par son utilité pour l’exercice d’une résistance contre un modèle hiérarchique, traduction épistémologique d’une structure sociale oppressive.

Penser la relation de manière première, pour elle-même, de manière constitutive, reviendrait en somme à rompre avec le mouvement vertical nous menant du particulier au général, quelle qu’en soit la direction.

La ressemblance apparaît tout aussi frappante entre les processus de production et de transformation continue des profils générés automatiquement, en temps réel, de façon purement inductive, par croisement automatique de données hétérogènes (datamining), et les métabolismes propres au rhizome de Deleuze et Guattari :

« Le rhizome ne se laisse ramener ni à l’Un ni au multiple. Il n’est pas l’Un qui devient deux, ni même qui deviendrait directement trois, quatre ou cinq, etc. […] À l’opposé d’une structure qui se définit par un ensemble de points et de positions, de rapports binaires entre ces points et de relations biunivoques entre ces positions, le rhizome n’est fait que de lignes : lignes de segmentarité, de stratification, comme dimensions, mais aussi ligne de fuite ou de déterritorialisation comme dimension maximale d’après laquelle, en la suivant, la multiplicité se métamorphose en changeant de nature. On ne confondra pas de telles lignes, ou linéaments, avec les lignées de type arborescent, qui sont seulement des liaisons localisables entre points et positions. À l’opposé de l’arbre, le rhizome n’est pas objet de reproduction : ni reproduction externe comme l’arbre-image, ni reproduction interne comme la structure-arbre. Le rhizome est une antigénéalogie. C’est une mémoire courte, ou une antimémoire. Le rhizome procède par variation, expansion, conquête, capture, piqûre. […] Contre les systèmes centrés (même polycentrés), à communication hiérarchique et liaisons préétablies, le rhizome est un système acentré, non hiérarchique et non signifiant, sans Général, sans mémoire organisatrice ou automate central, uniquement défini par une circulation d’états » (Deleuze et Guattari, 1980, pp. 30-31).

Le rapport entre l’ontologie de la relation chez Simondon et la métaphore du rhizome chez Deleuze et Guattari tient aussi au fait que, dans la description de ces derniers,

« Un rhizome ne commence pas et n’aboutit pas, il est toujours au milieu, entre les choses, un inter-être, intermezzo. L’arbre est filiation, mais le rhizome est alliance, uniquement alliance. L’arbre impose le verbe “être”, mais le rhizome a pour tissu la conjonction “et… et… et”. Il y a dans cette conjonction assez de force pour déraciner le verbe être […]. Entre les choses ne désigne pas une relation localisable qui va de l’une à l’autre et réciproquement, mais une direction perpendiculaire, un mouvement transversal qui emporte l’une et l’autre, ruisseau sans début ni fin, qui ronge ses deux rives et prend la vitesse entre les deux » (Deleuze et Guattari, 1980, pp. 36-37).

Il nous importera donc de voir dans quelle mesure, à quelles conditions, moyennant quelles réserves, l’apparition d’outils sociaux en apparente harmonie 22 avec le dépassement que Simondon réclamait de la métaphysique de la substance pour saisir le devenir à l’oeuvre dans les processus d’individuation, et le dépassement du plan d’organisation par le plan d’immanence, que Deleuze et Guattari célébraient comme émancipateur 23, peuvent réellement contribuer à l’émergence de formes de vie émancipées.

Si la pensée de l’individuation de Simondon apparaît comme la tentative la plus accomplie de penser la relation et l’association d’un individu à un milieu 24, c’est dans la mesure où il s’affranchit de l’acception aristotélicienne de la relation, qui lui présupposait toujours la substance, et la réduisait ainsi à sa teneur strictement logique. En refusant ce primat de la substance, en passant donc d’une métaphysique des états à une métaphysique de leurs modifications ou de leur devenir, Simondon confère au contraire à la relation une teneur ontologique, de manière à rendre compte du processus même de l’individuation.

22. Le lecteur comprendra que la cible de notre critique n’est pas la théorie simondonnienne de l’individuation transindividuelle, ni la perspective rhizomatique deleuzo-guattarienne, que la gouvernementalité algorithmique n’incarne qu’en apparence. La cible de notre critique est, justement, l’apparence de compatibilité de la gouvernementalité algorithmique avec ces théories et perspectives émancipatrices alors même que la gouvernementalité algorithmique tendrait plutôt à empêcher aussi bien les processus d’individuation transindividuels que l’ouverture aux significations nouvelles portées par les relations entre entités « disparates ».

23. L’objectif de la description rhizomatique de la connaissance n’était pas tant descriptif que « stratégique », légitimée par son utilité pour l’exercice d’une résistance contre un modèle hiérarchique, traduction épistémologique d’une structure sociale oppressive.

24. Même si d’autres tentatives peuvent être cherchées, par exemple, dès les pensées de Spinoza ou de Marx, à la suite, pour le premier de V. Morfino (2010) et pour le second d’E. Balibar (1993).

Mais cela signifie alors, d’une part, que la relation, qui a « rang d’être », excède ou déborde toujours ce qu’elle relie, qu’elle ne se réduit jamais à une socialité interindividuelle et qu’on tente de la penser aussi loin que possible dans sa primauté ontologique : « la relation ne jaillit pas entre deux termes qui seraient déjà des individus », mais elle est « la résonance interne d’un système d’individuation » (Simondon, 2005, p. 29) 25. Cela signifie d’autre part que le champ préindividuel, dans lequel les processus d’individuation doivent être inscrits pour être pensés comme processus et comme se développant en conservant toujours cette dimension préindividuelle préalable à leurs mouvements de différenciation, se conçoit comme potentiellement métastable, c’est-à-dire qu’il faut penser son équilibre comme pouvant être rompu par une modification interne au système, même minime. Cette non-stabilité du champ préindividuel est inhérente à la possibilité d’une prise de forme par différenciation ; elle est ainsi la condition même d’une pensée qui ne tombe pas dans le paralogisme consistant à présupposer et même à individuer toujours déjà le principe de ce dont elle cherche la cause. S’il y a devenir, en d’autres mots, c’est dans la seule mesure où il y a des incompatibilités entre des ordres de grandeurs, des réalités dissymétriques.

De ces opérations ou ces processus émanent des individus et des milieux, des individus associés à des milieux (l’individu étant la « réalité d’une relation métastable ») qui sont réels et aussi réels les uns que les autres. L’individu comme relation, comme relatif à un milieu est réel, c’est-à-dire que le relatif est réel, il est le réel même. La relation, et l’individu comme relations, ne sont donc nullement, dans une perspective qu’on pourrait qualifier de subjectiviste, l’expression d’une mesure à laquelle ils seraient donc relatifs au point de perdre leur réalité : ils sont la réalité du devenir, au même titre que le milieu associé à un individu est tout sauf réduit à la mesure, c’est-à-dire à la probabilité de l’apparition de celui-ci 26.

Peut-on évaluer la nouveauté du gouvernement algorithmique, dans sa tentative à gouverner depuis les relations telle que nous l’avons décrite, à partir des exigences de la pensée simondonienne ? Non pas qu’il s’agirait de se demander si la réalité statistique contemporaine est plus simondonienne que d’autres formes de réalité, ce serait absurde, mais plutôt de mettre en relief et mesurer ses éventuelles nouveautés, et plus principalement le fait qu’elle donnerait la possibilité d’appréhender l’individu dans et même depuis ses relations, à la lueur des exigences extrêmement fortes émises par Simondon pour fonder une ontologie de la relation.

25. La précieuse analyse de M. Combes (1999) nous a fortement aidés.

26. Simondon consacre de nombreuses pages au danger de la perte de réalité propre à une conception subjectiviste et probabilitaire de la physique contemporaine. Voir M. Combes (1999, p. 39).

Paradoxalement, en probabilisant la totalité de la réalité (qui semble devenir comme telle le support de l’action statistique) et en paraissant désubjectiver cette perspective probabilitaire (laquelle ne s’embarrasse plus d’hypothèse préalable), bref, en se donnant ainsi la possibilité de gouverner les comportements sans s’occuper directement des individus pour se contenter de gouverner à partir d’une expression statistique de la réalité qui parviendrait à tenir lieu de réalité (la perspective d’un comportementalisme numérique), le gouvernement algorithmique continue d’absolutiser l’individu (même s’il est abordé « en creux », comme ce que les relations permettent d’éviter) et en même temps le déréalise au sens où il n’est plus que relatif à des suites de mesures qui elles-mêmes font office de réalité et donc sans pour autant qu’apparaisse le caractère subjectif de ces mesures. Les relations sur lesquelles se déploie le gouvernement algorithmique sont des mesures qui, de par leur capacité même à apparaître comme l’expression non médiée et non subjective de la réalité, c’est-à-dire de par leur apparente objectivité, rendent d’autant plus relatif – et moins réel – tout ce qui advient en fonction d’elles et même par elles : ce qui advient n’est que relatif à une suite de mesures faisant office de réalité. En d’autres mots, les relations et leurs mesures, de par leur capacité à apparaître comme déliées de toute subjectivité, rendent aussi bien le réel que l’individu lui-même relatifs. Mais ceci, considéré à la lueur de la pensée simondonienne, apparaît comme le fruit d’une inversion : si auparavant, selon la métaphysique de la substance et de l’individu, toute saisie ou toute mesure du milieu d’un individu apparaissaient toujours comme insuffisantes parce que trop subjectives, empêchant de la sorte d’atteindre la réalité de l’individu dans son individuation, cette insuffisance (avec la différence ontologique qu’elle révélait entre l’individu et son milieu) serait désormais résolue en rendant l’individu lui-même entièrement relatif à des mesures considérées elles-mêmes comme émancipées de toute subjectivité, quand bien même elles ne sont que des mesures. On pourrait même aller jusqu’à dire, en profitant toujours de cette confrontation d’une pratique de gouvernement à la pensée simondonienne, que cette pratique, en se concentrant sur les relations, réussit à les « monadologiser », à les transformer en états, voire en statuts, comme si les relations étaient elles-mêmes des individus, c’est-à-dire leur fait perdre ce qu’il s’agissait de penser avec Simondon, à savoir le devenir à l’oeuvre dans une réalité métastable.

C’est ce devenir monade de la relation que nous constatons en considérant que les données du big data ne subsistent que comme des suites de relations qui dédoublent le réel, que les savoirs générés sur cette base consistent à relier des relations mais sans supposer aucune hypothèse sur le réel lui-même, et que les actions normatives qui en découlent, en agissant sur les relations après les avoir référées à des relations de relations, excluent précisément la possibilité d’une réalité métastable au sein de laquelle s’inscrirait un devenir individu. Ce que la lecture de Simondon nous proposait, c’était de cesser de penser le devenir à partir de l’être individuel constitué et donné dans la mesure où cela signifiait que nous faisions abstraction de l’expérience même de l’individuation telle qu’elle se fait. Mais ce dont il s’agissait ainsi de ne plus faire abstraction (pour ne plus présupposer l’individu à son devenir), c’était précisément du fait que « le possible ne contient pas déjà l’actuel », et donc que « l’individu qui en surgit diffère du possible qui a suscité son individuation » (Debaise, 2004, p. 20). Le raté ou la déviation, dont nous disions par ailleurs craindre l’expulsion dans une réalité augmentée au possible, dans une réalité semblant inclure le possible, et dont nous considérions qu’ils étaient aussi inhérents à l’expression de constructions, de projets, d’hypothèses, apparaissent alors précisément comme ce à partir de quoi seulement il y a une relation, entendue comme inassignable à ce qu’elle relie, c’est-à-dire en ce qu’elle relie précisément des réalités dissymétriques et partiellement incompatibles ou disparates à partir desquelles émergeront des réalités ou des significations nouvelles.

« Ce qui définit essentiellement un système métastable, c’est l’existence d’une “disparation”, au moins de deux ordres de grandeur, de deux échelles de réalité disparates, entre lesquels il n’y a pas encore de communication interactive », écrivait Deleuze (2002), lecteur de Simondon. Or cet évitement du raté ou de la déviation opère comme négation de cette « disparation ». La gouvernementalité algorithmique présente une forme de totalisation, de clôture du « réel » statistique sur lui-même, de réduction de la puissance au probable, d’indistinction entre les plans d’immanence (ou de consistance) et d’organisation (ou de transcendance), et constitue la représentation numérique du monde en sphère immunitaire d’une actualité pure (Lagrandé, 2011), pré-emptivement expurgée de toute forme de puissance d’advenir, de toute dimension « autre », de toute virtualité (Rouvroy, 2011). Cette « mise en échec de l’échec » de la modélisation numérique des possibles – par la préemption des possibles ou par l’enregistrement et l’enrôlement automatique de toute « irrégularité » dans les processus d’affinement des « modèles », « patterns » ou profils (dans le cas des systèmes algorithmiques apprenants) – ôte à ce qui pourrait surgir du monde dans sa dissymétrie par rapport à la réalité (ici, ce qui en tient lieu étant le corps statistique), sa puissance d’interruption, de mise en crise 27.

Rappelons que le statut de l’approche que Deleuze et Guattari ont appelé schizo-analyse, micro-analyse, rhizomatique, cartographie, n’était pas tant descriptif que « stratégique ». Règles pour l’élaboration d’hypertextes ou nomadologie, les concepts de rhizome et d’immanence étaient des concepts polémiques (Marchal, 2006), porteurs d’une pensée stratégique, visant à structurer le social « autrement », à résister à un modèle hiérarchique. Se donnant pour espace une topologique horizontale de pure surface, dispensant de toute profondeur, de toute verticalité, de toute structure hiérarchisée, de tout projet, et de toute projection 28, la gouvernementalité algorithmique, tout comme la stratégie rhizomatique, ne s’intéressent ni au sujet, ni aux individus. Seules comptent les relations entre les données, qui ne sont que des fragments infraindividuels, miroitements partiels et impersonnels d’existences quotidiennes que le datamining permet de corréler à un niveau supra-individuel, mais qui ne dessine aucun dépassement de l’individu, aucun peuple donc. À l’ère des Big Data et de la gouvernementalité algorithmique, la métaphore du rhizome semble avoir acquis un statut proprement descriptif ou diagnostique : nous sommes aujourd’hui confrontés à l’actualisation « matérielle », pourrait-on dire, du rhizome. Le métabolisme du « corps statistique » – auquel s’intéresse la gouvernementalité algorithmique, ce corps statistique incommensurable aux corps vivants, socialement et physiquement éprouvés, consistants, au-delà de la seule agglomération d’éléments, d’une consistance qui signifie à la fois que ce corps tient ensemble et qu’il est susceptible d’événement (Rouvroy et Berns, 2009, 2010) – rappelle singulièrement les caractéristiques ou principes rhizomatiques énoncés par Gilles Deleuze et Félix Guattari. Cette « incarnation » du concept rhizomatique est-elle propice à des formes d’individuation émancipées ? Trois inquiétudes nous hantent particulièrement, à cet égard.

27. À nouveau, il faut ici pointer le fait que la crise, ce moment qui appelle à décider dans l’incertitude, est précisément le moment du politique : « L‘autorité légitime a été déplacée et distribuée dans des choses, rendant difficile son appréhension et sa mise en question puisqu’elle s’impose au nom du réalisme et perd sa visibilité politique. La critique est paralysée parce qu’elle paraît devancée et rendue caduque. La référence à l’objectivité, souvent accompagnée de l’invocation de la transparence de l’information, ne rejoint-on pas une exigence majeure de la délibération démocratique ? » (Thévenot, 2012).

28. « La topologie du réseau est pure surface qu’il convient de distinguer du plan projectif que Lacan a utilisé pour caractériser la topologie du sujet. Il s’agit bien sûr d‘un plan, d’une surface (exit la “psychologie des profondeurs”), mais il est l’effet d‘une projection et cela le différencie de la “pure” surface du réseau qui n’implique aucune projection » (Marchal, 2006).

Premièrement, qu’en est-il d’une relationalité qui ne serait plus « physiquement habitée » par aucune altérité ? Dans la gouvernementalité algorithmique, chaque sujet est lui-même une multitude, mais il est multiple sans altérité, fragmenté en quantité de profils qui tous, se rapportent à « luimême », à ses propensions, ses désirs présumés, ses opportunités et ses risques. Une relation – fût-elle une scène vide de sujets – ne doit-elle pas toujours être « peuplée », fût-ce par un « peuple manquant » (évoqué par Deleuze (1987, 1990)), un peuple en projet ? La « relation » n’impliquet- elle pas, au minimum, une collectivité de plus d’un en ce qu’elle est la condition d’une dissymétrie ?

Deuxièmement, qu’en est-il du caractère émancipateur d’une perspective transindividuelle ou rhizomatique lorsque les désirs qui s’y meuvent nous précèdent ? Cette primauté chronologique de l’offre personnalisée en fonction de propensions inexprimées par le sujet ne vient-elle pas toujours déjà déterminer et stabiliser les processus d’individuation dès le stade préindividuel ? Ces nouveaux usages de la statistique que sont le datamining et le profilage ne nous réduisent-il pas à l’impuissance face aux normes immanentes produits de la gouvernementalité algorithmique ?

Troisièmement, qu’en est-il du caractère émancipateur d’une perspective transindividuelle ou rhizomatique lorsque la relation n’est plus portée par aucun devenir spécifique (devenir sujet, devenir peuple, etc.), c’est-à-dire lorsqu’elle ne peut plus rien relater, puisque, précisément, la cible, au sens de ce que s’attache à exclure cette nouvelle manière de gouverner par les algorithmes, c’est « ce qui pourrait advenir » et que l’on n’aurait pas prévu parce que fruit de disparations, c’est-à-dire la part d’incertitude, de virtualité, de potentialité radicale qui fait des êtres humains des processus libres de se projeter, de se relater, de devenir des sujets, de s’individuer suivant des trajectoires relativement et relationnellement ouvertes ? On pourrait dire que, oui, la perspective est « émancipatrice » en ce sens qu’elle fait table rase des anciennes hiérarchies (au sens le plus large… l’« homme normal » ou l’« homme moyen » occupant justement une place dans cette hiérarchie) mais elle n’est émancipatrice dans le cadre d’aucun devenir, d’aucun projet, d’aucun objectif. Il y a donc bel et bien une forme de « libération » mais qui n’est pas de la liberté au sens « fort ». Le régime de vérité numérique (ou le comportementalisme numérique) ne menace-t-il pas aujourd’hui de saper les bases mêmes de l’émancipation en évacuant les notions de critique et de projet (Rouvroy, 2013), voire de commun ?

Sans parvenir encore à résoudre ces questions, il s’agissait pour nous de montrer que, plutôt que d’en revenir à des approches personnologiques (dont l’individualisme possessif des régimes juridiques de protection des données est tout à fait exemplaire), qui seraient aussi inefficaces que mal fondées, l’enjeu fondamental – ce qu’il y aurait à sauver comme ressource antécédente à tout « sujet », à toute individuation et comme constitutive de cette dernière – est « le commun », entendu ici comme cet « entre », ce lieu de com-parution dans lequel les êtres sont adressés et se relatent les uns aux autres dans toutes leurs dissymétries, leurs « disparations ». Nous avons voulu montrer aussi que l’existence de ce « commun » est donc tributaire non pas d’une homogénéisation, d’une clôture du réel sur lui-même, mais au contraire, d’une hétérogénéité des ordres de grandeur, d’une multiplicité des régimes d’existence, bref d’échelles de réalité disparates. Autrement dit, le commun nécessite et présuppose de la non-coïncidence car c’est depuis celle-ci que des processus d’individuation se produisent dès lors que c’est elle qui nous oblige à nous adresser les uns aux autres. A contrario, le gouvernement des relations, en reposant sur l’évacuation de toute forme de disparité, « monadologise » les relations, au point que celles-ci ne relatent plus rien et n’expriment plus aucun commun.

RÉFÉRENCES

BALIBAR E., 1993, La philosophie de Marx. Paris, La Découverte.

BERNS T., 2009, Gouverner sans gouverner. Une archéologie politique de la statistique. Paris, PUF.

BERNS T., 2011, « L’efficacité comme norme », Dissensus, n° 4.

BERNS T., 2012, « Quand le réel nous gouverne », dans Gouverner par les normes, à paraître chez Bruylant, Bruxelles.

CARDON D., 2012, « Regarder les données », Multitudes, n° 49, été, pp. 138-142.

COMBES M., 1999, Simondon. Individu et collectivité. Paris, PUF.

DEBAISE D., 2004, « Qu’est-ce qu’une pensée relationnelle ? », Multitudes, 2004, n° 18, pp. 15-23.

DELEUZE G., 1968, Différence et répétition. Paris, PUF.

DELEUZE G., 1980, « Anti-OEdipe et autres réflexions », cours du 27 mai 1980, disponible en ligne : http://www2.univ-paris8.fr/deleuze/article.php3?id_article=68.

DELEUZE G., 1987, « Le devenir révolutionnaire et les créations politiques », Futur antérieur, 1, printemps 1990.

DELEUZE G., 1987, « Qu’est-ce que l’acte de création ? », conférence donnée dans le cadre des mardis de la fondation Femis, 17 mai.

DELEUZE G., 2002, « Gilbert Simondon, L’individu et sa genèse physico-biologique », L’île déserte et autres textes. Paris, Minuit, 2002.

DELEUZE G., GUATTARI F., 1972, Capitalisme et Schizophrénie 1. L’Anti-OEdipe. Paris, Minuit.

DELEUZE G., GUATTARI F., 1980, Mille Plateaux, Capitalisme et schizophrénie 2. Paris, Minuit.

DESROSIÈRES A., 1988, « Masses, Individus, Moyennes : La statistique sociale au XIXe siècle », Hermès, 2, 1988.

DESROSIÈRES A., 1992, « Discuter l’indiscutable. Raison statistique et espace public », Raisons pratiques, 3, 1992.

DESROSIÈRES A., 2000, La politique des grands nombres. Paris, La Découverte.

DESROSIÈRES A., 2008, Gouverner par les nombres. Paris, Presses de l’École des Mines.

ECO U., 1976, A Theory of Semiotics. Bloomington, Indiana University Press.

EWALD F., 1986, L’État providence. Paris, Grasset.

FOUCAULT M., 2004, Sécurité, territoire, population. Cours au Collège de France, 1977-1978. Paris, Seuil/Gallimard.

FOUCAULT M., 2012, Mal faire, dire vrai. Fonction de l’aveu en justice, Cours de Louvain, 1981. Fabienne Brion, Bernard E. Harcourt (eds.), Presses universitaires de Louvain et Chicago University Press.

GENOSKO G., 2008, « Banco sur Félix. Signes partiels a-signifiants et technologie de l’information », Multitudes, 34, pp. 63-73.

GUATTARI F., 1980, « Présentation du séminaire », 9 décembre 1980 : http://www. revue-chimeres.fr/drupal_chimeres/files/801209.pdf).

HACKING I., 2006, The Emergence of Probability: A Philosophical Study of Early Ideas about Probability, Induction and Statistical Inference. Cambridge University Press.

LAGRANDÉ C., 2009, L’actualité pure. Essai sur le temps paralysé. Paris, PUF.

LAZARATO M., 2006, « Le pluralisme sémiotique et le nouveau gouvernement des signes. Hommage à Félix Guattari », http://eipcp.net/transversal/0107/lazzarato/fr.

MARCHAL P., 2006, « Réseaux et plan d’immanence. Autour de Deleuze et de sa critique de la psychanalyse », Association lacanienne internationale.

MORFINO V., 2010, Le temps de la multitude. Paris, Amsterdam.

NEYRAT F., 2011, Clinamen. Flux, absolu et loi spirale. Alfortville, Ere.

PARDO M. S., 2012, « Rationality », 64 Alabama Law Review, 64, 1, pp. 141-153.

QUÉTELET A., 1836, Sur l’homme et le développement de ses facultés, essai d’une physique sociale. Bruxelles, Louis Hauman et Compe.

ROUVROY A., 2011, “Technology, Virtuality and Utopia. Governmentality in an Age of Autonomic Computing”, in M. HILDEBRANDT, A. ROUVROY, eds, Law, Human Agency and Autonomic Computing. Philosophers of Law Meet Philosophers of Technology. Routledge.

ROUVROY A., 2011, « Pour une défense de l’éprouvante inopérationnalité du droit face à l’opérationnalité sans épreuve du comportementalisme numérique », Dissensus, n° 4, avril.

ROUVROY A., 2013a, “The end(s) of critique: data-behaviourism vs. Due process”, in M. HILDEBRANDT, K. DE VRIES, eds, Privacy, Due Process and the Computational Turn. Philosophers of Law Meet Philosophers of Technology. Routledge.

ROUVROY A., 2013b, Mise en (n)ombres de la vie même. Face à la gouvernementalité algorithmique, repenser le sujet de droit comme puissance, http://works.bepress.com/ antoinette_rouvroy/43/

ROUVROY A., BERNS T., 2009, « Le corps statistique », La Pensée et les Hommes. Bruxelles, P. Daled.

ROUVROY A., BERNS T., 2010, « Le nouveau pouvoir statistique », Multitudes, n° 40.

SIMONDON G., 2005, L’individuation à la lumière des notions de forme et d’information . Paris, Million.

STIEGLER B., 2011, « “Le grand désenchantement”. Un entretien avec le philosophe Bernard Stiegler », Le Monde, 21 février.

SUNSTEIN C. R., 2009, Republic 2.0. Princeton University Press.

THÉVENOT L., 2012, « Autorités à l’épreuve de la critique. Jusqu’aux oppressions du “gouvernement par l’objectif” », in B. FRERE, ed., Quel présent pour la critique sociale ? Paris, Desclée de Brouwer.

VAN OTTERLO M., 2013, “A Machine learning view on profiling”, in M. HILDEBRANDT, K. DE VRIES, eds, Privacy, Due Process and the Computational Turn. Philosophers of Law Meet Philosophers of Technology. Routledge.

VIRILIO P., 2006, « Banlieues en crise ; la grippe aviaire », Urbanisme, n° 347.

ZARSKY T., 2011, “Governmental Data Mining and its Alternatives”, Penn. State Law Review, vol. 116, n° 2.


Mise en (n)ombres de la vie même : face à la gouvernementalité algorithmique, repenser le sujet comme puissance.

27 août 2012 |  Par Antoinette Rouvroy

http://blogs.mediapart.fr/blog/antoinette-rouvroy/270812/mise-en-nombres-de-la-vie-meme-face-la-gouvernementalite-algorit

VERSION PRE-PUBLICATION. NE PAS CITER NI TRANSFORMER, FÛT-CE A DES FINS DE VULGARISATION, SANS MON ACCORD EXPLICITE PREALABLE.

Résumé.

Le gouvernement algorithmique est un mode de gouvernement nourri essentiellement de données brutes, signaux infra-personnels et a-signifiants mais quantifiables, opérant par configuration anticipative des possibles plutôt que par règlementation des conduites, et ne s'adressant aux individus que par voie d’alertes provoquant des réflexes plutôt qu'en s’appuyant sur leurs capacités d'entendement et de volonté. La reconfiguration constante, en temps réel, des environnements informationnels et physiques des individus en fonction de « l’intelligence des données » - qu’on l’appelle « personnalisation » ou « métabolisme de sécurité » - est donc un mode de gouvernement inédit. Le type de « savoir » qui le nourrit et qu’il façonne, les modalités suivant lesquelles il affecte effectivement les conduites individuelles et collectives, les modes d’individuation qui peuvent l’infléchir ou lui résister méritent d’être très soigneusement étudiés. C'est précisément l'enjeu de la nouvelle ligne de recherche inaugurée autour du concept de gouvernementalité algorithmique, que je brosserai ici à grands traits. (*)
***
Le « tournant numérique » manifesté, depuis une dizaine d’années, par le déploiement intensif d’une multitude d’appareils électroniques fondés sur la technologie numérique, véritables prothèses cognitives, mémorielles, affectives, communicationnelles plus addictives les unes que les autres (ordinateurs, iphones, ipads, smartphones, gps, …). Nous baignons depuis lors dans une multitude de flux informationnels amniotiques-hypnotiques qui nous immergent dans l’environnement contrôlé-personnalisé de la réalité numérique et nous immunisent du monde. Ce faisant ces appareils en réseau, « nourris » de nos requêtes, envois, interactions, transcrivent le monde et ses habitants sous forme de données numériques, métabolisables par les systèmes informatiques. De cette transcription systématique, a-signifiante, décontextualisante, neutralisante, résultent des masses gigantesques de données brutes, disponibles pour une multitude d’opérations statistiques. L’idéologie accompagnant la croissance de ces « big data », est qu’à condition de disposer de quantités massives de données brutes (disponibles dans des entrepôts de données, ou datawarehouses), il deviendrait possible de prévoir, avec une relative précision, la survenue de la plupart des phénomènes (en ce compris les comportements humains), grâce à des algorithmes relativement simples permettent, sur une base purement statistique, inductive, d’inférer des profils (patterns ou modèles de comportements) sans plus avoir à se préoccuper de leurs causes.

Cette « intelligence des données » apparaît aujourd’hui comme une nouvelle stratégie de gestion de l’incertitude, suscitant l’engouement dans la plupart des secteurs d’activité et de gouvernement, en en renforçant au passage la managérialisation. Le gouvernement algorithmique est un mode de gouvernement nourri essentiellement de données brutes, signaux infra-personnels et a-signifiants mais quantifiables, opérant par configuration anticipative des possibles plutôt que par règlementation des conduites, et ne s'adressant aux individus que par voie d’alertes provoquant des réflexes plutôt qu'en s’appuyant sur leurs capacités d'entendement et de volonté. La reconfiguration constante, en temps réel, des environnements informationnels et physiques des individus en fonction de « l’intelligence des données » - qu’on l’appelle « personnalisation » ou « métabolisme de sécurité » - est un mode de gouvernement inédit. Le type de « savoir » qui le nourrit et qu’il façonne, les modalités suivant lesquelles il affecte effectivement les conduites individuelles et collectives, les modes d’individuation qui peuvent l’infléchir ou lui résister méritent d’être très soigneusement étudiés. C'est précisément l'enjeu d’une nouvelle ligne de recherche tendant à circonscrire le phénomène que nous avons appellé la gouvernementalité algorithmique.

La gouvernementalité algorithmique est explorée d'une manière qui combine quatre types d'enjeux étroitement imbriqués:

1) les enjeux sémiotiques et épistémologiques (à quel type de "savoir" donne donc lieu l'"intelligence des données"?), quelles sont les conditions de la critique face à ce type de "savoir"? Notons d’entrée de jeu que la « biométrisation du réel », sorte de « comportementalisme numérique », exige de substituer la critique sémiotique à la critique généalogique et archéologique de Foucault impossibles à mettre en oeuvre à l'égard de la gouvernementalité algorithmique qui produit un « savoir » horizontal "a-historique", et « non situé », assignant des probabilités quantitatives nonobstant l'impossibilité de situer et de comparer.

2) les enjeux de pouvoir : en quoi les "big data" modifient-ils les modes d'exercice du pouvoir ? En quoi le datamining et le profilage sont ils une nouvelle manière de gouverner? En quoi cette nouvelle manière de gouverner s’écarte-t-elle des méthodes disciplinaires ou des gouvernementalités juridico-discursives ?

3) Les enjeux de subjectivation ou d'individuation (comment "devenir sujet" dans ce monde de données?), qui sont inséparables des enjeux de la récalcitrance et de la critique face à la rationalité algorithmique. L’hypothèse éternellement rabâchée de la "mise en danger de l'individu" ne semble pas évidente du tout en l’occurrence. On pourrait même dire que les réseaux sociaux etc. produisent, au contraire, des "hyper-sujets", que la production de subjectivité est devenue l'activité obnubilée d'un bon nombre de personnes, leur raison de vivre même. Il semble trop rapide de dire tout simplement qu'en raison des transformations en cours, parcequ'elles affaiblissent les remparts de l'intimité, de la vie privée, et parce qu'elles toucheraient peut-être aux conditions de l'autonomie et du libre choix (mais il faudrait encore voir dans quel sens cela se passe: des environnements intelligents qui nous dispenseraient de devoir en permanence faire des choix dans des domaines tout à fait triviaux peuvent aussi nous libérer l'esprit, nous rendre disponibles pour des tâches intellectuelles plus intéressantes, plus altruistes, etc. sait-on jamais... il ne s’agira donc pas de nourrir encore les technophobies sous-jaçantes aux arguments fondés sur l'érosion de l'intimité et de la vie privée ni de réveiller une fois encore le spectre de la "désubjectivation" puisqu’il n’y a de toutes façons jamais eu de "sujet" (même pour le droit, le sujet est une fiction fonctionnelle, une fonction personnologique, un peu à la manière dont Foucault décrit l'"auteur").

4) Les conditions de la critique ou l'éloge de la crise : il s'agira d'envisager de quelles manières peut encore s'envisager la critique face à une gouvernementalité se présentant comme objective et immanente au monde lui-même, fonctionnant sur une logique purement inductive (statistique) plutôt que causale ou déductive, et visant avant tout à éviter toute confrontation avec des "sujets" dont les propensions, trajectoires, préférences sont devinées d'avance et prévenues par un système de profilage "intelligent" qui connait mieux que les personnes concernées elles-mêmes ce qu'elles pourraient faire ou vouloir.

1) Les enjeux sémiotiques et épistémologiques :

A quelle « catégorie » de signe ou de signal correspondent les données brutes, les « big data », qui forment la texture du gouvernement algorithmique, quel est leur rapport avec ce pour quoi elles sont censées « faire signe » ou dont elles sont censées donner le « signal » alors qu’elles ne ressemblent pas aux éléments du monde dont elles émanent pourtant, ne gardent avec eux aucun lien physique, et n’en sont pas non plus une symbolisation conventionnelle ? C’est pourtant ces masses de données brutes, ce corps statistique mouvant et impersonnel qui tient aujourd’hui lieu du monde que les algorithmes nous dispensent d’interpréter encore. Le « réel », ce « savoir » de ce qui  se tient ou paraît se tenir, ne semble plus tant produit que toujours déjà là, immanent aux banques de données, dans l’attente d’être mis au jour par des algorithmes de corrélations statistiques. C’est un « savoir » qui surgit non plus à propos du monde, à partir  d’un certain point-de-vue sur le monde, mais à même le monde numérisé. Un « savoir » découvert « en temps réel » par les algorithmes, inductif plutôt que déductif, un « savoir » qui n’éprouve pas le monde sur lequel il porte, et ne se laisse pas d’avantage éprouver par lui : ce n’est qu’à même une « réalité numérique » et sans plus aucun contact avec le monde qu’elle est censée représenter que se façonne la réalité algorithmique. Plutôt qu’en fonction de la validité de ses modèles « prédictifs », c’est à l’aune de son opérationnalité – et, dans une certaine mesure, de sa performativité -, de sa plasticité, de sa contribution au processus de fluidification de la vie économique et sociale (et donc au capitalisme), de sa non-robustesse donc, et de la mesure dans laquelle elle nous dispense, nous, êtres humains, de tout effort d’interprétation et d’évaluation des personnes et des événements du monde que s’évalue l’ « intelligence » des « big-data ». Telle est la rationalité algorithmique, produite à même le monde numérisé plutôt qu’à propos du monde physique.

2) En quoi les "big data" modifient-ils les modes d'exercice du pouvoir ?

En quoi les nouveaux usages de la statistique que sont le datamining et le profilage sont ils une nouvelle manière de gouverner? Ce second plan - celui du pouvoir - permet de percevoir la manière dont ces glissements d'ordre sémiotique et épistémologique permettent une nouvelle manière de (se) gouverner. Le « pouvoir » semble avoir changé de « cible » : non plus les corps vivants, individuels, subjectifs, actuels, mais un corps statistique, impersonnel, virtuel, moulage générique et changeant des « risques et opportunités » détectés en temps réel, distribués sous forme de modèles de comportements (les profils de consommateur, de fraudeur ou de potentiel délinquant, d'élève prometteur,..). Perfectionnant les dispositifs de sécurité déjà théorisés par Michel Foucault, le gouvernement algorithmique est pré-emptif plutôt que prédictif : il ne s'agit pas tant d'identifier et de localiser la cause des phénomènes que d'empêcher ou d'assurer que certaines choses se produisent, en transformant anticipativement l'environnement informationnel et/ou physique de manière à ce que ces choses ne puissent pas (ne pas) se produire, et ce d'une manière indifférente à l'identité, aux intentions et motivations psychologiques des personnes potentiellement impliquées / affectées. Le gouvernement algorithmique s'intéresse à « ce que peuvent les corps », à leurs puissances, plutôt qu’à ce qu’ils font. C’est un gouvernement du virtuel, des puissances plutôt que de l’actualité. Il a pour cible non plus les sujets, mais ce qu’ils pourraient (ne pas) faire, les puissances des sujets donc. Plus précisément, il s’agit d’une nouvelle stratégie de gestion et de minimisation de l’incertitude inhérente à la puissance des sujets (leur capacité, ce pouvoir discrétionnaire de faire / ne pas faire tout ce dont ils sont capables). S’effectuant par reconfiguration des architectures et environnements informationnels et physiques dans lesquelles certains comportements deviennent impossibles / impensables plutôt que par incitation ou dissuasion, à la manière de la loi, c’est dans leur puissance (y compris la puissance de désobéir), que le gouvernement algorithmique atteint les individus, tout en évitant de produire aucune occasion de subjectivation: ce pouvoir éprouve les individus en réduisant leurs dimensions inactuelles (la dimension de la spontanéité, de la potentialité), sans mobiliser pour autant leurs capacités d'entendement et de volonté, à la différence de la loi notamment. Le gouvernement algorithmique se distingue donc notamment du gouvernement néolibéral en ce que la docilité qu’il produit n’est pas l’effet d’injonctions de productivité et/ou de jouissance mais d’affectation - sur le mode du réflex plutôt que de la réflexion- des comportements individuels et collectifs.

3) Les enjeux de subjectivation ou d'individuation (comment "devenir sujet" dans ce monde de données?), sont inséparables des enjeux de la récalcitrance et de la critique face à la rationalité algorithmique. Ce troisième plan - celui du sujet - consiste donc en une ré-élaboration de la question de l’individuation dans la gouvernementalité algorithmique.

Quel impact, sur les processus de subjectivation, d'un gouvernement algorithmique en cela "objectif" et impartial qu'il ne connaît que des fragments infra-individuels (les données) et des structures supra-individuelles (les profils) – des éléments impersonnels et anonymes, donc - , des points de localisation dans des tables actuarielles, des réseaux de données, qui ne correspondent à aucune catégorisation socialement éprouvée ?

Qu'en est-il, aussi, des processus de subjectivation dans une gouvernementalité dont l'opérationalité provient précisément, en partie du moins, du fait qu'elle dispense de la comparution, du témoignage, de l'aveu, et de toute forme de re-présentation biographique?

La gouvernementalité algorithmique signe l'aboutissement d'un processus de dissipation des conditions institutionnelles, spatiales, temporelles et langagières de la subjectivation au profit d'une régulation objective, opérationnelle, des conduites possibles.

Un gouvernement algorithmique qui façonne l’advenir, qui affecte sur le mode de l’alerte et du réflex, mais n’éprouve ni n’est éprouvé par aucun sujet a de quoi faire frémir ne fût-ce que dans la mesure où il ne se laisse plus provoquer par la liberté humaine, alors même que cette provocation constante est précisément ce qui occasionne du débat, de la délibération autour de la norme, et donc du projet collectif.

4) Enfin, quelles ont les ressources mobilisables pour une critique, une récalcitrance, et de nouveaux modes d’individuation face à la gouvernementalité algorithmique ?

Plutôt que d'en revenir à des approches personologiques (dont l'individualisme possessif des régimes juridiques de protection des données est tout à fait exemplaire), qui seraient aussi inefficaces que mal fondées, il s’agira de montrer que l'enjeu fondamental - ce qu'il y aurait à sauver comme ressource antécédante à tout "sujet", comme "excès" du monde sur la réalité numérique - est le commun, cet entre, ce lieu de com-parution dans lequel nous sommes adressés les uns aux autres. Le mode d'adresse qui nous relie est essentiellement langagier. Le langage est "forme" qui est tout à la fois ligne de fuite polysémique / polyphonique, principe de liaison ("faire tenir ensemble"), projection miroitante, motifs d'advenirs évoqués. Cette "forme" (esthétique, en tant qu'elle est rapport affectif entre existants), le langage (si l'on accepte d'en libérer toutes les puissances poétiques), est à mille lieues de toute personologie. Il est la forme impersonnelle par excellence, manifestation de l'excès du monde sur le réel. Nous parlons, justement, parce que nous sommes à flanc d'abîme, parce qu'il n'y a personne – « le peuple manque », écrivait Gilles Deleuze[1] -, et donc pour rejoindre un "commun" qui se dérobe sous nos mots, qui n'est jamais acquis, qui ne se présente, n'advient que comme fulgurance inespérée, comme devenir. C'est cette forme impersonnelle du commun qu'il convient de convoquer, dans un langage qui l'énonce, dans l'impersonnalité incarnée de la voix qui la dit - impersonnelle et chargée du "grain" du corps vivant et vibrant, consistance irritable de l'ex-istant.

Ni sujet, ni monde, le commun nécessite pour surgir des scènes spatio-temporelles hétérotopiques, interruptrices des flux capitalistes et numériques – la scène du procès judiciaire (le droit processuel, plus généralement), la scène de théâtre, la scène de la littérature en sont des exemples – espaces de re-présentation existentiels, de surgissement de nouvelles possibilités politiques au lieu même de l’exposition des limites de la représentation et de la représentabilité.[2] Je parle ici des limites de la représentation par le langage, mais aussi de toute re-présentation, dans la mesure où la scène, lieu du simulacre – copie sans original -, lieu d’hyper-réalité, est une hétérotopie propice à l’émergence re-configurante de radicale nouveauté. Ainsi la spécificité de la décision juridiaire n’est pas tant qu’elle se conforme à la « réalité », qu’elle est « vraie », mais qu’elle « tranche », qu’elle est contrainte de « trancher » justement parce que la vérité est irreprésentable. C’est toujours dans une relative incertitude (épistémique ou non-épistémique[3]) que survient la décision du juge, une décision toujours hantée par le doute.

Maintenir l'hétérogénéité des modes de production de ce qui compte comme "réalité" contre le déploiement ubiquitaire d'une rationalité algorithmique opérationnelle mais neutralisante de toute signification, telle est la condition nécessaire, et peut-être pas suffisante, à l'évitement de la violence. L'enjeu est d'importance: la régression communicationnaire du langage politique privé d'énonciation utile dans le contexte d'un mode de gouvernement par les nombres, substituant une gestion systématique à la prise en compte systémique des situations de vie n'offre à la vitalité politique que des voies d'action violentes. Ce n’est pas le langage qu’il faut condamner, mais la paresse régressive de la pensée qui n’a de cesse de dévitaliser le langage, de le faire régresser en enfermant les mots dans un registre de connotations mondaines au service de l'insignifiance prédatrice. La faiblesse n'estdoncpas dans le mot, elle est dans le mépris du langage, de la polysémie, elle est dans le positivisme enfermant. Raconter pour suspendre. Nous en serions donc là : à l’aube d’un a(d)venir pré-nommé Shéhérazade.

Comment dès-lors faire usage des dispositifs de la société numérisée à des fins de ré-enchantement du commun ? En leur assignant prioritairement cette vocation là, en la protégeant par la loi, en la rendant effective par les usages. “Mettre l’homme dans la machine”, comme y invitait Félix Guattari, ce serait peut-être cela, aujourd’hui : s’atteler à produire des interstices, du jeu, dans lesquels puisse advenir du commun, c’est à dire de l’interruption des flux, de l’interstice, de l’occasion de recomposition de ce qui, pour des êtres humains, pourrait « faire consistance », fût-ce de manière transitoire - quitte à ce que ces interstices et ce jeu, permettant l’émergence d’agencements consistants, « grippent » la « machine », mettant effectivement en crise la rationalité algorithmique tout en suscitant de l’individuation impersonnelle et inter-individuelle, c’est-à-dire du projet politique et l’actualisation a priori imprévisible des puissances du commun – du projet sans prédiction, plutôt que de la prédiction sans projet, donc.

Dans l’éloge qui en sera fait ici, la crise doit être entendue dans son sens originaire. Du grec krisis, le terme crise signifie à son origine examiner, décider.[4] La crise est le moment de la décision, le moment décisif et non celui de l’indécision, de la perturbation, comme le veut l’usage ubiquitaire du terme dans l’époque contemporaine.

« (…) cette notion, en se généralisant, s’est comme vidée de l’intérieur. À l’origine, Krisis signifie décision : c’est le moment décisif, dans l’évolution d’un processus incertain, qui permet le diagnostic. Aujourd’hui, crise signifie indécision : c’est le moment où, en même temps qu’une perturbation, surgissent les incertitudes ».[5]

Eloge de la décision, donc, de la confiance décidée plutôt qu’assurée, d’un art de gouverner qui soit aussi l’art de décider en situation d’incertitude plutôt que de faire assumer celle-ci par des dispositifs numériques autistiquement objectifs. Car c’est bien d’une fausse frugalité que se parle le gouvernement algorithmique, émancipé du joug de la qualification juridique. S’en remettre aux algorithmes, plutôt que dessiner, programmer, décider en situation d’incertitude, ce n’est certainement pas « gouverner moins ». C’est même, éventuellement, « gouverner davantage » par infiltration dans tous les domaines, y compris les plus privés ou intimes, sans que le droit y trouve rien à redire. Pourtant, il pourrait être raisonnable de penser que les citoyens ont un intérêt légitime à ne pas voir des quantités substantielles d’informations à propos de leurs activités (fussent-elles volontairement partagées ou publiques) exploitées par leurs gouvernements ou par des firmes privées, quand bien même ces informations, individuellement, ne seraient pas à proprement parler des informations à caractère personnel[6].

A cet égard, il n’est pas exclu que l’on puisse faire du droit des usages plus émancipateurs que ceux qui sont aujourd’hui imaginés, au niveau européen notamment. Mais il faudrait pour cela comprendre de quelle manière le droit construit, lui aussi, un certain réel – le réel pour le droit -, à distance du monde, dans une artificialité assumée, d'une manière relativement frugale (la qualification, la prescription empêchent le droit de considérer que la totalité du monde relève de sa juridiction), essentiellement soumise à l'épreuve (de l'interprétation jurisprudentielle, de la révision législative), éternellement provisoire.

(*) Le présent texte constitue l'argumentaire fortement résumé d'un livre en cours de rédaction. Pour un aperçu plus exhaustif de mes travaux autour du concept de gouvernementalité algorithmique : http://works.bepress.com/antoinette_rouvroy/

[1] Gilles Deleuze, “Qu’est-ce que l’acte de création ?” Conférence donnée dans le cadre des mardis de la fondation Femis - 17/05/1987 ; Gilles Deleuze, « Le devenir révolutionnaire et les créations politiques », entretien réalisé par Toni Négri, Futur antérieur, 1, Printemps 1990.

 [2] Judith Butler, Antigone’s Claim. Kinship Between Life and Death, Columbia University Press, 2000.

[3] On parlera d’incertitude non-épistémique lorsque la source de l’incertitude reside moins dans l’impossibilité de connaitre parfaitement les faits que dans le caractère vague du langage juridique lui-même, dans son inevitable réductionnisme, dans son indetermination sémantique.

[4] Le terme krisis est bien sûr chargé de connotations judiciaries. Thucydide, dans l’Histoire de la Guerre du Péloponèse, est le premier à utiliser le terme, chargé de connotations judiciaries. Krisis correspond dans ce contexte au moment critique qui recquiert la decision.

[5] Edgar Morin , « Pour une crisologie », in Communications, n° 25, 1976, pp. 149-163.

[6] Lire notamment Gray, David C. and Citron, Danielle Keats, A Technology-Centered Approach to Quantitative Privacy (August 14, 2012). Available at SSRN: http://ssrn.com/abstract=2129439.



Face à la gouvernementalité algorithmique, repenser le sujet de droit comme puissance.
Antoinette Rouvroy

National Fund for Scientific Research(FNRS) and Information Technology & Law Research Centre, University of Namur (CRID)

Abstract TABLES DES MATIERES:

  1. - Produire la réalité à même le monde : une nouvelle stratégie de gestion de l'incertitude. 1.Gouvernementalité algorithmique et capitalisme.

      2. Mise en (n)ombres de la vie même.

  1. - La gouvernementalité algorithmique et le comportementalisme numérique, au-delà de la gouvernementalité néolibérale: des dispositifs qui dispensent.
  1. Les "big data": nouveaux usages de la statistique.
  1. Le comportementalisme numérique: le perfectionnement des dispositifs de sécurité décrits par Michel Foucault.
  1. Anticipation et dispense d'interprétation.
  1. L’"objectivité" de la gouvernementalité algorithmique est-elle un gage de justice ?   III- L’éprouvante inopérationnalité du droit comme occasion de surgissement du sujet de droit comme puissance.
  1. L’éprouvante inopérationnalité du droit.
  1. Le sujet de droit comme puissance.

      IV- Ressources pour une critique de la rationalité algorithmique : éloge du commun.

  1. La récalcitrance plutôt que le contrôle.
  1. « Il faut organiser le  pessimisme. »

    V-Envoi :Raconter pour suspendre.

    ARGUMENT

Le « tournant numérique » manifesté, depuis une dizaine d’années, par le déploiement intensif d’une multitude d’appareils électroniques fondés sur la technologie numérique, véritables prothèses cognitives, mémorielles, affectives, communicationnelles plus addictives les unes que les autres (ordinateurs, iphones, ipads, smartphones, gps, …). Nous baignons depuis lors dans une multitude de flux informationnels amniotiques-hypnotiques qui nous immergent dans l’environnement contrôlé-personnalisé de la réalité numérique et nous immunisent du monde. Ce faisant ces appareils en réseau, « nourris » de nos requêtes, envois, interactions, transcrivent le monde et ses habitants sous forme de données numériques, métabolisables par les systèmes informatiques. De cette transcription systématique, a-signifiante, décontextualisante, neutralisante, résultent des masses gigantesques de données brutes, disponibles pour une multitude d’opérations statistiques.

L’idéologie accompagnant la croissance de ces « big data », est qu’à condition de disposer de quantités massives de données brutes (disponibles dans des entrepôts de données, ou datawarehouses), il deviendrait possible de prévoir, avec une relative précision, la survenue de la plupart des phénomènes (en ce compris les comportements humains), grâce à des algorithmes relativement simples permettent, sur une base purement statistique, inductive, d’inférer des profils (patterns ou modèles de comportements) sans plus avoir à se préoccuper de leurs causes.

Cette « intelligence des données » apparaît aujourd’hui comme une nouvelle stratégie de gestion de l’incertitude, suscitant l’engouement dans la plupart des secteurs d’activité et de gouvernement, en en renforçant au passage la managérialisation. Le gouvernement algorithmique est un mode de gouvernement nourri essentiellement de données brutes, signaux infra-personnels et a-signifiants mais quantifiables, opérant par configuration anticipative des possibles plutôt que par règlementation des conduites, et ne s'adressant aux individus que par voie d’alertes provoquant des réflexes plutôt qu'en s’appuyant sur leurs capacités d'entendement et de volonté. La reconfiguration constante, en temps réel, des environnements informationnels et physiques des individus en fonction de « l’intelligence des données » - qu’on l’appelle « personnalisation » ou « métabolisme de sécurité » - est un mode de gouvernement inédit. Le type de « savoir » qui le nourrit et qu’il façonne, les modalités suivant lesquelles il affecte effectivement les conduites individuelles et collectives, les modes d’individuation qui peuvent l’infléchir ou lui résister méritent d’être très soigneusement étudiés. C'est précisément l'enjeu de cet ouvrage.

La gouvernementalité algorithmique y est explorée d'une manière qui combine trois types d'enjeux étroitement imbriqués:

  1. les enjeux sémiotiques et épistémologiques (à quel type de « savoir » donne donc lieu l'"intelligence des données"?), quelles sont les conditions de la critique face à ce type de "savoir"?
  1. les enjeux de pouvoir (en quoi les "big data" modifient-ils les modes d'exercice du pouvoir ? En quoi le datamining et le profilage sont ils une nouvelle manière de gouverner?)
  1. Les enjeux de subjectivation ou d'individuation (comment "devenir sujet" dans ce monde de données?), qui sont inséparables des enjeux de la récalcitrance et de la critique face à la rationalité algorithmique.

Le premier plan - épistémologique et sémiotique - fait entrevoir que les algorithmes de corrélations statistiques permettent de produire automatiquement une certaine « intelligence » au départ de masses gigantesques de données brutes, a-signifiantes, fonctionnant à la manière de signaux, quantifiables même privés de toute signification, plutôt qu'à la manière de signes (les données brutes ne font signe ni par la ressemblance, ni par lien physique qu'elles auraient avec ce dont elles façonnent l'ombre numérique, ni par convention). Le « savoir », non plus produit mais immanent aux banques de données et découvert par les algorithmes, est particulier notamment en ce qu’il se dispense de tout type d’épreuve. Inductif plutôt que déductif, il s’écarte radicalement des ambitions de la rationalité moderne reliant les phénomènes à leurs causes au profit d’une logique purement inductive, statistique. Il n’éprouve pas le monde sur lequel il porte, et ne se laisse pas non plus éprouver par lui : ce n’est qu’à même une « réalité numérique » et sans plus aucun contact avec le monde qu’elle est censée représenter que se façonne la réalité algorithmique. Ce faisant, elle ne donne aucune prise aux épreuves traditionnelles par lesquelles le savoir acquiert en temps normal sa robustesse et sa validité. Plutôt qu’en fonction de la validité de ses modèles « prédictifs », c’est à l’aune de son opérationnalité, de sa plasticité, de sa contribution au processus de fluidification de la vie économique et sociale (et donc au capitalisme), de sa non-robustesse donc, et de la mesure dans laquelle elle nous dispense, nous, êtres humains, de tout effort d’interprétation et d’évaluation des personnes et des événements du monde que s’évalue l’ « intelligence » des « big-data ». Telle est la rationalité algorithmique.

Le second plan - celui du pouvoir - permet de percevoir la manière dont ces glissements d'ordre sémiotique et épistémologique permettent une nouvelle manière de gouverner. Le « pouvoir » semble avoir changé de « cible » : non plus les corps vivants, individuels, subjectifs, actuels, mais un corps statistique, impersonnel, virtuel, moulage générique et changeant des « risques et opportunités » détectés en temps réel, distribués sous forme de modèles de comportements (les profils de consommateur, de fraudeur ou de potentiel délinquant, d'élève prometteur,..).

Perfectionnant les dispositifs de sécurité déjà théorisés par Michel Foucault, le gouvernement algorithmique est pré-emptif plutôt que prédictif : il ne s'agit pas tant d'identifier et de localiser la cause des phénomènes que d'empêcher ou d'assurer que certaines choses se produisent, en transformant anticipativement l'environnement informationnel et/ou physique de manière à ce que ces choses ne puissent pas (ne pas) se produire, et ce d'une manière indifférente à l'identité, aux intentions et motivations psychologiques des personnes potentiellement impliquées. Le gouvernement algorithmique s'intéresse à « ce que peuvent les corps », à leurs puissances, plutôt qu’à ce qu’ils font. C’est un gouvernement du virtuel, du potentiel, des puissances plutôt que de l’actualité. Il a pour cible non plus les sujets, mais ce qu’ils pourraient (ne pas) faire. Plus précisément, il s’agit dune nouvelle stratégie de gestion et de minimisation de l’incertitude associée à la puissance des sujets (leur capacité, ce pouvoir discrétionnaire de faire / ne pas faire tout ce dont ils sont capables). S’effectuant par reconfiguration des architectures et environnements informationnels et physiques dans lesquelles certains comportements deviennent impossibles / impensables plutôt que par incitation ou dissuasion, à la manière de la loi, c’est dans leur puissance (y compris la puissance de désobéir), que le gouvernement algorithmique atteint les individus, tout en évitant de produire aucune occasion de subjectivation: ce pouvoir éprouve les individus en réduisant leurs dimensions inactuelles (la dimension de la spontanéité, de la potentialité), sans mobiliser pour autant leurs capacités d'entendement et de volonté, à la différence de la loi notamment. Le gouvernement algorithmique se distingue notamment du gouvernement néolibéral  en ce que la docilité qu’il produit n’est pas l’effet d’injonctions de productivité et/ou de jouissance mais d’affectation - sur le mode du réflex plutôt que de la réflexion- des comportements individuels et collectifs.

Le troisième plan - celui du sujet - consiste donc en une ré-élaboration de la question de la subjectivation (à laquelle je substitue celle de l'individuation) dans la gouvernementalité algorithmique. Quel impact, sur les processus de subjectivation, d'un gouvernement algorithmique  en cela "objectif" et impartial qu'il ne connaît que des fragments infra-individuels (les données) et des structures supra-individuelles (les profils), des points de localisation dans des tables actuarielles, des réseaux de données, qui ne correspondent à aucune catégorisation socialement éprouvée ? Qu'en est-il, aussi, des processus de subjectivation dans une gouvernementalité dont l'opérationalité provient précisément, en partie du moins, du fait qu'elle dispense de la comparution, du témoignage, de l'aveu, et de toute forme de représentation biographique?

La gouvernementalité algorithmique signe l'aboutissement d'un processus de dissipation des conditions institutionnelles, spatiales, temporelles et langagières de la subjectivation au profit d'une régulation objective, opérationnelle, des conduites possibles.

Un gouvernement algorithmique qui façonne l’advenir, qui affecte sur le mode de l’alerte et du réflex, mais n’éprouve ni n’est éprouvé par aucun sujet a de quoi faire frémir ne fût-ce que dans la mesure où il ne se laisse plus provoquer par la liberté humaine, alors même que cette provocation constante est précisément ce qui occasionne du débat, de la délibération autour de la norme, et donc du projet collectif.

Une quatrième partie est donc consacrée aux ressources mobilisables pour une critique et une récalcitrance à la gouvernementalité algorithmique. J'y montre notamment que, plutôt que d'en revenir à des approches personologiques (dont l'individualisme possessif des régimes juridiques de protection des données est tout à fait exemplaire), qui seraient aussi inefficaces que mal fondées, il s’agira de montrer que l'enjeu fondamental - ce qu'il y aurait à sauver comme ressource antécédante à tout "sujet", comme "excès" du monde sur la réalité numérique - est "le commun", cet "entre", ce lieu de comparution dans lequel nous sommes adressés les uns aux autres. Le mode d'adresse qui nous relie est essentiellement langagier. Le langage est « forme » qui est tout à la fois ligne de fuite polysémique / polyphonique, principe de liaison (« faire tenir ensemble »), projection miroitante, motifs d'advenirs évoqués.

Cette « forme » (esthétique, en tant qu'elle est rapport affectif entre existants), le langage (si l'on accepte d'en libérer toutes les puissances poétiques), est à mille lieues de toute personologie. Il est  la forme impersonnelle par excellence, manifestation de l'excès du monde sur le réel. Nous parlons, justement, parce que nous sommes à flanc d'abîme, parce qu'il n'y a personne, et donc pour rejoindre un "commun" qui se dérobe sous nos mots, qui n'est jamais acquis, qui ne se présente, n'advient que comme fulgurance inespérée. C'est cette forme impersonnelle du commun qu'il convient de convoquer, dans un langage qui l'énonce, dans l'impersonnalité incarnée de la voix qui la dit - impersonnelle et chargée du « grain » du corps vivant et vibrant, consistance irritable de l'ex-istant.

Ni sujet, ni monde, le commun nécessite pour surgir des scènes spatio-temporelles hétérotopiques, interruptrices des flux capitalistes et numériques – la scène du procès judiciaire, la scène de théâtre, la scène de la littérature en sont des exemples – espaces de re-présentation existentiels, de surgissement de nouvelles possibilités politiques au lieu même de l’exposition des limites de la représentation et de la représentabilité. Maintenir l'hétérogénéité des modes de production de ce qui compte comme « réalité »" contre le déploiement ubiquitaire d'une rationalité algorithmique opérationnelle mais "neutralisante" de toute signification, telle est la condition nécessaire, et peut- être pas suffisante, à l'évitement de la violence. L'enjeu est d'importance: la régression communicationnaire du langage politique privé d'énonciation utile dans le contexte d'un mode de gouvernement par les nombres, substituant une gestion systématique à la prise en compte systémique des situations de vie n'offre à la vitalité politique que des voies d'action violentes.

Raconter pour suspendre. Nous en serions donc là : à l’aube d’un a(d)venir pré-nommé Shéhérazade.

Comment dès-lors faire usage des dispositifs de la société numérisée à des fins de ré-enchantement du commun ? En leur assignant prioritairement cette vocation là, en la protégeant par la loi, en la rendant effective par les usages. « Mettre l’homme dans la machine », comme y invitait Félix Guattari, ce serait peut-être cela, aujourd’hui.