"Nouveau millénaire, Défis libertaires"
Licence
"GNU / FDL"
attribution
pas de modification
pas d'usage commercial
Copyleft 2001 /2015

Moteur de recherche
interne avec Google
«La post-modernité des Big Data :
aboutissement ou neutralisation de la pensée critique ?»
Antoinette Rouvroy
May 2014

Origine : http://www.sfds.asso.fr/385-Les_enjeux_ethiques_du_Big_Data_opportunites_et_risques

Antoinette Rouvroy. "La post-modernité des Big Data : aboutissement ou neutralisation de la pensée critique ?" Société Française de Statistique / Statistique et enjeux publics / Les enjeux éthiques des Big Data: opportunités et risques. Paris, ENSAE, ParisTech. May. 2014.


Antoinette Rouvroy, chercheur au Centre de recherche Information, droit et société de la Faculté de droit de Namur, a introduit une réflexion sur le thème de la postmodernité des Big Data : aboutissement ou neutralisation de la pensée critique ? Elle aborde tout d’abord la question des données brutes. Celles-ci prolifèrent, en ce sens qu’elles ne sont pas produites de façon consciente, mais arrivent comme spontanément. Elles ont pour effet que chaque objet disparaît, étant éclaté en une multitude de données. Les données brutes sont traitées pour être désindexées et pour leur retirer toute référence contextuelle permettant de les relier à la réalité. Elles constituent un ensemble de fragments d’existences individuelles, d’événements neutralisés de toute référence subjective, donc de toute signification. La signification ne viendra qu’après le traitement. Avant celui-ci, elles ne forment qu’un signal, quantifiable justement parce qu’il est insignifiant et qu’il paraît ainsi non sensible aux individus. Les données ont un caractère trivial, insignifiant et souvent anonyme. L’engouement pour les Big Data provient de la nouvelle possibilité de modéliser le social sans intermédiation, et non à partir d’une position surplombante. Il donne une impression d’objectivité et d’immanence. On rejoint ainsi le rêve de la critique des années 60, où l’on recherchait à se défaire des situations surplombantes et à faire apparaître le vrai et le bien en dehors des conventions imposées par des autorités hiérarchiques. Le savoir surgit du réel, métabolisé par les ordinateurs.

En comparant les Big Data et les statistiques classiques, elle constate que les statistiques traditionnelles visaient à organiser la commensurabilité, en mettant des nombres sur les mots, grâce à des conventions ouvertes sur l’espace public et sujettes à discussion. Au contraire, le data mining fait l’hypothèse d’une incommensurabilité radicale. De même, alors que la statistique traditionnelle devait se donner les moyens de poser des hypothèses puis de chercher à produire la preuve de leur confirmation, dans les Big Data, les hypothèses n’ont pas besoin d’être introduites, puisqu’elles surgissent des données elles-mêmes en temps réel.

Avec les Big Data, on est dans un système d’immanence totale, qui ne fait pas la distinction entre la réalité et sa représentation : on a supprimé la couche d’intermédiation que constituait la catégorie statistique. Dans la statistique classique, la modélisation algorithmique sélectionne les données sur lesquelles on veut travailler, ouvrant la possibilité à des tiers de critiquer cette sélection pour défaut de représentativité. Avec les Big Data, on s’émancipe de tout rapport à la moyenne et à la normale, puisque l’on ne sélectionne pas les données a priori : on peut prendre en compte tous les points, y compris les plus aberrants. Cette émancipation de toute norme qui serait associée à l’idée de l’homme moyen libère de toute contrainte les objectifs de maximisation des profits et de neutralisation de l’incertitude. Elle promeut la radicalisation de la logique actuarielle, au détriment de la justice sociale. Toute distinction de traitement des individus qui serait économiquement justifiée devient automatiquement légitime.

Elle remarque enfin que, avec les Big Data, on entre dans la personnalisation à l’échelle industrielle (ce n’est plus un oxymore), avec une hyper individualisation de la statistique dans les domaines sécuritaire, sanitaire, administratif, commercial… On devient soi-même sa propre statistique, évolutive en temps réel. On ne fonctionne plus sur le mode du consentement, mais de l’adhésion. La contrainte fondée sur l’interdiction et l’obligation est remplacée par l’alerte qui provoque des réactions par réflexe, évite le prisme de la conscience individuelle et n'a pas recours à la persuasion qui s'appuierait sur la capacité d’entendement et sur la volonté. Ce qui pose la question de l’espace public : la construction des catégories à travers lesquelles nous percevons le monde et l’évaluation de nos contemporains sont sous‐traitées à la machine, ce qui conduit à une hypertrophie de la sphère privée. Quand on entre sur un espace public virtuel, on se trouve dans une bulle individuelle immunitaire, coupé de l’expérience commune. L’espace public présuppose un écart entre le monde et sa représentation : celle-ci doit être discutée, car chaque discipline a sa manière de construire le réel.

Il y a une polyphonie des modes de construction de la réalité. Celle-ci est écrasée par les Big Data.

Enfin, les Big Data ignorent les notions de commencement et de fin, or l’être humain a besoin de s’inscrire dans la durée.

Les questions ont permis de préciser le contenu de la notion de gouvernance algorithmique en donnant l’exemple d’alertes subliminales, faisant jouer le subconscient. Sur l’usage des Big Data, leur idéal pourrait être une utopie sans ennemis, où l’espace public deviendrait inutile.

***************

Les enjeux éthiques du Big Data : opportunités et risques

Le groupe « Statistique et Enjeux Publics » de la Société Française de Statistique a pris l'initiative d'organiser un débat sur le thème des enjeux éthiques du phénomène Big Data, en essayant de mettre en balance les opportunités et les risques qu'il peut occasionner.

Séminaire du 22 mai 2014