Origine http://www.cairn.info/revue-nouvelle-revue-de-psychosociologie-2009-2-page-11.htm
Gori Roland et Del Volgo Marie-José , « L'idéologie
de l'évaluation : un nouveau dispositif de servitude volontaire
? » , Nouvelle revue de psychosociologie, 2009/2 n° 8,
p. 11-26. DOI : 10.3917/nrp.008.0011
L’idéologie de l’évaluation : un nouveau
dispositif de servitude volontaire ?
Roland Gori Marie-José Del Volgo
« L’époque qui ose se dire la plus révoltée
n’offre à choisir que des conformismes. La vraie passion
du XXe siècle, c’est la servitude. »
Albert Camus, L’Homme révolté, p. 293.
« Nous sommes entrés dans un type de société
où le pouvoir de la loi est en train non pas de régresser,
mais de s’intégrer à un pouvoir beaucoup plus
général : celui de la norme. Ce qui implique un système
de surveillance, de contrôle tout autre. Une visibilité
incessante, une classification permanente des individus, une hiérarchisation,
une qualification, l’établissement des limites, une
mise en diagnostic. La norme devient le partage des individus. »
Michel Foucault, Dits et écrits, p. 74-79.
Dans les différents secteurs de la vie sociale, la multiplication
des règlements, directives 1, décrets ou règles
de bonnes pratiques provient de l’augmentation croissante
des normes et des exigences de standardisation.
1. Édictés, par exemple, par la Commission européenne.
Ces normes ne sont pas des produits à proprement parler
d’une loi juridico-politique, d’une autorité.
Il s’agit plutôt d’un dispositif de capture du
vivant qui modèle, fabrique et traque l’humain dans
les filets de la normalisation d’un réseau de «
tyranneaux » où s’exerce moins le pouvoir d’un
seul que la servitude de tous 2. Le conformisme auquel nous nous
plions tous les jours se déploie « dans les petites
affaires » et nous asservit de manière toujours plus
étendue et douce. Il nous fait perdre l’habitude de
nous diriger nous-mêmes et nous accoutume toujours davantage
à consentir, dans les marges d’un pouvoir véritablement
disciplinaire, à notre propre aliénation, à
notre propre mutilation 3. De Tocqueville montre que dans nos régimes
démocratiques le pouvoir d’assujettir possède
d’autres caractères que ceux que l’on trouve
traditionnellement dans les régimes autoritaires : «
Il serait plus étendu et plus doux, et il dégraderait
les hommes sans les tourmenter » (Tocqueville, 1981, p. 384).
Ce despotisme qui asservit nos contemporains concerne moins les
grandes affaires, les grandes choses, que les petits détails
de leur existence quotidienne.
C’est ce despotisme-là qu’il anticipait en dénonçant
son plus puissant, son plus dangereux et son plus secret ressort
: « La sujétion dans les petites affaires se manifeste
tous les jours et se fait sentir indistinctement à tous les
citoyens. Elle ne les désespère point ; mais elle
les contrarie sans cesse et elle les porte à renoncer à
l’usage de leur volonté. Elle éteint peu à
peu leur esprit et énerve leur âme » (Tocqueville,
1981, p. 387).
Disséminé dans de multiples dispositifs réticulaires
et capillaires, le nouveau Maître anonyme impose à
l’humain de se transformer en ressources pour faire fructifier
le capital en ingurgitant de nouvelles règles de conduite,
une nouvelle langue et de nouvelles valeurs. Souvent installées
au nom même de la liberté et de la transparence démocratique,
ces nouvelles servitudes (Zarka, 2007 ; Gori, 2009) exigent un consentement
volontaire des sujets. Les « experts » qui nous disent
aujourd’hui comment nous devons nous comporter dans notre
manière d’exister intimement et professionnellement,
nouvelle incarnation des dispositifs de la censure sociale, nouveaux
scribes de nos normes morales, participent à cet «
art libéral de gouverner » dont Michel Foucault a fait
la « généalogie » (Foucault, 2004a et
2004b).
L’ART DE GOUVERNER
Foucault nous a montré qu’à partir du XVIIIe
siècle, l’art de gouverner suppose que la Raison d’État
puisse s’imposer toujours davantage à la population
qu’elle gère dans le grain ténu de leur existence
par une référence toujours plus grande à l’idée
de liberté corrélée avec la mise en place de
dispositifs de sécurité.
2. Tyranneau : terme de La Boétie.
3. Cette manière de s’habituer à ce que Deleuze
appelait « les petits fascismes de la vie ordinaire »
conditionne, dans les temps de crise et de terreur, l’obéissance
à des actes cruels, barbares et inhumains.
Il ne s’agit plus d’imposer des croyances vraies ou
fausses auxquelles on demande aux individus de se soumettre, par
exemple faire croire aux sujets en la légitimité d’une
souveraineté royale de droit divin, mais toujours davantage
de connaître, de modifier et de modeler l’opinion de
la population à laquelle il est demandé une servitude
volontaire ou une soumission librement consentie (Joule et Beauvois,
1998).
Pour cela, il faut une police des conduites qui prélève,
rapporte, rassemble et analyse des données sur les forces
et les ressources d’une population, ce qu’on appelle
à l’époque la « statistique ». Avant
d’être une science ou une méthode, la statistique
apparaît étymologiquement comme une connaissance de
l’État et par l’État qui estime le potentiel
humain dont il dispose pour le gérer au mieux dans l’exercice
de son pouvoir. La statistique constitue un savoir que l’État
doit constituer à partir d’enquêtes ou de sondages
pour agir sur le comportement des individus conçus comme
sujets économiques, et sur leurs représentations sociales,
individuelles et collectives puisqu’ils sont aussi des sujets
politiques.
C’est donc l’activité de l’homme concret
dans le grain le plus fin de son existence qui va faire l’objet
d’un savoir pratique constitutif d’un guide politique
pour l’exercice du pouvoir et d’un guide moral, normatif,
pour la population à laquelle le pouvoir se doit de renvoyer
en retour les informations qui la concernent.
D’entrée de jeu on voit ici, d’une part, comment
les « sciences » sont convoquées pour construire
un savoir sur la population qui permette l’action politique
et l’hygiène des conduites, et d’autre part,
on peut souligner comment tous les médias et leurs réseaux
des plus archaïques aux plus sophistiqués se trouvent
invités à modeler l’« opinion »
que les gens peuvent se faire de la manière dont ils sont
gouvernés.
Nul mieux que Foucault n’a su analyser et conceptualiser
les ressorts de cette rationalité gouvernementale moderne
qui articule le nouveau régime de pouvoir mis en place au
XVIIIe siècle, le savoir d’une économie politique
qui l’exige et les dispositifs de sécurité et
de modelage de l’opinion qu’ils requièrent. Et
ce d’autant plus que ce réglage du pouvoir ne s’exerce
plus au nom de la sagesse ou de la vertu, mais toujours davantage
au moyen d’un calcul rationnel qui porte sur la société
civile.
Davantage, l’art de gouverner limitera ses interventions
dans le champ économique pour ne pas gêner l’autorégulation
naturelle du marché, davantage il devra se préoccuper
de la conduite rationnelle de sa population, et constituer la société
civile comme l’objet spécifique de ses actions. Cet
art de gouverner n’aura de cesse dans notre civilisation libérale
de promouvoir la figure anthropologique d’un Homo economicus
(Mauss, 1950) capable de gérer lui-même toutes ses
conduites au mieux de ses intérêts économiques.
Comme nous le soutenons, « la fièvre de l’évaluation
» (Gingras, 2008) qui s’empare aujourd’hui des
dispositifs de gouvernance de la recherche, de l’enseignement
supérieur et des établissements de santé, constitue
à la fois les symptômes et les opérateurs de
cette extension sociale de la norme dans les démocraties
néolibérales, leurs dispositifs de contraintes morales
et sociales. Nous entendons « dispositif » au sens fort
et précis de ce terme tel que Giorgio Agamben le définit
après Foucault : « J’appelle dispositif tout
ce qui a d’une manière ou d’une autre la capacité
de capturer, d’orienter, de déterminer, d’intercepter,
de modeler, de contrôler et d’assurer les gestes, les
conduites, les opinions et les discours des êtres vivants
» (Agamben, 2006). Le dispositif présente pour Foucault
une nature et une fonction essentiellement stratégiques qui
supposent des interventions dans les jeux de pouvoir par des types
de savoir dont ils sont à la fois l’occasion, la conséquence
et l’origine.
Comme l’écrit Giorgio Agamben : « Le dispositif
est donc, avant tout, une machine qui produit des subjectivations
et c’est par quoi il est aussi une machine de gouvernement
» (Agamben, 2006).
Ce dispositif de l’évaluation quantitative dont nous
voyons crûment les méfaits (Gori, 2009) dans les domaines
du soin, de la recherche et de l’éducation, tend à
transformer ces institutions en matrice essentielle de subjectivation
et d’idéaux normatifs. Ce guide moral des conduites
dans les domaines du soin, de la culture et de l’éducation
érige la figure anthropologique d’un homme réifié.
Cet homme nouveau, mutilé et réifié dans ses
activités d’enseignement et de recherche, sélectionne
ses partenaires en fonction de ce qu’ils lui rapportent, et
choisit ses concepts, ses thèmes de recherche et les citations
d’auteurs de ses articles en fonction des supports de publication
auxquels il les adresse et des membres des comités d’expertise
auxquels il les destine. Bref, l’expertise bibliométrique
quantitative qui tend aujourd’hui à s’imposer
dans l’évaluation des travaux de recherche fabrique
un chercheur nouveau qui se vend sur le marché des publications
comme on présente son profil sur le Net pour chercher des
partenaires amoureux ou préparer des entretiens d’embauche,
c’est-à-dire dans une totale autoréification
4 (Honneth, 2005). Un des symptômes les plus massifs de cette
pathologie sociale de « la société du mépris
» (Honneth, 2004) se manifeste avec insistance ces derniers
temps dans l’application systématique d’un principe
de classement des revues scientifiques, et en conséquence
des chercheurs et des équipes à partir d’un
impact factor dont la validité s’avère pourtant
des plus problématiques 5.
4. A. Honneth, La réification. Petit traité de théorie
critique (2005), Paris, Gallimard, 2007.
5. Cf. entre autres le dossier de La lettre des neurosciences,
« Quelle bibliométrie, pour quelle évaluation
? », n° 30, 2006, p. 7-17 ; Cliniques méditerranéennes,
Soigner, enseigner, évaluer, n° 71, 2005 ; Revue d’histoire
moderne et contemporaine,
Cette passion bibliométrique propre au nouveau paradigme
idéologique de l’expertise peut rendre invisibles des
secteurs entiers de la connaissance, annihiler par des pratiques
éditoriales « mafieuses » ou « claniques
» le travail des chercheurs ou encore les conduire à
devoir adopter des stratégies de soumission à de puissants
« réseaux intellectuels » assurant l’hégémonie
de la culture et du « marché » scientifiques
anglo-américains6. N’oublions pas que l’évaluation
de la production scientifique des chercheurs et des laboratoires
détermine à l’Université l’habilitation
des diplômes, l’accréditation des équipes
et la carrière comme la promotion des enseignants-chercheurs.
Auparavant cette évaluation se fondait en toute légitimité
sur l’évaluation des travaux de recherche par les pairs
et pouvait donner lieu à de larges débats tant en
ce qui concerne la qualité de la recherche que les supports
de publication (revues, livres, etc.). Cette époque «
préhistorique » est terminée. À l’époque
de l’homme numérique et à l’heure de la
Google-civilisation (Cassin, 2009) on tend à lui préférer
aujourd’hui l’évaluation bibliométrique
qui évite aux évaluateurs d’avoir à lire
les travaux qu’ils expertisent en ne fondant leur jugement
que, par exemple pour l’impact factor, sur le niveau de citation
des revues pour l’essentiel nord-américaines dans lesquelles
ils sont publiés.
Passons sur les biais méthodologiques de cet impact factor,
passons encore sur la normalisation des recherches et des chercheurs
qu’il produit en les conformant aux intérêts
scientifico-économiques américains, passons encore
sur le quasi-monopole qu’il confère aux organismes
scientifiques et éditoriaux américains sur le «
marché » scientifique, passons encore sur le pouvoir
de domination idéologique, linguistique et culturel qu’il
apporte au « rêve américain », il est des
disciplines scientifiques où sa commodité l’impose
sans compromettre le devenir des recherches et des chercheurs. Il
en est d’autres où ce système d’évaluation
constitue une normalisation idéologique à l’intérieur
même de la discipline en favorisant certains courants de pensée
(solubles dans le modèle anglo-saxon) et en en stigmatisant
d’autres (les plus européens) 7. La pathologie que
ce dispositif produit révèle sa philosophie même
: publish or perish. Il n’y a d’existence que visible
et pour obtenir la visibilité certains individus et certains
groupes sont prêts à tout. La valeur d’une recherche
ne repose plus seulement sur sa validité épistémologique,
mais se déduit de sa visibilité sociale établie
par le marché des publications sur lequel elle tente sa cotation.
6. O. Milhaud, Les géographes parlent-ils tous du même
monde ? Les réseaux intellectuels : hégémonie
anglo-américaine et vision du monde, 2005.
http :// fig-st-die.education.fr
7. Pour exemple, la psychanalyse n’ayant jamais eu droit
de cité en psychologie aux USA, normaliser les publications
européennes sur les critères des revues nord-américaines
de la discipline, c’est prononcer sa quasi-exclusion du champ
universitaire européen de psychologie clinique.
Non sans produire quelques effets pervers, comme le révèle
récemment le cas du docteur Reuben, véritable «
“Dr Madoff” de la pharmacie 8» qui a publié
des travaux « bidon » préconisant l’usage
de certains médicaments censés accélérer
le rétablissement postopératoire des patients. Les
revues scientifiques n’ont rien vu de cette fraude dès
lors que les articles étalaient des séries de statistiques
sans fondement mais dont la structure se révélait
« conforme » aux canons traditionnels du genre en matière
de publications. Ces résultats frauduleux du docteur Reuben
ont tout autant assuré le succès de sa carrière
que les bénéfices colossaux des laboratoires commercialisant
les médicaments prétendument expertisés. Cet
exemple n’est qu’un cas particulier de la fraude scientifique
que favorise un système d’évaluation dans lequel
une reconnaissance scientifique ne se construit que sur des critères
formels de productivité (Broad, 1982). La philosophie de
l’université-entreprise pourrait devenir une des causes
principales du déclin de la moralité et de la rigueur
des chercheurs. On peut se demander avec Lindsay Waters (Waters,
2008) si l’arnaque de Sokal ne révèle pas davantage
les faiblesses des dispositifs d’expertise des revues et celles
des modalités actuelles de l’évaluation de la
recherche que des « impostures intellectuelles » des
chercheurs postmodernes des sciences sociales et des humanités
que les auteurs cherchaient à « épingler ».
La substance éthique de ce dispositif qui décompose
les actes de recherche en séquences techniques commensurables,
contrôlables et traçables, provient de la rationalisation
technique des conduites propre à la civilisation capitaliste
analysée par Max Weber, montrant d’une part que «
nous ne cessons de constater — y compris pour des sphères
de conduite de vie qui évoluent (apparemment) indépendamment
les unes des autres — que c’est en Occident, et seulement
en Occident, que se sont développés certains modes
de rationalisation » (Weber, 2002, p. 67), et d’autre
part que « liée à la rationalisation de la technique
et à celle du droit, l’émergence du rationalisme
économique fut en effet également tributaire de la
capacité et de la disposition des hommes à adopter
des formes spécifiques de conduite de vie pratique et rationnelle
» (Weber, 2002, p. 63). L’évaluation est aussi
de nos jours une manière sociale d’exister pour les
individus et de se penser dans le monde, en rapport avec autrui.
L’évaluation se révèle comme un dispositif
de construction du sujet éthique 9.
Or c’est le concept d’information qui recompose aujourd’hui
les sensibilités sociales, morales et épistémologiques
de la vieille notion de « valeur » en matière
de santé, d’éducation et de recherche. Cette
recomposition opère véritablement une révolution
idéologique dans les pratiques de l’évaluation
et transforme insidieusement la signification anthropologique de
la notion de valeur : n’a de valeur que ce qui peut se réduire
à l’information. Et nous pourrions ajouter : une information
qui peut se vendre et circuler comme une marchandise, à un
prix du marché.
8. Le Monde du 21 mars 2009.
9. Au sens de Michel Foucault.
L’évaluation des travaux de recherche, des enseignements
et des pratiques de santé n’est pas une pratique nouvelle,
ni une exigence illégitime. C’est la forme et les modalités
actuelles de cette évaluation, saisissant non seulement les
autorités de tutelle et les bailleurs de fonds mais encore
les directeurs de laboratoire de recherche et les universitaires
eux-mêmes, qui viennent témoigner d’un changement
fondamental dans les significations anthropologiques de la «
valeur » des soins, des recherches et des enseignements. Désormais,
ce qui compte c’est ce qui se compte et se déduit d’une
procédure qui repose moins sur l’exactitude et la valeur
prédictive de ce qu’elle produit (les bons indicateurs)
que sur l’assujettissement social invitant les individus et
les groupes à en intérioriser les normes. Par exemple,
ce qui compte c’est moins les conséquences épistémologiques
et pratiques d’une recherche que son évaluation dans
un dispositif managérial de benchmarking, établissant
son niveau de performance en fonction de la « marque »
de la revue dans laquelle ces travaux de recherche sont publiés.
Nous y reviendrons mais cette référence à l’«
objectivité » participe davantage d’une rhétorique
de propagande qu’elle ne procède d’une rigueur
méthodologique. Cette authentique révolution idéologique
dont a bénéficié la notion d’évaluation
procède moins d’une nécessité intérieure
à la communauté scientifique d’améliorer
ses activités que d’un art néolibéral
de gouverner les individus, de manager leurs activités, de
justifier les décisions politiques au nom d’une organisation
rationnelle et technique, d’inoculer une novlangue (Gori et
Del Volgo, 2008) conduisant les individus à s’autogouverner
avec les normes de ce New Public Management qui s’est imposé
dans les services publics au cours des années 1980. Un des
credo de cette nouvelle manière de gouverner la recherche,
l’enseignement et le soin reposait sur l’idée
qu’il fallait accroître la compétition des pairs
d’une discipline ou d’une activité pour les transformer
en concurrents rentables et performants dont l’obsession fondamentale
devait être de comparer leurs « produits » à
ceux des autres opérateurs du champ. Cette évaluation
par benchmarking provient directement des manuels de management
de Rank Xerox et de Toyota. Ce dispositif de gouvernance vient briser
la hiérarchie de la « cage de fer » (Weber, 2002)
des unités de production industrielle calquées sur
le modèle militaire pour y substituer d’autres instances
de contrôle social et de gestion dans lesquelles les principes
de compétitivité féroce, de concurrence impitoyable,
de flexibilité et de réactivité incessantes,
de profit à court terme et de dépassement permanent,
règnent en maîtres. C’est la nouvelle culture
du capitalisme financier (Senneth, 2006).
Le succès actuel des palmarès des hôpitaux,
des universités, des revues scientifiques, procède
de cette philosophie du benchmarking (Bruno, 2008) qui aboutit par
exemple au fameux classement de Shanghai des Universités
ou encore à la pitoyable tentative de l’AERES 10 de
classer les revues universitaires du champ des sciences humaines
et sociales. Peu importe que ces palmarès baroques soient
établis sur « de faux indicateurs » dont on ferait
« mauvais usage » (Gingras, 2008), peu importe que les
indicateurs bibliométriques se révèlent peu
fiables au niveau individuel, peu importe que la diversité
des champs disciplinaires interdise de transférer sans précautions
la manière de fixer un indicateur de performance d’un
secteur de la connaissance à un autre, l’essentiel
est d’installer au coeur des groupes et des individus la matrice
normative d’un certain style de pensée, d’une
certaine manière de concevoir les pratiques professionnelles.
L’évaluation actuelle constitue la fabrique permanente
d’un pouvoir politique qui nous invite à consentir
librement à ces nouvelles servitudes au nom d’une «
évaluation objective » des hommes et de leurs productions.
Cette conception se trouve au coeur aussi bien de l’expertise
actuelle des universitaires et de leurs laboratoires de recherche
que des réformes sur les instances de gouvernance des établissements
de santé (Gori et Del Volgo, 2009). Nonobstant les réserves
et les analyses que mobilisent les dispositifs actuels de l’évaluation
de l’enseignement, de la recherche et du soin, les dispositifs
s’installent au nom de cette administration technique et gestionnaire
prétendument objective. C’est en ce sens que nous dirons
une fois encore et encore que l’évaluation actuelle
n’est pas une pratique scientifique mais se révèle
davantage comme une idéologie permettant l’exercice
d’un pouvoir au nom d’une prétendue objectivité
dont Adorno a révélé le caractère réifiant:
« L’objectivité dans les relations entre les
hommes, qui fait place nette de toute enjolivure idéologique,
est déjà devenue elle-même une idéologie
qui nous invite à traiter les hommes comme des choses »
(Adorno, 1951).
BREF RAPPEL SUR LA BIBLIOMÉTRIE
L’évaluation de la production scientifique des universitaires
et des laboratoires détermine à l’Université
l’habilitation des diplômes, l’accréditation
des équipes et la carrière comme la promotion des
enseignants- chercheurs. La production scientifique se mesure par
la publication des résultats scientifiques. Les méthodes
d’évaluation des publications utilisent habituellement
les critères d’évaluation des revues scientifiques,
c’est-à-dire leur « Audimat », leur «
popularité » dans une communauté de recherches.
La bibliométrie scientifique se définit comme l’application
des mathématiques et des méthodes statistiques aux
publications scientifiques.
10. AERES: Agence d’évaluation de la recherche et
de l’enseignement supérieur en France.
La bibliométrie scientifique permettrait d’évaluer
par exemple la qualité d’une revue par son impact sur
l’« opinion » des chercheurs qui composent cette
communauté.
Le facteur d’impact est l’indicateur bibliométrique
le plus connu. Le terme et la fonction ont été inventés
par Eugène Garfield, consultant en information et conseiller
de documentation pour une entreprise pharmaceutique avant la mise
en oeuvre de son projet de bases de données scientifiques.
C’est en 1958 qu’Eugène Garfield crée
l’ISI, Institute for Scientific Information, avec le soutien
de l’administration américaine de la recherche et celui
de sociologues comme Robert King Merton.
L’hégémonie de l’anglais a été
dès le début une volonté clairement affirmée
(Day, 1979). C’était non seulement le fameux «
publier ou périr », mais aussi publier en anglais dans
le monde entier ou devenir « invisible », donc périr.
Le premier volume de Science Citation Index voit le jour en 1963.
Pour les sciences sociales, le Social Science Citation Index paraît
en 1972 et le Citation Index en 1975 pour les arts et les humanités.
Le très fameux « facteur d’impact » correspond
au rapport entre le nombre de citations obtenues par une revue pendant
deux ans et le nombre d’articles publiés par ce périodique
pendant la même période. Il mesure donc la fréquence
moyenne avec laquelle l’ensemble des articles de ce journal
est cité pendant une durée définie. C’est
un indice de mesure rétrospective de l’impact d’une
revue à très court terme. Cet indicateur, tout comme
les autres indicateurs d’ailleurs et en tant que mesures,
caractérise le contenant, la structure formelle, l’information
et non le contenu, la valeur. Les travaux négationnistes
du professeur Faurisson sur les chambres à gaz sont peut-être
nuls du point de vue de l’historien mais ils apportent une
«information » dans le milieu des historiens et accroissent
son impact factor!
Tout en étant de plus en plus adopté dans tous les
domaines de la connaissance, le facteur d’impact est aujourd’hui
extrêmement critiqué 11.
Voici quelques-unes seulement de ces critiques, tant leur exhaustivité
serait fastidieuse. Le nombre de citations ne mesure pas réellement
la qualité de la publication. La fenêtre temporelle
est trop courte ; les articles classiques sont cités fréquemment
même après plusieurs décennies. La nature des
résultats dans les différents domaines scientifiques
implique une quantité de publications différentes
à un rythme différent et cela a un effet direct sur
le facteur d’impact ; par exemple, les revues médicales
ont des facteurs d’impact bien supérieurs aux revues
de mathématiques.
Relevant la fréquence de citations par article et négligeant
le prestige de la revue, le facteur d’impact est une mesure
de popularité, non de prestige.
11. On connaissait la Démonstration expérimentale
d’une organisation tomatotopique chez la Cantatrice, de Georges
Perec
(http ://www.pianotype.net/doc/ tomatotopic.htm),
nous voici maintenant avec « le syndrome de Shanghai »
de Pierre Assouline, L’Histoire, mars 2009. Mais gageons que
cela ne change rien au fonctionnement bureaucratique de nos nouveaux
scribes.
Le facteur d’impact peut être artificiellement augmenté
par une politique éditoriale adéquate, cela conduit
les chercheurs à multiplier à l’extrême
le nombre des auteurs : on dénombre jusqu’à
27 auteurs pour un article de 12 paragraphes (Day, 1979) ! Et les
citations de complaisance font que certains articles présentent
des bibliographies extrêmement volumineuses pour citer les
collègues amis ou les revues où l’on publie.
Le facteur d’impact est lié à la revue et non
à l’article, un article publié dans une revue
à fort impact peut avoir un nombre de citations très
bas, voire nul.
Mais si le facteur d’impact a été créé
à l’origine comme mesure de la réputation d’une
revue, il est de plus en plus employé comme mesure de la
productivité individualisée des chercheurs. Si bien
que pour certains, comme Étienne Hirsch, président
de la Commission des « Neurosciences et organe des sens »
à l’INSERM en 2006, « il semble important de
ne pas utiliser l’IF lors de l’évaluation mais
plutôt [pour] le choix du support de publication de nos travaux
car il est gage d’un nombre élevé de lecteurs
potentiels » (Hirsch, 2006, p. 14). C’est la «
stratégie » agressive d’une prise de parts sur
le marché… qui se joue.
Dans la recherche d’indices fiables d’évaluation
des publications elles-mêmes, de nouveaux indices de citations
voient le jour en particulier dans le but d’évaluer
le chercheur lui-même. Ainsi en ayant accès au nombre
de citations de chaque publication dudit scientifique via ISI Web
of Science (Buée et coll., 2006) (accès via BiblioVie
et BiblioInserm), les indices h et m peuvent être attribués
individuellement à chaque scientifique.
Ces indices sont simples à calculer. Cet indice individuel
de Hirsch (indice h), que l’on indiquera sans doute très
prochainement sur sa carte de visite, établit une relation
entre un nombre total de publications et leurs citations. C’est
la fameuse simplicité des nombres, la magie des nombres.
Le How many est plus compréhensible que le Who’s who.
C’est en novembre 2005 que Jorge E. Hirsch 12 a publié
dans Proceedings of the National Academy of Sciences of the United
States of America un article intitulé « An index to
quantify an individual’s scientific research output »
dans lequel il propose le concept d’« indice h»
ainsi que des algorithmes de pondération. Pour calculer l’indice
m, il suffit de diviser h par le nombre d’années depuis
la première publication. De ce savant calcul, il ressort,
oh surprise, qu’en fait cet indice est tout simplement d’autant
plus élevé que l’on a plus publié, donc
que l’on publie depuis plus longtemps. Cela revient quasiment
à faire la différence entre les jeunes et les vieux
chercheurs !
Si, globalement, l’usage des indicateurs bibliométriques
n’est plus véritablement contesté dans le domaine
des sciences dures, les choses sont plus compliquées en sciences
humaines et sociales. En 2002, Johan Heilbron (Heilbron, 2002) fait
état d’un rapport ayant fait scandale aux Pays-Bas
et dont les auteurs rattachés à un centre de scientométrie
(Leyde) avaient simplement éliminé les livres des
listes de publication et avaient par conséquent déclassé
certains laboratoires au profit d’autres.
12. www.pnas.org/cgi/doi/10.1073/pnas.0507655102
Or un indice mesurant la productivité d’un chercheur
et d’une équipe doit lui-même être évalué
en fonction du dispositif qui le produit pour déterminer
sa fiabilité et sa validité.
De manière générale, toute évaluation
doit obéir aux trois qualités suivantes : validité,
commodité et robustesse13. La validité reste la notion
la plus délicate à préciser alors même
qu’elle devrait être la qualité première
de toute évaluation. Une évaluation est d’autant
plus valide qu’elle traduit bien ce qu’il importe d’analyser,
en l’occurrence que l’indicateur bibliométrique
évalue bien la qualité d’une publication. On
se situe très loin de cet objectif en la matière.
Dans le champ de l’évaluation, Jean-Michel Chabot observe
qu’il « est préférable de renoncer à
une évaluation dont la validité serait trop faible
ou même incertaine », et il considère que cette
démarche se justifie d’autant plus que « la commodité
[de l’évaluation] serait elle-même médiocre
». Or dans le domaine qui nous intéresse, celui de
la bibliométrie, la commodité, autrement dit la faisabilité
de l’évaluation et son acceptabilité (du point
de vue des experts), est des plus aisées.
Johan Heilbron, encore, observe que « dans les années
à venir, il sera plus simple et bien moins coûteux
de calculer le facteur d’impact d’une revue ou de construire
un classement des laboratoires en fonction du nombre de publications
et de citations » (Heilbron, 2002, p. 79).
On voit que, ce faisant, on passe, comme le souligne Jean-Michel
Chabot, d’une évaluation critériée à
une évaluation normée, on « établit un
classement, (une hiérarchie) sans se soucier de la valeur
intrinsèque de chacun des objets évalués ».
L’important est de produire des normes.
Ces dérives portent atteinte aussi bien à l’évaluation
en elle-même qu’à l’intérêt
de toute bibliométrie dont on finit par ne repérer
que ses défauts sans que pour autant son dispositif disparaisse
de la scène sociale.
Pour Nicole Haeffner-Cavaillon, responsable de la cellule bibliométrie
à l’INSERM, « il est important d’indiquer
que la bibliométrie ne remplace pas l’avis des pairs
mais contribue à enrichir le débat et apporte une
vision “objective” sur la visibilité des recherches
» (Haeffner-Cavaillon, 2006, p. 12).
Aujourd’hui force est de constater que nous allons dans le
sens d’un appauvrissement, même si les scientifiques
tiennent à déclarer le sérieux et l’indépendance
de leurs évaluations vis-à-vis des contraintes gestionnaires
et bureaucratiques. L’AERES, installée dans ses fonctions
le 21 mars 2007, a un an après, en juillet 2008, établi
des listes des revues actives dans tous les domaines de la recherche,
dont certains se situent encore fort loin de ces préoccupations
productivistes, mercantiles et gestionnaires de la recherche (l’histoire,
la littérature, etc.).
13. Cf. J.-M. Chabot, « Évaluation : vademecum »,
Communication personnelle, 2007. Jean-Michel Chabot est professeur
de santé publique et conseiller médical auprès
du directeur de la Haute Autorité de santé (HAS).
Ce n’est que dans le rapport de forces politique qui s’en
est suivi que ce dispositif d’assujettissement des chercheurs
a dû revoir ses prétentions à la baisse 14.
C’est essentiellement dans le domaine des humanités
et des sciences sociales que cette fièvre de l’évaluation
fait des ravages, mais à notre avis, il ne s’agit pas
que d’un problème « technique » révélant
« le mauvais usage de faux indicateurs » (Gingras, 2008).
Bien sûr, le principe de précaution dont notre biopolitique
des populations fait si pertinemment usage mériterait qu’il
soit également appliqué à cette fougue bibliométrique
conduisant au nom de l’objectivité à des décisions
politiques et à des normes communautaires autant qu’individuelles
aussi folles qu’arrogantes.
Ces utilisations « anarchiques » (Gingras, 2008), aux
dires mêmes des experts en bibliométrie, devraient
sérieusement être contrôlées et régulées
pour ne pas détruire les « humanités »,
compromettre les recherches et démobiliser les chercheurs.
Mais au-delà des recommandations « techniques »
que le moindre bon sens et la moindre rigueur exigeraient, il nous
faut bien admettre que c’est la place même que les humanités
et les sciences sociales peuvent trouver dans notre culture qui
se trouve au coeur de la question. L’usage anarchique de la
bibliométrie compromet ces recherches, les déporte
à la périphérie de nos formations de l’esprit
critique en tant que ces disciplines universitaires favorisent une
théorie sociale et une interrogation philosophique qui heurtent
frontalement la civilisation cognitivo-instrumentale d’un
« homme neuro-économique » (Gori et Del Volgo,
2008).
Il s’agit donc par le dispositif actuel de l’évaluation
de réduire la place des sciences humaines et sociales dans
la culture et de recomposer leur périmètre en fonction
des exigences politiques des nouvelles technologies de gouvernement.
Cela supposait une mutation dans la manière d’évaluer
et une transformation des significations anthropologiques de la
notion de valeur. Afin de réduire les « humanités
» au « supplément d’âme » dont
les sciences sont « friandes » et afin de pouvoir les
convertir aux vertus et aux idéaux des nouvelles théories
et pratiques du management des individus, des populations et de
leurs opinions, il fallait bien une « révolution idéologique
» dans la définition de l’évaluation.
BRÈVE ARCHÉOLOGIE DE LA NOTION D’ÉVALUATION
L’émergence des dispositifs actuels d’évaluation
s’est produite au tournant des années 1980 jusqu’à
devoir aujourd’hui les imposer comme incontournables et irréversibles.
Auparavant et comme le rappelle Jean- Yves Mérindol (2008),
les modes d’évaluation des universitaires et de leurs
activités s’étaient très vite stabilisés,
dès le XIXe siècle, autour du « principe de
jugement par les pairs ».
14. Cf. les numéros 8 et 9 du Nouvel Âne de 2008.
Seules les procédures de contrôle et d’évaluation
des activités des universitaires faisaient l’objet
de débats et de modifications, mais « jusqu’au
début des années 1980, l’évaluation de
l’activité des enseignants du supérieur s’est
presque exclusivement effectuée lors des procédures
de recrutement ou de promotion, et dans un cadre individuel. Elle
ne s’est donc pas doublée d’une évaluation
personnelle plus régulière. Et cette évaluation
individuelle n’a pas été complétée
par des évaluations plus collectives (laboratoires de recherche,
départements de formation, faculté ou composante interne,
université) de façon systématique » (Mérindol,
2008, p. 9). C’est seulement à partir des années
1980 que sous l’impulsion de Laurent Schwartz et de Pierre
Bourdieu notamment, l’évaluation est devenue une exigence
et s’est présentée opportunément pour
certains de ses « zélotes » comme une contre-proposition
au projet éphémère du gouvernement socialiste
de fusionner les corps des maîtres de conférences et
des professeurs dans un « corps unique ». La création
du Conseil national de l’évaluation en 1985, prônant
« une culture de responsabilité » des universitaires,
apparaissait comme la contre-partie indispensable de l’autonomie
des universités et de leurs composantes. Si Pierre Bourdieu
s’est éloigné rapidement de cette philosophie
de la nécessaire concurrence des établissements universitaires
prônés par les instances d’évaluation,
il n’empêche que les principes qui s’en inspiraient
s’imposaient toujours davantage dans le pilotage des dotations
de crédits aux universités. Les indicateurs d’évaluation
comme instrument de gouvernement des universités par les
pouvoirs publics se sont imposés de plus en plus sous une
forme quantitative et au nom d’une transparence pour devoir
répondre au besoin de se « faire-valoir » des
établissements universitaires jugés sur leurs performances.
Alors même qu’au milieu des années 1990 de nombreuses
voix exprimaient clairement la réticence à ramener
l’évaluation au niveau d’indicateurs quantitatifs
et bibliométriques, ce dispositif s’imposait toujours
davantage dans le grain le plus fin de la vie universitaire. Ce
ne furent plus seulement les établissements qui furent évalués
pour recevoir une dotation globale des tutelles au moment où
ils négociaient le périmètre de leur contrat
avec l’État, mais aussi les laboratoires et bientôt
les individus.
Le pli était pris et à la commodité technique
se trouvait rapidement agglutinée l’énorme et
formidable possibilité de normalisation des professionnels
révélée par ce dispositif de l’évaluation
quantitative et individualisée de la production scientifique
et des activités.
L’évaluation réalise en douceur le contrôle
social des universitaires dont avait pu rêver Napoléon
Ier et ses « inspecteurs d’université »
mis à mal par les réformes républicaines et
libérales des gouvernements qui lui succédèrent
et qui tous ont reconnu « l’indépendance »
des professeurs d’Université récemment réaffirmée
encore par le Conseil constitutionnel.
D’où l’extraordinaire révélation
de cette nouvelle pratique d’évaluer qui, pour «
imposture » qu’elle puisse être parfois, accomplit
une réelle prescription sociale et une authentique initiation
culturelle. Pour qu’une telle servitude volontaire se poursuive,
cela supposait simplement que ’indicateur d’activité
se transforme en norme de performance conduisant les universitaires
et les laboratoires à se gouverner au mieux de leurs intérêts
en s’ajustant aux courants porteurs et portés par la
communauté universitaire internationale, c’est-à-dire
étatsunienne. L’évaluation s’est transformée
alors en dispositif de servitude dont les experts ne tardèrent
pas à devenir les véritables « scribes ».
L’évaluation avait changé de sens, c’était
le même mot mais ce n’était plus le même
concept.
Et dans ce mouvement, les normes d’activité de recherche
et de formation conduisent à l’insertion des individus
et des groupes dans des réseaux intellectuels et assurent
l’hégémonie anglo-américaine du marché
de l’édition, de sa vision du monde et de son anthropologie
(Milhaud, 2005). Les recherches et les courants épistémologiques
se trouvent alors recomposés ou au moins réajustés
en fonction de ces exigences et assurent dans certains champs de
la connaissance une « domination » véritablement
« impérialiste » (Tiberghien et Beauvois, 2008).
L’évaluation change alors de signification épistémologique
et politique, elle participe maintenant d’une forme particulière
de machine de gouvernement politique et d’une matrice subjective
et sociale de civilisation spécifique. Tout était
prêt pour transformer l’Université en «
entreprise » convertie aux valeurs néolibérales
et au benchmarking soi-disant porteur de compétitivité.
Le Conseil européen de Lisbonne en mars 2000 n’avait
plus qu’à acter cette conversion de l’Université
et des universitaires aux valeurs du capitalisme financier comme
à ses nouvelles servitudes (Bruno, 2008). L’indicateur
quantitatif de l’évaluation avait changé sa
signification anthropologique : de critère approximatif permettant
une évaluation transparente des travaux, facilitant la concertation
et le jugement des pairs, il était devenu la pièce
d’un dispositif de management et de servitude qui faisait
entrer l’Université et les universitaires dans la rationalité
néolibérale en installant au coeur des individus et
de leurs communautés « la nouvelle raison du monde
» (Dardot et Laval, 2009).
L’évaluation promue au milieu des années 1980
comme le garant indispensable de l’autonomie des universités
et de l’indépendance des universitaires pour leur liberté
de penser et de juger dans un esprit critique la valeur de leurs
travaux respectifs s’est transformée en pièce
maîtresse d’un dispositif de servitude qui les invite
à s’en dispenser et à se résigner dans
l’apathie à en déléguer le pouvoir aux
tyranneaux de cette nouvelle civilisation de la norme. Face à
cette apathie sur l’humus de laquelle prospèrent les
servitudes volontaires, on ne peut que saluer le courage des «
directeurs des meilleures revues britanniques d’histoire et
de philosophie des sciences [qui] demandent depuis juillet 2008
à ce qu’elles ne figurent plus sur les listes de l’European
Science Foundation» (Büttgen et Cassin, 2009), ils ont
fait preuve de liberté. Cette liberté à laquelle
l’Université fut longtemps et jalousement attachée
et qui constitua pour nombre de ses membres la raison de leur engagement.
Sans trop d’illusion et de nostalgie tant il est vrai comme
l’écrit René Char qu’« à
tous les repas pris en commun nous invitons la liberté à
s’asseoir. La place demeure vide mais le couvert reste mis.
»
BIBLIOGRAPHIE
ADORNO, Th.W. 1951. Minima Moralia. Réflexions sur la vie
mutilée, Paris, Payot, 2003.
AGAMBEN, G. 2006. Qu’est-ce qu’un dispositif ? Paris,
Payot & Rivages, 2007.
BROAD, W. ; WADE, N. 1982. La souris truquée, Paris, Le
Seuil, 1987.
BRUNO, I. 2008. « La recherche scientifique au crible du
Benchmarking. Petite histoire d’une technologie de gouvernement
», Revue d’histoire moderne et contemporaine, 55-4bis,
p. 28-45.
BUÉE, L.; BROCARD, J. ; CASTETS, F. ; GALLI, Th. 2006. «
La bibliométrie est une science ? » La Lettre des neurosciences,
n° 30, p. 7.
BÜTTGEN, Ph. ; CASSIN, B. 2009. « “J’en
ai 22 sur 30 au vert”. Six thèses sur l’évaluation
», Cités, n° 37, p. 27-42.
CAMUS, A. 1951. L’Homme révolté, Paris, Gallimard.
CASSIN, B. 2007. Google-moi, Paris, Albin Michel.
DARDOT, P. ; LAVAL, Ch. 2009. La nouvelle raison du monde Essai
sur la société néolibérale, Paris, La
Découverte.
DAY, R.A. 1979. How to Write and Publish a Scientific Paper, Philadelphia,
ISI PRESS, 1983.
FOUCAULT, M. 1994. « L’extension sociale de la norme
», Dits et écrits, t. III, Paris, Gallimard, p. 74-79.
FOUCAULT, M. 2004a. Sécurité, territoire, population.
Cours au Collège de France.1977-1978, Paris, Gallimard.
FOUCAULT, M. 2004b. Naissance de la biopolitique. Cours au Collège
de France. 1978-1979, Paris, Gallimard.
GINGRAS, Y. 2008. « Du mauvais usage de faux indicateurs
», Revue d’histoire moderne et contemporaine, n°
55-4bis, p. 67-79.
GORI, R. 2009. « Les scribes de nos nouvelles servitudes
», Cités, n° 37, p. 65-76.
GORI, R. ; DEL VOLGO, M.-J. 2008. Exilés de l’intime.
La médecine et la psychiatrie au service du nouvel ordre
économique, Paris, Denoël.
GORI, R. ; DEL VOLGO, M.J. 2009. « De la société
de la norme à une conception managériale du soin »,
Connexions, n° 91, p. 123-147.
HAEFFNER-CAVAILLON, N. 2006. « Les indicateurs bibliométriques
à l’INSERM», La Lettre des neurosciences, n°
30, p. 12.
HEILBRON, J. 2002. « La bibliométrie, genèse
et usages », Actes de la recherche en sciences sociales, n°
2 (141), p. 78-79.
HIRSCH, E. 2006. « Bibliométrie : l’avis des
présidents de section », La Lettre des neurosciences,
n° 30, p. 14.
HONNETH, A. 2004. La société du mépris. Vers
une nouvelle théorie critique, Paris, La Découverte,
2006.
HONNETH, A. 2005. La réification. Petit traité de
théorie critique, Paris, Gallimard, 2007.
JOULE, R.-V. ; BEAUVOIS, J.-L. 1998. La soumission librement consentie,
Paris, PUF.
LA BOÉTIE. 2002. Discours de la servitude volontaire, Paris,
Vrin.
MAUSS, M. 1950. Sociologie et anthropologie, Paris, PUF.
MÉRINDOL, J.-Y. 2008. « Comment l’évaluation
est arrivée dans les universités françaises
», Revue d’histoire moderne et contemporaine, n°
55-4bis, p. 7-27.
MILHAUD, O. 2005. « Les géographes parlent-ils tous
du même monde ? Les réseaux intellectuels : hégémonie
anglo-américaine et vision du monde », http://fig-st-die.education.fr/actes/actes_2005/milhaud/article.htm
SENNETH, R. 2006. La culture du nouveau capitalisme, Paris, Albin
Michel.
TIBERGHIEN, G. ; BEAUVOIS, J.-L. 2008. « Domination et impérialisme
en psychologie », Psychologie française, n° 53,
p. 135-155.
TOCQUEVILLE, A. (de). 1848. De la démocratie en Amérique,
Paris, Garnier-Flammarion, 1981.
WATERS, L. 2008. L’éclipse du savoir, Paris, Éditions
Allia.
WEBER, M. 1904-1905. L’éthique protestante et l’esprit
du capitalisme, Paris, Flammarion, 2002.
ZARKA, Y.-C. 2007. Critique des nouvelles servitudes, Paris, PUF.
ROLAND GORI ET MARIE-JOSÉ DEL VOLGO, L’IDÉOLOGIE
DE L’ÉVALUATION : UN NOUVEAU DISPOSITIF DE SERVITUDE
VOLONTAIRE ?
RÉSUMÉ
Les auteurs montrent comment les pratiques de l’évaluation
à l’Université constituent de nouveaux dispositifs
de servitude volontaire qui participent de l’art néolibéral
de gouvernement des individus et des populations. Pour y parvenir
le pouvoir pris par la fièvre de l’évaluation
a dû insidieusement et progressivement acter le changement
de signification de cette notion conçue comme une extension
sociale de la norme managériale dans des secteurs de la vie
sociale qui en étaient jusque-là préservés.
|