"Nouveau millénaire, Défis libertaires"
Licence
"GNU / FDL"
attribution
pas de modification
pas d'usage commercial
Copyleft 2001 /2014

Moteur de recherche
interne avec Google
Philippe Büttgen et Barbara Cassin
« J'en ai 22 sur 30 au vert »
Cités 1/2009 (n° 37), p. 27-41.

Six thèses sur l ’ évaluation

I. Dossier : L'idéologie de l'évaluation

Origine : http://www.cairn.info/revue-cites-2009-1-page-27.htm


PREMIèRE THèSE : L’éVALUATION EST UNE COMPOSANTE DE LA « STRATéGIE DES RéFORMES »

L’évaluation doit servir à classer, c’est-à-dire à justifier des déclassements ou désengagements d’État. Elle touche aujourd’hui la santé, la justice, la police, la gestion des flux dits migratoires, l’identité dite nationale, l’école maternelle, le lycée, l’enseignement dit supérieur et la recherche, moribonde. On l’appelle Revue générale des politiques publiques (RGPP). Son symptôme est la notation des ministres eux-mêmes. Mais il faut barrer le mot notation, à la Lacan ou à la Derrida, pour tenir compte de la véhémence de leur dénégation : « J’ai 22 indicateurs sur 30 au vert », a dit Christine Lagarde au sortir de son entretien d’évaluation avec le Premier ministre, juste avant la crise boursière [1].

Lettre de mission, feuille de route, indicateurs. On peut évaluer par le haut (comme pour la ministre ; et tous les évaluateurs, sauf le plus haut d’entre eux en position de Dieu aristotélicien, seront aussi des évalués), par le bas (« Faut-il canoniser Sœur Emmanuelle ? », « êtes-vous d’accord pour que les étudiants notent leurs professeurs ? » [2]), par ses pairs (la fameuse peer review), et même les trois à la fois, « à 360°».

L’évaluation relève de l’opinion making comme la stratégie des réformes tout entière. Elle suppose la rareté, voire la catastrophe : « Je suis à la tête d’un État virtuellement en faillite », « Les caisses sont vides », le système de la recherche est « vieux » et « mité », la France décroche. Les gens heureux n’ont pas d’évaluation.

Le mode opératoire est vieux comme la politique : sondages d’opinion, scuds tous azimuts (en langage syndical : « ballons d’essai »). Quelques signifiants : EDVIGE, amnistie fiscale, déclaration des embryons, peines planchers, rétentions de sûreté. Le nombre est si grand que quelques-unes des « réformes » et même beaucoup passent pour de bon. Si ça ne passe pas, c’est que l’opinion n’est pas mûre (EDVIGE : le président réaffirme son attachement aux libertés publiques). Quand ça passe, ça ne se voit pas (la rétention de sûreté ne s’appliquera qu’à trois monstres et dans vingt ans), mais on a beaucoup perdu au passage : sont bafoués des principes fondamentaux sur lesquels tout notre droit est bâti, la présomption d’innocence et la proportionnalité des peines.

De toute manière, c’est l’opinion, dans sa sagesse, qui l’aura voulu. Qui peut tolérer que le violeur d’enfants recommence à sa sortie de prison ? L’opinion de l’opinion making est celle de l’usager, du client, du consommateur, qu’il soit « consommateur de soins », de justice ou de recherche. La « réforme », c’est pour votre bien. Et il y a la consolation suprême : « On évaluera le dispositif », « Les classements sont révisables ».

On peut arguer que la santé, la justice, la recherche ne sont pas des produits de consommation. Nous ajouterons, nous, qu’il n’y a pas d’opinion mais des usages de l’opinion, pas d’usager mais des usages de l’usager.

DEUXIèME THèSE : LE MOTEUR DE L’éVALUATION EST LA PERFORMANCE

Dans la langue de l’opinion faite, donc uncontroversial – à savoir Wikipedia : « L’évaluation est une méthode qui permet d’évaluer un résultat et donc de connaître la valeur d’un résultat qui ne peut pas être mesuré. Elle est appliquée dans divers domaines où des résultats sont attendus mais non mesurables. » Ni la recherche ni la santé ne se mesurent, et c’est précisément ce que dit l’évaluation quand elle parle des « performances » de l’hôpital ou du système de recherche. Le défi, quantifier du non-quantifiable, est relevé grâce à la performance.

La performance a ceci de magique qu’elle suffit à transformer le plus en meilleur, la quantité en qualité, le cardinal en ordinal. La tension interne au concept tient à ce qu’il désigne à la fois le plus objectivement mesurable (indicateurs de performance d’une machine, ou d’une économie – mais que de biais déjà !) et le plus singulier de l’acte individuel – performance d’un cheval, d’un champion, d’un artiste –, ce qui ne se répète pas.

Google et le facteur H, ou comment la qualité devint une propriété émergente de la quantité

Le modèle de l’évaluation par performance, c’est, rappelons l’évidence, la recherche menée avec un moteur comme Google. L’algorithme PageRank, qui hiérarchise l’ordre des réponses dans la page et fait l’une des grandes supériorités de Google, fonctionne, dit Google lui-même, sur le modèle académique de la citation : les plus cliqués-cités sont classés en tête [3]. Il y va même d’une doxa élevée au carré : sont en tête les sites les plus cités par les sites les plus cités – « démocratie culturelle », selon Google – avec une pondération toutefois, qui peoplelise la démocratie : le lien provenant d’un site qui cite peu vaut plus que celui d’un site qui cite à tout-va. Or cette hiérarchisation-là est très précisément celle qu’opère le fameux facteur H, l’impact factor de Hirsh, qu’on ne cesse de vouloir nous imposer. Il classe, les chercheurs par exemple, par le nombre de publications dans des revues elles-mêmes classées et cotées, en pondérant par le nombre de citations qui sont faites de ces publications, dans des revues elles-mêmes classées et cotées. Un modèle académique basé sur la citation généralisée pondérée – non pas tant démocratique que people et parochial –, tel que l’entre-citation en langue anglaise constitue le biais par excellence. Pour faire monter son facteur H, il faut et il suffit de prendre l’instrument de contrôle comme objectif de son activité, c’est-à-dire de publier en anglais dans les revues les mieux cotées sur des sujets porteurs des opinions paradoxales par rapport auxquelles les chercheurs du domaine seront contraints de se positionner en bien ou en mal (peu importe que l’on dise que c’est idiot, du moment que c’est cité). On peut faire cela, et cela se fait, tous les jours.

La qualité devient alors une simple propriété émergente de la quantité. On insistera sur le fait qu’il s’agit de l’extension indue, voire de l’importation sauvage, d’une pratique introduite au Canada pour les collections bien contrôlées et numériquement importantes que sont les publications médicales [4]. Que cette trouvaille commode fasse la fortune d’un Google, qui subordonne tout, y compris la soi-disant démocratie culturelle, aux « fins commerciales légitimes », c’est la règle du jeu, d’un certain jeu. Mais que cette « recherche » telle que pratiquée par un moteur de recherche devienne réglementairement la norme de l’évaluation dans la recherche fondamentale, il faut s’y opposer par tous les moyens et jusqu’au bout. Car c’est évidemment contradictoire avec l’idée même de recherche émergente. Par définition, le bas, trop singulier, d’une courbe de Gauss est invisible. Performance et facteur H sont incapables de mesurer l’originalité comme telle. Comme disait Lindon à propos de Beckett : on ne remarque pas l’absence d’un inconnu. Disons-le à nos directeurs et à nos ministres : vous vous tirez une balle dans le pied !

L’évaluateur, surtout si c’est un « pair », sait bien sûr que la qualité n’est pas une propriété émergente de la quantité. Il a lui-même généralement un fort mauvais facteur H, plus encore si c’est un bon chercheur. Mais il choisit le moindre mal, objectif et rassurant, et fait comme si. Il déplore donc les défauts de la mesure, mais pense toujours en termes de performance : « Affinons les indicateurs. » L’essentiel à ses yeux est que la performance débouche directement sur un classement, donc sur une tête de liste à promouvoir et sur une queue de liste à downsizer. « Halte au saupoudrage » devient alors la maxime politique du management de la recherche, de l’aménagement du territoire (hôpitaux, tribunaux, départements, sous-préfectures à supprimer), et du nouveau design institutionnel acronymé RGPP. Même la meilleure des institutions, le Centre National du Livre, doit exhorter à « aider moins pour aider mieux » (comment il reste, sans ironie, la meilleure des institutions, c’est ce que nous verrons plus loin).

Qui peut refuser d’ « aider mieux », comme d’empêcher le violeur de nuire ? Personne. Il faudrait parvenir à décoller ce que dit le slogan de ce que fait celui qui le prononce, en collant une phrase plus vraie sur sa pratique. « Halte au saupoudrage », c’est, en vérité : « Volons au secours des puissants », ou : « Mettons tous nos œufs dans le même panier. » Ce qui du point de vue même de la performance n’est pas à conseiller, comme la « crise » le prouve tous les jours.

TROISIèME THèSE : L’HORIZON DE LA PERFORMANCE EST LA « COMPéTITION INTERNATIONALE », AUTRE NOM DE L’ANGOISSE DE PERDRE

Les « indicateurs de performance » sont rassemblés dans des « classements internationaux » (Pise, Shanghai) qui, selon Valérie Pécresse, « ont des défauts mais qui existent » et doivent faire entrer les universités françaises « dans la culture du résultat » ; « c’est une bataille mondiale dans laquelle d’autres pays ont pris de l’avance sur nous », la Suède nous a doublés, la Grande-Bretagne a vingt ans d’avance [5].

L’angoisse de perdre impose l’évaluation permanente.

Ici, l’international fonctionne deux fois : comme cadre pour inscrire la réalité de la performance, et comme injonction (« soyez internationaux »). Or, derrière le cadre comme derrière l’injonction, on trouve un modèle anglo-saxon de l’« international ». Indirectement : nous sommes invités à penser l’international comme le pensent les Anglo-Saxons – à savoir, comme diversité compétitive, dont le spectacle est d’ailleurs, à tout prendre, moins provincial que le nôtre (plutôt CNN que TF1). Mais pourquoi la compétition, même sous la forme de la «coopetition» chère à Google, serait-elle le fin mot de l’international ?

Directement : le monde anglo-saxon est le modèle que nous avons à imiter, nous comme les autres. Bruxelles, l’Europe, relaient cette exigence : on ne rend de copie recevable qu’en anglais. La France, quant à elle, jacobinise le bruxellisme au point de le rendre efficace, voire dévastateur : l’Agence d’évaluation de la recherche et de l’enseignement supérieur (AERES), qui cherche aujourd’hui à se faire « accréditer » auprès de l’Union Européenne, a été installée en moins d’une année [6]. Au passage, félicitons l’Agence nationale de la recherche (ANR) qui se félicite elle-même d’avoir obtenu la certification « AFAQ ISO 9001 » et nous permet d’en consulter la vidéo de remise officielle sur Internet [7].

Mais
1 / ce modèle anglo-saxon n’est déjà plus le monde anglo-saxon : comme d’habitude, nous sommes en retard d’une guerre. Anne-Wil Harzing (le logiciel Publish or Perish, raffinement du facteur H à partir de GoogleScholar) appelle au « moratoire » des classements, la revue Science ridiculise le goût prononcé du CNRS pour la bibliométrie [8]. Les directeurs des meilleures revues britanniques d’histoire et de philosophie des sciences demandent depuis juillet 2008 à ce qu’elles ne figurent plus sur les listes de l’European Science Foundation. C’est plus qu’une abstention, c’est de l’objection de conscience. Les revues françaises commencent à faire de même. C’est ce qu’il faut faire : il faut ne pas.

2 / D’ailleurs, pour des raisons de fond et de structure, le modèle anglo-saxon ne sera jamais le nôtre. Additionnez ANR, AERES, « instituts nationaux » et loi LRU (Libertés et Responsabilités des Universités), vous n’aurez pas (toujours déjà pas) les États-Unis, leurs universités payantes, leurs fellowships, leurs alumni et leurs boards of trustees. Vous n’aurez pas les fondations non dirigistes et l’autonomie non octroyée. En revanche, vous aurez, vous avez déjà, des projets à court terme et du management chronophage à bilans d’étape. Désormais, « nos chercheurs sont entrés dans une nouvelle culture » [9]. Celle qui les contraint à ne plus chercher parce que c’est moins rentable. Le nom noble de cela est « pilotage ».

Mais y a-t-il un pilote dans l’avion ? Dans cette compétition panique, le but n’est pas de gagner, mais simplement de ne pas perdre. Obsédés par nos concurrents, nous ne savons pas identifier nos produits et nos offres. La French Theory est pourtant un excellent indice du rayonnement des sciences humaines et sociales, comme on dit au CNRS. C’est un article d’exportation rentable à long terme, d’autant plus « rayonnant » qu’il est lié à la langue française, French Studies et Comparative Literature. En bref : traitez-nous comme du caviar, ou plutôt comme des sacs Vuitton.

QUATRIèME THèSE : LE CADRE DE LA COMPéTITION EST LA GRILLE

L’évaluateur remplit des grilles d’évaluation, ainsi nommées parce que s’y croisent des « critères ». L’évaluateur craint l’arbitraire : une note ne suffit jamais, il faut plusieurs cases, distinguant des « points forts » et des « points faibles » que l’évalué sera prié d’identifier le premier – auto-évaluation, supplément au « dossier unique » de « reconnaissance » d’une unité de recherche.

Deux exemples et un contre-exemple.

1 / La grille d’évaluation des comités de visite de l’AERES a deux profils, quantitatif et qualitatif, chacun ayant ses « descripteurs ». Le qualitatif n’a rien de quantitatif (on n’est pas des machines), sauf qu’il s’exprime à travers une notation de 1 à 5. La note finale est le produit de quatre notes appelées « axes de cotation » (boursière ?) : production (qualité, quantité, impact) ; attractivité ; stratégie ; projet (qualité, opportunité). C’est juré, « ni les quatre notations spécifiques, ni la notation globale ne découleront de l’application d’un algorithme » (on n’est pas chez Google) et les notes « sont déterminées par consensus » [10].

2 / Ce genre d’évaluation, on le voit fonctionner sous le régime du concours dans l’European Research Council, « dont les panels – nous dit-on – structurent désormais la recherche européenne en sciences humaines et sociales » [11]. On évalue pour retenir des élus (topsizer ?). Les élus doivent être «eligible». Dans le cas d’un senior researcher, le premier barrage, éliminatoire, est celui du facteur H. Dans le cas d’une réponse à un appel à propositions, il faut pouvoir satisfaire à tous les items, cocher toutes les cases administrativement concoctées (du genre : « La condition féminine en pays musulman face au défi du développement durable et du téléphone portable »). C’est pourquoi, d’ailleurs, il est préférable de fabriquer soi-même les tuyaux plutôt que de tenter d’y entrer : soyez core member ou bien lobbyiste, conseil d’ami. Il est vrai que le génie français répugne à en faire un métier. Peut-être est-ce pour sa perte : si l’on souhaite faire évoluer Bruxelles, peut-on se passer du lobbying, y compris, comme pour les revues, sous forme de la publicité du refus ?

3 / Contre-exemple : le Centre National du Livre (CNL), une institution heureuse, le génie français tel qu’en lui-même. On y dit ce qu’on pense des livres sans cadre ni grille autre que celle du jugement (Hannah Arendt : « Le goût est-il une faculté politique » ? Réponse : oui). On ne note ni ne classe, et cela n’est possible que hors régime de répartition formaliste de la pénurie, en prenant le temps que l’on souhaite. On trouvera un moyen d’aider tous ceux que l’on juge bon d’aider, parce que, il est vrai, on a trouvé un moyen intelligent et adapté de financement (une taxe sur les photocopieurs, comme compensation du photocopillage). À rebours, une pression de l’ordre de 150 candidats pour un poste au concours – proportion très ordinaire dans le recrutement académique – ne peut être bonne et tient nécessairement du lynchage, autrement dénommé « excellence ».

Reprenons. Pourquoi des grilles ? Leur raison d’être réside dans la procédure. La procédure, être procédural, Rawls et Habermas le disent assez, voilà la seule parade contre le risque de l’aléatoire, l’arbitraire relativiste, la subjectivité du juge. Step by step, le process fabrique de l’explicite pour chasser l’incertitude humaine. À chaque point de l’évaluation, il faut savoir où l’on en est, ce que l’on a vu, ce qui reste à voir. La procédure est là pour segmenter l’acte de jugement, le rendre itérable. On croit garantir ainsi l’universel et la comparabilité démocratique.

Pourtant, l’arbitraire est deux fois, et très gravement, présent. Premièrement, dans la solitude de l’évaluateur qui remplit sa grille devant son ordinateur et ne connaît souvent qu’un seul projet, laissant donc aux « responsables » le soin de la comparaison. Deuxièmement, dans l’équivoque permanente de la grille elle-même, dont la terminologie est un foyer homonymique et, pour le coup, vraiment subjectiviste. Qu’est-ce que la « pertinence des objectifs », la « levée des verrous technologiques », et surtout qu’est-ce que le « caractère novateur et ambitieux » ? Qu’est-ce que l’« excellence scientifique en termes de progrès des connaissances vis-à-vis de l’état de l’art » ? Dans ces « critères d’évaluation » des projets blancs, qui tiennent encore de l’importation sauvage (y compris linguistique), l’ANR a bien mérité sa qualité d’AFAQ ISO 9001.

On le voit, le premier réquisit de l’évaluation profilée internationale est le globish, comme langue de la comparabilité des grilles et des projets. Kafka parle anglais : leader, track record, deliverable, work-package (traduction française=output), dissemination. Cette langue-là, globalement homonyme, déteste l’homonymie et traque l’implicite partout ailleurs que chez elle, dans un souci permanent de responsabilité sémantique : il faut que je comprenne votre jugement sans reste pour savoir si et quand je ne suis pas d’accord. Soit, sauf que c’est fou et qu’on en meurt.

Quant à celui qui remplit la grille, de ce seul fait il est un « expert » (un expert pair) et non un individu subjectivement outillé. Son jugement est localisé – il a sa case finale d’« appréciation personnelle » –, c’est-à-dire mis à sa place. On tient là la différence entre une grille et un rapport, que nous percevons tous, via les commissions du CNRS ou du Conseil National des Universités (CNU), sans pouvoir nous l’expliquer. Elle est identique à celle qui sépare un topos en rhétorique et un item dans la novlangue de l’évaluation. On pourrait croire qu’un lieu rhétorique est formel, vide, automatique. Mais c’est faux, car un lieu est un lieu d’invention, alors qu’un item est le moment d’une procédure. De même, la succession des topoi construit une syntaxe narrative susceptible de variations et de jeux temporels, à la différence de la séquence bloquée des items. Dans un rapport, en rhétorique, ce qui importe est la perception des écarts, perception qui a pour modèle la culture. Dans une grille, ce qui compte est la valeur d’échange des projets évalués, valeur qui a pour modèle l’économie. D’un côté, l’importance des œuvres comme singularités historiquement perceptibles ; de l’autre, l’ « économie de la connaissance », une knowledge-based society sans autre histoire que celle des crises boursières.

CINQUIèME THèSE : LA LANGUE DES GRILLES EST TRANSPARENTE ET HONNêTE

La langue des grilles qui rassure les évaluateurs se confond avec la langue des dossiers qui terrifie les évalués. Leur principe commun est la fairness. La fairness est le fair play poussé jusqu’à la névrose obsessionnelle, c’est-à-dire jusqu’aux théories procédurales de la justice [12]. Comme fair signifie d’abord la blondeur de la jeune fille au teint clair, le beau temps, puis la « bonne » balle au baseball, on comprend que cette névrose obsessionnelle puisse poser problème dans un peuple de paranoïaques : il la prend pour de la perversion.

La fairness est, par exemple, ce au nom de quoi l’ANR enjoint à l’évaluateur de déclarer expressément tout conflit d’intérêt : comme je déclare que je n’ai pas l’intention d’assassiner le président des États-Unis lorsque je veux un visa, ou comme le dollar porte la mention « In God We Trust ». La fairness est aussi ce qui permet à l’évalué de donner les noms des collègues qu’il souhaite et qu’il ne souhaite pas avoir pour évaluateurs. Le risque, lui aussi consubstantiel à la procédure, est que les seuls « experts » qui restent en lice soient ceux qui n’y connaissent rien. Le recours à l’étranger, souvent présenté comme la panacée, ne peut rien y changer. Au mieux, l’évaluation se trouve livrée à une large confrérie de demi-habiles. Tout se passe en toute « transparence », à condition de définir tautologiquement la transparence comme ce qui est garanti par la procédure, ni plus ni moins. Comble et sauvegarde : une évaluation peut ainsi consister à rédiger soi-même la lettre de mission que votre supérieur vous enverra et à construire les indicateurs qui vont servir à vous évaluer.

La fairness est encore ce qui simultanément permet et enjoint à l’évalué de désigner ses « points forts » et ses « points faibles » : où l’on retrouve l’auto-évaluation. La boucle est ainsi bouclée, car l’évaluateur qui aura fairnessement confiné son appréciation personnelle dans une petite case en fin de grille auto-évalue très bien, quand le découragement le gagne, le peu d’importance de son jugement aux yeux de ceux qui décident vraiment et allouent les crédits. En évaluant, je m’évalue : j’énonce moi-même les biais qui pourraient affecter mon évaluation du fait de ma subjectivité pécheresse. Ne croyez pas qu’il s’agisse d’une version sécularisée de la bonne vieille confession, ni d’une généralisation de l’autocritique maoïste. C’est du côté d’un protestantisme de la proclamation et de la transparence qu’il faut regarder. La fairness est une manière de me lier intégralement à mon énoncé pour le meilleur et pour le pire, non pas sur le mode hystérique-doctrinal du Hier stehe ich luthérien, mais sur le mode procédural. Il faudra un jour en cerner les équivalents philosophiques (le Socrate de Platon), logique (la non-contradiction d’Aristote) et transcendantal (la Konsequenz kantienne). Mais le plus pertinent ici est son nom managérial : la DRH, avec l’auto-évaluation comme clou des entretiens d’embauche, à apprendre quand on veut se vendre (« Quel est votre point faible ? » Réponse d’Arnaud Montebourg : « J’ai renoncé à être moi-même ; c’est difficile, vous savez »).

Que de vertus réunies dans la fairness ! L’obéissance, comme servitude volontaire qui m’attache à mon statement. Le souci éducatif : quand on en a « 22 sur 30 au vert » comme Christine Lagarde, il faut essayer d’en avoir 23, 24, jusqu’à 30 ; telle est la pédagogie par objectif, avec positive reinforcement sans châtiment corporel (autre que la menace d’être virée). L’amour surtout, dans l’« amélioration continue » [13] de l’évaluation comme du monde : make a better place, ce n’est possible qu’avec vous et grâce à vous, significant other et cher collègue.

La fairness est au croisement de l’acte de parole et de l’acte de foi. Elle situe l’évaluation au point de fusion de la religion, de la morale et du performatif, c’est-à-dire au plus loin du jugement. Statement, standards, state of the art, assessment, commitment, committee, tout ça pour ça : une balance des biais, en globish dans le texte, afin de légitimer le classement final qui, rappelons-le, est d’abord un déclassement.

SIXIèME THèSE : NOS AUTORITéS GèRENT LA FRENCHTOUCH

Paris copie Bruxelles, la France copie l’Europe en faisant mine de la concurrencer. Bruxelles s’introduit en France par le canal de l’AERES qui prétend protéger de Bruxelles, mais argue, bien sûr, de la compétition internationale. Sa rhétorique est simple : si nous ne classons pas les revues avec vous, d’autres le feront à votre place ; pire encore : à notre place.

L’AERES, dans ses classements de revues, c’est l’European Science Foundation enmoins bien, mais pour votre bien. Elle ne subsiste qu’en racontant l’histoire d’une amélioration continue de la critériologie. Cette amélioration ne peut être qu’interactive : vos protestations nous aident à affiner nos grilles qui deviendront ainsi les vôtres et avec lesquelles vous êtes au fond d’accord, mauvais coucheurs de chers compatriotes [14]. De même que Valérie Pécresse rêve tout haut d’un classement européen des universités qui ferait pièce à celui de Shanghai, de même l’AERES offre une nouvelle incarnation de l’orgueil chauvin : les Français vont produire un meilleur universel de compétition internationale.

Prenons un point de comparaison et détaillons la manière dont s’est enclenchée la réforme des hôpitaux [15]. Tout part, comme pour la bibliométrie, d’une évaluation à la canadienne, importée dans les années 1990. On commence par des questionnaires de satisfaction sur les conditions d’hébergement (« êtes-vous correctement nourris ? » ). Assez vite, on s’aperçoit que le consommateur de soins, qui collabore volontiers, est un malade qui coûte cher et qu’il faut soigner, ou plutôt faire partir, au plus vite. De process en process on continue par une « feuille de circulation », des « parcours de soins », une « trajectoire patient » ; à coup de « conférences de consensus » et de nomenclatures, on formate diagnostics et Groupes homogènes de malades (GHM) pour permettre une tarification à l’activité (TAA). L’évaluation des pratiques professionnelles par des médecins experts extérieurs (peer review, of course) rejoint l’évaluation prévisionnelle des recettes et des dépenses. Il est temps alors de fermer des services et des hôpitaux, pardon : de former des « pôles » où les médecins sont des experts et des managers, et où les « soignants » sont pour l’essentiel des paramédicaux, ce qu’on appelait au temps de Mme Bovary des officiers de santé. Les infirmières psychiatriques, formées à la bien-traitance mais évidemment trop peu nombreuses, peuvent mettre un patient sous contention (enfermé-attaché) : quel est le médecin qui dans l’heure qui suit prendra la responsabilité de les déjuger devant le « fou » devenu incontrôlable ? Il est vrai que notre version de la classification internationale des maladies, le CIM-10 que nous pratiquons en psychiatrie, est moins toxique que le DSM-IV américain qui fonctionne sur le principe «un symptôme, une molécule» sans autre forme de diagnostic ni de soin. De quoi vous plaignez-vous ? Comme pour le classement des revues, l’Europe vous protège des États-Unis et la France vous protège de l’Europe.

De toute manière, la compétition presse : on n’a pas le temps. C’est l’argument décisif de l’AERES, et c’est pourquoi ses responsables peuvent affirmer que trois heures suffisent pour adapter les classements de revues que la European Science Foundation a mis des mois à élaborer (ce qui ne signifie pas qu’ils soient sans biais). « Bidouiller », « naviguer à vue » sont alors les termes employés en réunion officielle pour définir ce que le marketing AERES nomme par ailleurs sur papier glacé la « démarche qualité », sanctifiée par l’AFNOR et ses labels, du poulet à l’institution [16].

CONCLUSION : DU CNRS POUR SE SOUSTRAIRE à L’UNIVERSEL

Mais que proposez-vous ? Par quoi remplacer l’objectivité des classements, meilleure que rien ?

C’est vrai, nous voulons nous soustraire à l’universel, à l’universel anglo-saxon, celui qu’on ne trouve plus qu’à Bruxelles, chez Google et dans leurs hypostases parisiennes. Nous voulons de la culture, de l’histoire et des langues. Nous tenons même qu’aucune compétition internationale ne se gagne sans elles autrement qu’à court terme. De votre côté, prouvez-nous le contraire.

Et s’il faut parler de compétition : nous voulons que les meilleurs émergent. Mais nous voulons qu’ils émergent comme ils sont, c’est-à-dire bizarres et non pas conformes ou déjà conformés (certifiés conformes) par les rankings de revues ou d’universités. L’évaluation doit repérer les meilleurs comme ils sont et là où ils sont, c’est-à-dire partout où ils le veulent. Sinon, elle ne fait que confirmer le conforme, valider, enregistrer, « affiner l’outil ». La « mondialisation » de la science offre une chance, celle de sortir des élitismes d’État. Ne leur substituons pas le terrorisme du chiffre.

À propos d’élites d’État, parlons du CNRS. Et parlons-en comme on veut désormais qu’on en parle, c’est-à-dire en termes d’avantages compétitifs : nous verrons alors qu’il est imbattable. Si nous nous situons dans le contexte de la crise, nous pouvons dire avec Philippe Askenazy qu’il y a opportunité : n’en profitons pas pour biaiser les calculs et pour diminuer le nombre de postes à un moment où le fonctionnariat, si mal payé, redevient attrayant, voire compétitif, et attire les cerveaux [17].

Les « chaires mixtes universités-organismes » : excellence, performance, lynchage

Une chaire de ce genre prend deux postes : un poste à l’université, un poste à l’organisme. C’est mathématique. Point barre. Là où montaient sur le bateau France deux jeunes, un enseignant-chercheur débordé qui n’avait pas le temps de chercher, et un chercheur se gobergeant sur la plage (dixit l’enseignant), il n’en montera plus qu’un, qui enseignera un peu et cherchera deux tiers de temps.

Nous sommes d’accord pour pondérer l’enseignement par la recherche et la recherche par l’enseignement, pour signifier qu’un enseignant a avantage à chercher et qu’un chercheur a avantage à enseigner, c’est meilleur pour l’enseignement comme pour la recherche. Mais le dispositif proposé ne comporte que des points faibles. Point faible : face aux quelques enseignants-chercheurs conformes à leur concept, tous les autres continueront à n’avoir ni le temps ni les moyens de chercher. Rien ne prouve qu’ils soient moins excellents, sauf la volonté, gravement arbitraire, du gouvernement, du ministère et, ô combien, du président de leur université (un comité sera désigné pour légitimer la discrimination, sans nul doute). Bonne ambiance dans l’université ! Point faible encore : l’enseignement des «chairmen», celui pour lequel ils ont été recrutés, sera assuré par deux types d’ « incompétents », des CDD qui comme d’habitude montent au front faute de monter dans le bateau, et des chercheurs plus ou moins parachutés. Le problème est que ni les universités ni les organismes ne pourront alors recruter : pléthore d’enseignants et extinction du corps des chercheurs. Deux malheurs valent mieux qu’un. Notre Landerneau est en train de comprendre que la remise à plat ainsi proposée du rapport enseignement-recherche a malheureusement pour premier et massif effet de diminuer le nombre de postes par deux, alors que, priorité de la recherche oblige, on prétend l’augmenter. Point faible enfin : la recherche sera transie de postes fléchés, puisque les chaires elles-mêmes ne sont rien d’autre, laissant à la discrétion (de qui au juste ?) l’affectation d’un chairman dans un laboratoire existant ou moribond (« agence de moyens ») au sein d’une université, et négligeant à tout jamais la recherche émergente, encore orpheline, celle qu’il faut cocooner par-dessus tout pour gagner la compétition. Bon moyen d’organiser la fuite des cerveaux. Recruter « les 130 jeunes enseignants-chercheurs les plus prometteurs » (Valérie Pécresse) par des comités plus locaux que jamais et substituer leurs fausses chaires à de vrais postes, voilà la dernière idée en date de l’« excellence ». Les résultats, quant à eux, ne varient pas, ce sont la division des postes et le lynchage des jeunes chercheurs.

Nous ne voulons pas faire le design abstrait et intemporel de l’institution pour qu’elle se conforme à des critères d’excellence internationaux encore plus abstraits et radicalement homonymes. Leur réel renvoie tout au plus au fantasme de vingt chercheurs couronnés. Rien qui ressemble à une politique de la science. Nous voulons dans le moment identifier et fabriquer l’institution qui nous aide le mieux à nous soustraire à l’universel euro-saxon et à l’infléchir autrement selon, nous osons le dire, notre désir de chercheurs et même de savants. Prouvez-nous que nous allons à l’encontre des besoins de la société ! Ce programme est et ne peut être que relativiste. Il ne se comprend que dans la relation au moment propice, et dans l’inscription temporelle précaire, sur le bon modèle américain de l’affirmative action qu’il faut remettre sur le métier. Le relativisme propose un « meilleur pour » et non pas un bon absolu. Ici, un meilleur pour ceux qui enseignent, qui cherchent, qui écrivent, qui apprennent, qui inventent, et non l’absolu fantasmé de la performance conforme aux indicateurs. Les chercheurs produisent des prototypes, non des stéréotypes : aucun facteur H ne saurait en assurer ni la cotation ni la conformité.

Notes

[1] « Ce n’est pas une séance de réprimandes », « c’est un point d’étape sur la feuille de route [...] mais cela n’a rien à voir avec une notation » (Azzedine Ahmed-Chaouch, Didier Micoine,« Évaluation des ministres : Lagarde dévoile son “bulletin de notes” », Le Parisien, 5 septembre 2008).

[2] Le Figaro daté du 21 octobre 2008 donne 71 % de réponses positives et 29 % de réponses négatives à la première question.

[3] Voir Barbara Cassin, Google-moi. La deuxième mission de l’Amérique, Paris, Albin Michel, 2007.

[4] Eugène Garfield a créé en 1960 le Journal Impact Factor afin d’aider avec le Garfield Impact Factor à sélectionner les revues pour la Canadian Medical Association.

[5] « Pécresse veut dix universités dans l’élite mondiale », entretien dans Le Figaro, 6 août 2008.

[6] L’AERES a été créée par la loi « Pacte pour la recherche » du 18 avril 2006, en même temps que l’Agence nationale de la recherche (ANR). Sur son accréditation européenne, voir Jean-François Dhainaut, Lancement de la démarche qualité de l’AERES (Cellule Qualité, 17 avril 2008), « La démarche Qualité : un engagement fort du Président »,
http://w www.aeres-evaluation. fr/ IMG/ pdf/ AERES-DemQualite_2008. pdf,p. 4.

[7] http://w www.agence-nationale-recherche. fr/ actualite/ 13? NodId=13&lngInfoId=216
« Cette démarche couronne un travail d’un an mené en interne, pour laquelle les équipes de l’ANR se sont mobilisées pour renforcer la transparence et l’impartialité du processus de sélection, avec pour objectif commun la satisfaction des chercheurs. »

[8] Voir Nancy J. Adler, Anne-Wil Harzing, « When knowledge wins : Transcending the sense and nonsense of academic rankings »,Academy of Management Learning & Education, vol. 8, no 1, 2009, et l’éditorial de Science du 10 octobre 2008.

[9] « Pécresse : “Mettre fin à la fuite des cerveaux” », entretien dans Le Figaro, 16 octobre 2008.

[10] Dépêche de l’Agence Éducation-Formation no 102829 du lundi 13 octobre 2008 : « URGENT. L’AERES revoit ses critères de notation des unités de recherche. »

[11] « Projet d’un Institut national des sciences humaines et sociales CNRS », disponible sur
http://w www.cnrs. fr/ cnrs2020/ IMG/ pdf/ texte_INSHS_22_septembre_2008. pdf,p. 3.

[12] Voir l’article de Catherine Audard, « Fair, Fairness, Equity », in Vocabulaire européen des philosophies, Paris, Le Seuil - Le Robert, 2004, p. 439-441.

[13] hhh http://w www.aeres-evaluation. fr/ IMG/ pdf/ AERES-DemQualite_2008. pdf(
voir plus haut, n. 1, p. 32), p. 7.

[14] Dépêche de l’Agence Éducation-Formation no 102848 du 14 octobre 2008. Voici comment le président de l’AERES réagit aux « protestations qui ont suivi la mise en ligne, cet été, d’un premier classement des revues » : « Tout le monde pense que cette classification est indispensable, mais il y a besoin de beaucoup de concertation », reconnaît Jean-François Dhainaut.

[15] Nous remercions Catherine Boiteux et Françoise Gorog qui nous ont fait part de leur expérience.

[16] L’Association Française de Normalisation (AFNOR), créée en 1926 et placée sous la tutelle du ministère de l’Industrie, voit ses missions définies dans le décret no 84-74 du 26 janvier 1984 fixant le statut de la normalisation, dont le premier article stipule : « La normalisation a pour objet de fournir des documents de référence comportant des solutions à des problèmes techniques et commerciaux concernant les produits, biens et services qui se posent de façon répétée dans des relations entre partenaires économiques, scientifiques, techniques et sociaux. » Quels sont au juste nos « problèmes techniques et commerciaux » ?

[17] Philippe Askenazy, « Recherche et crise », Le Monde, 28 octobre 2008.

Philippe Büttgen et Barbara Cassin « « J'en ai 22 sur 30 au vert » », Cités 1/2009 (n° 37), p. 27-41.

http://www.cairn.info/revue-cites-2009-1-page-27.htm