|
origine : http://liberalisme-democraties-debat-public.com/spip.php?article104
« Aucune méthode d’évaluation n’est
entièrement objective, ni ne présente de valeur universelle.
Il est à la fois illusoire et dangereux de vouloir valider
une méthode d’évaluation au nom de prétendues
« normes » qui ne sont dans la plupart des cas que des
concepts arbitraires ou des critères en fait autovalidés.
» [1]
L’évaluation de la production scientifique des chercheurs
et des laboratoires détermine à l’Université
l’habilitation des diplômes, l’accréditation
des équipes et la carrière comme la promotion des
enseignants-chercheurs.
Cette évaluation se fondait en toute légitimité
sur l’évaluation des travaux de recherche par les pairs
et pouvait donner lieu à de larges débats tant en
ce qui concerne la qualité de la recherche que les supports
de publication (revues, livres etc.). Cette époque "préhistorique"
est terminée. A l’époque de l’homme numérique
et à l’heure de la google-civilisation on tend à
lui préférer aujourd’hui l’évaluation
bibliométrique qui évite aux évaluateurs d’avoir
à lire les travaux qu’ils expertisent en ne fondant
leur jugement que, par exemple pour l’Impact factor, sur le
niveau de citation des revues pour l’essentiel nord-américaines.
Dans ce changement de civilisation, nous voici tous astreints à
une forme d’« addiction », au sens étymologique,
autrement dit « cet état de dépendance et d’esclavage,
de contrainte par corps sanctionnant un sujet qui n’avait
pu payer ses dettes ». Nous voilà donc transformés
en esclaves par une société gestionnaire et bureaucratique
qui nous fait payer fort cher le fait de ne pas avoir su payer nos
dettes à l’égard de la politique à laquelle
depuis 30 ans nous renonçons au profit des experts, des coachs
et autres petits maîtres de la revanche technocratique et
administrative.
Le pourquoi et le comment de la bibliométrie scientifique
La production scientifique se mesure par la publication des résultats
scientifiques. Les méthodes d’évaluation des
publications utilisent habituellement les critères d’évaluation
des revues scientifiques. Or pour de nombreux scientifiques, le
temps serait venu « de dépasser l’utilisation
simple des facteurs d’impact des revues et de préférer
des indices basés sur les vraies citations des articles comme
les indices H et M introduits » en 2005 [2]. La bibliométrie
scientifique se définit comme « l’application
des mathématiques et des méthodes statistiques »
(Pritchard, 1969) aux publications scientifiques. Cette analyse
est censée rendre compte de l’activité des producteurs
(chercheur, laboratoire, institut, faculté, etc.) ou des
diffuseurs (périodique, éditeur, etc.) de l’information
scientifique, tant d’un point de vue quantitatif que qualitatif.
La bibliométrie scientifique permet d’évaluer
par exemple la qualité d’une revue par son impact.
Le facteur d’impact est l’indicateur bibliométrique
le plus connu. Le terme et la fonction ont été inventés
par Eugène Garfield, Consultant en information et conseiller
de documentation pour une entreprise pharmaceutique avant la mise
en œuvre de son projet de bases de données scientifiques.
C’est en 1958 qu’Eugène Garfield crée
l’ISI, Institute for Scientific information, avec le soutien
de l’administration américaine de la recherche et celui
de sociologues comme Robert King Merton. Le premier volume de Science
Citation Index voit le jour en 1963. Pour les sciences sociales,
le Social Science Citation Index paraît en 1972 et le Citation
index en1975 pour les arts et les humanités.
Le facteur d’impact correspond au rapport entre le nombre
de citations obtenues par une revue pendant deux ans et le nombre
d’articles publiés par ce périodique pendant
la même période. Il mesure donc la fréquence
moyenne avec laquelle l’ensemble des articles de ce journal
est cité pendant une durée définie. C’est
un indice de mesure rétrospective de l’impact d’une
revue à relativement court terme. Cet indicateur, tout comme
les autres indicateurs d’ailleurs et en tant que mesures,
caractérise le contenant, la structure formelle, et non le
contenu, la valeur. Par exemple, l’impact factor (IF)
de Science (21,911 en 1995) a été calculé de
la manière suivante :
citations en 1995 d’articles publiés en 1993 : 24
979 ; 1994 = 20 684 ; total = 45 663.
nombres d’articles publiés en 1993 : 1 030 ; 1994
= 1 054 ; total = 2 084-
IF = nombre de citations/nombre articles (45 663/2 084) : 21,911
On peut donc dire que les articles de Science publiés en
1993 et 1994 ont été cités un peu moins de
22 fois en moyenne.
On relève les critiques suivantes à l’encontre
du facteur d’impact :
Le nombre de citations ne mesure pas réellement la qualité
de la publication. La fenêtre temporelle est trop courte.
Les articles classiques sont cités fréquemment même
après plusieurs décennies.
La nature des résultats dans les différents domaines
scientifiques implique une quantité de publication différente
à un rythme différent. Ceci a un effet direct sur
le facteur d’impact. Par exemple, les revues médicales
ont des facteurs d’impact bien supérieurs aux revues
de mathématiques. Relevant la fréquence de citation
par article et négligeant le prestige de la revue, le facteur
d’impact est une mesure de popularité, non de prestige.
Le facteur d’impact peut être artificiellement augmenté
par une politique éditoriale adéquate [3]. Le facteur
d’impact est lié à la revue et non à
l’article. Un article publié dans une revue à
fort impact peut avoir un nombre de citation très bas, voire
nul. Bien que le facteur d’impact ait été créé
à l’origine comme mesure de la réputation d’une
revue, il est de plus en plus employé comme mesure de la
productivité des chercheurs. Si bien que pour certains comme
Etienne Hirsch, Président de la Commission des « Neurosciences
et organe des sens » à l’Inserm en 2006, «
il semble important de ne pas utiliser l’IF lors de l’évaluation
mais plutôt [pour] le choix du support de publication de nos
travaux car il est gage d’un nombre élevé de
lecteurs potentiels » [4]. Dans la recherche d’indices
fiables d’évaluation des publications elles-mêmes,
de nouveaux indices de citations voient le jour. Les indices H et
M peuvent être attribués individuellement à
chaque scientifique et sont simples à calculer à condition
d’avoir accès au nombre de citations de chaque publication
dudit scientifique via, précise-t-on [5], ISI Web of Science
(accès via BiblioVie et BiblioInserm). Il suffit alors de
classer les publications en fonction du nombre de citations. L’indice
H fait glisser deux curseurs en sens inverse : l’un sur une
échelle du nombre de publications, l’autre sur une
échelle du nombre de citations, et il les fait coïncider.
Cet indice individuel de Hirsch (indice H) établit une relation
entre un nombre total de publications et leurs citations. C’est
en novembre 2005 que Jorge E. Hirsch [6] a publié dans Proceedings
of the National Academy of Sciences of the United States of America
un article intitulé An index to quantify an individual’s
scientific research output dans lequel il propose le concept d’«
indice h » ainsi que des algorithmes de pondération.
Pour calculer l’indice M, il suffit de diviser H par le nombre
d’années depuis la première publication.
Si l’usage des indicateurs bibliométriques n’est
plus contesté dans le domaine des sciences dures, les choses
sont plus compliquées en sciences humaines et sociales. En
2002, Johan Heilbron [7] fait état d’un rapport ayant
fait scandale aux Pays-Bas et dont les auteurs rattachés
à un centre de scientométrie (Leyde) avaient simplement
éliminé les livres des listes de publication et avaient
par conséquent déclassé certains laboratoires
au profit d’autres. Or un indice mesurant la productivité
d’un chercheur et d’une équipe doit lui-même
être évalué en fonction du dispositif qui le
produit pour déterminer sa fiabilité et sa validité.
De manière générale, toute évaluation
doit obéir aux trois qualités suivantes : validité,
commodité et robustesse [8].
La validité reste la notion la plus délicate à
préciser alors même qu’elle devrait être
la qualité première de toute évaluation. Une
évaluation est d’autant plus valide qu’elle traduit
bien ce qu’il importe d’analyser, en l’occurrence
que l’indicateur bibliométrique évalue bien
la qualité d’une publication. On se situe très
loin de cet objectif en la matière. Dans le champ de l’évaluation,
Jean-Michel Chabot observe qu’il « est préférable
de renoncer à une évaluation dont la validité
serait trop faible ou même incertaine », et il considère
que cette démarche se justifie d’autant plus que «
la commodité [de l’évaluation] serait elle-même
médiocre ». Or dans le domaine qui nous intéresse,
celui de la bibliométrie, la commodité autrement dit
la faisabilité de l’évaluation et son acceptabilité
(du point de vue des experts), sont des plus aisées. Johan
Heilbron encore, observe que « Dans les années à
venir, il sera plus simple et bien moins coûteux de calculer
le facteur d’impact d’une revue ou de construire un
classement des laboratoires en fonction du nombre de publications
et de citations » [9] On voit que ce faisant, on passe, comme
le souligne encore Jean-Michel Chabot, d’une évaluation
critériée à une évaluation normée,
on « établit un classement, (une hiérarchie)
sans se soucier de la valeur intrinsèque de chacun des objets
évalués. »
Ces dérives portent atteinte aussi bien à l’évaluation
en elle-même qu’à l’intérêt
de toute bibliométrie dont on finit par ne repérer
que ses défauts. Pour Nicole Haeffner-Cavaillon, responsable
de la cellule bibliométrie à l’Inserm, «
Il est important d’indiquer que la bibliométrie ne
remplace pas l’avis des pairs mais contribue à enrichir
le débat et apporte une vision « objective »
sur la visibilité des recherches » [10]. Aujourd’hui
force est de constater que nous allons dans le sens d’un appauvrissement,
même si les scientifiques tiennent à déclarer
le sérieux et l’indépendance de leurs évaluations
vis-à-vis des contraintes gestionnaires et bureaucratiques.
Jean-René Cazalets, Président de la section 27 du
CNRS « Comportement cognition cerveau », par exemple,
fait état de la souveraineté des différentes
disciplines dans l’évaluation des revues : «
nous nous appuyons dans chaque discipline sur les compétences
des membres de la section qui connaissent dans leur domaine la valeur
des différentes revues » [11] Jean-Marc Monteil, actuel
conseiller auprès du premier ministre français, directeur
de l’enseignement supérieur entre 2002 et 2007 et nommé
en mars 2007 Président du conseil de l’AERES [12] concluait
un « séminaire sur les indicateurs de production scientifique
des établissements » le 22 novembre 2006 sur ces mots
« il conviendrait, c’est bien le moins, que dans l’évaluation
par les pairs, on n’oublie pas que l’évaluation
la plus scientifique, la plus sérieuse, et la plus objective
réclame que l’on lise les papiers à partir desquels
on porte un jugement »
.
L’évaluation bibliométrique : un dispositif
de servitude
Alors quels que soient les biais méthodologiques de l’Impact
factor, la normalisation des recherches et des chercheurs qu’il
produit en les conformant aux intérêts scientifico-économiques
américains, le quasi monopole qu’il confère
aux organismes scientifiques et éditoriaux américains
sur le "marché" scientifique, le pouvoir de domination
idéologique, linguistique et culturel qu’il apporte
au "rêve américain" [13], il est sans doute
des disciplines scientifiques où sa commodité l’impose
sans compromettre le devenir des recherches et des chercheurs. Mais
il en est d’autres où ce système d’évaluation
constitue une normalisation idéologique à l’intérieur
même de la discipline en favorisant certains courants de pensée
(soluble dans le modèle anglo-saxon) et en en stigmatisant
d’autres (les plus européens). Après avoir été
longtemps rétive au "rêve américain",
l’establishment de la psychologie à l’Université
s’engouffre dans l’évaluation bibliométrique,
dispositif par lequel la Nomenklatura de la psychologie pourra assurer
à terme la promotion des idéologies cognitivo-comportementales
de l’homme performant et l’exclusion définitive
de la psychanalyse de l’université. Une commission
dite AERES/CNRS/CNU a consacré au début de l’été
ce formidable pouvoir de normalisation et de destruction massive,
non sans devoir ménager quelques susceptibilités "françaises".
Conscient de la gravité de la situation, le SIUEERPP [14]
a adressé une lettre à Ewa Drozda, Présidente
de la 16e section du CNU et à Elisabeth Demont, Vice-Présidente,
seules élues syndicales de cette commission.
Le principal opérateur de ce dispositif pour normer, contrôler
et conformer les comportements des praticiens et des universitaires
c’est d’abord et avant tout une manière de parler,
une manière de dire, une novlangue. Comment ici ne pas penser
à ce qu’écrivait Victor Klemperer à propos
de la langue du IIIe Reich : « Et qu’arrive-t-il si
cette langue cultivée est constituée d’éléments
toxiques ou si l’on en a fait le vecteur de substances toxiques
? Les mots peuvent être comme de minuscules doses d’arsenic
: on les avale sans y prendre garde, ils semblent ne faire aucun
effet, et voilà qu’après quelque temps l’effet
toxique se fait sentir. » [15]
La psychologie constitue à l’Université une
discipline rhapsodique rassemblant des espèces théoriques
et méthodologiques très hétérogènes.
En particulier, deux de ses composantes, la psychologie expérimentale
et la psychologie clinique, négocient depuis 1947, date de
la création de la licence de psychologie, chacune à
leur façon des parts de cotation en bourse sur le marché
universitaire. Jusqu’à une date récente, cette
partie se menait avec d’un côté pour la psychologie
« scientifique » les atouts d’une méthode
imitant celle des sciences de la vie et de l’autre pour la
psychologie clinique les atouts de la demande sociale étudiante.
Au niveau de cette partie de cartes entre les courants de la psychologie,
schématiquement référés pour l’un
aux sciences du comportement et pour l’autre aux cliniques
de l’intersubjectivité, les atouts se distribuaient
avec plus ou moins de bonheur au moment de la donne selon que les
exigences sociales et professionnelles prévalaient sur les
réquisitions scientifiques et inversement. Alors selon les
moments historiques, ces deux moments tendaient plus ou moins à
l’unité centripète ou à la sécession
centrifuge. Mais grosso modo, comme le dit notre ami Jean-Léon
Beauvois, il y avait un accord tacite pour que les cliniciens fournissent
les gros bataillons des effectifs étudiants susceptibles
de peser dans la dotation de postes universitaires et qu’en
échange, les expérimentalistes habillent la discipline
d’un label de scientificité qui puisse la voir doter
en crédits de recherche et en reconnaissance institutionnelle
( type CNRS).
Cet équilibre, fragile il est vrai mais en même temps
suffisamment consistant lorsque les personnes et les institutions
se respectent, a commencé à se rompre à la
fin des années 1980 lorsque certains « experts »,
nourris de la « pensée-mammouth » de Claude Allègre,
ont essayé de normaliser le modèle français
de la psychologie (en particulier la psychologie clinique et la
psychologie sociale) en l’alignant sur le modèle anglosaxon.
Or, il faut savoir que si aux Etats-Unis la psychanalyse a pu constituer
une référence majeure en psychiatrie, elle n’est
quasiment jamais parvenue à infiltrer le champ de la psychologie
universitaire américaine qui lui est toujours resté
fortement rétif. Bien au contraire, c’est en se servant
de la psychologie, en particulier de la psychologie différentielle
que la psychiatrie américaine a fabriqué le fameux
DSM III dont la publication et la référence d’autorité
en 1980 ont signé l’acte de décès de
la psychopathologie classique.
A suivre cette analyse, il faut bien comprendre que lorsque les
experts nous demandent de nous soumettre aux critères internationaux,
c’est-à-dire états-uniens et au modèle
anglosaxon en général, cela veut dire qu’ils
nous invitent purement et simplement à disparaître…
Nous demander d’adhérer à une « évaluation
» de nos recherches à partir des critères des
sociétés et des publications « nord-américaines
», c’est purement et simplement nous inciter à
consentir à notre extermination.
C’est justement ce dispositif de l’évaluation,
dans le champ qui est le nôtre, qui a permis de transformer
un rapport de forces entre les différentes théories
et les différentes pratiques en rapports de légitimité.
Prenons un exemple des plus récents. Depuis le début
des années 1990, l’évaluation des équipes
de recherche et des dossiers de candidature à des qualifications
ou à des nominations s’est toujours davantage fondée
sur le taux numérique de productivité d’articles
dans des revues dites « qualifiantes » de la psychologie.
Et au fur et à mesure des années, les experts qui
souhaitaient éliminer la psychanalyse du champ universitaire
ont tenté de ne retenir comme revues qualifiantes, par exemple
en psychopathologie, que les revues a minima indexées dans
PsycINFO, banque de données de l’American Psychological
Association. Un débat véritablement démocratique
au sein de certaines commissions d’évaluation, comme
celle de la 16e section du CNU a permis jusqu’à une
époque récente de faire reconnaître d’autres
revues « actives » en psychopathologie. Mais la pression
institutionnelle s’est sans cesse accrue au cours de ces dernières
années jusqu’à tout récemment exiger
l’indexation des revues dans ISI [16], Medline ou PsycINFO.
Manifestement pour les « exécuteurs » [17] de
la psychanalyse et de la psychopathologie clinique, il fallait aller
plus loin. Dernier acte en date du début de l’été
:
Une commission conjointe AERES/CNRS/CNU a établi «
une première classification des revues de psychologie dont
l’objectif explicite était de proposer aux comités
d’évaluation de l’AERES, aux responsables des
unités de recherche (UMR et EA) et à la communauté
des enseignants-chercheurs et chercheurs en psychologie un outil
commun d’évaluation et d’auto-évaluation
des publications sous forme d’articles scientifiques. »
On aura compris l’importance de cet « outil »
d’évaluation qui vise à définir la taille
des mailles du filet du contrôle social par lesquelles peuvent
passer les laboratoires, les chercheurs et les enseignants en psychologie
pour pouvoir continuer à travailler dans une équipe
de recherche universitaire reconnue, donc validée pour recevoir
des doctorants. Première étape, nous citons, «
la couverture du champ disciplinaire a été assurée
à partir d’une liste des revues la plus exhaustive
de l’APA [18] ». Là rien de nouveau sous le soleil
puisque cet énoncé réaffirme — sans jamais
être interrogé — le principe selon lequel seules
les revues indexées dans PsycINFO, c’est-à-dire
la banque de données de l’APA, ont une existence institutionnelle
pour la communauté française de psychologie. Ce qui
d’entrée de jeu exclut la majorité des revues
françaises de psychanalyse et de psychopathologie clinique.
Deuxième étape, ladite commission décide un
classement des revues en fonction de son impact factor. Après
« le pied dans la porte [19] » de l’exigence d’une
indexation, c’est là le coup de pied dans la porte
pour ouvrir définitivement le contrôle institutionnel
des formations et des recherches en psychologie au magister des
scientistes et la claquer définitivement au nez des cliniciens.
Résultat des courses : avec le classement A, B, C et D, toutes
les revues francophones se trouvent reléguées au plus
bas de l’échelle C et D, à l’exception
de L’Évolution psychiatrique qui avec un faible Impact
factor de 0,57 maintient de justesse sa position en B. Très
peu de revues anglosaxonnes sont classées A en psychologie
clinique et en psychopathologie et quelques unes se retrouvent en
B.
Adopter un tel classement des revues par Impact factor, c’est
à terme non seulement la psychanalyse et la psychopathologie
clinique qui disparaîtraient mais sans doute la plupart des
publications situées dans le champ des humanités.
Sauf à ce que les universitaires de ces différentes
disciplines ne développent des stratégies pragmatiques
et cyniques, consistant par exemple à « gérer
» les citations mutuelles. La pièce n’est pas
terminée et nous ignorons encore quel sera le dénouement
de cette farce aux conséquences potentiellement tragiques.
On retiendra pour l’instant que la prévalence du modèle
états-unien, le handicap de la langue française, les
traditions de notre communauté peu habituée à
développer des « stratégies » de «
marques » issues directement de la logique du marché,
conduisent avec une évaluation par Impact factor à
notre pure et simple extinction à l’université
et dans les institutions de soin.
Le débat a, semble-t-il, été rude et la pression
de l’AERES aurait été dirigée par certains
bureaucrates du CNRS qui, eux-mêmes placés sous la
menace d’une politique de démantèlement, auraient
tenté de justifier la supériorité de leurs
équipes de recherche (EPR et UMR) sur les laboratoires de
l’Université. Pour pouvoir faire la preuve de cette
supériorité, il convenait d’appliquer aux laboratoires
et aux chercheurs universitaires les grilles d’évaluation
du CNRS afin de mettre en évidence que si ces chercheurs
étaient à l’Université c’était
bien parce qu’ils étaient incapables d’être
au CNRS… Dans cette commission, la résistance de certains
universitaires à cette nouvelle OPA scientiste a permis que
provisoirement soit établie une liste B’ incluant,
pour chaque sous-discipline des revues, francophones, indexées,
psycINFO en général, classées C autrement dit
sans Impact factor. Ce qui exclut de fait les revues non francophones
(par exemple sud-américaines) ou encore les revues francophones
reconnues dans notre communauté mais non indexées
dans psycINFO.
Cette récente et sinistre tentative de mise au pas de la
psychanalyse, de la psychopathologie, de la psychologie et d’une
manière générale des humanités, révèle
une fois encore que c’est le rapport de force politique qui
détermine un classement dont la forme quantitative et commensurable
n’est que le prétexte, l’alibi et le fétiche
[20]. On appréciera au passage qu’à propos de
la concession conduisant à classer en B’ des revues
initialement classées en C, la formulation des « censeurs
» fut qu’elles ont été « relevées
par la commission »…
L’ironie de l’histoire veut que les gestionnaires de
la recherche ne sauraient bénéficier de cette excuse
de minorité que l’on pourrait généreusement
accorder à ces « fraîchement convertis »
que sont nos « nouveaux psys » des instances de recherches.
Les gestionnaires de la recherche ne peuvent ignorer qu’au
sein même des sciences dures, la place de la bibliométrie
dans l’évaluation fait l’objet d’études
et de critiques sérieuses. Tout en reconnaissant la commodité
de l’évaluation bibliométrique, les scientifiques
se montrent beaucoup plus prudents que leurs « administrateurs
». Donc ces « bureaucrates » de la Recherche sont
inexcusables, il faut le répéter, ils se comportent
comme des « exécuteurs » capables de «
modaliser » des critères par un système d’exclusion
de certaines disciplines pour maintenir le fonctionnement d’un
appareil ou la consistance d’une idéologie. Ce qui
ne préjuge en rien de leurs convictions éthiques personnelles
ou de leur dignité politique. Cela veut dire simplement qu’adopter,
pour une communauté, une standardisation technique d’allure
professionnelle la conduisant à exclure une partie d’elle
même mérite que l’on s’interroge au delà
des profits personnels ou idéologiques que l’on peut
en tirer. Ce qui exige un effort supplémentaire dans la culture
du nouveau capitalisme [21].
A contrario de ce cynisme de cette rationalité technique,
nous pouvons saluer la prudence et l’humour d’un Philippe
Vernier, Président de la section 24 du CNRS « Interactions
cellulaires », écrivant : « Pour l’évaluation,
la bibliométrie est un peu comme le sel dans la soupe. Sans
lui on a du mal à savoir si elle est bonne ou mauvaise. Mais
il ne fait pas le plat pour autant, et point trop n’en faut.
», ou encore « il faut bien sûr de la vertu pour
vraiment lire ces articles (et pas seulement le titre) […].
C’est pourtant la démarche qui est de loin la plus
utile à une évaluation efficace et juste [22]. »
Non sans devoir rajouter avec de Tocqueville que le despotisme
qui est venu s’établir de nos jours dans nos régimes
démocratiques possède d’autres caractères
que ceux que l’on accordait traditionnellement aux régimes
autoritaires : « il serait plus étendu et plus doux,
et il dégraderait les hommes sans les tourmenter. [23] ».
D’ailleurs ce despotisme qui asservit nos contemporains concerne
moins les grandes affaires, les grandes choses, que les petits détails
de leur existence quotidienne. C’est d’ailleurs, ce
despotisme -là qu’avait également anticipé
de Tocqueville en dénonçant son plus puissant, son
plus dangereux et son plus secret ressort : « La sujétion
dans les petites affaires se manifeste tous les jours et se fait
sentir indistinctement à tous les citoyens. Elle ne les désespère
point ; mais elle les contrarie sans cesse et elle les porte à
renoncer à l’usage de leur volonté. Elle éteint
peu à peu leur esprit et énerve leur âme [24]
». Ce que n’avait pas anticipé de Tocqueville,
C’est que les illusions libérales puissent nous rendre
heureux dans cette sujétion [25].
Notes
[1] AVIS 101 du CCNE pour les sciences de la vie et de la santé
« Santé, éthique et argent : les enjeux éthiques
de la contrainte budgétaire sur les dépenses de santé
en milieu hospitalier ». p. 16.
[2] Luc Buée, Jacques Brocard, Francis Castets, Thierry
Galli, 2006, « La bibliométrie est une science ? »
La Lettre des Neurosciences, n° 30, p. 7.
[3] voir l’analyse des pratiques par Beauvois et Pansu (2008).
Facteur d’impact et mondialisation culturelle. Psychologie
Française, 53, 211-222
[4] Etienne Hirsch, 2006, « Bibliométrie : l’avis
des Présidents de section ». La Lettre des Neurosciences,
n° 30, p. 14.
[5] Luc Buée, Jacques Brocard, Francis Castets, Thierry
Galli, 2006, « La bibliométrie est une science ?
[6] www.pnas.org/cgi/doi/10.1073/pnas.0507655102
[7] Johan Heilbron, 2002, « La bibliométrie, genèse
et usages ». Actes de la recherche en sciences sociales, 2,
141, p. 78-79.
[8] Cf. Jean-Michel Chabot, 2007, « Évaluation : vademecum
». Communication personnelle. Jean-Michel Chabot est Professeur
de santé publique et conseiller médical auprès
du directeur de la Haute Autorité de Santé (HAS).
[9] Johan Heilbron, op. cit., p. 79, souligné par nous.
[10] Nicole Haeffner-Cavaillon, 2006, « Les indicateurs bibliométriques
à l’Inserm ». In : La Lettre des Neurosciences,
n° 30, p. 12, souligné par nous.
[11] Jean-René Cazalets, 2006, « Bibliométrie
: l’avis des Présidents de section ». La Lettre
des Neurosciences, n° 30, p. 15.
[12] AERES : Agence d’Évaluation de la Recherche et
de l’Enseignement
[13] voir Tiberghien et Beauvois (2008). Domination et impérialisme
en psychologie. Psychologie Française, 53, 135-155
[14] SIUEERPP : Séminaire Inter-Universitaire Européen
d’Enseignement et de Recherche en Psychopathologie Clinique.
[15] Victor Klemperer, 1975, LTI La langue du IIIe Reich. Paris
; Albin Michel, 1996, p. 40.
[16] Information Sciences Institute.
[17] Harald Welzer, 2005, Les Exécuteurs Des hommes normaux
aux meurtriers de masse. Paris : Gallimard, 2007.
[18] American Psychological Association
[19] Robert-Vincent Joule, Jean-Léon Beauvois, 1998, La
soumission librement consentie, Paris, puf.
[20] Alain Abelhauser, 2008, « le chiffrage de la clinique
». LNA, N° 8, p. 52.
[21] Cf. Roland Gori et Marie-José Del Volgo, 2008, Exilés
de l’intime. Paris : Denoël.
[22] Philippe Vernier, 2006, « Bibliométrie : l’avis
des Présidents de section ». La Lettre des Neurosciences,
n° 30, p. 17.
[23] Alexis de Tocqueville, De la Démocratie en Amérique.
Paris : Garnier-Flammarion, 1981, p. 384.
[24] Alexis de Tocqueville p. 387
[25] Beauvois, Les illusions libérales, individualisme et
pouvoir social, Presses Universitaires de Grenoble
|
|