INTERVENTION : Le recours biaisé au modèle américain pour légitimer un nouveau style d’évaluation des universitaires a été critiqué par B.Cousin et M.Lamont sur ce site. F.Neyrat reprend le dossier en discutant deux des principales propositions : suppression du localisme et renforcement de la collégialité de l’évaluation. 15 août 2009.
La lecture de l’article de Bruno Cousin et Michèle Lamont est incontestablement roborative, dans le décentrement du regard qu’ils nous proposent. Car c’est bien ce qu’ils font, dans un contexte marqué par une mobilisation exceptionnelle des enseignants-chercheurs (par sa rareté, indépendamment de tout jugement, forcément plus nuancé, sur son étendue et son intensité), en parlant du modèle américain. L’on invoque certes régulièrement ce modèle, et plus encore depuis 2003 et l’invention du « Top 500 World Universities » par l’Université de Shanghai. Les gouvernants, et ceux qui prétendent le devenir, ce fut le cas pendant la campagne présidentielle, se proposent de l’importer, voire disent en avoir adopté les principes. Mais dans ces textes qui prétendent, comme c’est le cas avec la LRU, donner aux établissements français les moyens de contenir les rivaux anglo-saxons (la compétition universitaire mondiale est presque dépeinte comme une nouvelle guerre des étoiles), ils n’acclimatent que les contraintes et les travers, omettant de transposer les libertés et les ressources qui y sont généralement associées.
En d’autres termes, le modèle américain est instrumentalisé puisqu’il n’est pas ce que les modernisateurs de l’université française en disent. Bruno Cousin et Michèle Lamont ne sont pas les premiers à pointer cette distorsion majeure. L’instrumentalisation n’est pas nouvelle : Christophe Charle a montré la récurrence, en France, de cette référence aux modèles étrangers |1|. Anne E. Berger fait clairement apparaître combien l’ université « autonome » née de la LRU est éloignée de ses prétendues « consœurs » américaines |2||. Il reste qu’on ne se lasse pas de la révélation de la supercherie modernisatrice. Et ce d’autant que Bruno Cousin et Michèle Lamont invitent à centrer notre attention sur l’évaluation, axe central de la réforme du statut des enseignants-chercheurs et religion universitaire, nous dit-on, de l’autre côté de l’atlantique. Une religion, certes, mais dont il n’est pas sûr que nous maîtrisions bien, ici, le dogme.
Les conditions d’une évaluation « vertueuse »…
Les auteurs vont dès lors tenter de mettre en évidence les conditions d’une évaluation vertueuse, qui serait pratiquée aux Etats-Unis ; établissant par là même que le cadre législatif et réglementaire nouveau, né de la LRU, s’y prête mal. Ainsi, l’évaluation doit tenir compte des logiques disciplinaires, les conditions du travail scientifique et les formes que prend la restitution des résultats variant fortement d’un champ à l’autre. Or, le risque est grand que dans le cadre des comités de sélection nouvellement mis en place ces spécificités ne soient plus vraiment reconnues. Et de proposer donc pour le limiter le respect d’un certain nombre de principes : « l’indépendance professionnelle de la recherche, qui se fixe elle-même ses objectifs ; la reconnaissance de l’expertise de chacun dans son domaine de compétence ; la croyance de ceux qui jugent en la mission de sélection méritocratique qui leur est confiée ». Il reste, qu’à notre sens, Bruno Cousin et Michèle Lamont exagèrent la rupture, imputée à la LRU, avec la logique disciplinaire. On s’étonne sous ce rapport du durcissement de l’opposition entre commissions de spécialistes et comités de sélection. Il n’est pas vrai que les premières étaient constituées seulement de spécialistes de la discipline. Dans certains établissements, les commissions pouvaient être singulièrement élargies, en toute conformité au texte réglementaire |3|, à plusieurs sections ou un groupe de sections. Quand on sait l’étendue d’un certain nombre de ces derniers, il est délicat de considérer que les commissions de spécialistes étaient toujours disciplinaires |4| . Et dès lors, lorsque cette configuration-là était adoptée, cela permettait en réalité beaucoup de « souplesse » dans les opérations de recrutement, ou dans un autre vocabulaire, des « dérives », la décision pouvant revenir à un tout petit nombre de membres, les autres, ceux n’appartenant pas à la discipline, restant taiseux. Le localisme s’alimentait aussi de ces dispositions. Sous ce rapport –mais il faudrait, au-delà des textes, enquêter, ce qui est en projet, sur les usages du nouveau dispositif – les comités de sélection ne mettent pas fin à un régime qui aurait été vertueux. Et l’exigence d’une effective représentation des membres extérieurs peut constituer une avancée, cependant limitée par le pouvoir de véto du président d’université.
Des mesures de bon sens à l’efficacité bien relative
Mais globalement, les auteurs ne sacralisent pas le dispositif de recrutement en vigueur jusqu’à la LRU. Ainsi, ils pointent à bon droit ces différents éléments qui font système, mais système potentiellement, et trop fréquemment, pernicieux. Les conditions parfois dantesques de l’évaluation des dossiers des candidats, au regard de leur nombre ; la brièveté, donc l’artificialité des auditions censées pourtant permettre de juger l’enseignant et le chercheur ; tout cela conduit à primer les candidats du cru, en le justifiant, au-delà des relations d’interconnaissance, par la nécessité de limiter les risques d’un recrutement raté. Les nouvelles dispositions issues de la LRU, les auteurs le rappellent, ne règlent rien en la matière et l’on est loin des procédures américaines, apparemment plus vertueuses. Et de faire dès lors deux propositions. L’interdiction du localisme, mesure « gratuite et à effet immédiat » ; ou plus coûteux, dans les embauches qu’elle signifie, la réduction des tâches administratives qui pèsent effectivement sur les enseignants-chercheurs, et qui limitent le temps qu’ils peuvent ensuite consacrer à l’évaluation des candidats à l’entrée. On peut douter pourtant de l’efficacité de ces mesures. L’interdiction du localisme d’abord, régulièrement évoquée, et pas seulement ici : encore faudrait-il pouvoir définir ce qu’est un candidat local. Un thésard de l’université ? Mais celui qui a fait toute sa scolarité avant de partir, ailleurs, pour sa thèse n’est-il pas aussi « local « ? Un chargé d’enseignement dans cette université ? A partir de combien d’heures considèrera-t-on qu’il est devenu local ? Et la participation régulière à un séminaire organisé dans un lieu n’atteste-t-elle pas déjà d’un ancrage en son sein ? C’est en général la première caractérisation qui est retenue, même si on le voit, elle est loin d’être suffisante. Si l’interdiction était instituée, on imagine aisément tous les systèmes d’échange, notamment, mais pas exclusivement, entre établissements proches : je recrute l’un de tes thésards et en contrepartie tu fais de même. La circulation des thésards pourra être plus raffinée : les moments de l’échange seront peut-être décalés temporellement, l’échange, éventuellement, triangulaire. Au-delà de ce qu’elle est un verrou insuffisant, contre le localisme, on peut s’interroger également sur l’équité d’une telle disposition. Compte tenu de la carte universitaire et du tropisme, dont on peut prévoir qu’il s’accentuera encore dans les années à venir, vers la capitale, cette mesure donnerait un avantage supplémentaire aux parisiens, soumis à une injonction à la mobilité moins forte. Il nous semble qu’une autre possibilité, peu compatible cependant avec la logique de l’autonomie des établissements serait de nature à limiter ce travers localiste : un vrai concours national, où les candidats, a priori sur tous les postes d’une discipline, seraient auditionnés par un jury, renouvelé chaque année, qui établirait la liste, classée, des « reçus », dont le nombre serait celui des postes proposés par les universités.
Quant à l’idée qu’il faille soulager les enseignants-chercheurs de tâches administratives, si elle nous semble fondée, ce n’est pas simplement par rapport à ceux qui exercent des responsabilités d’évaluation ; cet allègement devrait s’appliquer également aux autres enseignants-chercheurs dont les missions sont d’enseigner et de chercher, fausse tautologie désormais alors que la LRU leur assigne toute une série de tâches et missions centrifuges par rapport à cette définition, et bien entendu chronophages.
Mais au-delà de ces propositions très précises, et toujours sur la base d’une analyse du modèle américain, la dimension la plus originale du propos des auteurs est peut-être ce plaidoyer pour la collégialité dans l’évaluation. La collégialité, dans ces moments de délibération qu’elle suppose sur des dossiers et des candidats. La collégialité, contre l’évaluation bibliométrique que réfutent les auteurs et dont un dossier récent de la Revue d’histoire moderne et contemporaine conteste d’ailleurs rigoureusement les fondements |5| . La collégialité qui devra, pour s’imposer, cantonner les prétentions managériales, dont l’assise est renforcée par la LRU ; des luttes sont à prévoir au niveau local, rappellent Bruno Cousin et Michèle Lamont, pour faire prévaloir cette logique-là d’évaluation.
Si l’on souscrit bien sûr à la critique bibliométrique, comme à la mise en évidence des tensions, appelées à s’exacerber, entre logiques managériale et disciplinaire, il ne nous semble pas que la collégialité suffise à garantir la qualité de l’évaluation, et pas davantage, comme cela serait le cas aux Etats-Unis, lorsqu’elle est associée à la « croyance en un idéal (et une norme) d’excellence académique ».
Une autre Amérique ?
S’ils dénoncent l’instrumentalisation du modèle américain par les modernisateurs français, Bruno Cousin et Michèle Lamont en donnent en même temps une image assez idyllique, au moins quant aux conditions de l’évaluation. Ils réduisent au vrai la possibilité de la critique à la discussion des valeurs qui fondent le système d’évaluation, notamment cette croyance en l’excellence et la méritocratie, loin du « scepticisme » français. Or, des travaux récents donnent à voir une autre image de l’Amérique académique. On pense à l’ouvrage de Christopher Newfield |6|, qui fait apparaître finalement de profondes similitudes entre le processus à l’œuvre dans les universités de recherche américaines depuis le début des années quatre-vingt et la situation française. L’esprit de collégialité des universitaires d’outre-atlantique ne semble pas avoir résisté aux assauts des comptables et des managers. Mais plus encore, le petit livre de Lindsay Waters, l’un des responsables des Presses de l’Université d’Harvard, paru en 2004 et publié en France en 2008 sous le titre L’éclipse du savoir |7|, davantage centré sur l’évaluation, montre comment les administrateurs ont définitivement pris le pouvoir sur les chercheurs dans une Université passée sous la coupe des marchands. Lindsay Waters décrit ainsi la façon dont s’est imposée une logique petitement comptable dans l’évaluation des chercheurs : à chaque palier de la carrière, un nombre attendu de publications |8| et finalement guère d’appréciation des contenus. Il y a là matière à réflexion quant à l’évolution prévisible, parce que déjà entamée, de l’évaluation des chercheurs en France. L’évaluation « quantitative » est d’autant plus prônée par les gestionnaires et modernisateurs, qu’au-delà de la rapidité et donc de l’économie de moyens qu’elle permet, elle leur donne la possibilité de pénétrer l’univers académique et d’asseoir leur ascendant sur les chercheurs.
Les conditions structurelles de l’évaluation
Mais l’intérêt de l’approche de Lindsay Waters – déformation professionnelle de l’éditeur ?- est aussi de relier l’évolution de l’évaluation aux transformations du marché de l’édition. L’évaluation quantifiée à l’extrême conduit à l’inflation des publications, avec cette conséquence que les ouvrages ne trouvent plus de public. En 30 ans, les ventes d’un ouvrage dans le domaine des humanités serait passé selon l’auteur de 1250 exemplaires en moyenne à 275 |9|. C’est aussi, et là encore les similitudes sont grandes des deux côtés de l’atlantique, le poids relatif des livres et des revues qui est redéfini, suite à l’irruption sur ce marché (ou plutôt son organisation en tant que marché |10|) d’éditeurs aux visées étroitement mercantiles. Outre le coût croissant que cela engendre pour les budgets des universités, cela n’est pas sans conséquence sur l’accès des chercheurs à la publication scientifique.
L’ouvrage de Lindsay Waters est, on l’aura compris, stimulant en tant qu’il décrit les conditions structurelles de l’évaluation, en tout cas de l’évaluation de la dimension recherche, là où Bruno Cousin et Michèle Lamont mettent davantage l’accent sur les conditions « morales » (liées au régime de collégialité) de cette évaluation. En d’autres termes, la collégialité ne garantit pas seule la qualité de l’évaluation. On n’évoquera pas davantage les dysfonctionnements possibles de certains « collèges » d’évaluateurs ; et la façon dont ils peuvent parfois s’affranchir des règles et des principes élémentaires au nom d’une critique prétendument « politique » de l’évaluation « quantitative », qui vient justifier en réalité leur mauvais plaidoyer en faveur d’une évaluation « subjective ».
Le protocole d’évaluation adopté, et la cécité sur les conditions d’accès à la publication, font perdre tous les bénéfices éventuels de la collégialité. Ainsi, l’évaluation « au CV », telle qu’elle se pratique au niveau local, dans les commissions de spécialistes hier, dans les comités de sélection aujourd’hui (la continuité est manifeste), mais aussi trop souvent dans les instances nationales (CNU, Comité national) conduit aux dérives quantitativistes. On évalue sur une durée qui est davantage celle de l’exercice comptable que celle de la recherche approfondie. On compte les publications (mais aussi par exemple les participations aux colloques), on introduit une prétendue dimension qualitative en hiérarchisant les supports de publication (les fameux classements de revues, heureusement encore contestés). Et c’est sans doute pour cela que dans l’esprit et les pratiques de ces nouveaux comptables de la recherche les ouvrages pèsent de moins en moins : la hiérarchisation est moins facile a priori, puisqu’il n’y a pas de comités de lecture, puisque le travail éditorial est désormais souvent réduit à sa plus simple expression. Il s’agit donc de compter les publications et d’en établir, dans une pesée globale et extérieure, la valeur. Mais l’on entre de moins en moins dans les travaux, on lit de façon cursive, pour toutes sortes de bonnes raisons dont la première est en sciences humaines la pléthore des candidats sur un nombre très réduit de postes au recrutement ou pour un nombre réduit de promotions possibles. On compte, et l’on pense ainsi objectiver la mesure. Sans avoir fait le vrai travail d’objectivation, celui-ci préalable, qui consisterait à décrire l’économie des revues et de l’édition plus généralement, un peu à la manière de ce que fait Lindsay Waters. Avant de considérer un dossier d’un docteur, candidat à un poste de maître de conférences, comme léger en publications il faudrait s’interroger sur les fenêtres possibles de publication et les mettre en regard avec le nombre des prétendants à la publication. C’est aussi de l’économie des comités de rédaction (qui y participe ? depuis combien de temps ? à quelle équipe de recherche est-il rattaché ?) dont il ne semble plus possible de faire l’économie.
Ces exigences, qui viennent s’ajouter à celle de la collégialité de l’évaluation, s’imposent d’autant plus alors que l’évaluation de la recherche va s’imposer à tous les enseignants-chercheurs à toutes les étapes de la carrière. Jusque-là l’évaluation, passé le moment du recrutement, était, si l’on peut dire, du ressort de l’enseignant-chercheur qui la sollicitait à différents moments de sa carrière par rapport à des demandes spécifiques qu’il faisait. On pense bien sûr aux promotions (par exemple pour le passage de professeur de « deuxième classe » à professeur « de première classe »), ou à la qualification supérieure (un maître de conférences demandant la qualification en tant que Pr). Mais les détachements au CNRS ou même, dans un autre registre, la sollicitation d’un contrat de recherche donnaient lieu aussi à évaluation.
Il reste que dans l’article de Bruno Cousin et Michèle Lamont, comme dans nos remarques présentes, l’évaluation envisagée est pour l’essentiel celle des activités de recherche. Or, désormais c’est également sur l’activité pédagogique et la conduite d’autres missions (par exemple en matière d’insertion professionnelle…) que se réalisera l’évaluation des enseignants-chercheurs. C’est aussi sur les conditions de cette évaluation-là, moins contrôlées encore, qu’il faudrait pouvoir revenir.
|1| Christophe Charle, « Les références étrangères des universitaires », Actes de la recherche en sciences sociales, n°148, juin 2003. Voir aussi C.Charle “La LRU dans une perspective européenne”, Mouvements, 55-56
|2| Cf. une version plus longue de sa tribune parue initialement dans Libération du 20 décembre 2007 : |->http://www.sauvonslarecherche…
|3| Article 2 du décret 88-146 du 15 février 1988.
|4| Le groupe 4 est formé par par exemple la psychologie, la philosophie, les arts, la sociologie, l’anthropologie, l’histoire, la géographie, l’aménagement.
|5| Cf. dans la Revue d’histoire moderne et contemporaine, n° 55, mai 2008 les contributions de Ghislaine Filliatreau et Yves Gingras
|6| Christopher Newfield, Unmaking the Public University. The Forty-Year Assault on the Middle-Class, Cambridge, Harvard University Press, 2008.
|7| Lindsay Waters, L’éclipse du savoir, Allia, Paris, 2008. Edition originelle Ennemies of Promise : Publishing, Perishing, and the Eclipse of Scholarship, Prickly Paradigm Press, Chicago,2004.
|8| Lindsay Waters, op. cit., note 1 pages 34 et 35
|9| Lindsay Waters, op.cit. p 63. On ne connait la source précise de ces données ni le champ de la statistique.
|10| « En 1980, 65% du budget des acquisitions allaient aux livres et 35% aux revues, à présent, en 2003, c’est 20% pour les livres, et 80 % pour les revues ». Lindsay Waters, op.cit. p 64.