A l’heure où l’ONU fait du 20 octobre la journée mondiale de la statistique, Didier Gelot rappelle que l’emprise exercée par Sarkozy sur la communication ne se limite pas aux média, mais touche plus profondément aux outils de base de l’information démocratique. Les statistiques, et en particulier le service de statistique publique, fournissent en effet les paramètres essentiel à la connaissance de la société et à la prise de décision politique. D’où l’enjeu pour la pouvoir de les contrôler et pour le mouvement social d’en garantir le pluralisme.

A l’heure où la communication gouvernementale constitue un des principaux outils de l’action publique et que les indicateurs chiffrés, quelle qu’en soit la qualité, sont édifiés en vérité absolue, contrôler les lieux de production de l’information statistique ainsi que les médias publics ou privés qui la commentent constitue un enjeu stratégique pour le gouvernement et, en tout premier lieu, pour le Président de la République. Concentration de l’information chiffrée dans les mains de quelques décideurs, souvent membres des cabinets ministériels, réduction de la statistique publique à un outil de la communication présidentielle, telles sont les conséquences des réformes qui se sont multipliées ces dernières années. Dans un tel contexte, peu importe que la production de données incontestables, et que le libre accès de tous à une information fiable et non faussée, soient des conditions indispensables à l’exercice de la démocratie. L’heure est à la mise au pas du système statistique public.

Cette volonté de soumettre l’information économique et sociale au contrôle des pouvoirs publics n’est pas nouvelle. De tous temps ce contrôle a constitué un enjeu d’État. Il est aujourd’hui au cœur des réformes gouvernementales. Plusieurs événements ont, au cours de ces dix dernières années, ponctué la reprise en main de l’information statistique. Dans un premier temps il s’est agit de supprimer les organismes qui pouvaient constituer les lieux d’une expertise différente de celles des administrations gouvernementales. Plus tard, l’évaluation des politiques publiques a été remplacée par la production d’indicateurs chiffrés censés rendre compte – à eux seuls – des multiples dimensions de l’action publique. Aujourd’hui l’action gouvernementale tend à ne plus être évaluée en fonction des travaux menés par des spécialistes de la statistique et de l’évaluation des politiques publics indépendants du pouvoir, mais par le biais de sondages commandités par le gouvernement. Il ne s’agit plus de rendre compte aux citoyens de l’action de l’Etat mais de communiquer, plus d’éclairer le débat social mais de venter les mérites du gouvernement. Aujourd’hui, avec le gouvernement Sarkozy, une nouvelle étape vient d’être franchie.

La disparition d’une véritable évaluation des politiques publiques

La décennie quatre-vingt-dix a été marquée par une forte production évaluative dans les principaux domaines de l’intervention publique. Ainsi, en dépit des limites de ce type d’exercice, et une insuffisance de moyens, les politiques initiées par la gauche de réduction du temps de travail (les 35 heures) ou de création d’emplois publics (les emplois jeunes) ont pu être évaluées dans des conditions respectant les critères de déontologie et de transparence en vigueur à l’époque |1||. De la même manière, la décentralisation de la formation professionnelle décidée en 1993 par le gouvernement Balladur a fait l’objet d’un important travail d’évaluation prévu par la loi quinquennale.

Ces évaluations relevaient initialement du Conseil Scientifique de l’Évaluation (CSE) créé en 1990 |2|. Institution indépendante, rattachée au Commissariat général du plan (aujourd’hui remplacé par le Centre d’Analyse Stratégique), le CSE disposait de moyens propres pour évaluer les politiques publiques qui étaient soumises à son appréciation. Il mobilisait, pour son fonctionnement des moyens importants qui lui étaient attribués par le Comité interministériel d’évaluation (CIME). Il faisait appel à l’ensemble des disciplines susceptibles de concourir à une évaluation des effets directes et indirectes des politiques mises en œuvre (économie, statistique, sociologie, sciences politiques…) et mobilisaient les grandes institutions publiques (INSEE, Cour des comptes …). Cette instance est ensuite tombée en désuétude et a été remplacée en 1998 par le Conseil National de l’Évaluation (CNE), mais dont les moyens ont été amoindris. Le CNE tomba lui aussi en sommeil et ne fut plus renouvelé.

Ce processus, qui initialement se voulait pluraliste et démocratique (par l’obligation de transparence des résultats), a cependant assez vite été ressenti par les responsables politiques comme un frein au contrôle de l’information produite. De fait, les membres du conseil scientifique du CNE au fil du temps n’ont plus été renouvelés, avant que celui-ci ne soit purement et simplement supprimé en juillet 2008. Cet épisode n’est pas sans rappeler le précédent de la suppression du Centre d’études sur les revenus et les coûts (CERC), jugé trop indépendant dans son analyse des inégalités en France, et son remplacement par le Conseil de l’emploi des revenus et de la cohésion sociale en avril 2000. Ce tour de passe-passe constituait déjà un premier signal de cette volonté de reprise en main des organismes d’analyse sociale et économique.

La dictature des indicateurs

A l’évaluation pluraliste des programmes gouvernementaux s’est par la suite substituée une politique initiée au début des années 2000 par la Commission européenne dans le cadre de la Stratégie de Lisbonne et de la Méthode ouverte de coordination (MOC). Cette nouvelle orientation privilégie la production d’indicateurs de « performance » ou de « résultats » inspirés des théories du New Public Management censés rendre compte de la globalité de l’action publique |3|. Le « Benchmarking » (étalonnage), c’est à dire la mise en concurrence des ministères et les États entre eux, remplacent aujourd’hui l’évaluation transversale et pluraliste. Cette appréciation comparée des résultats des politiques publiques s’est concrétisée en France par la mise en place à partir de 2001 de la LOLF (Loi organique relatives aux lois de finances) qui a porté au plus haut niveau de l’État une politique néolibérale ajustant l’évaluation de l’action publique à l’atteinte d’objectifs purement comptables |4|. Ce faisant, la LOLF importe dans l’administration les méthodes issues de la « gouvernance » d’entreprise |5|.

C’est ainsi que les agents de la statistique publique sont aujourd’hui appelés à centrer une part importante de leur activité sur la production d’indicateurs nationaux et européens. Cette orientation pose la question du choix des indicateurs retenus, des modalités de leur construction, de la régularité de leur production, de la publicité qui en est faite. Elle pose également celle de leur statut. On peut en effet craindre, qu’à terme, les indicateurs quantitatifs ne deviennent la seule forme de l’évaluation des politiques publiques dont les fondements ne pourront être ni critiqués ni questionnés, à partir du moment où ils auront été imposés à l’ensemble des acteurs sociaux. Cette tendance va à l’encontre de ce qui constitue l’originalité du système français d’observation économique et social : la production simultanée d’indicateurs quantitatifs et d’études de fond qui visent à nourrir le débat démocratique dans des domaines aussi variés (pour ne prendre que les statistiques sociales) que le chômage, l’emploi, le pouvoir d’achat, les écarts d’espérance de vie entre catégories de populations, les salaires…

Ce processus de réduction de l’évaluation aux seuls suivi d’indicateurs jugés pertinents, s’accompagne par ailleurs d’une valorisation de méthodes qui font appel à la seule évaluation « expérimentale » des programmes de politiques publique mis en œuvre. Pour illustrer ce propos, il convient de citer l’actuel Directeur général de l’INSEE qui, avant d’être nommé par Nicolas Sarkozy à la tête de l’institut français des statistiques, avait travaillé au FMI et à l’OCDE. En introduction à un séminaire organisé par la Direction des études et des statistiques du ministère de l’emploi en 2009, il se félicitait de «  l’immensité des progrès accomplis par l’évaluation en France ». Selon Jean Philippe Cotis, après 30 ans de suprématie du keynésianisme, durant lesquels « l’idée même d’un lien entre volume d’emploi et coût du travail relevait un peu de l’anathème », dit autrement après avoir longtemps refusé l’idée qu’un faible volume d’embauches pouvaient être lié à un coût trop élevé du travail (salaire direct et cotisations sociales) la France serait en train de « rattraper les pays férus d’évaluation comme le Canada, les États-Unis, la Grande Bretagne ». Pour cela il nous aura suffit de nous approprier les méthodes expérimentales pour lesquels « des progrès très importants ont été accomplis en France depuis 10 ans ».

Ces méthodes sont fondées sur le principe d’une comparaison entre groupe « de traitement » et groupe « témoin » dont les caractéristiques sont les plus proches possibles. En comparant des situations ou des trajectoires de ces deux groupes, ont cherche à en déduire un effet causal d’une action, en l’espèce des politiques sociales dont ils sont ou non bénéficiaires.

Adopter ces méthodes d’évaluation ex-ante dans le champ des politiques publiques, c’est certes introduire des outils qui ont fait leur preuve dans le champ médical dont ils sont issus, mais c’est aussi accepter de mobiliser une méthodologie qui n’est pas sans poser des problèmes étiques lorsqu’elle s’adresse aux bénéficiaires des politiques sociales. Comment accepter de faire volontairement le tri parmi les chômeurs entre ceux qui pourront entrer en formation ou ceux qui pourront obtenir un emploi à seule fin d’évaluation des dispositifs testés. Pendant longtemps la France se distinguait des pays Anglo-saxons par son refus de transformer les individus en « cobayes sociaux ». De ce point de vue, ces méthodes qui créent de toute pièce un programme expérimental, se distinguent des études quasi expérimentales qui prennent comme objet d’analyse des données fournies par l’expérience. Comme l’indiquent Gomel et E. Serverin, qui présentent de manière particulièrement fine et approfondie les termes de l’ensemble de ce débat, « le cadre théorique de ces expériences est clairement behavioriste dans le sens ou il s’agit d’influer sur le comportement des individus en modifiant leur environnement, ce qui conduit à renforcer l’encadrement social » |6|. Les travaux réalisés aujourd’hui pour évaluer par exemple les effets du recours aux organismes privés pour le placement des demandeurs d’emploi, ceux menés pour évaluer l’effet emploi du RSA avant sa généralisation, ou ceux adoptés dans le champ de la formation initiale nous emportent pourtant sur cette voix.

Ces méthodes, initiées au début des années 1990, se sont largement développées suite à la loi constitutionnelle relative à l’organisation décentralisée de la République de mars 2003 qui permet aux collectivités territoriales de déroger à des lois générales, et d’assortir ces expérimentations d’évaluations de même nature. C’est dans ce cadre juridique qu’a été mis en place le nouveau dispositif dédié à la lutte contre la pauvreté ou à l’insertion des jeunes et que des financements importants ont été orientés vers l’utilisation de telles méthodes |7|. C’est vrai pour les fonds attribués à l’évaluation du RSA comme pour celui d’expérimentation pour la jeunesse. Comme le note B. Gomel et E. Serverin « La référence à l’expérimentation est donc aujourd’hui omniprésente dans les politiques publiques ».

Ce ciblage des fonds publics dédiés à l’évaluation vers une méthode unique, et des prestataires eux mêmes restreints |8|n’est pas sans poser problème. Elle risque à terme de tarir toute forme pluraliste d’évaluation, et en particulier celles qui s’intéressent, par le bais d’études sociologiques ou économiques, à l’observation des effets indirect (non attendus) des mesures prises. L’affirmation de la supériorité scientif
ique de ces méthodes revendiquée par leurs promoteurs, avec la notion de « preuve » (evidence), constitue de ce point de vue un signal négatif vis-à-vis des autres modalités d’évaluation.

Une autre caractéristique importante de cette forme d’évaluation est qu’elle associe très étroitement les chercheurs au pilotage de l’action publique, les deux actions se déroulant en parallèle, ce qui n’est pas sans interroger sur l’indépendance nécessaire de la recherche par rapport au pouvoir politique.

En limitant l’évaluation à la politique du « tout indicateur », voire à la production d’un seul chiffre censé résumer toute la complexité des phénomènes étudiés, ou bien en la réduisant à une seule méthode on se prive du regard critique nécessaire à toute évaluation pluraliste et démocratique. On laisse aux cabinets ministériels la possibilité de choisir l’indicateur approprié pour illustrer le bien fondé de la politique gouvernementale, ou celle « d’oublier » celui qui n’entrera pas en résonance avec les besoins du moment.

Contrôle de la statistique publique : mode d’emploi

L’action présidentielle ne s’arrête pas au contrôle étroit des média |9|. Elle s’étend également aux données statistiques qui forment la référence du débat public. Contrôler les données qui permettent à chacun de construire son propre jugement est essentiel pour un pouvoir qui a mis la communication au centre de sa stratégie de gouvernement.

Contrôler la diffusion de l’information

Le premier signe avant coureur de cette stratégie de contrôle s’est traduit par la crise autour des chiffres du chômage. Rappel des faits : début 2007 lorsque l’établissement a constaté, sur la base de l’enquête emploi, que depuis le printemps 2005 (date de nomination de Christian Charpy – un proche du pouvoir – à la tête de l’ANPE), la baisse du chômage, au sens de l’ANPE, était fortement surestimée, la direction de l’INSEE n’a pas hésité à censurer la publication des résultats de l’enquête emploi prétextant des problèmes techniques |10||. Mais ceci n’a pas suffit à maintenir en poste Jean Michel Charpin, directeur de l’INSEE classé à gauche, qui par ailleurs avait eu maille a partir avec Nicolas Sarkozy lorsque celui-ci était ministre de l’économie. Cette première reprise en main a ensuite été complétée par le blocage de nombreuses publications dont le contenu ne semblait pas conforme aux attentes des cabinets ministériels. Cela a été le cas en autre au Ministère de l’éducation nationale où des données aussi importantes que les projections d’effectifs scolaires, le niveau des élèves en CM2, ou encore les prévisions de départs en retraite des enseignants, ont été bloquées en 2008 afin de légitimer la politique gouvernementale de réduction du nombre d’enseignants dans le primaire.

D’autres exemples illustrent la volonté gouvernementale de contrôler l’appareil statistique public. Ainsi de nombreuses publications sont soit retardées soit avancées en fonction des besoins de la communication gouvernementale. De tels procédés privent les citoyens, les associations, les organisations syndicales et la presse de l’information permettant de porter un jugement fondé sur l’action menée et, si nécessaire, de disposer d’éléments utiles à la formulation d’une politique alternative. Citons par exemple les travaux portant sur la pénibilité au travail, l’emploi des seniors, ou les résultats des élections professionnelles qui ont été retardés pour ne pas entrer en concurrence avec l’agenda politique. Citons également les statistiques sur les heures supplémentaires rémunérées qui ont été élaborées à la hâte afin de convaincre tout à chacun de l’utilité du « travailler plus pour gagner plus ». Peu importe que l’augmentation du volume des heures supplémentaires enregistré par les services statistiques du ministère du travail s’explique uniquement par un meilleur enregistrement de ces données. En effet avant la loi de 2007 toutes les heures supplémentaires n’étaient pas déclarées par les entreprises car elles ne donnaient pas droit à une aide financière comme cela a ensuite été le cas lors de la mise en place de la loi TEPA L’important était de communiquer et non d’apporter une information scientifiquement validée |11|.

Réduire la capacité d’étude

Pour poursuivre et amplifier cette logique plusieurs actions ont été engagées. Certaines relèvent de l’application des directives gouvernementales en matière de gestion de l’ensemble des personnels de l’État. D’autres sont plus directement ciblées sur les agents de la statistique publique. La Révision Générale des Politiques Publiques (RGPP) constitue de ce point de vue l’instrument privilégié de la première approche. La RGPP a en effet des conséquences immédiates sur le fonctionnement du système statistique public. Ainsi, pour la première fois de l’histoire du Conseil national de l’information statistique (CNIS), le directeur de l’INSEE s’est prononcé pour que cette instance où siègent des représentants de la société civile (confédérations syndicales, représentants du patronat, associations, personnalités qualifiées, chercheurs, …) entérine la réduction des effectifs et des budgets attribués à la statistique publique et réduise d’autant les projets d’études et d’évaluation qui avaient pourtant été validés au programme de travail de l’INSEE et des services statistiques ministériels. De même, les pressions exercées sur les services statistiques des ministères pour qu’ils privilégient la réponse aux demandes de plus en plus importantes des cabinets, réduit d’autant leur capacité d’études et de recherche, et leur mission d’éclairage du débat public. Tout ceci n’est pas surprenant à l’heure où Nicolas Sarkozy est interpelé par la Cour des comptes pour ses dépenses astronomiques en matière de sondages |12||qui remplacent déjà, aux yeux de l’Élysée, les travaux qui ne sont plus réalisés par les services publics d’études.

Délocaliser les services statistiques

Le transfert en province d’une partie des services de l’INSEE et de ceux de deux des plus importantes directions statistiques ministérielles (DARES et DREES) |13| constitue le second volet du processus de démantèlement de la statistique publique. Une telle décision, prise durant l’été 2008 à la demande du Président de la République, rendra de fait plus difficile la production des données dans un domaine sensible (emploi et salaires). Elle rappelle une opération similaire menée en 2006 lors de la délocalisation, de Londres au Pays de Galles, de l’Office statistique national du Royaume-Unis. Les conséquences désastreuses de cette opération sur la qualité des informations produites ont amené les parlementaires britanniques, et les experts du domaine, à s’interroger sur le bien fondé de cette opération. La banque d’Angleterre elle même a publié un rapport dans lequel elle met en cause la fiabilité des statistiques produites.

En France, une telle opération ne peut s’expliquer seulement par le besoin de créer en province un « pôle national de la statique » afin de remplir les casernes vidées de leurs occupants, mais également par la volonté de maitriser des services qui ont pu, à différentes reprises, montrer leur indépendance. Les conséquences de cette délocalisation risquent de dégrader la qualité de certains pans des statistiques sociales. Les citoyens ne s’y sont pas trompés. Ils ont été plusieurs dizaines de milliers à signer la pétition initiée par le collectif de défense de la statistique publique |14||. Le plus inquiétant est sans doute que la délocalisation d’organismes producteurs d’informations publiques soit décidée par le seul Président de la république en l’absence de tout débat au sein de la représentation nationale.

Créer de nouveaux organismes plus « adaptées »

La création par la loi de modernisation de l’économie de 2008 de la Haute autorité statistique, mise en place suite aux polémiques
sur les chiffres du chômage précédemment évoquée, aurait pu être interprétée comme un contrefeu à ce type de dérive. Dans les faits, on peut craindre qu’il n’en soit rien. En effet, la présidence de cette instance, qui a pour vocation de préserver l’indépendance de la statistique des pressions gouvernementales et de faire respecter la déontologie propre à ce métier, vient d’être confiée à Paul Champsaur (ancien directeur de l’Insee) qui avait présidé en juillet 2007 la mission sur le niveau du Smic et avait proposé de ne pas donner le traditionnel « coup de pouce » au salaire minimum, jugeant sans doute que les évaluations disponibles ne justifiaient pas de telles faveurs.

Dans le même esprit, et sur un sujet particulièrement surveillé par le Président Sarkozy, la création en octobre 2009 de « l’Institut national des hautes études de la sécurité et de la justice » (INHSEJ) en remplacement de « l’Institut national des hautes études de sécurité » a été particulièrement critiquée par les experts du domaine. La création de ce nouvel établissement, conjointement à la transformation de « l’Observatoire national de la délinquance » en « Observatoire national de la délinquance et des réponses pénales » fait en effet craindre aux spécialistes des questions de sécurité, au-delà du changement de sigle, une perte d’indépendance de la statistique et des études dans ce domaine très sensible. Il est vrai que les deux directeurs, A-M Ventre et M. Bauer, sont respectivement ancien secrétaire du syndicat des commissaires de police et conseiller pour la sécurité de Nicolas Sarkozy ce qui fait dire à M Garapon dans un article du Monde du 9 septembre 2009 que l’on assiste à « la réduction de la justice à un suivi de police ». C’est également la crainte de faire table rase des approches pluralistes et des acquis des travaux menés par les universitaires sur ces questions |15||. Ainsi les affirmations de Rachida Dati ministre de la justice jusqu’en 2009, ou celles de Brice Hortefeux en novembre de la même année, en tant que ministre de l’intérieur, sur la prétendue augmentation de la délinquance des mineurs, en contradiction avec les statistiques pourtant disponibles, n’avaient elles pour objectif que de justifier un élargissement de la politique répressive à l’égard des plus jeunes ? Si aujourd’hui les services statistiques du ministère de l’intérieur, qui relèvent de la statistique publique, peuvent encore suivre ce type de données qu’en sera-t-il demain lorsque l’INHSEJ sera maitre d’œuvre dans la production d’indicateurs dans ce domaine ?

Le Contrôle de la statistique publique par le plus haut niveau de l’État

Cette volonté de contrôler la statistique publique s’inscrit dans un contexte plus général de réduction du rôle des sciences économiques et sociales dans l’éducation citoyenne. Les dernières mesures prise par le gouvernement consistant à réduire la part de ces disciplines dans l’enseignement secondaire n’en est qu’une nouvelle illustration. Elles visent à contrôler la représentation de la société, et donc l’interprétation de ses transformations. Multiplier les points de vue par le biais d’enquêtes quantitatives permettant de mesurer à grande échelle les évolutions économiques et sociales majeures, et par celui complémentaire d’études qualitatives permettant d’en éclairer les multiples facettes, est une des conditions indispensables à l’exercice de la démocratie. C’est donc tout un processus, qui va de la construction d’indicateurs pertinents à la mise en place d’études et d’évaluations indépendantes qui est aujourd’hui remis en cause. Et tout ceci parce que les résultats issus de certains de ces travaux contredisent la vision que le gouvernement veut imposer de son action et de ses effets, et montrent au contraire le caractère nocif de la politique menée au cours de ces dernières années. Il importe donc de défendre les outils indispensables à la connaissance de la réalité sociale au risque de ne plus disposer des instruments pertinents pour la critique sociale.

Nous assistons aujourd’hui in fine à une volonté de centralisation des données les plus sensibles dans les mains de l’exécutif. C’est pourtant Nicolas Sarkozy lui-même qui dénonçait en septembre 2009 à la Sorbonne, lors de la remise du rapport Stiglitz sur la mesure de la performance économique et du progrès social, « la religion du chiffre » et qui déplorait que « dans le monde entier les citoyens pensent qu’on leur ment, que les chiffres sont faux, et pire qu’ils sont manipulés ». Il poursuivait en estimant qu’ils « ont quelques raisons d’être dans cet état d’esprit »… C’est pourtant bien le comportement du gouvernement qui, derrière ce discours de façade, alimente une interrogation justifiée sur la qualité d’indicateurs qui décrivent une réalité sociale bien éloignée de celle que vivent des millions de citoyens. De ce point de vue la construction d’un véritable service public de la statistique et de l’évaluation, abrité des pressions politiques, est un combat qu’il importe de poursuivre aux cotés de ceux qui en son sein, comme parmi ses utilisateurs |16|, dénoncent les manœuvres qui veulent réduire les outils de la connaissance à des leviers pour la communication gouvernementale.


|1| Voir en particulier le petit Guide de l’évaluation : |->www.evaluation.gouv.fr/cgp/fr…

|2| Le CSE a été mis en place suite au rapport de Patrick Viveret, L’évaluation des politiques et des actions publiques ; Rapport au Premier ministre, Paris, La Documentation française, 1989.

|3| Robert Salais, « Usages et mésusages de l’argument statistique : le pilotage des politiques publiques par la performance » RFAS N° 1-2 janvier juin 2010, la documentation française, p. 129-147.

|4| Pour une histoire de l’évaluation voir J.C. Barbier « Éléments pour une sociologie de l’évaluation des politiques publiques en France », RFAS N° 1-2 janvier juin 2010, p. 27-51

|5| Voir M. Elbaum « Les indicateurs de performance en matière de politiques sociales. Quel sens pour l’action publique ? » Revue de l’OFCE N° 111 Octobre 2009.

|6| Gomel et Serverin, “Expérimenter pour décider : Le RSA en débat”, Document de travail du CEE n° 119, juin 2009.

|7| Ces travaux s’inspirent largement de ceux engagés aux États-Unis dans le cadre du « Poverty Action Lab. » fondé en 2003 par Esther Duflo aujourd’hui titulaire de la chaire « Savoirs contre pauvreté » au Collège de France

|8| L’École d’Économie de Paris constitue un des principaux, si ce n’est le principal, bénéficiaires des fonds dédiés à l’expérimentation.

|9| Cf. entre autre les pressions exercées par Nicolas Sarkozy envers le Directeur du Monde en vue du rachat du quotidien par les amis du Président.

|10| Voir à ce propos les travaux de contre-expertise menés par le Collectif ACDC : |->http://acdc2007.free.fr/

|11| Voir à ce propos : Lorraine Data Le grand trucage ; comment le gouvernement manipule les statistiques, La Découverte 2009.

|12| |->http://www.ccomptes.fr/fr/CC/…

|13| Respectivement Direction de l’animation de la recherche des études et des statistiques du Ministère de l’emploi et Direction de la recherche des études de l’évaluation et des statistiques du ministère de la santé.

|14| Voir le site du collectif : |->http://sauvonslastatistiquepu…

|15| Voir en particulier les travaux de Laurent Mucchielli |->http://www.laurent-mucchielli.org/

|16| Warin P. 1993, « Vers une évaluation des services publics par les usagers ? » Sociologie du travail, n°3 p. 309-331.