Back to
Point de vue
Publié le :
Vendredi 01 Septembre 2017
L’évaluation, en elle-même, désigne une pratique qui ne concerne pas seulement le champ des politiques publiques et dont l’utilité peut être pensée en dehors de toute considération démocratique – tout type d’institution, toute forme de régime peut estimer nécessaire de disposer d’informations fiables sur l’efficacité de ses agents et de ses organismes. Dès lors, la question qui nous est posée est celle de savoir à quelles conditions les évaluations de politiques publiques rendent un service à la vie démocratique et enrichissent les débats qui la traversent.
évaluation

Cette question n’est pas nouvelle : elle était déjà placée au premier plan des enjeux de l’évaluation par Patrick Viveret dans le rapport qu’il rédigea en 1989 à l’attention de Michel Rocard[1]. Les critères qu’il mettait alors en avant pour assurer les bienfaits démocratiques de l’évaluation des politiques publiques demeurent d’actualité : garantie d’indépendance, garantie de compétence et de rigueur, garantie de transparence, garantie de pluralisme et droit de saisine citoyenne.

Ces critères visent à parer au risque que l’évaluation – comme d’autres formes d’expertise – fait courir à la démocratie : celui d’une capture du pouvoir par les détenteurs d’un certain savoir spécialisé, ou par des porteurs d’intérêts particuliers s’appuyant sur un processus faussement neutre pour manipuler l’opinion et préempter des choix politiques. Juger la « valeur » d’une politique – ce que désigne le mot « évaluation » –, dire « ce qu’elle vaut » et si elle mérite d’être engagée, poursuivie, amplifiée ou suspendue, c’est en effet en démocratie une prérogative qu’il revient au peuple d’exercer, directement ou par l’entremise de ses représentants élus.

Comment alors s’assurer que la connaissance produite dans le cadre des évaluations contribue bel et bien au partage démocratique du savoir et du pouvoir, et non pas au renforcement de la concentration technocratique des outils de la décision ? En première approche, on peut définir deux impératifs, portant sur le rapport que les évaluations doivent entretenir avec leur destinataire, destinataire qui ne saurait se limiter au pouvoir exécutif.

  • S’il s’agit de mettre une pratique scientifique au service du caractère démocratique d’un régime politique, il importe que les résultats issus de cette pratique soient mis à disposition des citoyens et de leurs représentants sous une forme et selon des modalités qui leur permettent de se les approprier activement.
  • Il importe également que les évaluateurs ne préemptent pas les choix politiques mais qu’ils apportent au citoyen-décideur et à ceux qui le représentent une pluralité d’informations leur permettant d’adopter (grâce l’évaluation ex ante) et de juger (grâce à l’évaluation ex post) une politique en connaissance de cause.

Pour nourrir la démocratie sans l’étouffer, les évaluations de politiques publiques devraient donc être capables tout à la fois de dire aussi précisément que possible quels sont les effets de tel ou tel dispositif sur telle ou telle variable, et d’offrir au champ politique, notamment par la prise en considération d’une pluralité de méthodes et de critères d’appréciation, la possibilité de débattre et d’arbitrer entre différentes priorités. Ce double objectif, très exigeant, suppose que de nombreuses conditions soient respectées. Les responsables de l’évaluation en sont la plupart du temps très conscients, mais il est souvent difficile de réunir ces conditions, pour des raisons qui peuvent être aussi bien politiques que techniques.

Où en est-on ? L’expérience de France Stratégie

En matière d’évaluation des politiques publiques, par rapport à d’autres pays, il faut avoir la lucidité de reconnaître que la France partait d’assez loin et dispose encore de marges de progrès, tant l’exécutif a longtemps été en situation de quasi-monopole en matière d’informations exploitables. Néanmoins, depuis quelques décennies, les pratiques d’évaluation se sont peu à peu diffusées dans notre pays, notamment grâce à l’ouverture progressive des données publiques, et à une série d’initiatives visant à rendre plus systématique le recours à des indicateurs d’efficacité pour la décision publique (par exemple la création en 1983 de l’Office parlementaire d'évaluation des choix scientifiques et techniques, la création en 1999 de la mission parlementaire d’évaluation et de contrôle, l’adoption en 2001 de la loi organique relative aux lois de finances, ou encore la création en 2014 du Conseil national d’évaluation du système scolaire).

Au cours des dernières années, France Stratégie, qui compte l’évaluation parmi ses missions, a été amenée à plusieurs reprises à jouer un rôle dans cette évolution des pratiques, à l’interface entre différents acteurs de l’évaluation et de son appropriation démocratique – notamment le Gouvernement, les administrations, les équipes de recherche spécialisées, le législateur, les partenaires sociaux, la société civile organisée et les media.

Deux exemples peuvent illustrer cette fonction d’intermédiaire entre les producteurs d’évaluation et ceux qui en font usage dans la sphère politique : d’une part la mise en place ponctuelle, en 2015, à l’initiative du ministre de l’économie d’alors, Emmanuel Macron, d’une commission chargée de fournir des éléments de comparaison internationale permettant d’anticiper les effets de plusieurs dispositions du projet de loi pour la croissance et l’activité qu’il portait ; d’autre part l’installation, prévue par la loi de finances rectificative pour 2012, d’un Comité de suivi du crédit d’impôt pour la compétitivité et l’emploi (CICE).

Le premier exemple a révélé que, malgré les délais très resserrés de l’exercice et donc malgré l’impossibilité de construire une véritable concertation autour de ces travaux relevant de l’évaluation ex ante, il existait sur la scène publique, dans les media comme dans les débats parlementaires, une demande importante et réelle d’éclairages sur ce qu’il était permis d’attendre des mesures proposées par le Gouvernement.

Ce constat, par contraste, fait ressortir le caractère aujourd’hui bien souvent très insuffisant des études d’impact annexées aux projets de lois. Et il doit inviter les pouvoirs publics à réfléchir aux méthodes qui permettraient de systématiser le recours à des évaluations contradictoires et publiques en amont de l’adoption des textes. Aujourd’hui encore, les nécessités du calendrier politique ne permettent presque jamais de conduire des évaluations ex ante, susceptibles d’éclairer le débat sur les avantages comparatifs de différentes options disponibles. L’exploration préalable du champ des possibles, à partir de plusieurs scénarios, chacun évalué à l’aune d’une série de critères communs – à l’image de ce que réalise le Conseil d’orientation des retraites – permettrait d’éclairer sous un jour plus complet les enjeux d’un sujet, de préparer la décision, mais aussi de préciser par anticipation les objectifs sur lesquels le dispositif adopté sera évalué ex post, une fois qu’il sera mis en œuvre.

L’expérience du Comité de suivi du CICE, qui compte à présent quatre années d’existence, permet désormais d’avoir un recul plus important sur les conditions de réussite d’une évaluation à la fois scientifique et concertée. Tout d’abord l’instauration de ce comité par la loi lui a conféré d’emblée une certaine légitimité et une grande responsabilité. Il s’agissait en effet de rassembler dans une même enceinte des parlementaires[2], les partenaires sociaux, des personnalités qualifiées comme experts et les administrations, pour (i) rendre compte, au fil du temps, de la réalité du déploiement concret d’un dispositif ; (ii) concevoir les questions évaluatives et créer, par des appels à projet de recherche, les conditions d’une évaluation plurielle, indépendante et rigoureuse des effets du CICE ; (iii) interpréter, de façon consensuelle, les résultats de ces travaux pour établir un diagnostic partagé.

Quels étaient les défis de nature démocratique que le comité a dû relever ? Il fallait à la fois mettre en œuvre la volonté du législateur et estimer les effets de la mesure qu’il avait votée à l’aune des objectifs qu’il avait lui-même définis (la compétitivité, les marges des entreprises, l’emploi…) et tenter de prendre en compte d’autres effets, peut-être inattendus (la distribution de dividendes, les réactions au préfinancement…), que différents acteurs sociaux souhaitaient connaître mais qui n’étaient pas prioritaires parmi les objectifs initiaux.

De même, il fallait respecter l’obligation de produire un rapport chaque année pour répondre à l’attente politique exprimée par le législateur et relayée par les media – indiscutablement légitime, compte tenu de l’importance des sommes d’argent public engagées dans le dispositif –, tout en composant avec les délais de disponibilité des données (les données individuelles d’entreprise pour 2014 n’ont été rendues disponibles et n’ont pu être exploitées qu’en 2016) et avec le temps nécessaire aux chercheurs pour produire leurs estimations et au comité pour les interpréter.

L’indispensable intermédiation

Ces tensions entre différents impératifs découlent directement de l’ambition de produire des évaluations à la fois rigoureuses sur le plan scientifique et susceptibles d’éclairer le débat démocratique. Il appartient à d’autres de juger le travail accompli par France Stratégie en la matière, mais l’expérience du CICE montre quoi qu’il en soit la nécessité de disposer d’instances dédiées, chargées d’organiser la convergence entre divers acteurs qui ne parlent pas le même langage, qui ne dépendent pas du même type d’institutions, ne sont pas soumis aux mêmes impératifs et n’évoluent pas dans les mêmes temporalités. Lorsque le critère de l’indépendance n’est pas directement satisfait par l’instance qui pilote l’évaluation (comme c’est le cas pour France Stratégie, rattachée à l’exécutif), on s’efforce de le compenser par la définition a priori de procédures contraignantes, garantissant la participation d’une pluralité suffisante d’acteurs et la publicité des travaux menés.

Parce que, par elles-mêmes, les équipes de recherche ne se caleront jamais sur les calendriers politiques, parce que les administrations ne seront pour leur part jamais assez indépendantes pour évaluer leurs propres actions, parce que les élus chercheront toujours spontanément à faire prévaloir les options conformes à leurs convictions, parce que les syndicats de salariés et d’employeurs auront besoin de diagnostics partagés pour conduire le dialogue social, il est nécessaire de disposer de « tiers de confiance », qui créent les cadres dans lesquels peut s’élaborer une connaissance concertée des politiques publiques et de leurs effets et font connaître leurs travaux aussi largement que possible.

Suffit-il pour autant de « diffuser » les résultats des évaluations, fût-ce en les accompagnant de « pédagogie », pour s’assurer que les citoyens sont en mesure de se les approprier ? Deux éléments paraissent ici indispensables pour que le grand public se saisisse effectivement des évaluations de politique publique.

Le premier est que ces évaluations doivent répondre aux questions que les citoyens se posent eux-mêmes – faute de quoi ils ne s’y intéresseront tout simplement pas. Cela suppose que les préoccupations et les priorités de l’opinion soient prises en compte en amont, au moment de l’élaboration des critères sur lesquels sera jugée telle ou telle politique.

Le second est que la forme prise par les résultats de l’évaluation doit pouvoir être relayée par les media sans être déformée. Il ne sert à rien de reprocher à la presse de distordre les résultats qui lui sont transmis si les impératifs qui lui sont propres (notamment la nécessité d’articuler ces résultats à des débats ou à des événements relevant de « l’actualité » au sens large) n’ont été considérés à aucune étape de la fabrique de l’évaluation. Là encore, la réponse semble se situer dans la construction d’instances et d’espaces de convergence et d’intermédiation, où les différents acteurs de la vie démocratique peuvent coopérer, chacun dans son rôle, en partageant le souci du bien commun.

Mettre de la démocratie dans l’évaluation ?

Au final, le défi consiste à bâtir les systèmes institutionnels qui permettront de marier l’exigence démocratique et la rigueur des travaux d’évaluation ; ceci suppose de s’interroger sur l’articulation des différents rouages de la vie démocratique avec les procédures d’évaluation. À ce titre, il convient de se pencher au premier chef sur le rôle du Parlement qui, aux termes de la Constitution telle que révisée en 2008 « vote la loi, contrôle le Gouvernement et évalue les politiques publiques », mais ne jouit pas, en France, des moyens dont dispose par exemple en la matière le Congrès américain, avec la division évaluation du General Accounting Office (GAO). Le pluralisme dans la définition des objectifs et des critères d’évaluation et dans l’interprétation des résultats serait sans doute mieux garanti si l’instance chargée de coordonner les évaluations des politiques publiques nationale dépendait de la représentation nationale plutôt que de l’exécutif – ce qui suppose en particulier un accès renforcé des parlementaires aux données des administrations.

On peut certes attendre de la publication en ligne de données ouvertes qu’elle permette à d’autres types d’acteurs d’entreprendre des démarches d’évaluation et de verser leurs analyses au débat public. Pour autant, l’open data à lui seul ne saurait garantir une appropriation citoyenne des questions d’évaluation, car cette appropriation suppose, comme on vient de l’expliquer, des médiations institutionnelles.

Au-delà même de l’enceinte du Parlement, si l’on attend des citoyens qu’ils tiennent compte des évaluations, il faut que les évaluations tiennent compte des citoyens. Autrement dit, il ne faut pas se contenter de communiquer sur les résultats obtenus, il faut également œuvrer à ce que Pierre Rosanvallon appelle l’exigence de « lisibilité » du gouvernement[3] – qu’il distingue de la simple nécessité de la « visibilité » de son action. Une action publique n’est réellement « lisible » que s’il existe un langage commun aux différents acteurs permettant d’en décrire les enjeux, que les citoyens peuvent se réapproprier pour la commenter, la discuter et faire vivre le débat.

Pour y parvenir, il convient sans doute de lier institutionnellement les instances chargées d’organiser les évaluations avec celles qui sont responsables des concertations sociales et citoyennes, afin que de ces concertations émergent les grandes questions que les évaluations de politiques aideront à élucider. Comme l’écrit Bruno Latour, « ceux à qui on n’a pas donné l’occasion de reformuler les termes de la question »[4] ne sont pas vraiment consultés ; ce qui revient à dire, en ce qui nous concerne, que l’on ne peut se satisfaire des débats qui se tiennent après les évaluations, si celles-ci sont conduites uniquement sur des critères élaborés par les administrations ; et qu’il faut sans doute même concevoir des débats qui se tiennent pendant les évaluations, de façon à pouvoir les remettre sur le métier à l’aune de nouveaux critères, si nécessaire.

L’une des grandes difficultés, déjà évoquée, de l’articulation entre les démarches d’évaluation et la vie démocratique tient à leurs temporalités souvent déconnectées. La vie démocratique connaît une pluralité de cycles temporels, rythmés par les élections nationales qui déterminent l’orientation politique du gouvernement, par le calendrier de la procédure législative, par l’annualité budgétaire et par le débat public quotidien. Les démarches d’évaluation nécessitent beaucoup de temps, pour recueillir les données et les traiter proprement. Une piste de réflexion, pour surmonter ces conflits, pourrait consister à associer, très en amont, des citoyens, des élus, des responsables administratifs, producteurs de données, chercheurs et journalistes, afin que chacun, conscient des attentes et des contraintes des autres, prenne la mesure de ce qu’il est possible de savoir – et dans quels délais –, afin que l’offre d’évaluation produite réponde, en définitive, à une demande sociale et politique mieux établie.

Enfin, le respect de la rigueur scientifique implique, malgré la force de la demande sociale et la tentation souvent grande de disposer d’une réponse univoque, d’énoncer clairement les limites que rencontre tout processus d’évaluation, c’est-à-dire d’avouer sincèrement, le cas échéant, son incapacité à trancher un certain nombre de questions. Au demeurant, ces limites devraient contribuer à lever toute crainte d’une captation de la décision politique et démocratique par un processus d’évaluation tout puissant. Au contraire, le risque réside bien plutôt dans le fait que certains chantiers d’évaluation ne soient interrompus par les aléas des décisions politiques, lorsque certains dispositifs se trouvent suspendus ou amendés avant même qu’ils aient été complètement évalués. C’est pourquoi, par exemple, il sera important de poursuivre jusqu’à son terme l’examen des effets du CICE sur la période 2013-2017, ce qui suppose des travaux jusqu’à la fin de 2019, quand bien même le dispositif serait modifié d’ici là.

C’est en déployant cette culture institutionnelle et civique de l’évaluation que les citoyens pourront y trouver de l’intérêt et y prendre goût. Et c’est sans doute sous la pression de citoyens familiarisés avec l’évaluation que sera mieux acceptée la conduite de nombreuses expérimentations sur le terrain. Ce faisant, se mettra en place un cercle vertueux leur permettant, ainsi qu’à leurs représentants, d’orienter en meilleure connaissance de cause l’action publique de demain, donc d’exercer pleinement leur liberté démocratique.

Contribution de France Stratégie à l’université d’été du CNESCO, 28 août 2017


[1] Voir Patrick Viveret (1989), L’Évaluation des politiques et des actions publiques. Rapport au Premier ministre, La Documentation française, Paris ; notamment le chapitre 1 « L’évaluation de l’action publique : un enjeu démocratique ».

[2] Des parlementaires représentant aussi bien l’opposition que la majorité ont été intégrés en 2014 au Comité de suivi.

[3] Notamment dans Le Bon Gouvernement, Gallimard, Paris, 2015.

[4] Dans Politiques de la nature. Comment faire entrer les sciences en démocratie ?, La découverte, Paris, [1999] 2004, p. 242.

Auteurs

Fabrice Lenglart, commissaire général adjoint de France Stratégie
Type d'image: 
Libre
Fabrice
Lenglart
Direction Générale
Daniel Agacinski
Daniel
Agacinski
Société et politiques sociales
Tous nos travaux sur  :