Sommaire N°8

Mai 2004

Brigitte POUSSEUR

Avant-propos

Mieux évaluer et contrôler les politiques publiques

Bernard PERRET

Les lents progrès de l’évaluation de l’action publique

Jean-Yves BION

De l’institutionnalisation à la professionnalisation

Didier MIGAUD

Une révolution en douceur

Claire BAZY MALAURIE

Les missions de la Cour des comptes

Taoufik BEN MABROUK

Les enjeux de l’évaluation

Marc MILET

L’exemple de la réforme très « politique » de la loi SRU

Peter VAN DER KNAAP

L’évaluation en voie de devenir systématique aux Pays-Bas

Richard MARCEAU

Evaluation des programmes publics : l’expérience québécoise

Les premiers pas de l'intelligence économique en France

Christian HARBULOT

L’émergence de l’intelligence économique en France

Bernard CARAYON

Une nouvelle politique publique pour répondre à la guerre économique

Alain JUILLET

L’état relance la dynamique

Rémy PAUTRAT

Une urgente priorité pour les territoires

Philippe CLERC

Vers une nouvelle efficacité des actions des CCI ?

Frédéric SPEZIALE

Midi-Pyrénées : la démarche d’un pôle d’excellence

Paul-André TAVOILLOT

Les acteurs de l’intelligence économique sortent de l’ombre

Christophe BABINET

Un marché bien tiède !

Henri DOU

Quelle intelligence économique pour les PME ?

François JAKOBIAK

Un atout supplémentaire pour les grandes entreprises

Eric DENECE

Une nouvelle démarche clé de la compétition commerciale

Bernard BESSON

Du renseignement à l’intelligence économique

Jean-Jacques RECHENMANN

Protéger les informations vitales

Yves-Michel MARTI

Les pratiques étrangères d’intelligence économique

Alain LE GENTIL

Former des gestionnaires de risques

Laurent-Olivier BOUTTIER

Pourquoi j’étudie l’intelligence économique...

Didier INTES

La guerre des brevets est-elle déclarée ?

Joël REY

Les banques de données, un outil performant

Richard MARCEAU

est professeur titulaire à l’École nationale d’administration publique (Québec) et président de la Société québécoise d’évaluation de programmes.

Partage

Evaluation des programmes publics : l’expérience québécoise

Le système d’évaluation des politiques et programmes publics au gouvernement du Québec est un dispositif implicite qui repose, en partie, sur une pratique administrative de plus de deux décennies et, en partie également, sur la politique de gestion par résultats de l’administration publique. Le nouveau gouvernement libéral devra le renforcer.

Par sa loi sur l’administration publique (mai 2000) qui place la gestion par résultats au centre de la modernisation de l’État, le gouvernement du Québec s’inscrit dans le prolongement de la tendance nord-américaine de la réforme des politiques de gestion visant l’intégration des fonctions stratégiques de l’administration concernant les politiques et les programmes publics. Cette intégration signifie que la veille stratégique, la planification stratégique et la planification opérationnelle des politiques et programmes, la conception des politiques, le suivi de gestion des programmes et l’évaluation sont considérés comme interdépendants.

Un environnement favorable

Pour comprendre le système québécois d’évaluation, il faut nécessairement le situer dans son contexte nord-américain. À partir de 1993, le gouvernement fédéral américain vise à instaurer par le « Government Performance and Results Act » un système de gestion par résultats conduisant à des plans stratégiques quinquennaux, des plans opérationnels annuels et des rapports annuels de performance des programmes publics. Cette politique générale de gestion inclut tout naturellement la politique d’évaluation. Les plans stratégiques doivent contenir un résumé des évaluations de programme et un échéancier des prochaines évaluations. Les plans opérationnels annuels doivent proposer des indicateurs de performance pour mesurer les effets de chaque activité de programme et décrire les moyens utilisés pour vérifier et valider les valeurs mesurées.

Enfin, les rapports annuels de performance doivent inclure les résultats des programmes pour les trois années précédentes, faire le point sur les résultats obtenus et inclure les principales conclusions des évaluations. De manière explicite, la pratique de l’évaluation de programme au gouvernement fédéral américain, qui remonte aux années 60, doit maintenant s’imbriquer dans la politique globale de l’administration publique. Ce faisant, le législateur fédéral américain confère pour la première fois à la fonction évaluation un rôle stratégique incontestable.

Le gouvernement canadien emboîte le pas en 1995 par une première politique de gestion par résultats. Elle vise le dépôt des rapports de résultats et d’engagements en matière de présentation de l’information sur le rendement des programmes publics. Contrairement à son homologue américain cependant, le gouvernement fédéral canadien ne juge pas bon d’y intégrer le système d’évaluation, système pourtant en place depuis la deuxième moitié des années 60. Les pratiques d’évaluation ne tardent pas à s’en ressentir selon le Vérificateur général du Canada. En 2000, une nouvelle politique de gestion vise à renforcer l’orientation donnée en 1995 et accorde cette fois-ci une place stratégique à la fonction évaluation. Le gouvernement avait en effet procédé à un examen de la fonction évaluation et reconnaissait sans détour les conséquences néfastes d’un système d’évaluation évoluant en parallèle avec un système plus global de gestion par résultats. Cette fois-ci, on affirme que l’évaluation serait un moyen important de mesure de la contribution des programmes à l’obtention de résultats particuliers. En 2001, une nouvelle politique d’évaluation confirme le statut stratégique de la fonction évaluation au gouvernement canadien.

Une approche d’abord expérimentale

Dès 1995, le gouvernement du Québec adopte une approche expérimentale et volontaire limitée pour la mise en œuvre d’une politique de gestion par résultats. Basée sur le principe de responsabilisation, cette approche a favorisé comme moyens les unités autonomes de services et la planification stratégique. En l’an 2000, la nouvelle loi sur l’administration publique, toujours en vigueur, établit un nouveau cadre de gestion et met entre autres l’accent sur la planification stratégique. Les ministères et organismes publics doivent conséquemment préciser leur mission, le contexte et les enjeux d’intervention, les orientations stratégiques, les résultats visés et les indicateurs de performance. La loi prévoit des conventions de performance et d’imputabilité pour des unités administratives ou organismes définissant la mission et les orientations, les plans d’action, les indicateurs de résultats et les engagements à produire des rapports de gestion sur l’atteinte des résultats et la comparaison avec d’autres organismes. Enfin, les ministères et organismes doivent rédiger un rapport annuel de gestion et le présenter à une commission parlementaire dédiée à l’administration publique.

Comme on le voit, la gestion publique au Québec constitue un environnement institutionnel favorable à l’exercice d’évaluation de politiques et de programmes publics ne serait-ce que par l’insistance de la Loi sur la justification des interventions publiques (mission, contexte, enjeux…), sur l’usage d’indicateurs de résultats et sur l’obligation de rendre compte de l’atteinte de résultats et de se comparer. Il n’en demeure pas moins que la fonction évaluation ne figure pas explicitement dans la législation. Contrairement aux administrations américaine et canadienne, le gouvernement du Québec n’a pas jugé bon pour l’instant d’octroyer à l’évaluation un statut stratégique dans le dispositif de gestion par résultats. Il faut reconnaître cependant que le Conseil du Trésor du Québec publie dans le cadre de la modernisation de la fonction publique des documents spécifiques sur l’évaluation de programmes. Il est difficile d’imaginer en effet qu’un tel dispositif puisse fonctionner correctement en l’absence d’évaluations significatives.

Priorité à la planification stratégique

Suite à l’analyse de plus de vingt rapports annuels de gestion des années 2001-2002, il apparait qu’environ les trois quarts d’entre eux ont mis l’accent sur les processus et les extrants des programmes et seulement le quart des rapports ont abordé les effets des programmes. L’ambiguïté de la notion de résultat dans la loi sur l’administration publique y est sans doute pour quelque chose. Un mémoire de la Société québécoise d’évaluation de programme avait d’ailleurs tenté de sensibiliser le législateur en commission parlementaire lors de l’étude de la loi sur l’administration publique. Le projet de loi ne distinguait pas les résultats d’effet, des résultats d’opération (extrants) il ne définissait pas non plus la performance de manière chiffrée. Il semble que les ministères et organismes publics ont subi cette ambiguïté. Les conséquences pour le dispositif d’évaluation sont évidentes : dans les trois quarts des cas, on s’est dispensé de rendre compte du dispositif évaluatif. L’accent a été mis sur la planification stratégique au détriment du suivi et de l’évaluation de programme.

Pourtant les évaluateurs sont sur place. La Société québécoise d’évaluation de programme, formée surtout de spécialistes de l’évaluation au gouvernement du Québec, compte plus de 300 membres actifs. Rien qu’à l’École nationale d’administration publique, des centaines de personnes ont été sensibilisées et habilitées à pratiquer l’évaluation de programme. Quelle est l’ampleur exacte des ressources humaines et matérielles consacrées à l’évaluation de programme au gouvernement du Québec ? Le statut informel de l’évaluation ne rend pas possible un inventaire systématique de la fonction. Chose certaine, un rééquilibrage des fonctions stratégiques de gestion des programmes est nécessaire pour la mise en œuvre de la gestion par résultats au Québec.

Des intentions à concrétiser

Cet aperçu de la situation serait incomplet s’il ne faisait pas mention des intentions du nouveau gouvernement en poste depuis l’an dernier, intentions qui sont encore à concrétiser dans le cadre de la réforme de l’administration publique. Le gouvernement libéral souhaite mettre en place un procédé dit de réingénierie qui vise essentiellement à refondre la structure des organisations publiques en répondant aux cinq questions suivantes :

  1. Ce programme répond-il toujours à une mission de l’État ?
  2. Atteint-il ses objectifs ?
  3. Pourrait-on l’offrir autrement à moindre coût en préservant la qualité des services aux citoyens ?
  4. Quelle est la meilleure instance pour en assumer la gestion ?
  5. A-t-on les moyens d’en assumer les coûts ou faut-il en revoir la portée ?

Comment l’évaluation de programme et la gestion par résultats seront-elles affectées par cette nouvelle approche à la réforme de l’administration ? Malgré le débat politique sérieux qui entoure la réingénierie au Québec actuellement, sur quelle base pourrait-on prétendre que ces préoccupations ne sont pas proches parentes de la gestion par résultats et de l’évaluation de programme ? Le gouvernement actuel ne pourra espérer trouver des solutions à long terme sans dispositif systématique comme l’évaluation de programme pour répondre à ses propres questions. Il aura donc besoin de temps, de méthodes, de techniques, d’indicateurs, d’analyses et forcément de compétences que les évaluateurs détiennent et auxquels un gouvernement sérieux se doit de faire appel. L’évaluation de programme est un dispositif incontournable, lorsque correctement déployé, pour la saine gestion publique, en contexte de réingénierie, ou en tout autre circonstance. Force est d’être optimiste sur l’évolution et la formalisation du système d’évaluation au Québec dans les années qui viennent.

Bibliographie

  • Office of Management and Budget, Circular N0. A-11 (2000), Part 2, http://www.whitehouse.gov/omb/circulars/a11/00toc.html l Présidente du Conseil du Trésor, Une gestion axée sur les résultats 2000, Rapport annuel au Parlement, Canada, Octobre 2000, http://www.tbs-sct.gc.ca/report/govrev/00/mfr-gar_f.html
  • Vérificateur général du Canada, La gestion ministérielle axée sur les résultats et la gestion des questions horizontales axée sur les résultats, chapitre 20, Décembre 2000, http://www.oag-bvg.gc.ca/domino/rapports.nsf/html/0020cf.html
  • Secrétariat du Conseil du Trésor, Examen de la fonction d’évaluation au sein du Gouvernement fédéral, Évaluation et examen des programmes, Secteur de la planification, du rendement et des rapports, Mars 2000, Ébauche, http://www.tbs-sct.gc.ca/ep/étude/étude.htm
  • Secrétariat du Conseil du Trésor du Canada, Politique d’évaluation, Février 2001, http://www.tbs-sct.gc.ca/Pubs_pol/dcgpubs/TBM_161/ep-pe_f.html l Gouvernement du Québec, Loi sur l’administration publique, Adoptée par l’Assemblée nationale le 25 mai 2000, sanctionnée le 30 mai 2000 (2000,c.8)
  • Gouvernement du Québec, L’évaluation de programme : document destiné aux dirigeants et dirigeantes de ministères et d’organismes, Québec, 2002, 22 pages
  • Marceau, R., D. Otis et P. Simard, La planification d’une évaluation de programme, dans Management Public, sous la direction de R. Parenteau, PUQ, 1992, pp. 445-480
  • Gouvernement du Québec, Guide sur la convention de performance et d’imputabilité et sur l’entente de gestion, Novembre 2000, http://www.cex.gouv.qc.ca/dra/guideperfor.pdf
http://www.constructif.fr/bibliotheque/2004-5/evaluation-des-programmes-publics-l-experience-quebecoise.html?item_id=2560
© Constructif
Imprimer Envoyer par mail Réagir à l'article