Avertir le modérateur

historique

  • Pin it!

    Conclusion sur les "Ateliers Citoyens" et devoir de mémoire : la participation citoyenne à Strasbourg ...

    Imprimer

    Restitution de mémoire

    22/06/2017

    Commentaires de la présentation

    1

    La participation citoyenne à Strasbourg est riche d’expériences variées.

    Elle suscite de nombreuses interrogations, et génère une certaine frustration de toute part : tout le monde aimerait que « ça marche », nombreux-ses sont celles et ceux qui pensent que « ça ne marche pas ». Mais surtout, rare sont celles et ceux qui s’accordent sur le sens des termes « ça marche » et « ça ne marche pas ».

    Mon premier constat est la très haute complexité, à la fois de la participation citoyenne, sujet éminemment humain, et de l’évaluation, sujet très vaste. Et un sujet très complexe demande à être abordé avec précaution et humilité.

    Je suis allé chercher sur le terrain, à travers huit entretiens, l’observation de quelques séances de conseil de quartier, la recherche de pratiques d’autres villes. J’ai exploré aussi le champ théorique, en puisant des références dans les domaines de la formation professionnelle, de l’école et des politiques publiques.

    2

    I – Propositions de définitions :

    présentation rapide du dispositif institutionnel actuel, puis présentation de ce que j’entends derrière « évaluation ». Enfin, une façon de préciser la question que je pense pertinente.

    II – Présentation d’une démarche en six étapes que je vous propose de mettre en œuvre à Strasbourg.

    III – Des considérations transversales, à mon sens fondamentales pour la réussite de toute démarche d’évaluation.

    3

    Ce schéma présente les dispositifs institutionnalisés par la ville et l’Eurométropole de Strasbourg.

    -> 5 agents-es ont en charge la coordination des conseils citoyens, des conseils de quartier, du conseil des résidents étrangers et du sommet citoyen. La « mission participation citoyenne » participe également, dans la mesure de ses disponibilités restantes en marge de ces activités, à la diffusion d’une culture de la participation et de méthodes au sein des services de l’administration.

    -> D’autres services lancent des démarches de participation citoyenne, de façon indépendante, et avec des méthodes qui leurs sont propres. On peut citer par exemple le conseil des jeunes, porté par le service jeunesse, les parcs naturels urbains, au développement durable, les concertations au sein des quartiers sur des projets d’aménagements précis, portés par les adjoints de quartier, le service des projets urbains ou les directions de territoire.

    2/6

    4

    Je propose de retenir une définition générale de ce qu’on entend par « évaluer » :

    Mesurer l’écart entre un référent, ou ce qu’on considère comme idéal, et un référé, ou ce qu’on observe, et émettre un jugement sur cet écart.

    Avec une telle définition, « l’évaluation de comptoir », les jugements à l’emporte-pièce ou au « doigt mouillé », exprimés ou non, sont des formes d’évaluation :

    Chacun-e a un référent en tête, aux contours plus ou moins flou, qui correspond à ses attentes vis-à-vis du dispositif, et chacun-e observe le référé, et la perception qu’il ou elle en aura s’alimentera des discussions qu’elle aura avec les uns-es et les autres, et sera immanquablement différente de toutes les autres perceptions.

    5

    Il y aura donc autant de jugements que de personnes qui évaluent de façon informelle. Ce type d’évaluation est mené en permanence dans la tête de chacun-e, c’est inévitable et tout à fait naturel, et je pense qu’il ne faut pas l’ignorer. Il faut simplement être vigilant sur la place et l’importance qu’on lui donne, y compris pour chacun-e de nous concernant nos propres jugements en tant qu’individu, quel que soit notre statut.

    Le fait de formaliser l’évaluation, de prendre le temps de la structurer et de la légitimer, permet d’aller au-delà : grâce à la construction progressive d’un consensus, grâce à une prise de recul réelle.

    6

    Comme je le disais en introduction, le champ de l’évaluation est très vaste, celui de la participation aussi. C’est pourquoi je propose de catégoriser. Je propose pour cela l’image des étiquettes, qui précise ce qu’on veut faire en évaluant, un peu comme les adjectifs précisent le sens d’un nom. On peut par exemple qualifier notre évaluation selon la finalité qu’on lui donne (professionnelle, démocratique, gestionnaire), selon sa place dans le temps vis-à-vis de l’objet évalué (diagnostique, formative, sommative), selon l’implication des citoyens-nes (participative, experte), selon les moyens qu’on y investit (informelle, spontanée, instituée)…

    Je suis allé chercher ces catégorisations dans différents domaines, les politiques publiques, l’école, la formation professionnelle, j’en ai transformé certaines pour les adapter plus finement à la participation citoyenne. Il en existe certainement beaucoup d’autres également pertinentes.

    Il n’y a pas une façon unique d’utiliser ces catégorisations. L’idée générale à retenir, c’est qu’il est important de préciser le besoin, le périmètre et les moyens pour être sûr que l’évaluation réponde à la demande, soit adaptée et réalisable.

    3/6

    7

    Mon travail ma mené vers l’élaboration d’une démarche en six étapes.

    Ces étapes sont ordonnées dans le temps et ponctuées de « points de diffusion », moments privilégiés pour communiquer sur l’avancée des travaux. La démarche peut être assez lourde en termes de mise en œuvre. Chaque étape me parait fondamentale pour mener à bien une

    « grande évaluation », une évaluation importante par le temps passé, son ampleur et l’ampleur des enjeux associés en termes de changements espérés.

    Il est bien sûr possible de mener des évaluations moins ambitieuses. Dans ce cas, ma proposition serait d’analyser dans le contexte et en fonction du besoin les biais induits par le fait de sauter ou simplifier une étape, afin d’en tenir compte dans l’interprétation des résultats. Mieux vaut assumer une faiblesse ou un raccourci dans une évaluation que l’ignorer.

    Cette démarche en six étapes a été élaborée à partir de sources principalement théoriques et selon mon expérience personnelle en gestion de projet : elle demande à être confrontée à la réalité du terrain que vous connaissez mieux que moi. Il ne faut donc pas la considérer comme un modèle figé à suivre à la lettre, et s’autoriser à la modifier pour l’améliorer.

    8

    Dans le cadre de la participation citoyenne, il me parait fondamental de co-construire l’évaluation, en constituant un groupe mixte (élus-es, habitants-es, agents-es et tous les partenaires impliqués) qui travaillera à son élaboration, de façon à construire un consensus sur les objectifs, moyens, méthodes et résultats qu’on attribue à l’évaluation. Ceci dans un souci premier d’efficacité, parce que la confrontation des points de vues ne peut que déboucher sur une vision plus globale et plus juste.

    Attention : les personnes impliquées dans l’évaluation ne le sont pas en tant que « porteuses de revendications de leur parti », mais en tant que « disposant d’un champ de connaissances et de compétences ». Il est utile, je pense, de rappeler cette posture particulière à tous les membres du groupe, de façon à éviter tout malentendu.

    Il convient à la fin de cette étape de diffuser largement la composition du groupe évaluateur, de façon à ce que chaque partie prenante sache à qui s’adresser si elle veut verser un élément au processus.

    9

    J’ai appelé la deuxième étape « définition de la commande ».

    Elle part de la demande initiale, portée par la ou les personnes ayant initié le processus et constitué le groupe évaluateur, et elle aboutit à une programmation précise, temporelle et logistique, de l’évaluation.

    Il s’agit tout à la fois de se poser les bonnes questions et d’y répondre, en prenant garde de ne pas encore rentrer dans l’évaluation en tant que telle. Il ne s’agit pas encore d’évaluer, mais bien de concevoir l’évaluation qui sera menée ensuite.

    Cette phase sera d’autant plus longue et riche, que les personnes du groupe seront d’horizons divers. Le travail « d’acculturation » sera assez complexe à opérer, et il est fortement conseillé de s’aider d’une facilitation par un professionnel dans un premier temps, pour gagner en temps et sérénité.

    Il convient de plus de diffuser les résultats de ces travaux, ainsi l’évaluation se fera en toute transparence, tant sur le calendrier que les méthodes choisies.

    4/6

    10

    Si la définition de la commande est bonne, la suite coule de source. En premier lieu, construire le référent, ou ce qu’on considère comme la situation idéale, celle qu’on aimerait atteindre, pour chacun des éléments à évaluer. On aboutit à une série de critères d’évaluation. Des grilles d’évaluation existent, qui peuvent aider à opérer cette phase et la suivante.

    11

    Puis, par des moyens adaptés à chaque élément évalué, on recueille les données permettant d’avoir l’image la plus fidèle possible de la réalité.

    Cette phase et la précédente ne doivent pas forcément donner lieu à des réunions plénières du groupe évaluateur. Il s’agit de la mise en œuvre technique, avec peu de marge d’interprétation. On peut très bien affecter un agent à cette mission, agent qui élaborera les éventuels questionnaires, mènera les entretiens, recueillera la documentation, formalisera les résultats, etc…

    12

    Enfin, vient l’acte d’évaluation en tant que tel : l’interprétation des résultats, l’émission de jugements de valeur, jugements basés sur les différences observées entre référent et référé. C’est à ce moment-là qu’on essaie de découvrir les freins qui empêchent le référé de tendre vers le référent.

    Cette phase est sans doute la plus sensible, et demande à se retrouver et à prendre le temps des échanges. Les interprétations seront sans doute très différentes selon le point de vue des personnes, et il s’agira de tendre le plus possible vers un consensus, au moins un partage des enseignements à tirer de l’évaluation.

    La diffusion finale devra rendre compte le plus fidèlement possible de la réflexion menée, et reprendre les arguments qui ont amené aux conclusions formulées. Dans l’idéal, une restitution à plusieurs voix à toutes les parties prenantes simultanément sera faite, de façon à rassurer sur le fait que la démarche était bien co-construite et que les décisions prises sont bien légitimes et utiles.

    13

    Une fois l’interprétation partagée au sein du groupe évaluateur et avec le public, il faut en faire quelque chose. La dernière étape est donc l’élaboration du plan d’action, la programmation des actions à réaliser pour permettre à l’objet évalué de s’améliorer, de tendre vers le référent.

    Il est possible d’élaborer le plan d’action avant la diffusion finale, de façon à pouvoir communiquer dessus en même temps que la présentation des résultats. Mais c’est intéressant de faire ainsi uniquement s’il y a intérêt, pour une bonne mise en œuvre des changements, d’impliquer toutes les parties prenantes. Dans le cas contraire, il est plus confortable de partager les conclusions de l’évaluation avant la mise en œuvre du plan d’action, de façon à pouvoir tenir compte, pour ce plan d’action, d’éventuelles contributions apportées au moment de la présentation finale.

    5/6

    14

    Rappel du rôle de chaque étape :

    1 – Permettre de couvrir tous les champs de connaissances, et assurer l’adhésion de tous-tes à la démarche

    2 – Permettre « l’acculturation » du groupe, trouver un consensus sur les objectifs et méthodes d’évaluation, définir un programme de travail 3 – Élaborer le modèle de référence (critères d’évaluation)

    4 – Observer la réalité (Recueil des données)

    5 – Émettre les jugements de valeurs, procéder à l’évaluation en tant que telle

    6 – Programmer les changements induits par l’évaluation

    15

    Je fais un petit détour sur le statut du chiffre. De nombreux auteurs nous avertissent sur les risques quant à leur utilisation dans le cadre de l’évaluation.

    « Le chiffre possède une force de conviction qui désarme toute critique », nous dit Albert Ogien (dans son livre Désacraliser le chiffre dans l’évaluation du secteur public. Versailles : Quæ, 2013). Il est très fréquent, en matière d’évaluation, qu’on justifie des considérations qualitatives en s’appuyant sur des chiffres, par nature exclusivement quantitatifs.

    Se concentrer sur le quantitatif permet de tirer rapidement des conclusions. On obtient une excellente efficience, on ne mobilise que peu de personne et des techniques éprouvées (questionnaires, camemberts…). Mais l’efficacité de la démarche n’est qu’apparente, parce qu’on passe à côté de nombreux éléments essentiels à la bonne compréhension de l’objet évalué.

    Par exemple, un faible taux de participation à un atelier ou une instance, ne nous apprend rien d’autre que ceci : « il y avait moins de monde que prévu ».

    Si on veut aller plus loin, une enquête qualitative est nécessaire : est-ce dû à un désintérêt pour la démarche ? À des attentes non comblées ? À des horaires inadaptés ? Un savant mélange de tout ça, et d’autres facteurs dont nous n’avons pas idée ?

    Dans notre contexte, la participation citoyenne, la quantification n’apporte finalement que peu de chose, et les risques de surinterprétation qu’elle sous-tend sont importants. Je conseillerai donc de ne pas chercher à tout quantifier, de privilégier une analyse réfléchie à l’aide du dialogue et de la confrontation de points de vue plutôt que des tentatives d’objectivation passant par la quantification, qui peuvent être source de simplifications maladroites, et peuvent mener à prendre de mauvaises décisions.

    6/6

    16

    Pour finir, je propose une série de mots clefs qui définissent les postures individuelles adéquates à un processus d’évaluation participative efficace et serein.

    -> Le partage, notamment de toutes les informations. L’idée est que chaque personne place au milieu de la table, à la disposition de tout le monde, tous les éléments pouvant servir à la réflexion collective. Le corolaire est d’accepter les informations amenées par les autres comme importantes, si la personne qui les amène les considère ainsi. Plutôt que de minimiser l’importance d’un élément, il s’agit donc de comprendre pourquoi telle personne pense que c’est important. C’est donc une exigence de transparence et d’ouverture que chacun-e doit se donner. Attention également aux rappels de confidentialité à faire auprès du groupe évaluateur le cas échéant.

    -> Le détachement, entendu comme une prise de recul. Éviter de se culpabiliser et de culpabiliser les autres, rester bienveillant en toute situation. L’évaluation porte sur un objet, et non sur des personnes, ce ne sont pas des évaluations destinées à sanctionner. Le détachement veut également dire, ne pas chercher la perfection, accepter d’évaluer partiellement, de ne pas aller toujours au bout ce qu’il est possible d’atteindre. Ne pas oublier de regarder « ce qui marche » quand on analyse « ce qui ne marche pas ». En quelque sorte, le détachement permet de conserver une forme d’optimisme.

    -> La patience, car l’envie d’aller plus vite entraine inévitablement des simplifications. C’est un équilibre subtil à trouver entre rapidité, pour ne pas s’étendre des mois et des mois sur l’évaluation, et prendre le temps d’assumer la complexité, afin d’éviter les raccourcis qui mènent aux erreurs d’interprétation. La patience renvoie également au temps que prendra le fait d’accorder les différentes subjectivités, inévitables sur ces sujets.

    -> Ces trois grands thèmes sont à la fois les causes et conséquences de la confiance :

    confiance en soi-même et en les autres, et confiance dans l’intelligence collective, qui peut aller beaucoup plus loin qu’une somme des intelligences de chacun-e quand on parvient à la construire.

Toute l'info avec 20minutes.fr, l'actualité en temps réel Toute l'info avec 20minutes.fr : l'actualité en temps réel | tout le sport : analyses, résultats et matchs en direct
high-tech | arts & stars : toute l'actu people | l'actu en images | La une des lecteurs : votre blog fait l'actu