Les instruments et les dispositifs d’évaluation des pratiques professionnelles et leurs effets
8ème Colloque du gEvAPP - du 31 janvier au 2 février 2024
Université Libre de Bruxelles en collaboration avec l’Université de Namur
Comme tout processus d’évaluation, l’évaluation des pratiques professionnelles soulève des enjeux identitaires, économiques, culturels et idéologiques. En effet, cette démarche est souvent associée aux questions de performance, d’efficacité et de compétence. Pourtant, évaluer les pratiques professionnelles peut aussi contribuer à l’identification de pratiques jusque-là inconnues voire même inattendues, à la compréhension (de l’évolution) des conditions de travail au sein d’une profession ou encore à l’appréhension des codes implicites ou explicites qui régissent le quotidien des professionnels. Par ailleurs, on ne peut exclure que la démarche d’évaluation des pratiques professionnelles puisse en elle-même produire des effets sur les pratiques professionnelles. En effet, qui peut véritablement prétendre ne pas être influencé dans l’exercice de son travail ou dans la manière de le présenter lorsqu’il peut imaginer que ces informations pourraient avoir une incidence sur son travail ? De même, la démarche d’évaluation ne peut-elle pas être détournée par les professionnels qui la conduisent ou par ceux qui la vivent pour lui faire porter des enjeux qui ne lui avaient initialement pas été assignés ? Enfin, les instruments (Rabardel, 1995) et dispositifs (Foucault, 1994) d’évaluation ne peuvent-ils pas aussi être influencés par les contextes dans lesquels ils sont déployés ? Autrement dit, outre les finalités (et leurs détournements) des instruments et des dispositifs d’évaluation des pratiques professionnelles (IDEPP), nous posons ici deux questions : quelles influences les acteurs de l’évaluation des pratiques professionnelles exercent-ils sur les instruments et les dispositifs d’évaluation de ces pratiques ? En quoi les usages et les contextes d’usages infléchissent-ils le déploiement des instruments et des dispositifs d’évaluation des pratiques professionnelles ?
Les communications attendues dans le cadre du 8ème colloque international du gEvaPP s’inscriront dans un des trois axes définis ci-dessous. Elles traiteront des questions relatives aux instruments et aux dispositifs d’évaluation des pratiques professionnelles dans le cadre de la formation initiale ou continue et ce, dans le champ de l’éducation et de la formation ou dans d’autres secteurs.
Axe 1 : Acteurs des instruments et dispositifs d’évaluation des pratiques professionnelles (IDEPP) et leurs relations mutuelles
Cet axe a pour objectif d’interroger les profils des acteurs des IDEPP, leurs expertises et leurs relations mutuelles sur les IDEPP. A priori, nous identifions trois types d’acteurs des IDEPP :
- les concepteurs des IDEPP, c’est-à-dire les personnes qui imaginent et construisent des IDEPP ;
- les usagers des IDEPP, ou les personnes qui s’emparent d’IDEPP existants pour évaluer les pratiques professionnelles ;
- les sujets des IDEPP, soit les personnes dont les pratiques professionnelles sont évaluées.
Les communications exploreront des questions telles que : qui sont les concepteurs, les usagers et les sujets des IDEPP ? Quelles relations entretiennent-ils ? Sont-elles asymétriques ou symétriques ? Quel est leur degré d’expertise dans la construction des IDEPP ou des pratiques professionnelles évaluées ? Comment y contribuent-ils ? A partir de leur positionnement institutionnel ou sociétal ? A partir de leur champ d’expertise ? Ces trois acteurs sont-ils toujours indépendants ou peut-on observer des chevauchements entre les concepteurs, usagers et sujets des IDEPP ? Quels effets le profil et/ou le statut des acteurs de IEDPP produit-il sur l’évaluation des pratiques professionnelles ?
Axe 2 : Élaboration et fonctions des IDEPP
Cet axe propose d’interroger le processus d’élaboration, les fonctions des IDEPP ainsi que leurs rapports mutuels. Selon nous, l’élaboration des IDEPP repose sur un double processus : d’une part l’identification de référents qui permettent et structurent la comparaison des pratiques professionnelles en contexte et des pratiques professionnelles attendues et, d’autre part, la construction en tant que telle des IDEPP. Concernant le processus d’élaboration, les communications s’attèleront à l’analyse de questionnements comme : à partir de quel référents les pratiques professionnelles sont-elles évaluées ? En quoi ces référents influencent-ils l’élaboration, la nature et le format des IDEPP ? Comment ces référents agissent-ils de manière explicite ou non sur l’activité et l’identité des professionnels ? Ou encore : en quoi ces IDEPP sont-ils porteurs d’enjeux économiques, sociaux ou de normes (Lascoumes & Le Galès, 2005 ; Maugeri, 2001) ? Quels sont les bricolages et les incertitudes qui traversent les espaces de production des IDEPP ?
Selon les paradigmes, diverses catégorisations des fonctions de l’évaluation co-existent (De Ketele, 2010 ; Gilbert & Yalenios, 2020 ; Morand, 1999 ; Rabardel, 1995). À titre d’exemple, Rabardel (1995) propose trois fonctions aux instruments (et par extension aux dispositifs) d’évaluation : heuristique quand il s’agit d’orienter et de contrôler son activité ou l’activité d’autrui ; épistémique lorsque l’évaluation vise à obtenir des informations, autrement inaccessibles, facilitant la compréhension de l’instrument lui-même ou encore pragmatique si l’évaluation vise à transformer une situation et à obtenir des résultats. Outre un débat sur les diverses catégorisations des fonctions des IDEPP et les paradigmes qui les sous-tendent, les communications peuvent également explorer la possibilité qu’il existe des écarts entre les fonctions des IDEPP prévues par leurs concepteurs et l’usage réel qu’en font leurs utilisateurs ou encore qu’un IDEPP puisse répondre à la fois à des fonctions déclarées dans les discours et à des fonctions implicites, non déclarées, voire cachées.
Axe 3 : Usages et usages en contexte des IDEPP
Les usages des IDEPP peuvent aboutir à diverses opérations en fonction de la nature des IDEPP et des enjeux spécifiques à la situation d’évaluation. Parmi ces opérations, on peut pointer la comparaison susceptible de produire des classements mais aussi les opérations d’inclusion, d’intersection, de disjonction produisant des typologies. Une autre famille d’opérations relève de l’exercice de situer un élément par rapport à d’autres éléments comme c’est le cas dans l’utilisation de modèles. La troisième famille d’opérations à laquelle nous pensons est celle de l’analyse. Il s’agit alors de décomposer les ingrédients présents dans la pratique professionnelle et de les relier en fonction de règles existantes de métiers (Clot & Faïta, 2000), produites par les professionnels eux-mêmes ou par des prescripteurs institutionnels, académiques voire scientifiques. Ces différents usages des IDEPP produisent-ils des effets spécifiques sur l’activité des personnes et sur leur rapport au métier, à la profession, à leurs pairs, à leurs hiérarchies ?
En retour, on peut également s’interroger sur les effets des contextes sur les instruments et les dispositifs en eux-mêmes. En effet, si l’on se réfère à la notion d’espace d’activité (Barbier, 2011; Pham Quang, 2017) en tant que construction sociale qui correspond à un lieu de transformation du monde, défini par des codes obéissant à des logiques culturelles, obligatoirement située dans un temps et dans un espace défini, investi subjectivement par les acteurs en fonction des produits anticipés de l’activité d’une part et de la fonction, de la posture et du projet de chacun, d’autre part, on peut difficilement concevoir que les IDEPP ne soient pas influencés par les contextes dans lesquels ils sont déployés. Ainsi, les communications qui s’inscrivent dans cet axe pourront non seulement interroger les effets des usages des IDEPP mais aussi la manière dont les espaces d’activité configurent la nature et le format des instruments et des dispositifs de l’évaluation des pratiques professionnelles.
Bibliographie indicative
Barbier, J.-M. (2011). Vocabulaire d'analyse des activités. PUF.
Clot, Y. & Faïta, D. (2000). Genres et styles en analyse du travail. Concepts et méthodes. Travailler, 4, 4-42.
De Ketele, J.-M. (2010). Ne pas se tromper d’évaluation. Revue française de linguistique appliquée, XV(1), 25‑37.
Foucault, M. (1994). Dits et écrits, tome II. Gallimard.
Gilbert, P. & Yalenios, J. (2020). Pourquoi conserver un outil de gestion inapproprié ? Des fonctions implicites de l’évaluation individuelle de la performance. RIMHE : Revue Interdisciplinaire Management, Homme & Entreprise, 41,9, 77-92. https://doi.org/10.3917/rimhe.041.0077
Lascoumes, P., & Le Galès, P. (2005). Introduction : L'action publique saisie par ses instruments. In Gouverner par les instruments (pp. 11-44). Presses de Sciences Po. https://doi.org/10.3917/scpo.lasco.2005.01.0011
Morand, C.-A. (1999). Formes et fonctions de l’évaluation législative. Leges, 2, 79-104. https://leges.weblaw.ch/it/dam/publicationsystem_leges/1999/2/LeGes_1999_2_79-104.pdf
Pham Quang, L. (2017). Émotions et apprentissages. L'Harmattan.
Rabardel, P. (1995). Les hommes et les technologies. Une approche cognitive des instruments contemporains. Armand Colin.