ARCHEOFOUILLE

Forum d'échange autour de l'archéologie


    De l'évaluation des chercheurs ...

    Partagez
    avatar
    Caillasse
    prend racine
    prend racine

    Nombre de messages : 486
    Age : 35
    Localisation : Tours
    Date d'inscription : 18/01/2008

    De l'évaluation des chercheurs ...

    Message par Caillasse le Mar 7 Oct - 9:20

    Dispo ici :
    http://sciences.blogs.liberation.fr/home/2008/10/ubu-sinvite-au.html

    Ubu s'invite au Cnrs pour évaluer les chercheurs


    Sylvestre Huet, journaliste à Libération

    Lors de l'université d'automne de Sauvons la recherche,
    ce week-end, un sigle avait la cote dans les conversations des
    pauses-café : DPa. Pour Direction des partenariats du Cnrs, dirigée par
    Maurice Gross.

    Cette direction a lancé une gigantesque opération d'évaluation des
    chercheurs qui prend la forme d'un document Excel où la bibliométrie
    est élevée au rang d'art ubuesque, en relation avec l'exercice de classement des revues scientifiques.

    Si l'évaluation des recherches, des laboratoires,
    des chercheurs fait évidemment partie d'une bonne gestion d'un système
    scientifique public, encore faut-il que les outils utilisés
    correspondent à autre chose qu'une compilation imbécile. Une problématique résumée ainsi par un mathématicien familier des pièges de la statistique : "Aucun travail statistique ne transformera des données inadéquates ou incorrectes
    en indicateur pertinent."

    Surtout, elle doit avoir un objectif avouable : par exemple maximiser
    l'effort de recherche public. Or, il semble bien que l'énorme machine
    bureaucratique mise en branle par la direction du Cnrs ait en réalité
    un autre objectif, de court terme, directement sous pilotage politique
    et budgétaire : il faut trouver un moyen de classer les labos entre
    "stratégiques" et "non stratégiques", ainsi que les chercheurs eux
    mêmes, afin de justifier une vague de "désumérisation" des unités de
    recherche et un repli du Cnrs sur un nombre de laboratoires moindre...
    en relation avec ses ressources.

    Déjà, les présidents des conseils scientifiques des départements du Cnrs se sont émus
    de cette tentation bureaucratique, empiétant sur le rôle du Comité
    national.
    voici leur texte :

    Les présidents de Conseils Scientifiques de Département du CNRS ont rédigé le communiqué suivant, concernant les dérives bibliométriques :

    Les présidents, soussignés, des Conseils Scientifiques de Département du CNRS souhaitent faire part de leur extrême préoccupation quant aux dérives constatées dans le traitement de données bibliométriques, en particulier par la Direction des Partenariats du CNRS (DPa) consécutivement au contenu et au traitement de la fiche dite "UR 3 CNRS".

    Ils constatent en particulier qu'une évaluation des chercheurs et enseignants-chercheurs (classement A,B,C) se met en place, fondée sur un traitement des données bibliométriques. Ceci est en contradiction avec le fonctionnement de l'évaluation des chercheurs au CNRS, réinscrit dans le Plan Stratégique de l'organisme, qui assigne au comité national cette tâche.

    Ils souhaitent vivement que s'instaure enfin un fonctionnement interne de l'organisme où ce sont les directions scientifiques, instruites par le travail du comité national, qui informent la DPa de la qualité scientifiques des unités, et pas l'inverse, afin que cette dernière instruise au mieux les relations entre le CNRS et ses partenaires

    Ils demandent solennellement que soit suspendue la diffusion et le traitement de la fiche "UR 3 CNRS", qu'un audit des activités de la DPa en matière d'évaluation soit mené, et qu'à l'avenir les documents traitant de l'évaluation scientifique à partir de données bibliométriques soient soumis pour avis au comité national, par exemple au C3N qui regroupe le bureau du CS, de la CPCN et les présidents des CSD.

    Signataires :
    J-C Auffray (EDD), G. Baldacci (SDV), J-C Beloeil (Chimie), J. Dumarchez (PNPP), C. Jeandel (PU), R. Mosseri (MPPU), P. Régnier (SHS), Y. Segui (ST2I)

    La riposte à cette initiative de la direction du Cnrs s'organise. Des chercheurs appellent carrément à un boycott, proposant aux scientifiques de renvoyer en blanc le questionnaire de la DPa.
    Le SNCS FSU a également décidé d'appeler à ce boycott de l'évaluation bibliométrique.

    voici une liste non exhaustives des "indicateurs" demandés aux chercheurs :


    3 - Nombre d’articles réf Web of Science sur 2004-2007

    4 - Nombre total d’articles réf. Web of Science, Npa

    6 - Nombre total de citations Nc,totb

    7 - Nombre total de citations hors autocitations

    8 - Nombre de citations par articles Nc,tot/Npd

    10 - Facteur h

    11 - Facteur h relatif, h/Npf

    12 - Facteur d’impact max. de la discipline

    13 - Facteur d’impact moyen de la discipline

    14 - Facteur d’impact max. pour le chercheur

    15 - Facteur d’impact moyen pour le chercheur

    il est a noter que l'inventeur du "facteur h" (un ratio articles
    publiés, citations) a déclaré qu'il ne fallait pas l'utiliser pour ce
    genre d'évaluation.

    Ici, une analyse critique de l'usage de la bibliométrie en sciences humaines et sociales.

    Ici une autre analyse de la "fièvre bibliométrique" vue du Canada.
    avatar
    emilie
    O respectueux archéologue!
    O respectueux archéologue!

    Nombre de messages : 953
    Age : 33
    Localisation : Tours
    Date d'inscription : 21/11/2006

    Re: De l'évaluation des chercheurs ...

    Message par emilie le Mar 7 Oct - 17:09

    Caillasse a écrit:

    3 - Nombre d’articles réf Web of Science sur 2004-2007
    4 - Nombre total d’articles réf. Web of Science, Npa
    6 - Nombre total de citations Nc,totb
    7 - Nombre total de citations hors autocitations
    8 - Nombre de citations par articles Nc,tot/Npd
    10 - Facteur h


    Comme il a été justement souligné en conseil d'équipe au LAT la semaine dernière, concernant les citations, c'est vraiment absurde puisqu'il suffit d'écrire une énorme bourde ou un truc ultra polémique genre négationiste pour être cité par énormément d'articles! confused
    Quant à web of science je ne suis pas sûre qu'il traite des revues et ouvrages en français. Le facteur H quant à lui, je n'ai pas trop compris ce que c'était mais ça me semble bien vague.
    Il faut savoir que cette pratique de bibliométrie à de graves conséquences. En effet, si un chercheur est considéré comme mauvais publiant c'est non seulement lui mais toute son équipe (ou UMR) qui est sanctionnée par une diminution de crédits de recherche par exemple ! silent
    En fait d'un bon argument au départ : sont récompensés ceux qui publient leurs recherches et c'est normal, on parvient à une dérive ultra dangereuse. Si vous allez voir le post que le classement des revues, ne comptent que les publications de rang A : eh bien pour les chercheurs français en archéo c'est la misère si tu n'es pas médiéviste ou préhistorien (et encore !!!) Donc sans publi de rang A pas de bonne évaluation et avec leur système de bibliométrie essaie de te classer correctement ( Sad
    Tout ça au final pour pousser les gens vers la recherche de financements privés (qui s'en foutent eux d'une manière générale des publi scientifiques) ou vers une petite mort lente des recherches en sciences humaines.
    C'est pas très bon pour le moral ! No
    avatar
    Caillasse
    prend racine
    prend racine

    Nombre de messages : 486
    Age : 35
    Localisation : Tours
    Date d'inscription : 18/01/2008

    Re: De l'évaluation des chercheurs ...

    Message par Caillasse le Lun 20 Oct - 11:55

    Mail reçu le 20/10/2008
    ****************************************************

    Chers tous,

    Bien qu’il fût sensible à la contribution particulière de certains « hommes de vérité » au progrès scientifique, mon maître Jean Rostand considérait la science comme une entreprise collective, où chacun apporte sa « petite pierre » à un édifice que n’auraient pu construire seuls quelques « génies ».

    Ces dernières années, la communauté scientifique s’est laissée avec une grande passivité, sinon complaisance, séduire par les sirènes de la soi-disant « excellence », qui repose sur divers critères, instances et tribunaux d’« évaluation ». Il ne s’agit plus de savoir si les chercheurs contribuent efficacement à cette entreprise collective, mais de les « classer ». Les multiples commissions et instances d’« évaluation » et de classement de dossiers et de candidats auxquelles nous sommes tous amenés, de gré ou de force, à participer, ressemblent de plus en plus à des jurys de jeux télévisés, et nos classements à des palmarès sportifs, des hits parades, des prix littéraires ou des pages du Guinness Book of Records. Les CVs, rapports et dossiers de candidature que nous recevons en permanence sont de plus en plus truffés de superlatifs. Sous peine de déchoir, un chercheur digne de ce nom, de nos jours, est tenu d’étudier ce qui dans son domaine est « le plus gros », « le plus ancien », « le plus rare », « le plus menacé », ou pourquoi pas « le plus jaune » : il est très instructif à cet égard d’être attentif dans ces dossiers à de telles affirmations selon lesquelles un chercheur ou une équipe est « le premier » ou « la première », « le seul » ou « la seule » à avoir étudié, trouvé, résolu un problème, une question. Celui qui oserait écrire qu’il a simplement contribué modestement à faire avancer la connaissance dans son domaine de recherche signerait son arrêt de mort institutionnel.

    Dans leur charmant petit livre Voulez-vous être évalué ?, Jacques-Alain Miller et Jean-Jacques Milner ont bien analysé la nature perverse de l’évaluation. D’autres voix se sont exprimées dans ce sens, comme Patrice Maniglier dans sa tribune libre dans Le Monde du 29 juin 2007, ou Peter A. Lawrence dans son excellent article "The mismeasurement of science" (Current Biology, 2007, 17: R583-R585). Comme l’ont souligné depuis longtemps Albert Jacquard et bien d’autres, classer c’est hiérarchiser, humilier et exclure. La culture du classement est une culture du secret et de l’exclusion, qui s’oppose à une culture de communication et de collaboration qui devrait prévaloir au sein de la communauté scientifique. Il n’est pas très difficile de voir ce qui se joue derrière les formules ampoulées sur l’« excellence » : ce sont les réductions de postes, de crédits et de locaux, les économies budgétaires et la précarisation des métiers de chercheur et d’enseignant-chercheur. La crise économique et sociale de notre société mondialisée s’accroît d’année en année, de jour en jour. Dans toutes les instances d’« évaluation » de la recherche qui se sont multipliées, il ne s’agit plus seulement, comme dans les décennies qui ont précédé, d’associer les chercheurs et les enseignants à la « gestion de la pénurie », il faut les associer à la destruction progressive de leur propre communauté professionnelle, pour en faire de plus en plus, comme dans d’autres domaines de notre société, de dociles employés précaires et jetables comme des kleenex.

    Dans ce contexte, je salue le lancement récent, par des collègues de disciplines « littéraires », d'une pétition contre l’évaluation « scientométrique » de la recherche. J’y vois une première réaction collective de résistance à l’« évaluationnite » actuelle. Sans toutefois condamner l’évaluation « en soi », elle formule l’exigence fort justifiée mais actuellement totalement irréaliste, étant donné le nombre de dossiers « évalués » chaque année, que toute évaluation passe « par une lecture effective et éclairée des travaux concernés » : cette simple demande condamne l’évaluation telle qu’elle est pratiquée actuellement par la plupart des rapporteurs et dans la plupart des instances.

    Vous pouvez télécharger et signer en ligne cette pétition sur: http://www.appelrevues.org.

    Il semblerait qu'elle doive être remise à l'AERES mardi prochain.

    Je me réjouirais pour ma part de voir les membres de la communauté scientifique la signer massivement.

    Alain Dubois
    Professeur
    Muséum national d’Histoire naturelle
    avatar
    Caillasse
    prend racine
    prend racine

    Nombre de messages : 486
    Age : 35
    Localisation : Tours
    Date d'inscription : 18/01/2008

    Re: De l'évaluation des chercheurs ...

    Message par Caillasse le Mer 22 Oct - 23:10

    Mail reçu le 23/10/2008
    *******************************************

    Chères et chers collègues,

    Vous avez été nombreux à bien vouloir signer l'Appel des Revues et nous vous en remercions.
    Cet appel a d'ores et déjà eu quelques effets :
    — Jean-François Dhainaut, président de l'AERES, a fait un certain nombre de déclarations, rapportées dans une dépêche de l'Agence Education-Formation n° 102848 du 14 octobre à 10 h 08 : http://fr.groups.yahoo.com/group/parislinguists/message/2138
    — Patrice Bourdelais, coordinateur SHS pour l'AERES, a publié un communiqué apaisant : http://www.fabula.org/actualites/article26263.php
    Ces réactions ne correspondent pas à ce que nous demandions : nous demandions et demandons toujours un retrait complet et définitif, car c'est le principe même d'un tel classement et l'usage qu'entend en faire l'AERES que nous contestons. Nous récusons sa conception quantitative de l'évaluation.
    Pour nous faire entendre, nous commencerons par nous rendre le mardi 28 octobre en début d'après-midi au siège de l'AERES. Nous remettrons alors l'Appel et la liste des signataires au Comité directeur de l'Agence. Merci de nous aider à faire le plein de signatures d'ici là : n'hésitez pas à faire signer l'Appel autour de vous. Pour ceux qui voudraient se joindre à la démarche, nous nous retrouverons à 14h45, place de la Bourse.
    Par ailleurs, nous avons le plaisir de vous annoncer qu'un site d'information et de discussion sur l'évaluation et la bibliométrie a été ouvert à l'adresse suivante : http://evaluation.hypotheses.org

    Bien cordialement à tous,

    Laurence Giavarini (Université de Bourgogne, porte-parole de SLU), David Lefebvre (Paris IV), Sylvain Piron (EHESS), Sophie Roux (Grenoble II-IUF).

    ******************************************************

    Allez jeter un coup d'œil sur les articles sur evaluation.hypotheses.org, notamment sur le premier de la liste :
    Olivier Boulnois. Entre rires et larmes. L’évaluation automatisée en sciences humaines.
    Bonne lecture Wink

    Contenu sponsorisé

    Re: De l'évaluation des chercheurs ...

    Message par Contenu sponsorisé


      La date/heure actuelle est Dim 22 Oct - 4:27